Retour à la table des matières
Revue Droits et libertés, printemps / été 2022
Tim McSorley, coordonnateur national, Coalition pour la surveillance internationale des libertés civiles (CSILC)
Au cours des deux dernières décennies, nous en sommes venu-e-s à dépendre des plateformes en ligne pour des besoins de base, la communication, l’éducation et le divertissement. En ligne, nous voyons le bon – l’accès à des informations autrement difficiles à trouver, la communication avec des êtres chers – et le mauvais. Le mauvais englobe souvent des méfaits que nous connaissons bien, notamment les discours haineux, le racisme, la misogynie, l’homophobie, la transphobie, l’exploitation sexuelle de mineurs, l’intimidation et l’incitation à la violence, avec de nouvelles formes de harcèlement et d’abus qui peuvent se produire à une échelle beaucoup plus grande, et avec de nouveaux moyens de diffuser des contenus préjudiciables et illégaux.
Plusieurs sites de médias sociaux se sont engagés à remédier à ces méfaits. Toutefois, les modèles commerciaux axés sur la rétention de l’engagement de l’utilisateur, peu importe le contenu se sont avérés être incapables d’y parvenir. Les chercheurs ont constaté que lorsque ces plateformes en ligne suppriment du contenu préjudiciable, ce sont souvent les communautés qui subissent du harcèlement qui subissent le plus de censure. Par ailleurs, des gouvernements à travers le monde ont utilisé le prétexte de la lutte contre le discours haineux et les méfaits en ligne pour censurer et réduire au silence des opposants, notamment des défenseurs des droits humains.
Le gouvernement canadien promettait depuis 2019 de s’attaquer à ce problème, en le situant explicitement dans le cadre de la lutte contre la haine en ligne. Fin juillet 2021, le gouvernement a finalement dévoilé son projet pour s’attaquer aux méfaits en ligne, en même temps qu’il amorçait une consultation publique. Le fait que la consultation ait lieu au cœur de l’été, avec une élection imminente à l’horizon, a immédiatement suscité des inquiétudes. Quand les élections ont été déclenchées quelques semaines plus tard, les tables rondes avec des représentant-e-s du gouvernement qui pouvaient répondre aux questions concernant le projet ont été annulées.
L’approche du gouvernement était mauvaise et le projet lui-même encore pire. Comme l’a décrit Daphne Keller, chercheuse en cyberpolitique, la proposition initiale du Canada était « comme une liste des pires idées dans le monde – celles que les groupes de défense des droits humains – combattent dans l’UE, en Inde, en Australie, à Singapour, en Indonésie et ailleurs ».
Les chercheurs ont constaté que lorsque ces plateformes en ligne suppriment du contenu préjudiciable, ce sont souvent les communautés qui subissent du harcèlement qui subissent le plus de censure.
Quels étaient certains de ces problèmes?
Tout d’abord, plusieurs groupes ont exprimé des inquiétudes sur la portée de la proposition qui tentait de créer un seul système pour traiter cinq types de méfaits très différents – le discours haineux, le partage non consensuel d’images intimes, le matériel d’abus sexuel d’enfant, le contenu incitant à la violence et le contenu terroriste – et qui nécessitaient des solutions distinctes et spécifiques. En effet, ce qui est efficace dans un cas peut être inutile, voire nuisible, dans un autre.
Ensuite, l’inclusion du contenu terroriste était problématique en soi. Depuis que le Canada s’est joint à la guerre contre le terrorisme en 2001, nous avons vu comment l’application des lois sur le terrorisme a mené à la violation de droits humains, en particulier parce que la définition de terrorisme peut être détournée à des fins politiques. Pourtant, on voulait demander à des entreprises de médias sociaux d’identifier le contenu terroriste et, sur cette base, de signaler ce contenu et ses utilisateurs-trices à la police. C’était la recette parfaite pour induire du profilage racial et politique, en particulier envers les musulman-e-s, les autochtones et d’autres groupes de personnes racisées, et la violation de leurs droits et libertés.
Troisièmement, le projet aurait créé un nouveau et vaste régime de surveillance, appliqué par les entreprises de médias sociaux. Ces entreprises seraient ainsi tenues de surveiller tout le contenu visible et publié sur leurs plateformes au Canada, de le filtrer pour détecter les méfaits et de prendre « toutes les mesures raisonnables » pour bloquer le contenu préjudiciable, même en utilisant des algorithmes automatisés. Les plateformes devraient aussi agir dans un délai de 24 heures contre tout contenu signalé par des personnes utilisatrices – un délai incroyablement court. Avec des pénalités pouvant atteindre des millions de dollars, les plateformes auraient été incitées à supprimer le contenu d’abord, quitte à en assumer les conséquences par la suite. Cela serait une incitation massive à la censure de contenus controversés, même légaux.
Comme quatrième problème identifié, notons celui des nouvelles règles qui obligeraient les plateformes à partager automatiquement des informations avec les forces de l’ordre et les agences de sécurité nationale, privatisant encore davantage la surveillance et la criminalisation des internautes. Cela signifiait non seulement que les plateformes décideraient quel contenu supprimer, mais aussi qui et quoi devrait être signalé à la police. Comme l’ont souligné plusieurs critiques, impliquer davantage la police et les agences de renseignement n’est pas une approche souhaitable quand il s’agit de traiter les préjudices causés à des groupes qui font déjà face à des niveaux de criminalisation plus élevés.
Pourtant, on voulait demander à des entreprises de médias sociaux d’identifier le contenu terroriste et, sur cette base, de signaler ce contenu et ses utilisateur-trice-s à la police. C’était la recette parfaite pour induire du profilage racial et politique […]
Le projet a aussi avancé l’argument ahurissant, qu’on devrait accorder au Service canadien du renseignement de sécurité (SCRS), sans justifications, une nouvelle forme de mandat qui simplifierait le processus pour obtenir les données de base sur les abonnés, ceci afin de faciliter les enquêtes sur les méfaits en ligne. Cela survient à un moment où des tribunaux ont critiqué le SCRS pour avoir enfreint des exigences de mandats plus strictes déjà en place.
Finalement, l’une des leçons claires tirées d’autres pays est la nécessité d’établir des règles rigoureuses en matière de transparence et de reddition de comptes, tant pour les plateformes que pour l’organisme responsable d’appliquer la réglementation sur les méfaits en ligne. Malheureusement, le projet du gouvernement canadien ne prévoyait pas de divulgations publiques significatives et comportait très peu d’exigences de transparence et de reddition de comptes.
Derniers développements
En février 2022, le ministère du Patrimoine a publié un rapport intitulé Ce que nous avons entendu, dans lequel il reconnaissait plusieurs des questions valables concernant l’approche du gouvernement. Il a annoncé un nouveau processus de consultation mené par un nouveau groupe consultatif d’expert-e-s pour examiner ces questions et formuler des recommandations sur ce que devrait être l’approche du gouvernement. Il est important de noter que le processus et les délibérations du groupe seront rendus publics.
Nous en sommes maintenant aux toutes premières étapes de ce processus. D’un côté, nous pouvons considérer qu’il s’agit d’une victoire : des groupes issus de secteurs très différents ont ensemble fait part de leurs préoccupations concernant un projet législatif vicié, et le gouvernement a accepté de le revoir. Cependant, une première lecture des documents d’orientation du nouveau projet envoie des messages contradictoires.
Le gouvernement semble concéder qu’un système basé principalement sur la suppression de contenu et sur une surveillance accrue est inacceptable. Les documents d’information mettent aussi davantage l’accent sur la protection de la liberté d’expression et de la vie privée.
En même temps, ces documents s’appuient explicitement sur un nouveau modèle britannique, présenté dans un projet de loi sur la sécurité en ligne et connu sous le nom de devoir de diligence. Bien que ce modèle soit basé sur l’idée que les plateformes doivent assumer la responsabilité de leurs actions, il a aussi été l’objet de vives critiques pour cibler lui aussi les contenus lawful but awful (légal mais ignoble). Par légal mais ignoble, on entend des contenus et des activités qui, bien que légaux, peuvent être considérés comme préjudiciables. Le problème est que les plateformes seraient non seulement tenues de déterminer si un contenu est illégal – ce qui peut déjà être difficile – mais aussi si un contenu légal doit être considéré comme préjudiciable. Ce flou pourrait conduire à une suppression et à une censure encore plus large de contenus.
Parallèlement à la nouvelle approche, l’idée de traiter les cinq mêmes méfaits dans le cadre d’un seul système demeure envisagée ainsi que le signalement obligatoire aux forces de l’ordre, bien que formulée différemment.
Divers groupes, dont la Coalition pour la surveillance internationale des libertés civiles (CSILC), continuent de travailler ensemble pour répondre aux propositions du gouvernement et pour développer des réflexions sur la meilleure façon de combattre les méfaits en ligne. Il s’agit manifestement d’un problème complexe, et il est plus facile d’en pointer les défauts que de développer des solutions concrètes. Ce qui semble clair, cependant, est que le fait de donner aux plateformes en ligne privées le pouvoir d’exercer une surveillance accrue et de supprimer du contenu non seulement ne résoudrait pas le cœur du problème, mais créerait davantage de dommages. Les gouvernements doivent plutôt investir dans des solutions hors ligne pour combattre les racines du racisme, de la misogynie, du sectarisme et de la haine. Il est tout aussi important que les gouvernements s’attaquent aux modèles commerciaux des plateformes de médias sociaux qui tirent profit de la surveillance et utilisent des contenus qui provoquent l’indignation et la division pour susciter l’engagement et fidéliser le public. Tant qu’il y aura des profits à faire en alimentant ces préjudices, nous ne pourrons jamais les éliminer vraiment.
Le problème est que les plateformes seraient non seulement tenues de déterminer si un contenu est illégal – ce qui peut déjà être difficile – mais aussi si un contenu légal doit être considéré comme préjudiciable. Ce flou pourrait conduire à une suppression et à une censure encore plus large de contenus.