Forces policières et capitalisme de surveillance

Les banques de données des forces policières contiennent des données sur des citoyen-ne-s qui n’ont jamais été condamné-e-s pour un quelconque crime, y compris des données issues d’interpellations fondées sur le profilage racial, social ou politique.

Retour à la table des matières
Revue Droits et libertés, printemps / été 2022

Dominique Peschard, militant au comité surveillance des populations, IA et droits humains et président de la LDL de 2010 à 2015

Dans les mois suivant les attentats du 11 septembre 2001, le Pentagone, à travers son agence de recherche Defense Advanced Research Projects Agency (DARPA), mettait sur pied le projet Total Information Awareness (TIA). Dirigé par l’Amiral à la retraite John Poindexter, le projet visait, ni plus ni moins, qu’à compiler toutes les informations disponibles sur chaque individu : achats, transactions financières, lectures, sites Web fréquentés, appels téléphoniques, réseau d’ami-e-s, activités, voyages, prescriptions médicales, etc. En reliant toutes ces informations, Poindexter prétendait pouvoir identifier le prochain terroriste et l’arrêter avant qu’il ne prenne l’avion.

Sécurité nationale et agences de renseignements

Le tollé qui a suivi la révélation et la dénonciation de ce programme par le New York Times a entrainé l’abolition du projet par le Congrès en 2002. Le projet n’était pas mort pour autant – il allait simplement être poursuivi secrètement par la National Security Agency (NSA). Et le développement du capitalisme de surveillance dans les deux décennies suivantes allait fournir aux agences les masses de données sur les populations dont rêvait Pointdexter. En 2013, Edward Snowden dévoilait l’étendue de l’appareillage d’espionnage de la NSA et l’existence d’outils, comme XKeyscore qui permet à la NSA d’avoir accès à presque tout ce qu’un-e internaute fait sur Internet, et PRISM qui donne accès aux données de Microsoft, Yahoo, Google, Facebook, PalTalk, AOL, Skype, YouTube, Apple.

Rappelons que la NSA est le chef de file d’un consortium de partage de renseignements, les Five Eyes, formé des agences d’espionnage des États-Unis, de la Grande-Bretagne, de l’Australie, de la Nouvelle-Zélande et du Canada (le Centre de la sécurité des télécommunications).

Depuis l’adoption du PL C-59 en 2017, le Service canadien du renseignement de sécurité (SCRS) peut légalement recueillir des ensembles de données sur les Canadien-ne-s. Il suffit que le SCRS juge ces renseignements « utiles » et qu’il ait « des motifs raisonnables de croire » qu’ils sont « accessibles au public ». Un pouvoir défini de manière aussi vague ouvre la voie à la constitution de banques de données sur l’ensemble de la population. Et ce, alors que les services policiers et de renseignements ne cessent de prétendre que les informations personnelles perdent leur caractère privé à partir du moment où elles sont accessibles dans l’espace virtuel.

Forces policières et centres de surveillance

La mise sur pied de centres de surveillance ne se limite pas aux agences de renseignements et de sécurité nationale. Les forces policières se dotent de plus en plus de centres d’opération numérique qui analysent en temps réel toutes les informations disponibles pour diriger les interventions des policiers sur le terrain1. Ces centres s’inspirent des fusion centres mis en place par le Homeland Security aux États-Unis après les attentats du 11 septembre 2001. Les informations traitées proviennent autant des banques de données des services de police, que d’images de caméras de surveillance publiques et privées, et d’informations extraites des réseaux sociaux par des logiciels conçus à cette fin. Notons que les banques de données des forces policières contiennent des données sur des citoyen-ne-s qui n’ont jamais été condamné-e-s pour un quelconque crime, y compris des données issues d’interpellations fondées sur le profilage racial, social ou politique.

Notons que les banques de données des forces policières contiennent des données sur des citoyen-ne-s qui n’ont jamais été condamné-e-s pour un quelconque crime, y compris des données issues d’interpellations fondées sur le profilage racial, social ou politique.

Systèmes de décisions automatisées et maintien de l’ordre prédictif

Les forces policières ont de plus en plus recours à des systèmes de décisions automatisées (SDA) pour exploiter les masses croissantes de données dont elles disposent. Des SDA sont utilisés, entre autres, pour cibler les lieux où des délits sont susceptibles de se produire, ou les individus susceptibles d’en commettre. Ces systèmes sont particulièrement d’espaces privés pour socialiser. En ciblant ces quartiers, on arrête des personnes pour des infractions qui passent inaperçues dans des quartiers plus favorisés. Le SDA est alimenté de données qui renforcent un biais répressif envers certaines populations. Comme le dit Cathy O’Neil, dans son livre sur les biais des algorithmes, « Le résultat, c’est que nous criminalisons la pauvreté, tout en étant convaincu que nos outils sont non seulement scientifiques, mais également justes2 ». Les quartiers pauvres sont également ceux où on retrouve une plus grande proportion de personnes racisées, ce qui alimente également les biais racistes des SDA et des interventions policières.

Le système de décisions automatisées (SDA) est alimenté de données qui renforcent un biais répressif envers certaines populations.

Le rôle des entreprises privées

Les logiciels de SDA nécessaires pour interpréter ces masses de données sont fournis par des compagnies comme IBM, Motorola, Palantir, qui ont des liens avec l’armée et les agences de renseignements et d’espionnage. Des compagnies, comme Stingray, fabriquent des équipements qui permettent aux forces policières d’intercepter les communications de téléphones cellulaires afin d’identifier l’usager et même d’accéder au contenu de la communication. Le logiciel Pégasus de la compagnie israélienne NSO permet même de prendre le contrôle d’un téléphone. D’autres entreprises comme Clearview AI et Amazon fournissent même les données de surveillance aux forces policières. Clearview AI a collecté des milliards de photos sur Internet et offre aux forces policières de relier l’image d’une personne à tous les sites où elle apparait sur le Net. Le Commissaire à la vie privée du Canada a déclaré illégales les actions de Clearview AI au Canada ainsi que l’utilisation de ses services par la Gendarmerie royale du Canada (GRC).

La compagnie Amazon est emblématique du maillage entre le capitalisme de surveillance et les forces policières. Amazon héberge dans son nuage plusieurs programmes de surveillance du U.S. Departement of Homeland Security. La compagnie a une relation incestueuse avec les forces policières et les agences de renseignement, incluant le partage d’information sur ses utilisateur-trice-s et des contrats gouvernementaux confidentiels3.

Aux États-Unis, le système Ring d’Amazon est en voie de constituer un vaste système de surveillance de l’espace public par les forces policières. Les sonnettes Ring sont dotées de caméras qui scrutent en permanence l’espace public devant le domicile. L’usager-ère d’une sonnette Ring accepte par défaut qu’Amazon rende les images de sa sonnette accessibles aux services de police — pour s’y soustraire l’usager-ère doit avoir recours à une procédure de désinscription (opting out), ce que beaucoup de personnes ne font pas. Plusieurs millions de ces sonnettes ont déjà été installées aux États-Unis et environ 2 000 services policiers ont déjà conclu des ententes avec Amazon pour avoir accès à ces caméras4 — le tout sans mandat judiciaire! Bien que Ring n’utilise pas la reconnaissance faciale, Amazon a développé cette technologie et l’a déjà vendue à des forces policières.

Avec le projet Sidewalk5, Amazon pousse l’intégration des données issues des appareils « intelligents » encore plus loin6. Avec Sidewalk, chaque appareil consacre une petite partie de sa bande passante et devient un pont dans un réseau de communication parallèle relié aux serveurs d’Amazon. Des compagnies, par exemple de vêtements connectés, peuvent choisir de devenir des partenaires d’Amazon et de rendre leurs dispositifs compatibles avec Sidewalk. Selon l’American Civil Liberties Union (ACLU), les documents d’Amazon indiquent que la politique d’utilisation des données sera la même avec Sidewalk qu’avec Ring. Pour l’ACLU, ce système est un véritable cauchemar pour les droits et libertés.

Bien que le système Ring n’utilise pas la reconnaissance faciale, Amazon a développé cette technologie et l’a déjà vendue à des forces policières.

Le manque de transparence

Tous ces développements se font dans un contexte d’absence de transparence des forces policières et de débats publics. Lorsque confrontées à des demandes portant sur leurs pratiques et sur les outils qu’elles utilisent, le réflexe premier des forces policières est de refuser de répondre sous prétexte qu’elles n’ont pas à dévoiler leurs méthodes d’enquête, ou de mentir, comme l’a fait initialement la GRC à propos de son utilisation de Clearview AI.

Que savons-nous des outils informatiques utilisés par les forces policières pour définir leurs priorités d’intervention, organiser leurs patrouilles, et que font-ils avec les données recueillies lors d’interpellations, effectuées sans fondement légal? Quels impacts ces outils ont-ils sur les différentes formes de profilage pratiquées par les corps de police comme le Service de police de la Ville de Montréal?

Les pratiques des forces policières et les outils qu’elles utilisent doivent respecter les droits reconnus dans les chartes. Ces pratiques et ces outils sont d’intérêt public et les forces policières ne doivent pas se soustraire à leur obligation de rendre des comptes en invoquant des arguments fallacieux.

Tous ces développements se font dans un contexte d’absence de transparence des forces policières et de débats publics.

Des pratiques à débattre et à encadrer

La masse de données que le capitalisme de surveillance a engendrée à des fins lucratives constitue une mine d’or pour les services de police et de sécurité nationale qui fonctionnent de plus en plus selon une logique de surveillance généralisée des populations et de maintien de l’ordre prédictif.

Ces pratiques vont à l’encontre du principe de présomption d’innocence selon lequel une personne ne peut faire l’objet de surveillance policière sans motifs. Elles contournent également l’exigence d’un mandat judiciaire pour les formes de surveillance intrusives. En ciblant les quartiers et les populations jugés à risque, elles renforcent les différentes formes de profilage policier discriminatoire.

Il n’est pas suffisant de savoir si les forces policières utilisent tel ou tel système de décision automatisé et à quelles fins. Les algorithmes doivent aussi être publics et soumis à un examen règlementaire indépendant permettant d’en repérer les failles et les biais. L’argument du secret commercial n’est pas recevable alors que l’utilisation de ces algorithmes soulève des enjeux de droits humains.

Les tribunaux et les organismes de protection de la vie privée ont statué à maintes reprises que la protection de la vie privée ne disparait pas du moment qu’une personne se trouve dans l’espace public, qu’il soit physique ou virtuel7. Il faut cependant beaucoup plus que des décisions à la pièce, comme celle du Commissaire à la vie privée du Canada dans l’affaire Clearview AI, pour encadrer le travail policier dans ce nouvel environnement. Le cadre légal qui gouverne la police doit être mis à jour pour protéger la population contre une surveillance à grande échelle. La surveillance de masse doit être proscrite et des techniques particulièrement menaçantes, comme la reconnaissance faciale, doivent être interdites tant qu’il n’y aura pas eu de débat public sur leur utilisation.

Ces pratiques vont à l’encontre du principe de présomption d’innocence selon lequel une personne ne peut faire l’objet de surveillance policière sans motifs.


  1. En ligne : https://breachmedia.ca/canadian-police-expanding-surveillance- powers-via-new-digital-operations-centres/
  2. Cathy O’Neil et Cédric Villani, Algorithmes, La bombe à retardement. Les Arenes Ed,
  3. ACLU, Sidewalk : The Next Frontier of Amazon’s Surveillance Infrastructure. En ligne : https://www.aclu.org/news/privacy-technology/sidewalk-the-next- frontier-of-amazons-surveillance-infrastructure/
  4. En ligne : https://wtheguardian.com/commentisfree/2021/may/18/ amazon-ring-largest-civilian-surveillance-network-us
  5. Ne pas confondre avec le projet de quartier intelligent Sidewalk Labs de Google.
  6. ACLU, Sidewalk : The Next Frontier of Amazon’s Surveillance Infrastructure. En ligne : https://www.aclu.org/news/privacy-technology/sidewalk-the-next- frontier-of-amazons-surveillance-infrastructure/
  7. En ligne : https://liguedesdroits.ca/droit-a-la-vie-privee-la-jurisprudence-de- la-cour-supreme/