Mémoire : Étude des technologies de reconnaissance faciale et des lecteurs automatiques de plaques d’immatriculation

La LDL a transmis un mémoire à la Commission de la sécurité publique de Montréal dans lequel elle demande un moratoire sur l’utilisation de ces deux technologies.

Étude des technologies de reconnaissance faciale et des lecteurs automatiques de plaques d’immatriculation

Avis présenté par la
Ligue des droits et libertés

lire en pdf

Un moratoire s’impose

Devant la Commission de la sécurité publique de l’agglomération de Montréal

30 octobre 2020



Table des matières

Présentation de la Ligue des droits et libertés

Mise en contexte

Introduction

Les technologies de reconnaissance faciale

Les lecteurs automatiques de plaques d’immatriculation (LAPI)

Conclusion : les outils de prédiction du crime


Présentation de la Ligue des droits et libertés

Fondée en 1963, la Ligue des droits et libertés (LDL) est un organisme à but non lucratif, indépendant et non partisan, qui vise à faire connaitre, à défendre et à promouvoir l’universalité, l’indivisibilité et l’interdépendance des droits reconnus dans la Charte internationale des droits de l’Homme. La Ligue des droits et libertés est affiliée à la Fédération internationale pour les droits humains (FIDH).

La LDL poursuit, comme elle l’a fait tout au long de son histoire, différentes luttes contre la discrimination et contre toute forme d’abus de pouvoir, pour la défense des droits civils, politiques, économiques, sociaux et culturels. Son action a influencé plusieurs politiques publiques et a contribué à la création d’institutions vouées à la défense et à la promotion des droits humains, notamment l’adoption de la Charte québécoise des droits et libertés de la personne du Québec et la création de la Commission des droits de la personne et des droits de la jeunesse.

Elle interpelle, tant sur la scène nationale qu’internationale, les instances gouvernementales pour qu’elles adoptent des lois, mesures et politiques conformes à leurs engagements à l’égard des instruments internationaux de défense des droits humains et pour dénoncer des situations de violation de droits dont elles sont responsables. Elle mène des activités d’information, de formation, de sensibilisation visant à faire connaitre le plus largement possible les enjeux de droits pouvant se rapporter à l’ensemble des aspects de la vie en société. Ces actions visent l’ensemble de la population de même que certains groupes placés, selon différents contextes, en situation de discrimination.

Mise en contexte

La Ligue des droits et libertés (LDL) remercie la Commission de la sécurité publique de l’agglomération de Montréal (ci-après la Commission) de l’opportunité qui lui est offerte de présenter un avis dans le cadre de ses travaux au sujet des technologies de reconnaissance faciale et des lecteurs automatiques de plaques l’immatriculation. La LDL a pris connaissance des mandats confiés à la Commission par le Conseil municipal de la Ville de Montréal suivant les motions CM19 0947 et CM20 0679. Dans les prochaines pages, nous proposons des réponses à plusieurs questions formulées par la Commission à l’intention d’experts externes, puis, en conclusion, nous abordons les outils technologiques de prédiction du crime (traduction de l’expression predictive policing) qui sont liés, bien qu’indirectement, aux mandats confiés à la Commission.

Introduction

La reconnaissance faciale est l’une des applications de l’intelligence artificielle (IA) les plus menaçantes pour les droits et libertés. Le développement de cette technologie met en péril toute prétention à l’anonymat. Sans balises, le déploiement de lecteurs automatiques de plaques d’immatriculation (LAPI) permettrait quant à lui de constituer des banques de données des déplacements de milliers d’automobilistes. Ces outils de surveillance battent en brèche le droit à la vie privée et à l’anonymat, tout en rendant possible le profilage discriminatoire. Ils semblent pourtant se développer sans contrôle, malgré l’existence au Québec de certaines balises légales[1] qui sont, de toute évidence, inefficaces ou non respectées. De plus, le manque de transparence des corps policiers quant à l’usage qu’ils font de ces technologies alimente les craintes de dérives liberticides.

Les lois de protection des renseignements personnels au Québec[2] ont été adoptées dans les années 1980 et 1990. Il est depuis longtemps reconnu qu’elles sont inadéquates à l’ère d’Internet, particulièrement dans le contexte du développement effréné de l’intelligence artificielle[3]. Ainsi, les lois en vigueur actuellement ne permettent pas d’encadrer adéquatement l’utilisation des technologies de reconnaissance faciale ou les LAPI, ce que la Ville de Montréal reconnaît elle aussi dans le mémoire qu’elle a déposé le 19 octobre 2020 auprès du Comité consultatif sur la réalité policière dans le cadre du livre vert élaboré par le ministère de la Sécurité publique[4]. La première mouture du projet de loi 64, Loi modernisant des dispositions législatives en matière de protection des renseignements personnels, ne le permettra pas non plus à notre avis[5].

Dans ce contexte, la Ligue des droits et libertés considère qu’un moratoire devrait être mis en place sur l’acquisition (à travers, notamment, le processus d’approvisionnement de biens et services) et l’utilisation de ces deux technologies par le Service de police de la Ville de Montréal (SPVM) de même que par tous les autres services municipaux de la Ville. La Ville de Montréal devrait faire des représentations en ce sens auprès du gouvernement du Québec, qui est celui qui dispose de l’autorité d’agir à cet effet[6]. Bien évidemment, un moratoire visant l’ensemble du territoire du Québec s’impose également.

La Ligue des droits et libertés considère également qu’une réflexion critique plus large, portant notamment sur l’opérationnalisation du concept de « Ville intelligente », devrait précéder le déploiement à grande échelle de dispositifs numériques à la Ville de Montréal[7]. L’agrégation de multiples innovations, technologies, connaissances et dispositifs, qui fonde le développement des « Villes intelligentes », soulève, à notre avis, des enjeux en matière de contrôle, de vie privée et de gouvernance, qui se distinguent des enjeux soulevés par les applications prises à la pièce (LAPI, etc.). Nous croyons, de ce fait, que l’opérationnalisation de ce concept à Montréal devrait être soumise à une réflexion critique impliquant la population montréalaise.

Les technologies de reconnaissance faciale

Plusieurs corps policiers utilisent ou ont déjà utilisé une technologie de reconnaissance faciale au pays[8]. Pour sa part, le Service de police de la Ville de Montréal déclarait récemment ne pas l’utiliser, ajoutant qu’il pourrait y avoir recours en mandatant un tiers[9]. La reconnaissance faciale peut permettre d’identifier des individus à leur insu dans des circonstances où la police ne pourrait pas exiger qu’ils s’identifient. Cette identification se ferait sans consentement, contrairement à l’article 44 de la Loi concernant le cadre juridique des technologies de l’information qui stipule : « Nul ne peut exiger, sans le consentement exprès de la personne, que la vérification ou la confirmation de son identité soit faite au moyen d’un procédé permettant de saisir des caractéristiques ou des mesures biométriques. […] ». La reconnaissance faciale permettrait de faire indirectement ce que la loi interdit de faire directement. Par exemple, la reconnaissance faciale permettrait d’identifier des personnes participant à une manifestation même si leur comportement est parfaitement légal.

La technologie de reconnaissance des individus n’est pas que « faciale » ; elle s’intéresse autant à l’allure, au comportement ou à l’habillement des personnes surveillées. Cette surveillance est d’autant plus inquiétante que certains groupes racisés sont victimes de discrimination systémique de la part des forces policières, comme en fait état le rapport Armony-Hassaoui-Mulone au sujet des interpellations des personnes racisées et autochtones à Montréal[10]. De plus, notons que les personnes racisées sont également celles qui sont le plus susceptibles de faire les frais d’erreurs sur la personne de la part des systèmes de reconnaissance faciale, dont les erreurs d’identification sont plus élevées pour les personnes noires[11].

Les photos utilisées pour mettre au point la plus connue de ces applications, Clearview AI, proviennent des réseaux sociaux[12]. Elles sont utilisées à l’insu des utilisateurs et utilisatrices des réseaux à des fins auxquelles ils et elles n’ont jamais consenti. Le Commissariat à la protection de la vie privée du Canada, les commissaires de la Colombie-Britannique et de l’Alberta ainsi que la Commission d’accès à l’information du Québec ont ouvert en février 2020 une enquête pancanadienne sur Clearview AI, « dans un contexte de préoccupations croissantes quant à l’utilisation de la reconnaissance faciale[13] ». La situation est telle que même les géants du Web réclament des autorités la mise en place d’un encadrement comportant des garde-fous[14]. Ce dossier illustre le peu de moyens dont disposent les commissions de protection des renseignements personnels qui, trop souvent, n’interviennent qu’après coup.

De plus en plus de voix s’élèvent pour demander un moratoire sur l’utilisation de cette technologie et un large chantier de réflexion sur la question, notamment des élu-e-s de l’Assemblée nationale[15]. Le 8 juillet 2020, un regroupement d’organisations à travers le Canada, dont fait partie la LDL, demandaient au ministre fédéral de la Sécurité publique, Bill Blair, d’interdire l’utilisation de la reconnaissance faciale à tous les services de police et toutes les agences de renseignements fédéraux, incluant la Gendarmerie royale du Canada. Le regroupement demandait également au ministre Blair de « [notre traduction] lancer une consultation publique significative sur tous les aspects de la technologie de reconnaissance faciale au Canada » et « d’établir des politiques et des lois claires et transparentes régissant l’utilisation de la reconnaissance faciale au Canada, y compris des réformes de la Loi sur la protection des renseignements personnels et les documents électroniques et de la Loi sur la protection des renseignements personnels. » [16]

Nous considérons que les technologies de reconnaissance faciale ne doivent en aucun cas pouvoir servir à des fins de surveillance des populations. À cet égard, mentionnons que l’association La Quadrature du Net déclarait en août 2020, en se fondant sur l’article 10 de de la Directive 2016/680 de l’Union européenne au sujet du traitement des données à caractère personnel[17], que « tout traitement de données biométriques […] qui est réalisé afin d’identifier une personne n’est possible qu’en cas de “nécessité absolue” et “sous réserve de garanties appropriées pour les droits et libertés de la personne concernée”. »[18]

Les lecteurs automatiques de plaques d’immatriculation (LAPI)

Les LAPI sont des caméras dotées de la capacité de lire automatiquement une plaque d’immatriculation qui passe dans leur champ d’observation. Elles peuvent être installées à un endroit fixe ou sur une plateforme mobile, comme une voiture de police. Un seul lecteur peut enregistrer quotidiennement l’heure et l’endroit auquel se trouvent des milliers d’automobilistes. Déployés en grand nombre et sans encadrement, comme c’est le cas aux États-Unis, ces lecteurs permettent de constituer de gigantesques banques de données gardées indéfiniment sur les déplacements des automobilistes, dont la vaste majorité ne fait pourtant l’objet d’aucune enquête[19].

Avant d’installer un dispositif de localisation sur un véhicule, les forces policières doivent obtenir un mandat lorsque certaines conditions sont remplies[20]. Or, l’utilisation de LAPI à grande échelle permettrait de pister un grand nombre de véhicules sans la supervision des tribunaux requise pour les dispositifs traditionnels.

Conclusion : les outils de prédiction du crime

Les outils de reconnaissance faciale et les LAPI sont des technologies de surveillance qui opèrent sur la base d’algorithmes. Ils ne sont pas les seuls à susciter de grandes préoccupations. Parmi l’éventail d’outils technologiques utilisés par des corps de police au Canada et en Amérique du Nord, on retrouve aussi ceux de prédiction du crime (traduction de l’expression predictive policing). Bien que les travaux de la Commission ne portent pas explicitement sur ceux-ci, nous souhaitons les aborder en guise de conclusion, car ils suscitent eux aussi des préoccupations en termes de droits humains.

Les outils de prédiction du crime sont des outils d’analyses statistiques auxquels des corps de police ont recours à des fins de prévention de la criminalité. Il en existe deux grandes catégories qui poursuivent les objectifs suivants : (1) identifier des lieux géographiques où des activités criminelles seraient susceptibles de survenir, et (2) identifier des individus qui seraient susceptibles d’être impliqués dans une activité criminelle et évaluer le risque de récidive d’une personne déjà identifiée[21]. Il s’agit d’une tendance préoccupante qui est croissance en Amérique du Nord depuis environ 2011[22]. Cet usage de la technologie est particulièrement critiqué en raison des biais raciaux présents dans les algorithmes et pour son rôle dans la perpétuation du profilage racial et la sur-surveillance policière des communautés racisées[23].

Dans le rapport Armony-Hassaoui-Mulone sur la surinterpellation des personnes racisées et autochtones à Montréal, les chercheur-e-s abordent la question de la « prédiction » et de son caractère auto-réalisant comme une source du racisme systémique. Il y a lieu de prendre connaissance de la section du rapport qui est consacré à cette question aux pages 19 à 21, dont voici un passage :

« Le profilage criminel s’est raffiné, ces dernières années, par l’entremise du développement des technologies de l’information et l’avènement du big data qui ont permis de mettre sur pied des outils de prédiction du crime de plus en plus élaborés, que ce soit dans le domaine de l’analyse géospatiale (identifier les lieux probables des futurs crimes) ou de la récidive (identifier les individus à potentiel élevé de (re)commettre un crime). Si tous les services de police de moindre envergure ont déjà intégré ces techniques de prédiction, il y a tout lieu de croire que ces stratégies d’analyses de la criminalité vont prendre une place de plus en plus prépondérante à l’avenir. Or, au-delà de leur possible efficacité ou inefficacité en termes de baisse de la criminalité, l’emphase mise sur ces outils peut cependant avoir pour effet de renforcer les profilages existants. »[24]

Dans un rapport publié en septembre 2020, « To Surveil and Predict : A Human Rights Analysis of Algorithmic Policing in Canada[25] », The Citizen Lab de l’Université de Toronto indique que plusieurs corps de police au Canada utilisent de tels outils[26]. L’étude ne fait pas mention spécifiquement du SPVM, mais nous avons de bonnes raisons de penser qu’en tant que deuxième corps de police municipal en importance au Canada, le SPVM pourrait avoir intégré des outils statistiques de prédiction du crime à ses stratégies de lutte contre la criminalité.

Le 22 novembre 2019, le SPVM a refusé de dire publiquement s’il utilisait ou pas ce type d’outils technologiques lors de la séance publique de la Commission portant sur le rapport Armony-Hassaoui-Mulone. À cette occasion, le directeur adjoint du SPVM, M. Marc Charbonneau, a refusé de répondre à une question à ce sujet d’une représentante de la LDL, arguant qu’il s’agissait là de « technicalités d’enquêtes policières »[27]. Or, il y a lieu de douter de cette réponse vague, puisqu’il est connu que plusieurs corps de police au Canada utilisent différentes variantes d’outils de prédiction du crime, tel que mentionné précédemment.

L’opacité du SPVM à cet égard est inacceptable, tout comme l’est son refus pendant plusieurs mois de faire connaitre à la Commission et à la population montréalaise s’il utilise ou pas des technologies de reconnaissance faciale. Le SPVM doit sans plus tarder indiquer s’il a recours ou a déjà eu recours à des outils de prédiction du crime – qu’il s’agissent d’outils provenant de fournisseurs privés, d’autres services policiers ou qu’il aurait lui-même développés, seul ou dans le cadre de partenariats – et de spécifier le type d’outil utilisé. Il sera ensuite essentiel de procéder à un examen public de l’usage de ceux-ci par le SPVM en inscrivant cette démarche dans le cadre de la lutte aux profilages racial et social[28]. La Commission peut et devrait entreprendre un tel examen, conformément à son mandat général de surveillance du SPVM.


Références

[1] Par exemple, l’article 45 de la Loi concernant le cadre juridique des technologies de l’information (L.R.Q. c. C -1.1) prévoit : « La création d’une banque de caractéristiques ou de mesures biométriques doit être préalablement divulguée à la Commission d’accès à l’information. De même, doit être divulguée l’existence d’une telle banque qu’elle soit ou ne soit pas en service. La Commission peut rendre toute ordonnance concernant de telles banques afin d’en déterminer la confection, l’utilisation, la consultation, la communication et la conservation y compris l’archivage ou la destruction des mesures ou caractéristiques prises pour établir l’identité d’une personne. La Commission peut aussi suspendre ou interdire la mise en service d’une telle banque ou en ordonner la destruction, si celle-ci ne respecte pas ses ordonnances ou si elle porte autrement atteinte au respect de la vie privée ».

[2] Il s’agit notamment de la Loi sur l’accès aux documents des organismes publics et la protection des renseignements personnels, RLRQ c. A -2.1, ainsi que de la Loi sur la protection des renseignements personnels dans le secteur privé, RLRQ c. P -39.1.

[3] Commission d’accès à l’information, Rapport quinquennal 2016 « Rétablir l’équilibre », 2016, p. V, https://www.cai.gouv.qc.ca/le-rapport-quinquennal-2016-de-la-commission-depose-a-lassemblee-nationale/ ;

Commission d’accès à l’information, Rapport quinquennal 2011 « Technologies et vie privée à l’heure des choix de société », https://www.cai.gouv.qc.ca/rapport-quinquennal-2011/

[4] Ville de Montréal, « Mémoire de la Ville de Montréal présenté au Comité consultatif sur la Réalité policière dans le cadre du dépôt du livre vert Réalité policière au Québec : Modernité, confiance et efficience », 19 octobre 2020, http://ville.montreal.qc.ca/pls/portal/docs/PAGE/PRT_VDM_FR/MEDIA/DOCUMENTS/2020-12_MEMOIRE_VILLE_MTL-LIVRE_VERT_REALITE_POLICIERE.PDF « Une réforme majeure des lois sur la vie privée et sur la gestion et l’administration des informations personnelles est nécessaire, pour assurer un encadrement adéquat et transparent de ces technologies, en tout respect des valeurs démocratiques. » (p. 13)

[5] Ligue des droits et libertés, Consultations particulières et auditions publiques au sujet du projet de loi 64, Loi modernisant des dispositions législatives en matière de protection des renseignements personnels, Mémoire présenté devant la Commission des institutions, Assemblée nationale du Québec, 23 septembre 2020, https://liguedesdroits.ca/memoire-consultations-pl64-protection-renseignements-personnels/

[6] Ville de Montréal, op. cit., p. 14.

[7] Le programme triennal d’immobilisations 2020-2022 (PTI) nous renseigne, à cet effet, sur les investissements actuellement en cours ou projetés par la Ville de Montréal.

[8] Gagnon, Charles-Antoine, « Le SPO a déjà expérimenté un outil de reconnaissance faciale », Le Droit, 24 février 2020, https://www.ledroit.com/actualites/justice-et-faits-divers/le-spo-a-deja-experimente-un-outil-de-reconnaissance-faciale-c42e84e649af176165e20eb536123117 ; The Citizen Lab, « Algorithmic Policing in Canada Explained », page Web consultée le 24 octobre 2020, https://citizenlab.ca/2020/09/algorithmic-policing-in-canada-explained/

[9] 24H Montréal, « Reconnaissance faciale: Les élus obtiennent une réponse du SPVM… après six mois », 30 juin 2020,  « L’organisation n’exclut toutefois pas, dans des situations particulières et exceptionnelles, de recourir aux services d’une tierce partie possédant ce type de technologie pour faire avancer une enquête d’envergure, en s’assurant toujours de mener ses opérations et ses enquêtes dans le respect de toutes les lois en vigueur », https://www.24heures.ca/2020/06/29/reconnaissance-faciale–les-elus-obtiennent-une-reponse-du-spvm-apres-six-mois

[10] Armony, Victor et al., « Les interpellations policières à la lumière des identités racisées. Analyse des données du Service de Police de la Ville de Montréal (SPVM) et élaboration d’indicateurs de suivi en matière de profilage racial, Rapport final remis au SPVM », août 2019, p. 8, https://spvm.qc.ca/upload/Rapport_Armony-Hassaoui-Mulone.pdf

[11] Marcus Dupont-Besnard, « Reconnaissance faciale : une étude montre que les algorithmes discriminent plus les femmes noires », Numerama, 24 juillet 2019, https://www.numerama.com/politique/535715-reconnaissance-faciale-une-etude-montre-que-les-algorithmes-discriminent-plus-les-femmes-noires.html

[12] « Google, Facebook et Twitter mettent en demeure Clearview AI », Radio-Canada, 6 février 2020, https://ici.radio-canada.ca/nouvelle/1509484/clearview-ai-intelligence-artificielle-reconnaissance-faciale

[13] Commissariat à la protection de la vie privée du Canada, « Des commissaires lancent une enquête conjointe sur Clearview AI dans un contexte de préoccupations croissantes quant à l’utilisation de la technologie de reconnaissance faciale », Communiqué, 21 février 2020, https://www.priv.gc.ca/fr/nouvelles-du-commissariat/nouvelles-et-annonces/2020/an_200221/

[14] Agence France-Presse, « Microsoft refuse à la police l’accès à sa technologie de reconnaissance faciale »,  Le Devoir, 12 juin 2020, « Lors d’un discours à Bruxelles, Sundar Pichai, le patron du groupe, avait expliqué que Google ne fournirait pas de service clé en main de reconnaissance faciale tant que des règles et garde-fous n’étaient pas mis en place par les autorités »,  https://www.ledevoir.com/monde/etats-unis/580704/microsoft-refuse-a-la-police-l-acces-a-sa-technologie-de-reconnaissance-faciale

[15] Marie-Claude Malboeuf et Fanny Lévesque, « Reconnaissance faciale: indignation et inquiétude à Québec et à Ottawa », La Presse, 28 février 2020, https://www.lapresse.ca/actualites/politique/2020-02-28/reconnaissance-faciale-indignation-et-inquietude-a-quebec-et-a-ottawa

[16] International Civil Liberties Monitoring Group, Open letter : Canadian government must ban use of facial recognition by federal law enforcement, intelligence agencies, 8 juillet 2020, https://iclmg.ca/facial-recognition-letter/

[17] Directive (UE) 2016/680 du Parlement européen et du Conseil de l’Union européenne relative à la protection des personnes physiques à l’égard du traitement des données à caractère personnel par les autorités compétentes à des fins de prévention et de détection des infractions pénales, d’enquêtes et de poursuites en la matière ou d’exécution de sanctions pénales, et à la libre circulation de ces données, et abrogeant la décision-cadre 2008/977/JAI du Conseil, 2016-04-27, version consolidée actuelle : 2016-05-04. https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX%3A32016L0680

[18] La Quadrature du Net, « Nous attaquons la reconnaissance faciale dans le TAJ », 7 août 2020, https://www.laquadrature.net/2020/08/07/nous-attaquons-la-reconnaissance-faciale-dans-le-taj/

[19] American Civil Liberties Union, « Automatic License Plate Readers », page Web consultée le 24 octobre 2020, https://www.aclu.org/issues/privacy-technology/location-tracking/automatic-license-plate-readers

[20] L’article 492.1 (8) du Code criminel (Ccr.) définit ainsi le dispositif de localisation : « Tout dispositif, notamment un programme d’ordinateur au sens du paragraphe 342.1(2), pouvant servir à obtenir ou à enregistrer des données de localisation ou à les transmettre par un moyen de télécommunication. (tracking device). » L’installation nécessite un mandat fondé sur des soupçons raisonnables, s’il s’agit d’un objet (492.1 (1) Ccr), qu’une infraction a été ou sera commise et que la localisation sera utile à l’enquête. La durée maximum du mandat est de 60 jours, sauf pour les organisations criminelles et les infractions de terrorisme (1 an).

[21] Voir notamment The Citizen Lab, « To Surveil and Predict. A Human Rights Analysis of Algorithmic Policing in Canada », Rapport, 1er septembre 2020, https://citizenlab.ca/2020/09/to-surveil-and-predict-a-human-rights-analysis-of-algorithmic-policing-in-canada/

[22] En 2011, la police de Los Angeles a été parmi les premiers services de police en Amérique du Nord a utilisé un outil statistique de la compagnie PredPol dont l’algorithme vise à identifier sur une carte de style google map des zones de 152 mètres carrés qui présenteraient un risque que des délits y surviennent, notamment des cambriolages, vols d’automobiles, vols en tout genre, agressions, etc.

[23] Voir notamment, Will Douglas Heaven, « Predictive policing algorithms are racist. They need to be dismantled », MIT Technology Review, 17 juillet 2020, https://www.technologyreview.com/2020/07/17/1005396/predictive-policing-algorithms-racist-dismantled-machine-learning-bias-criminal-justice/

[24] Armony-Hassaoui-Mulone, op. cit., p. 19-20.

[25] The Citizen Lab, op. cit.

[26] Il s’agit entre autres des services de police des villes suivantes : Vancouver, Toronto, Calgary et Saskatoon. Voir The Citizen Lab, « Algorithmic Policing in Canada Explained », page Web consultée le 24 octobre 2020, https://citizenlab.ca/2020/09/algorithmic-policing-in-canada-explained/

[27] Commission de la sécurité publique de l’agglomération de Montréal, Présentation du rapport « Les interpellations policières à la lumière des identités racisées des personnes interpellées », Séance publique, 22 novembre 2019, de 2 :03 :15 à 2 :06 :20, vidéo, https://youtu.be/YO3G3wzHj88

[28] À cet égard, rappelons que la Recommandation #4 du rapport Armony-Hassaoui-Mulone consiste à faire une évaluation de tous les plans, programmes et pratiques du SPVM « à l’aune de son impact (positif ou négatif) sur le profilage racial, y compris sur le plan du possible caractère auto-réalisant des prédictions sur la criminalité » (p. 121).