Quelle place pour le droit de dire non à l’intelligence artificielle?

Compte tenu des atteintes aux droits et libertés, les aspects négatifs des diverses utilisations de l’intelligence artificielle doivent être connues et débattues par le grand public.
une caméra géante surveillance un groupe de personnes

Retour à la table des matières
Revue Droits et libertés, printemps / été 2022

Entrevue avec Fatima Gabriela Salazar Gomez par Lynda Khelil, responsable de la mobilisation à la Ligue des droits et libertés

Fatima Gabriela Salazar Gomez a été coordonnatrice à l’Agora Lab et chargée à la mobilisation pour une consultation internationale organisée en 2020 par l’Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO), Dialogue International sur l’Éthique de l’IA et une consultation pancanadienne organisée en 2021 par le gouvernement du Canada, Dialogue ouvert : l’IA au Canada. Elle est actuellement chargée de projet à Hoodstock, une organisation basée à Montréal-Nord qui œuvre pour la justice sociale et l’élimination des inégalités systémiques.

LDL : Peux-tu nous parler de la consultation publique sur l’IA du gouvernement du Canada en 2021? Quels étaient les objectifs et quels constats as-tu faits?

En mai 2019, le ministre fédéral de l’Innovation, des Sciences et de l’Industrie a créé un Conseil consultatif en matière d’intelligence articielle. Ce dernier a ensuite mis sur pied en janvier 2020 un Groupe de travail sur la sensibilisation du public dont le mandat est « de concevoir des stratégies régionales afin de sensibiliser le public à l’IA, de favoriser la confiance du public envers l’IA et de le renseigner sur la technologie, ses utilisations possibles et les risques qui y sont associés[1] ».

Le groupe de travail a tenu en avril et mai 2021 une consultation publique pancanadienne, Dialogue ouvert : l’IA au Canada, sous la forme d’ateliers virtuels. J’ai participé à l’organisation de cette consultation dans le cadre de mon travail à Agora Lab, un des partenaires de la consultation. Mes collègues et moi, devions proposer des cas d’usage, c’est- à-dire des scénarios qui mettent de l’avant des utilisations de l’IA dans des situations précises tirées de la réalité, dans les domaines notamment de la santé, de l’éducation, de la justice ou de l’environnement. Lorsque nous avons soumis nos propositions, le gouvernement nous a clairement indiqué que nos cas d’usage démontraient trop les aspects négatifs de l’IA. Or, il nous semblait essentiel de discuter de ces aspects qui sont parfois plus difficiles à identifier pour la population et moins abordés. On nous a également rappelé que la consultation portait sur ce qu’on appelle le trustworthy. Il ne fallait donc pas que le côté négatif de certains usages de l’IA ressorte trop.

J’ai constaté que la consultation ne visait pas tant à montrer ce qui se fait en matière d’IA et à discuter des dangers et atteintes potentielles aux droits, mais plutôt à faire de la sensibilisation du public. C’est d’ailleurs le mandat principal du Groupe de travail. Selon moi, il s’agissait pour le gouvernement de tâter le terrain pour évaluer jusqu’où certains droits humains pourraient être bafoués sans que ça suscite de fortes réactions. Les autorités utilisent souvent les consultations publiques pour savoir ce que la population pense pour ensuite ajuster leurs discours.

Dans ce cas-ci, le discours sous-jacent du gouvernement est, selon moi, qu’il y aura développement de l’IA, qu’on le veuille ou non. Je n’ai pas eu l’impression que le gouvernement valorise le droit de la population de dire non à l’implantation de l’IA dans certains domaines ou pour certaines utilisations. C’est même plutôt le contraire.

J’ai aussi pu faire le constat d’une forme de contrôle. Au départ, le gouvernement n’avait pas l’intention de rendre public le rapport de la consultation. Pour mes collègues et moi, ça ne faisait aucun sens qu’on fasse une consultation publique et que les données ne soient pas rendues publiques. On a donc demandé qu’il le soit. Ça m’est apparu être une forme d’utilisation de l’opinion et de la parole citoyenne à des fins politiques. Je pense que si, par exemple, toutes les personnes qui avaient participé avaient dit qu’elles étaient contre certains usages de l’IA, le gouvernement aurait été pris avec ça, d’où son intention initiale de ne pas publier le rapport. À ce jour, le rapport n’est pas encore public. J’espère qu’il le sera bientôt.

LDL : Tu as utilisé l’expression trustworthy. Qu’est-ce que ça veut dire?

L’expression trustworthy AI qui est utilisée par les gouvernements signifie une IA digne de conance. La consultation publique était orientée dans cette perspective. On veut nous inciter à avoir confiance dans des systèmes d’IA, bien qu’ils comportent des biais discriminatoires avérés et peuvent avoir dans certains documents des conséquences importantes sur l’exercice de nos droits et libertés. Ce ne sont pas uniquement les algorithmes qui sont biaisés, ce sont les données elles-mêmes qui le sont. Le déficit historique de données sur certaines personnes, populations et communautés induit des biais dans les algorithmes d’IA.

En tant que femme, racisée, issue de l’immigration, j’ai déjà de la difficulté à avoir confiance en nos propres institutions, donc comment penser que je pourrai avoir confiance d’emblée dans un système que je ne comprends pas, qui possède peu de données sur ma communauté et dont les algorithmes présentent des biais intrinsèques.

L’expression une IA digne de conance opère donc selon moi une manipulation par le discours. On ne veut pas qu’il y ait trop de mots négatifs associés à l’IA. Trustworthy, c’est une expression positive. Mais ce que ça sous-tend, c’est que nous n’avons pas une IA digne de confiance actuellement ou que nous n’avons pas une IA qui suscite la confiance de la population. Mais le dire ainsi, c’est négatif d’un point de vue de relations publiques.

Dans ce cas-ci, le discours sous-jacent du gouvernement est, selon moi, qu’il y aura développement de l’IA, qu’on le veuille ou non. Je n’ai pas eu l’impression que le gouvernement valorise le droit de la population de dire non à l’implantation de l’IA dans certains domaines ou pour certaines utilisations. C’est même plutôt le contraire.

LDL : En quoi l’approche de sensibilisation du public sur l’IA est problématique selon toi? Et est-ce que la population a la possibilité de remettre en question certains usages de l’IA?

Quand on fait de la sensibilisation, ça sous-entend selon moi qu’on n’est pas là pour faire de l’éducation. Or, faire de l’éducation sur l’IA, c’est expliquer, présenter des choix et développer un esprit critique par rapport aux systèmes d’IA. Je pense qu’il faut faire de l’éducation à l’IA pour que la population comprenne mieux ce que c’est et puisse identifier les enjeux de droits qui sont en présents. Une population plus informée sera en mesure de participer au débat public sur l’IA et de se prononcer et se mobiliser sur les développements de l’IA dans certains domaines qu’elle ne voudrait pas par exemple. Mon rêve, c’est qu’on puisse faire des ateliers d’éducation aux enjeux liés à l’IA dans des espaces communs, par exemple les bibliothèques, pour que les gens soient outillés lorsqu’ils, elles sont invité-e-s à participer à des consultations publiques.

Actuellement, on est dans un paradigme où la discussion publique est orientée autour de la question « Comment atténuer les conséquences et les biais de l’IA? » avec la prémisse qu’il est bénéfique de développer et d’implanter largement des systèmes d’IA. Alors même qu’il n’y a pas d’encadrement robuste et que les lois ne sont pas adaptées au développement rapide de l’IA. Les autorités ont déjà pris la décision de développer des systèmes d’IA dans de nombreux domaines. La population n’est pas consultée et n’a pas de prise pour s’opposer à l’implantation de systèmes d’IA dans certains domaines et être entendue.

Or, quand on sait que certaines utilisations de l’IA vont avoir des conséquences concrètes sur la vie des gens, par exemple dans le domaine de la justice, de l’immigration ou de l’emploi, on devrait pouvoir se poser la question « Veut-on véritablement de systèmes d’IA pour soutenir ou automatiser des prises de décisions dans ces domaines? ». C’est une question légitime et fondamentale à mon avis, d’autant plus dans un contexte pandémique où on a réalisé que nous sommes des êtres fondamentalement sociaux et que nos rapports aux autres, notre trajectoire de vie et comment on vit, ça a des impacts sur nos prises de décisions.

 


[1] En ligne : https://ised-isde.canada.ca/site/conseil-consultatif-intelligence-artificielle/fr/rapport-annuel-2019-2020