La Ligue des droits et libertés est signataire de cette lettre collective signée par 45 organisations de la société civile, expert-e-s et universitaires qui a été transmise au ministre François-Philippe Champagne le 25 septembre 2023.
Les défenseur-es des droits de la personne exigent que la réglementation sur l’intelligence artificielle soit dûment étudiée
Le 25 septembre 2023,
À l’honorable François-Philippe Champagne, ministre de l’Innovation, des Sciences et de l’Industrie
c.c.
Joël Lightbound, président du Comité permanent de l’industrie et de la technologie
Rick Perkins, vice-président du Comité permanent de l’industrie et de la technologie
Sébastien Lemire, vice-président du Comité permanent de l’industrie et de la technologie
Membres du Comité permanent de l’industrie et de la technologie
Sujet : Lettre collective exprimant des réserves concernant la Loi sur l’intelligence artificielle et les données (LIAD)
Monsieur le Ministre,
Nous, les organismes et spécialistes signataires, vous adressons la présente lettre pour vous faire part de nos réserves sérieuses à propos de la Loi sur l’intelligence artificielle et les données (LIAD) énoncée dans la Partie 3 du projet de loi C-27 : Loi édictant la Loi sur la protection de la vie privée des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données et la Loi sur l’intelligence artificielle et les données et apportant des modifications corrélatives et connexes à d’autres lois. Certaines de ces réserves vous sont déjà connues puisque bon nombre d’entre nous les ont déjà exprimées par lettre en mars 2023[1].
Sous sa forme actuelle, la LIAD est inadéquate. Innovation, Sciences et Développement économique Canada (ISDE) ne devrait pas être le principal ni l’unique rédacteur d’un projet de loi pouvant engendrer des répercussions profondes sur les droits de la personne, le travail et la culture. L’absence de consultations publiques a abouti à une proposition de loi qui ne protège pas les droits et les libertés des citoyen-ne-s canadien-ne-s contre les risques liés à l’évolution fulgurante de l’intelligence artificielle.
Nous estimons que la LIAD doit être retirée du projet de loi C-27. Nous croyons comprendre que cette proposition suscite une forte résistance, nécessaire à notre avis, car, tel que rédigé, il ne se prête pas à l’examen en comité. Les travaux de mise en place de la réglementation de l’intelligence artificielle pourraient être achevés dans le même délai que celui prévu par ISDE pour son entrée en vigueur, soit en 2025. Il n’est pas nécessaire de repartir de zéro pour améliorer notablement la LIAD. Son retrait du projet de loi C-27 est également nécessaire pour donner au Comité permanent de l’industrie et de la technologie (INDU) de la Chambre des communes le temps qu’il lui faut pour se concentrer sur les autres parties du projet de loi, lesquelles soulèvent d’importantes préoccupations à l’égard du droit à la vie privée au Canada.
Des homologues étrangers, y compris l’Union européenne[2], ont effectué des travaux intersectoriels préparatoires de bien plus grande envergure pour se doter d’un cadre initial de réglementation de l’intelligence artificielle. ISDE a raison d’affirmer que nous devons considérer les futures applications de l’intelligence artificielle à travers le prisme des normes et des valeurs canadiennes; toutefois, sans une participation effective de la population canadienne (qui n’a pas encore eu lieu), on ne peut pas prétendre que la LIAD est la démarche qu’elle souhaite ni qu’elle est susceptible de lui inspirer confiance.
D’ailleurs, malgré le préambule du projet de loi qui reconnaît que le Canada a besoin d’un cadre de réglementation garantissant que « les systèmes d’intelligence artificielle et autres technologies émergentes devraient maintenir les normes et les valeurs canadiennes conformes aux principes du droit international en matière de droits de la personne » et du « droit à la vie privée[3] », la LIAD fait manifestement passer les intérêts économiques en premier.
À défaut d’un rajustement approprié, plusieurs points nous préoccupent et nécessitent, selon nous, une attention immédiate et sérieuse :
1) Droits de la personne : Malgré le préambule, ni le texte de la Loi sur la protection de la vie privée des consommateurs ni celui de la LIAD ne reconnaissent la vie privée comme un droit humain fondamental[4]. De plus, la LIAD ne comporte aucune évaluation des conséquences sur les droits de la personne et elle ne fixe pas vraiment de limites pour en tenir compte[5].
2) Lacunes dans les définitions : Des lacunes importantes dans des définitions comme « système à incidence élevée » font en sorte que des aspects d’importance majeure de la LIAD soient incompréhensibles et dépourvus de substance. L’approche actuelle, qui remet à une future réglementation la mise au point de la plupart des détails, n’améliore pas la souplesse et affaiblit l’obligation de rendre compte en démocratie. Nous croyons comprendre que des modifications fondées sur le document d’accompagnement de la LIAD, dont celui de la définition mentionnée ci-dessus, sont prévues. Cela comporte toutefois un problème du même ordre, l’accent mis actuellement sur les systèmes à incidence élevée étant fondé sur une mauvaise compréhension des conséquences cumulatives et corrélatives potentielles des systèmes à « faible incidence » qui n’atteindraient probablement pas ce seuil et échapperaient à la réglementation.
3) Indépendance : Il est inopportun que la réglementation de l’intelligence artificielle soit entièrement placée sous les auspices d’ISDE, dont le mandat est de soutenir le développement économique de l’industrie de l’intelligence artificielle. Comme le soulignent les Principes de bonnes pratiques de l’OCDE pour la politique de la réglementation de 2014, « l’attribution de fonctions à la fois de développement de l’industrie et de réglementation […] peut réduire l’efficacité du régulateur dans une de ces fonctions ou les deux et peut aussi l’empêcher de gagner la confiance du public[6] ». La désignation d’un commissaire à l’intelligence artificielle et aux données relevant d’ISDE sape encore davantage l’indépendance et l’efficacité de la surveillance.
4) Consultation : L’absence de consultations structurées et délibératives de grande envergure, avant et depuis le dépôt du projet de loi, est antidémocratique et a pour conséquence de priver la population canadienne des mesures législatives nécessaires sur l’intelligence artificielle qui protègent les droits et résistent aux contraintes. La consultation plus large menée par ISDE au sujet d’un code de pratique pour les systèmes d’intelligence artificielle générative a débouché sur un document qui s’apparente à une déclaration de principes, mais qui omet de mentionner les questions relatives à la vie privée, ainsi que les pratiques douteuses en matière de données, comme facteur d’évaluation de l’équité, ce qui empêche en réalité de partir du bon pied.
5) Utilisation de l’intelligence artificielle dans les secteurs public et privé : Le gouvernement aurait dû envisager dès le départ des règles en matière d’intelligence artificielle pour les secteurs privé et public, au lieu d’adopter une approche parcellaire. Il est dangereux que l’exemption absolue des technologies relevant des organismes de sécurité nationale – le ministère de la Défense nationale (MDN), le Service canadien du renseignement de sécurité (SCRS) et le Centre de la sécurité des télécommunications (CST) – permette des utilisations de l’intelligence artificielle parmi « les plus risquées », sans aucun examen ou contrôle indépendant ou public.
Indéniablement, la LIAD ne représente pas le projet de loi que la population canadienne mérite. Il faut un rajustement, à défaut de quoi il devra faire l’objet d’une refonte majeure afin de tenir compte des réserves que nous soulevons ici. Nous vous renvoyons également à la liste des mémoires annexés à la présente lettre, dont les auteurs figurent parmi les signataires.
Nous concluons en soulignant que, bien que nous écrivions aujourd’hui spécifiquement pour exprimer nos réserves à propos de la LIAD, bon nombre de groupes et de personnes qui ont signé cette lettre ont présenté des mémoires sur leurs motifs de préoccupation à l’égard du projet de loi C-27 dans son ensemble. Le fait que nous n’ayons pas évoqué ici les autres parties – la Loi sur la protection des renseignements personnels des consommateurs et la Loi sur le Tribunal de la protection des renseignements personnels et des données – n’équivaut pas à une acceptation de celles-ci. Ces lois doivent également faire l’objet d’un examen minutieux pour corriger le déséquilibre qui privilégie les intérêts des entreprises au détriment du droit à la vie privée et de l’application pleine et entière de la loi.
Nous attendons avec impatience une réponse rapide de votre part et l’ouverture d’un dialogue avec votre bureau au sujet des réserves que nous soulevons ici.
Organisations signataires :
- Association des libertés civiles de la Colombie-Britannique
- Association canadienne des libertés civiles
- Coalition pour la surveillance internationale des libertés civiles
- Digital Public
- OpenMedia
- Tech Reset Canada
- Rideau Institute on International Affairs
- Nord ouvert
- Mouvement Pour Une Paix Juste
- Digital Justice Lab
- La centre pour la défense de l’intérêt public
- Centre for Digital Rights
- Fonds d’action et d’éducation juridique pour les femmes (FAEJ)
- Ligue des droits et libertés
- Freedom of Information and Privacy Association
- The Centre for Free Expression
- Amnistie internationale Canada francophone
- Amnesty International Canadian Section (English speaking)
- Inter Pares
Individus signataires :
- Bianca Wylie, écrivaine et défenseure des technologies d’intérêt public
- Brenda McPhail, Ph.D., directrice exécutive par intérim, Public Policy in Digital Society Program, McMaster University
- Andrew Clement, University of Toronto
- Blair Attard-Frost, chercheur en politiques sur l’IA, conférencier et conseiller
- Teresa Scassa, Université d’Ottawa
- Christelle Tessono, chercheuse en politiques technologiques
- Ori Freiman,chercheur postdoctoral au Digital Society Lab de McMaster University
- Natasha Tusikov, York University
- Jonathan Roberge, INRS
- Evan Light, York University
- Michael Geist, Université d’Ottawa
- Dr. Blayne Haggart, professeur agrégé de science politique, Brock University
- Fenwick McKelvey, Concordia University
- Leslie Regan Shade, University of Toronto
- Professor Colin Bennett, University of Victoria
- Luke Stark, Western University
- Dr. Kristen Thomasen, UBC
- Joanna Redden, Western University
- Maroussia Lévesque, candidate SJD, Harvard Law School
- Renée E. Sieber, McGill University
- James L. Turk, Toronto Metropolitan University
- Jane Bailey, professeure, University of Ottawa Faculty of Law
- Karine Gentelet, professeure, Université du Québec en Outaouais
- Dr. sava saheli singh, York University
- Azeezah Kanji, académique légal et écrivaine
- Yavar Hameed, avocat spécialisé en droits de l’homme
[1] Voir CSILC, « Vote Against Aida », 2023 : https://iclmg.ca/vote-against-aida/
[2] Voir la Législation sur l’intelligence artificielle, 2021 : https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0020.02/DOC_1&format=PDF
[3] Préambule : https://www.parl.ca/DocumentViewer/fr/44-1/projet-loi/C-27/premiere-lecture.
[4] Pour des arguments plaidant en ce sens, voir les mémoires de l’Association canadienne des libertés civiles et le Centre pour les droits numériques qui ont été présentés au Comité permanent de l’industrie et de la technologie en prévision de son examen du projet de loi C-27.
[5] Cela tranche avec la Convention-cadre sur l’intelligence artificielle, les droits de l’homme, la démocratie et l’État de droit du Conseil de l’Europe où le Canada a statut d’observateur. Voir : https://rm.coe.int/cai-2023-18-fr-projet-de-travail-consolide-de-convention-cadre/1680abde67.
[6] Voir OCDE, La gouvernance des régulateurs, 2014, p. 33 : https://read.oecd-ilibrary.org/governance/principes-de-bonnes-pratiques-de-l-ocde-pour-la-politique-de-la-reglementation_9789264222649-fr#page1.