États généraux de la fonction publique du Québec

Dans le contexte du virage numérique, de la dématérialisation des services gouvernementaux et de l’implantation de l’intelligence artificielle, plusieurs enjeux de droits humains font surface. Il importe d’agir dans la perspective d’éliminer les obstacles existants et en ce sens, le virage numérique ne doit pas créer ou accentuer des obstacles pour les personnes qui transigent avec l’État.

États généraux de la fonction publique du Québec

Contribution présentée par la
Ligue des droits et libertés

LIRE EN PDF

À l’attention du Syndicat de la fonction publique et parapublique du Québec

28 août 2024



Présentation de la Ligue des droits et libertés

Fondée en 1963, la Ligue des droits et libertés (LDL) est un organisme à but non lucratif, indépendant et non partisan, qui vise à faire connaitre, à défendre et à promouvoir l’universalité, l’indivisibilité et l’interdépendance des droits reconnus dans la Charte internationale des droits de l’Homme. La Ligue des droits et libertés est affiliée à la Fédération internationale pour les droits humains (FIDH).

La LDL poursuit, comme elle l’a fait tout au long de son histoire, différentes luttes contre la discrimination et contre toute forme d’abus de pouvoir, pour la défense des droits civils, politiques, économiques, sociaux et culturels. Son action a influencé plusieurs politiques publiques et a contribué à la création d’institutions vouées à la défense et à la promotion des droits humains, notamment l’adoption de la Charte québécoise des droits et libertés de la personne du Québec et la création de la Commission des droits de la personne et des droits de la jeunesse (CDPDJ).

Contexte

Depuis des années, la LDL s’intéresse à la protection de la vie privée et à la surveillance des populations, tant par l’État que par les entreprises privées. L’intrusion du numérique dans toutes les facettes de nos vies a permis une cueillette de données sans précédent qui touche tous les champs d’activités. Ces données sont utilisées, notamment,  à des fins de surveillance et de contrôle, pour analyser et influencer les comportements. Cette masse immense de données est traitée par des systèmes de décision automatisés (SDA) qui placent les individus dans des catégories qui leur sont favorables ou défavorables. Les algorithmes derrière ces SDA sont opaques et souvent biaisés.

L’intelligence artificielle pose donc des questions qui dépassent le droit à la vie privée. Elle est susceptible d’affecter l’ensemble des droits humains. La surveillance extrême des individus (par des entreprises privées et par l’État) peut altérer le libre arbitre, réduire l’autonomie des personnes et compromettre le droit à l’égalité, la liberté d’expression, la liberté d’association et la démocratie. Le manque d’encadrement de cette technologie est patent et son utilisation par l’État soulève de nombreuses inquiétudes.

Nous remercions le Syndicat de la fonction publique et parapublique du Québec de son invitation à contribuer aux consultations dans le cadre des États généraux de la fonction publique du Québec.

Dans le cadre de notre présente contribution, nous limiterons notre champ d’intervention à l’axe 3 du document de consultation, qui s’intéresse à la dématérialisation et à la transformation numérique.

1.    Accès aux services fournis par la fonction publique

En ce qui concerne la question 3.c) du document de consultation, Comment assurer le meilleur accès possible aux services fournis par la fonction publique? Comment assurer que les services qui sont offerts puissent être qualifiés de « services de proximité »?, ledit document de consultation indique :

La fonction publique procède depuis quelques années à un virage numérique. Les services gouvernementaux sont de plus en plus numérisés, les demandes citoyennes sont de plus en plus traitées par des logiciels, et une diminution de l’offre de service en personne a été constatée dans divers ministères et organismes.

[…] l’engouement généré par le virage numérique à la CNESST a justifié de nouvelles barrières d’accès pour des services en personne dans les bureaux de l’organisation, et ce, pour des soucis d’économie.

La LDL souligne que pour plusieurs citoyen-ne-s, il peut être ardu de s’adresser à l’administration pour remplir ses obligations, s’informer de ses droits ou réclamer une prestation. Le virage numérique gouvernemental peut constituer un obstacle additionnel. Comme l’affirme le Protecteur du citoyen dans son rapport 2022-2023 : « il existe un véritable fossé entre, d’une part, les services mis en ligne et, d’autre part, les personnes qui éprouvent des problèmes d’accès à ces modes de communication. »[1]

Problème de littératie ou de littératie numérique (souvent associés), difficulté d’accès à un ordinateur, mauvaise connexion internet, méconnaissance des bonnes pratiques en matière de confidentialité et de sécurité des réseaux, barrière de langue (par exemple pour les travailleur-euses étrangers temporaires); le passage au numérique peut s’avérer délétère pour de nombreux groupes déjà vulnérables. Ainsi, selon l’Institut national de santé publique du Québec (INSPQ) :

De façon générale, les écrits consultés expliquent la plupart des inégalités d’accès par des obstacles d’ordre économique liés au revenu ainsi que par l’inaccessibilité des services de télécommunication sur certains territoires.[2]

Il est donc essentiel de maintenir l’accès à des services en personne de qualité et réellement disponibles. Ce serait un grave déni de justice si le passage au numérique érigeait de nouveaux obstacles à l’exercice des droits des citoyen-ne-s ou à l’accès à l’information gouvernementale. En effet, plusieurs des services fournis par la fonction publique participent directement ou indirectement de l’exercice des droits humains dont sont titulaires tous les citoyen-ne-s. Ainsi il importe d’agir dans la perspective d’éliminer les obstacles existants et en ce sens, le virage numérique ne doit pas créer ou accentuer des obstacles.

2.    Responsabilité des autorités publiques face aux décisions automatisées

En ce qui concerne la question 3. d) du document de consultation, Comment assurer la responsabilité des autorités publiques lorsque les décisions concernant des citoyen-ne-s sont effectuées partiellement ou complètement de manière automatique?, la LDL insiste sur la possibilité de s’opposer à la prise de décision automatisée ainsi que sur les obligations légales de transparence et d’explication.

La Loi 25 (projet de loi 64) a modifié la Loi sur l’accès à l’information par l’ajout d’un article 65.2. Il édicte qu’un organisme public qui utilise des renseignements personnels (RP) afin que soit rendue une décision fondée exclusivement sur un traitement automatisé de ceux-ci doit en informer la personne concernée. L’organisme doit aussi, sur demande, informer celle-ci des renseignements personnels utilisés et des principaux facteurs et paramètres ayant mené à la décision. La personne concernée pourra aussi présenter ses observations à un membre du personnel de l’organisme public en mesure de réviser la décision. Tout ceci est nettement insuffisant.

La LDL avait critiqué cette procédure dans le cadre de son mémoire sur le PL 64. Nous réclamions et réclamons toujours un droit d’opposition à la prise de décision automatisée. Comme le signale le Commissaire à la protection de la vie privée du Canada :

Les lois de plusieurs pays prévoient le droit de ne pas être soumis à la prise de décision automatisée, ou un droit analogue de contester le traitement automatisé des données personnelles, ainsi qu’un droit de ne pas être soumis à des décisions fondées uniquement sur l’automatisation.[3]

Par ailleurs le droit personnel concédé au citoyen de connaitre les « principaux facteurs et paramètres ayant mené à la décision » n’assure pas une véritable transparence des algorithmes sur le plan collectif.

Les enjeux collectifs entourant le traitement de données massives, notamment par l’État, commandent l’édiction d’obligations légales de transparence et d’explication des modes de fonctionnement des systèmes.

Transparence

De nombreux cas prouvent que des vices de conception ou l’utilisation de données historiquement biaisées peuvent conduire l’algorithme à reproduire, voire aggraver, des attitudes et comportements discriminatoires. Cela démontre l’importance de la transparence dans l’utilisation des algorithmes. Leur fonctionnement logique devrait être divulgué publiquement et de façon proactive. C’est ce que la Commission nationale de l’informatique et des libertés (France) inclut dans le principe de loyauté :

[A]lors que dans la loi Informatique et Libertés, l’information est un droit qui peut éventuellement être mobilisé par l’individu auprès du responsable de l’algorithme, avec le principe de loyauté, cette information doit d’emblée être diffusée à destination de la communauté des utilisateurs. Il n’est pas question ici de droit des utilisateurs, mais d’obligation des plateformes algorithmiques.[4]

Un système d’audit indépendant pourrait garantir que les algorithmes utilisés respectent la loi et sont exempts de biais discriminatoires.

Explicabilité

Il est essentiel de pouvoir retracer, analyser et valider les résultats d’un système d’intelligence artificielle (IA). Il convient en outre que la conformité du système (respect des droits humains, de la vie privée et autres obligations légales) puisse faire l’objet d’un contrôle.

Une thèse veut que les algorithmes utilisés en apprentissage automatique (machine learning) génèreraient des décisions indéchiffrables. Ce n’est pas un argument défendable selon la LDL. Dans la mesure où des décisions affectant les personnes sont prises sur la base de ces algorithmes, il est essentiel que les raisonnements sous-jacents soient compréhensibles, que les responsabilités soient clairement définies et qu’un droit de recours existe. Autrement dit : « Si des entreprises prétendent que leurs algorithmes sont trop complexes pour être révélés, les autorités devraient interdire l’utilisation des informations qui en résultent.[5] »

Dans un récent avis sur l’intelligence artificielle et son impact sur les femmes, le Conseil du statut de la femme souligne :

[I]l est prescrit de mettre en place des exigences d’explicabilité des SIA de façon à favoriser la compréhension de leurs résultats (Guillaud, 2019). Dans cette optique, les organisations devraient « justifier » leur utilisation d’un SIA et transmettre de l’information claire et accessible au sujet des données utilisées (Zou et Schiebinger, 2018), des objectifs poursuivis (Conseil jeunesse de Montréal, 2021; UNESCO, 2020), des limites du SIA (UNESCO et Mila, 2023), de ses risques d’erreurs (London, 2019) et de ses conséquences potentielles (UNESCO et Mila, 2023). L’explicabilité jouerait d’ailleurs un rôle clé pour contester des décisions algorithmiques injustes (Pégny et Ibnouhsein, 2018).[6]

Le cadre établit par la Loi sur l’accès à l’information (LAI) en matière de Système décisionnel automatisé (SDA) ne remplit nullement ces exigences de transparence et d’explicabilité. Faute d’un encadrement robuste des algorithmes, le risque de voir se multiplier les décisions biaisées, discriminatoires ou autrement non fondées et dont les résultats sont inexplicables est bien réel. Cela est incompatible avec un état de droit.

3.    Autres enjeux soulevés

En ce qui concerne la question 3. E) du document de consultation, Quels autres enjeux sont soulevés par l’utilisation de l’intelligence artificielle au sein de la fonction publique?, la LDL souhaite aborder brièvement le droit à la vie privée, le stockage de données à l’extérieur du Québec et l’absence de consultations.

Droit à la vie privée

En juin 2019, le gouvernement du Québec publiait sa Stratégie de transformation numérique gouvernementale 2019-2023. Premier jalon en vue d’une numérisation des services publics « de bout en bout », la stratégie affirmait vouloir placer les citoyen-ne-s « au centre de l’évolution des services, des programmes et des politiques ». Depuis, les projets de loi se sont accumulés pour concrétiser cette stratégie, notamment par une révision des régimes de protection des renseignements personnels en vigueur au Québec : projet de loi 14 (transformation numérique de l’administration publique); projet de loi 95 (ressources informationnelles des organismes publics); projet de loi 64 (réforme des lois de protection des renseignements personnels secteur public et privé, devenu Loi 25); projet de loi 3 (renseignements de santé, devenu Loi 5).

Une constante se dégage: ces lois libéralisent l’utilisation et la communication de RP sans consentement, ce qui n’est « pas de nature à accroître le contrôle du citoyen sur les renseignements qui le concernent »[7]. Il s’agit au contraire d’une atteinte au droit de contrôle des individus sur leurs renseignements personnels,  un aspect important de la vie privée, comme le reconnait la Cour suprême :

« [L]e droit revendiqué par des particuliers, des groupes ou des institutions de déterminer eux‑mêmes le moment, la manière et la mesure dans lesquels des renseignements les concernant sont communiqués » (Tessling, par. 23, citant A. F. Westin, Privacy and Freedom (1970), p. 7). Autrement dit, cet aspect du droit à la vie privée concerne « l’autodétermination informationnelle. »[8]

Le gouvernement numérique est donc mis en place au prix d’une sérieuse atteinte au droit à la vie privée.

Une autre inquiétude concerne l’usage de la biométrie qui semble se répandre au sein du gouvernement québécois. En 2020, la Sûreté du Québec concluait un contrat avec la société Idemia pour une « solution d’empreintes digitales et de reconnaissance faciale en mode infonuagique privé ». En 2022, la Société de l’assurance automobile du Québec (SAAQ) annonçait adopter elle aussi cette technologie, apparemment pour « faire le ménage » de sa banque de photos. L’extension pro­jetée de cette technologie à l’identifiant numérique en voie de création par Québec démontre l’insouciance du gouvernement quant aux risques que fait planer cette technologie sur la vie privée et la démocratie.

Comme le signalent les commissaires à la vie privée du Canada :

Si elle est utilisée de manière inappropriée, la technologie de recon­naissance faciale peut donc avoir des effets durables et sérieux sur la vie privée et sur d’autres droits fon­damentaux. Cela inclut des préjudices subis par certaines personnes dont les renseignements personnels peuvent être recueillis, utilisés ou communiqués, mais aussi des préjudices pour les groupes et les communautés et des préjudices sociétaux plus généraux qui découlent de la plus grande capacité des autorités à surveiller les espaces physiques et numériques dans lesquels les citoyen­-ne-­s interagissent. Il peut être difficile de limiter cette plus grande capacité de surveillance une fois qu’elle est enclenchée[9] .

Stockage des données à l’extérieur du Québec ou par des entreprises étrangères

La décision du gouvernement du Québec de faire appel au secteur privé pour l’hébergement des données publiques est particulièrement préoccupante[10]. Cette privatisation des données présente bien des dangers : risques accrus de fuites; perte de contrôle sur les données et les coûts d’hébergement; perte d’expertise et dépendance de l’État envers le privé. Le recours aux géants américains du Web, tels que Google, Amazon et Microsoft, pour l’hébergement des données ajoute aux inquiétudes, le Clarifying Lawful Overseas Use of Data Act (Cloud Act) permettant aux autorités américaines d’accéder aux données hébergées (en infonuagique) par un fournisseur américain, peu importe où elles sont stockées.[11]

Absence de consultation

Le virage vers un gouvernement numérique n’a fait l’objet d’aucune consultation auprès de la population. Comme si la question se passait de débat, que l’avenir numérique était forcément radieux et que toute objection était irrecevable. Cela n’est pas acceptable.

Comme le souligne Fatima Gabriela Salazar Gomez :

Les autorités ont déjà pris la décision de développer des systèmes d’IA dans de nombreux domaines. La population n’est pas consultée et n’a pas de prise pour s’opposer à l’implantation de systèmes d’IA dans certains domaines et être entendue.  Or, quand on sait que certaines utilisations de l’IA vont avoir des conséquences concrètes sur la vie des gens, par exemple dans le domaine de la justice, de l’immigration ou de l’emploi, on devrait pouvoir se poser la question « Veut-on véritablement de systèmes d’IA pour soutenir ou automatiser des prises de décisions dans ces domaines? [12]

Le projet de Service québécois d’identité numérique (SQIN), en préparation depuis des années par le ministre de la cybersécurité, offre un bel exemple de l’opacité entourant les projets gouvernementaux.

Ainsi, le 24 octobre 2022, les commissaires à la protection de la vie privée de tout le Canada publiaient une résolution concernant les systèmes d’identité numérique. Elle énonce les exigences que devraient respecter les gouvernements en la matière. Au Québec, la Commission d’accès à l’information, signataire de la résolution commune, précisait dans un communiqué que « le gouvernement doit faire preuve de transparence à toutes les étapes de la réalisation du projet d’identité numérique en sollicitant la participation citoyenne par des consultations élargies, comme l’ont fait certaines provinces »[13].

Or, force est de constater que le projet SQIN se développe actuellement sans débat public, et qu’à plusieurs égards, il ne respecte pas les exigences de la résolution en raison d’une éventuelle utilisation de la biométrie, d’une absence de consultation publique et d’une absence d’encadrement légal précis.

Comme l’affirment Karine Gentelet et Sandrine Lambert :

Il est en effet souhaitable de décider collectivement des domaines d’application de l’IA et des limites sociétales à imposer pour ne pas empiéter sur un certain nombre de droits de la personne. Il est également requis de réfléchir collégialement à sa mise en œuvre pour tendre vers l’équité et la justice sociale. Il faut contrer cette obligation de prendre le virage numérique à tout prix et à toute vitesse, afin d’éviter la sortie de route. S’il y a une urgence, c’est celle de ralentir et de faire émerger des conditions favorables à la participation des citoyens. Ainsi, il sera possible de trouver des réponses inclusives à des problématiques numériques qui demeurent avant tout sociales.[14]

La LDL tient donc à souligner qu’à la lumière des enjeux que soulève l’utilisation des technologies de l’intelligence artificielle par l’État en matière de respect des droits humains, une discussion publique et éclairée sur le virage numérique du gouvernement et l’utilisation de l’intelligence artificielle s’impose.

 


[1] Protecteur du citoyen., Rapport annuel 2022-2023, p.13. En ligne : https://protecteurducitoyen.qc.ca/fr/enquetes/rapports-annuels/2022-2023

[2] Institut national de santé publique du Québec, « Inégalités d’accès et d’usage des technologies numériques : un déterminant préoccupant pour la santé de la population? », Juin 2021. p.4. En ligne : https://www.inspq.qc.ca/sites/default/files/publications/3148-inegalites-acces-usage-technologies-numeriques.pdf

[3] Commissariat à la protection de la vie privée du Canada, « Consultation sur les propositions du Commissariat visant à assurer une réglementation adéquate de l’intelligence artificielle », 13 mars 2020. En ligne : https://www.priv.gc.ca/fr/a-propos-du-commissariat/ce-que-nous-faisons/consultations/consultations-terminees/consultation-ai/pos_ai_202001/

[4] Commission Nationale Informatique et Libertés (CNIL). COMMENT PERMETTRE À L’HOMME DE GARDER LA MAIN ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle. Décembre 2017. p.49 https://cnil.fr/sites/cnil/files/atoms/files/cnil_rapport_garder_la_main_web.pdf

[5] Frank Pasquale, « Mettre fin au trafic des données personnelles », Le Monde diplomatique, mai 2018, pp. 16-17. https://www.monde-diplomatique.fr/2018/05/PASQUALE/58653

[6] Conseil du statut de la femme, « Intelligence artificielle. Des risques pour l’égalité entre les hommes et les femmes », Avis, 2023, p.20. En ligne : https://csf.gouv.qc.ca/wp-content/uploads/Avis_intelligence_artificielle.pdf

[7] Commission d’accès à l’information, « Projet de loi no 64, Loi modernisant des dispositions législatives en matière de protection des renseignements personnels », Mémoire, 29 septembre 2020, p.40. En ligne : https://www.cai.gouv.qc.ca/uploads/pdfs/CAI_ME_PL-64.pdf

[8] R. c. Bykovets. 2024 CSC 6. https://decisions.scc-csc.ca/scc-csc/scc-csc/fr/item/20302/index.do

[9] Commissariat à la protection de la vie privée du Canada, « Document d’orientation sur la protection de la vie privée à l’intention des services de police relativement au recours à la reconnaissance faciale », par.14. En ligne : https://www.priv.gc.ca/fr/sujets-lies-a-la-protection-de-la-vie-privee/surveillance/police-et-securite-publique/gd_rf_202205/

[10] Dominique Cambron-Goulet, « Les contrats accordés par Québec et Ottawa à Amazon ont explosé », 1er avril 2022. En ligne : https://www.journaldemontreal.com/2022/04/01/les-contrats-damazon-ont-explose

[11] Henri-Paul Rousseau, « La souveraineté numérique en agroalimentaire au Canada et au Québec », CIRANO, 16 février 2021. En ligne : https://cirano.qc.ca/files/publications/2021PE-03.pdf

[12] Entrevue avec Fatima Gabriela Salazar Gomez par Lynda Khelil, responsable de la mobilisation à la Ligue des droits et libertés, « Quelle place pour le droit de dire non à l’intelligence artificielle? », revue Droits et libertés, Printemps-Été 2022. En ligne : https://liguedesdroits.ca/quelle-place-pour-le-droit-de-dire-non-a-lintelligence-artificielle/

[13] Commission d’accès à l’information. « Identité numérique au Canada : les organismes de surveillance demandent aux gouvernements d’assurer le droit à la vie privée et la transparence dans leurs projets et systèmes ». 24 octobre 2022. En ligne : https://www.cai.gouv.qc.ca/actualites/identite-numerique-canada-organismes-surveillance-demandent-gouvernements-assurer-droit-vie-privee-et-transparence-dans-projets-et-systemes

[14] The conversation. La justice sociale : l’angle mort de la révolution de l’intelligence artificielle. 14 juin 2021. https://theconversation.com/la-justice-sociale-langle-mort-de-la-revolution-de-lintelligence-artificielle-160579