🟧 Avis CNCDH relatif Ă  l’impact de l’intelligence artificielle sur les droits fondamentaux

Au sommaire :

Références

NOR : CDHX2211293V
Source : JORF n°0091 du 17 avril 2022, texte n° 99

Article

Assemblée plénière du 7 avril 2022
(Adoption Ă  l’unanimitĂ©)

Résumé

Alors que les recherches sur l’intelligence artificielle (IA) et la mise en Ĺ“uvre de ses applications pratiques se dĂ©veloppent, la rĂ©glementation actuelle demeure lacunaire pour endiguer les atteintes possiblement majeures aux droits fondamentaux. Dans le contexte de l’adoption prochaine de la proposition de règlement de l’UE sur le sujet, et des travaux en cours au sein du Conseil de l’Europe, la CNCDH invite les pouvoirs publics Ă  promouvoir un encadrement juridique ambitieux en la matière.

Elle recommande, d’une part, d’interdire certains usages de l’IA jugĂ©s trop attentatoires aux droits fondamentaux, tels que le scoring social ou l’identification biomĂ©trique Ă  distance des personnes dans l’espace public et les lieux accessibles au public. D’autre part, elle recommande de faire peser sur les utilisateurs d’un système d’IA des exigences en mesure de garantir le respect des droits fondamentaux : une Ă©tude d’impact, une consultation des parties prenantes, une supervision du système tout au long de son cycle de vie. La CNCDH appelle enfin Ă  reconnaĂ®tre des droits aux personnes ayant fait l’objet d’une dĂ©cision impliquant un algorithme, notamment le droit Ă  une intervention humaine dans le processus de dĂ©cision, ou encore un droit au paramĂ©trage des critères de fonctionnement du système d’IA.

1. Depuis quelque temps dĂ©jĂ , ce qu’il est dĂ©sormais courant d’appeler « intelligence artificielle » ou « IA » agit au cĹ“ur du quotidien de chacun : propositions de contenu sur les rĂ©seaux sociaux ou les plateformes en ligne, accès Ă  des applications ou Ă  des lieux par authentification biomĂ©trique, diagnostics mĂ©dicaux automatisĂ©s, etc. Elle fait cependant l’objet d’un engouement particulier depuis plusieurs annĂ©es, en profitant d’investissements publics et privĂ©s massifs. Si certains la placent en effet au cĹ“ur d’une « nouvelle rĂ©volution industrielle », d’autres s’inquiètent d’une nouvelle vague d’automatisation des activitĂ©s jusque-lĂ  rĂ©servĂ©es Ă  l’ĂŞtre humain et, plus largement, des dĂ©rives d’une nouvelle gouvernance par les donnĂ©es ainsi que, plus largement, d’atteintes possiblement majeures aux droits fondamentaux, sans compter son impact croissant sur l’environnement.

2. A titre liminaire, la Commission nationale consultative des droits de l’homme (CNCDH) tient Ă  exprimer ses rĂ©serves Ă  l’Ă©gard de la terminologie usitĂ©e en la matière. Elle observe en effet un excès d’anthropomorphisation dans les termes employĂ©s, Ă  commencer par celui de l’« intelligence artificielle », mais Ă©galement lorsqu’il est question de « rĂ©seaux de neurones », d’« apprentissage profond », etc. Cela engendre des confusions sur les possibilitĂ©s rĂ©elles offertes par des systèmes de traitement de donnĂ©es, qui reposent sur des procĂ©dures codĂ©es dans des systèmes informatiques : il s’agit avant tout de mathĂ©matiques. L’ensemble des acteurs, tant du secteur public que du secteur privĂ©, devrait donc s’affranchir de cette expression en raison de son impact psychologique, source de rĂ©ticences ou au contraire de confiance et d’acceptation exagĂ©rĂ©es. C’est pourquoi la CNCDH recommande que les institutions publiques et les mĂ©dias privilĂ©gient des expressions plus neutres, telles que des « systèmes algorithmiques d’aide Ă  la dĂ©cision » (SAAD). NĂ©anmoins, pour des raisons de commoditĂ© rĂ©dactionnelle, et parce qu’il s’agit de l’usage actuellement consacrĂ©, la CNCDH fera dans cet avis rĂ©fĂ©rence Ă  l’« IA ».

Recommandation n° 1 : La CNCDH recommande de privilĂ©gier, dans la communication institutionnelle, une terminologie plus neutre et objective que l’expression « intelligence artificielle », telle celle de « système algorithmique d’aide Ă  la dĂ©cision » (SAAD).

3. Ce vocable recouvre, plus prĂ©cisĂ©ment, des technologies informatiques qui reposent sur des logiques de fonctionnement diffĂ©rentes : on distingue principalement l’IA symbolique (ou cognitiviste) de l’IA connexionniste. La première suppose de programmer une sĂ©rie d’instructions explicites et univoques – autrement dit un algorithme – appelĂ©es Ă  donner un rĂ©sultat, prĂ©visible parce qu’il se prĂ©sente comme le traitement logique des donnĂ©es rentrĂ©es dans le système. La seconde, d’apparition plus rĂ©cente, repose sur un autre type d’algorithme, non plus axĂ© sur une approche logique du traitement de l’information mais sur une approche probabiliste : les programmeurs conçoivent un algorithme d’apprentissage et soumettent Ă  l’ordinateur une sĂ©rie de donnĂ©es (data set) Ă  partir desquelles il va « apprendre » ou, plus exactement, infĂ©rer des règles. Cet apprentissage peut ĂŞtre supervisĂ© ou non supervisĂ© : dans le premier cas, les donnĂ©es utilisĂ©es pour l’apprentissage sont Ă©tiquetĂ©es, tandis que dans le second cas elles sont « brutes ». Dans cette dernière hypothèse, l’apprentissage machine Ă©tablit des corrĂ©lations entre les informations qui ont alimentĂ© le système.

4. Ce dernier type d’apprentissage, l’apprentissage machine, soulève des enjeux inĂ©dits par rapport Ă  l’IA symbolique. Tandis que les instructions codĂ©es dans un logiciel « classique » peuvent aisĂ©ment ĂŞtre communiquĂ©es (encore que la comprĂ©hension du système puisse ĂŞtre rendue malaisĂ©e lorsque ces instructions sont nombreuses et les donnĂ©es traitĂ©es volumineuses, comme c’est le cas par exemple de la plateforme en ligne d’admission dans l’enseignement supĂ©rieur, Parcoursup), le modèle auquel parvient la machine au terme de son apprentissage peut plus ou moins aisĂ©ment faire l’objet d’une information, Ă©tant donnĂ© que les concepteurs du système sont dans certains cas extrĂŞmes (en matière de deep learning notamment) bien incapables de connaĂ®tre le modèle de fonctionnement auquel est parvenue la machine pour obtenir ses rĂ©sultats.

5. Si l’IA pourrait permettre, selon certains, d’« activer nos droits fondamentaux » (1), elle prĂ©sente toutefois des risques incontestables pour ces derniers. Au niveau national, la Commission nationale de l’informatique et des libertĂ©s (CNIL) a publiĂ© en 2017 un rapport sur les algorithmes, fruit d’une vaste consultation auprès d’acteurs du secteur et de citoyens, face Ă  la nĂ©cessitĂ© de « permettre Ă  l’homme de garder la main » (2), et a Ă©galement axĂ© sa rĂ©flexion sur certaines applications particulières de l’IA (3). En 2017, encore, le DĂ©fenseur des droits alertait sur les risques de discrimination engendrĂ©s par l’utilisation d’algorithmes dans le cadre de la lutte contre la fraude aux prestations sociales, en ciblant des catĂ©gories de personnes Ă  contrĂ´ler en prioritĂ© (4). Depuis, le DĂ©fenseur des droits mène une rĂ©flexion plus large sur l’IA et les discriminations (5). Au niveau international, de nombreuses instances ont Ă©galement alertĂ© sur l’impact de l’IA sur les droits fondamentaux (6). En particulier, l’Agence des droits fondamentaux de l’Union europĂ©enne (FRA), et le ComitĂ© ad hoc sur l’intelligence artificielle (CAHAI), organe du Conseil de l’Europe chargĂ© d’examiner les possibilitĂ©s de mettre en place un cadre juridique relatif Ă  l’IA, ont dressĂ© un inventaire des droits fondamentaux susceptibles d’ĂŞtre remis en cause par l’IA : notamment le respect de la dignitĂ© humaine, le respect de la vie privĂ©e et la protection des donnĂ©es, l’Ă©galitĂ© et la non-discrimination, l’accès Ă  la justice, l’accès aux droits sociaux, etc.

6. Le dĂ©ploiement de l’IA inquiète d’autant plus qu’il n’existe pas, Ă  l’heure actuelle, de cadre juridique global, Ă  l’Ă©chelon tant national qu’international, pour endiguer ses dĂ©bordements. Les rĂ©glementations en vigueur fournissent des rĂ©fĂ©rences seulement partielles, qu’il s’agisse de la protection des donnĂ©es personnelles – avec en particulier, au sein de l’Union europĂ©enne, le Règlement gĂ©nĂ©ral sur la protection des donnĂ©es (RGPD) – ou de la non-discrimination. Cela demeure toutefois insuffisant dès lors qu’un grand nombre de systèmes d’IA fonctionnent Ă  partir de donnĂ©es non identifiantes et peuvent avoir des consĂ©quences sur les droits fondamentaux excĂ©dant la protection des donnĂ©es personnelles et la non-discrimination, sans compter les formes de discriminations susceptibles de viser des groupes non couverts par les critères de discrimination prohibĂ©s par le droit (7).

7. Depuis plusieurs annĂ©es, des initiatives Ă©manent du secteur privĂ©. Conscients de la nĂ©cessitĂ© de proposer des solutions d’IA dignes de confiance pour en assurer le succès commercial, des professionnels proposent des guides d’Ă©thique Ă  destination des concepteurs et des dĂ©veloppeurs (8). Par ailleurs, des institutions internationales adressent aux Etats des recommandations allant dans le mĂŞme sens, par exemple celles adoptĂ©es par l’UNESCO le 24 novembre 2021 afin de « mettre les systèmes d’IA au service de l’humanitĂ©, des individus, des sociĂ©tĂ©s, de l’environnement et des Ă©cosystèmes, ainsi que de prĂ©venir les prĂ©judices » (9).

8. Les prĂ©occupations exprimĂ©es Ă  travers ces textes, souvent formulĂ©es Ă  partir d’une rĂ©fĂ©rence Ă  des « principes Ă©thiques », coĂŻncident en grande partie avec les droits de l’Homme, en particulier lorsqu’il est question de l’autonomie ou de la libertĂ©, du respect de la dignitĂ© de la personne humaine, ou encore de la non-discrimination. Elles disposent cependant d’une portĂ©e limitĂ©e, s’en remettant aux vertus de l’auto-rĂ©gulation des acteurs, au bon vouloir des industriels et des entreprises, et n’enjoignent aucune obligation aux Etats.

9. Etant donnĂ© l’impact important de l’IA sur les droits fondamentaux, cette approche n’apparaĂ®t pas suffisante. C’est pourquoi la CNCDH s’est auto-saisie de la question. L’ampleur des enjeux soulevĂ©s Ă  l’Ă©gard des droits fondamentaux par la conception, le dĂ©ploiement et l’utilisation des systèmes d’IA plaide pour la mise en place d’un cadre juridique contraignant en mesure de garantir le respect de ces droits. La CNCDH a suivi avec attention les rĂ©flexions et les travaux actuellement menĂ©s en ce sens au sein du Conseil de l’Europe par le CAHAI (10), qui pourraient aboutir Ă  l’adoption d’un cadre juridique pour « le dĂ©veloppement, la conception et l’application de l’intelligence artificielle, fondĂ©s sur les normes du Conseil de l’Europe en matière de droits de l’homme, de dĂ©mocratie et de droits de l’homme » (11). La CNCDH appelle de ses vĹ“ux l’adoption d’une « Convention 108+ de l’IA » (12). Quant Ă  la proposition de règlement sur l’IA de l’Union europĂ©enne (dĂ©nommĂ©e dans la suite « proposition de règlement »), qui fixe un premier cadre juridique rĂ©gional afin de « favoriser le dĂ©veloppement, l’utilisation et l’adoption de l’intelligence artificielle dans le marchĂ© intĂ©rieur, tout en respectant un niveau Ă©levĂ© de protection des intĂ©rĂŞts publics, tels que la santĂ© et la sĂ©curitĂ© et la protection des droits fondamentaux, tels que reconnus et protĂ©gĂ©s par le droit de l’Union » (13), elle est pour la CNCDH un prĂ©alable nĂ©cessaire Ă  la prise en compte des droits fondamentaux. NĂ©anmoins, la Commission relève l’insuffisance des garanties propres Ă  assurer un respect effectif de ces derniers. Dans la mesure oĂą la proposition de règlement doit ĂŞtre Ă  la hauteur des enjeux de protection de ces droits dans le recours Ă  des systèmes d’IA, la Commission recommande que ce texte assure, Ă  cette fin, la mise en place d’un cadre juridique contraignant.

Recommandation n° 2 : La Commission recommande de renforcer, au sein de la proposition de règlement de l’Union europĂ©enne relatif Ă  l’IA, les dispositions propres Ă  assurer la mise en place d’un cadre juridique contraignant, garant du respect effectif des droits fondamentaux. De surcroĂ®t, la CNCDH recommande l’adoption, dans le cadre du Conseil de l’Europe, d’une « Convention 108+ de l’IA ».

10. Ainsi, c’est en s’inspirant des diffĂ©rentes dĂ©marches dĂ©jĂ  esquissĂ©es par des instances nationales comme le DĂ©fenseur des droits ou la CNIL et les instances europĂ©ennes et internationales, que la CNCDH souhaite dĂ©finir les grandes lignes d’un cadre gĂ©nĂ©ral, respectueux des droits fondamentaux, pour les systèmes d’IA. Ce faisant, son avis pourra contribuer Ă  nourrir les nĂ©cessaires modifications du règlement IA de l’UE. D’autres avis suivront Ă  l’avenir afin d’identifier les risques pour les droits de l’homme, propres Ă  l’utilisation de l’IA dans certains secteurs, ainsi que les garanties susceptibles d’y remĂ©dier. D’ailleurs, la CNCDH s’est dĂ©jĂ  exprimĂ©e dans son avis sur la lutte contre la haine en ligne (14) Ă  propos de l’utilisation des algorithmes de modĂ©ration des contenus sur les rĂ©seaux sociaux.

11. La CNCDH prĂ©cise que la valorisation d’un cadre juridique contraignant n’exclut Ă©videmment pas des dispositifs de droit souple, avec des certifications, labels, sous le contrĂ´le de l’autoritĂ© de rĂ©gulation, afin de favoriser le dĂ©veloppement de bonnes pratiques susceptibles d’accompagner la mise en Ĺ“uvre de cette rĂ©glementation.

12. Soucieuse de promouvoir une approche fondĂ©e sur les droits de l’Homme (15), la CNCDH s’attachera ici Ă  la fois Ă  mettre en avant la nĂ©cessitĂ© d’inclure dans la rĂ©flexion et la supervision Ă  l’Ă©gard des systèmes d’IA les segments les plus marginalisĂ©s de la population et, au-delĂ , Ă  insister sur l’importance de mettre en place un cadre juridique permettant de garantir le respect des droits fondamentaux. L’approche fondĂ©e sur les droits de l’Homme implique de placer la personne humaine en position de dĂ©finir ses besoins et donc de soutenir le dĂ©veloppement d’une IA au service de l’humain et de son autonomie. Cette approche devrait davantage irriguer les rĂ©formes en cours, dès lors qu’elles entendent garantir le respect des droits fondamentaux.

Recommandation n° 3 : la CNCDH recommande la prise en compte d’une approche fondĂ©e sur les droits de l’Homme dans les rĂ©formes en cours, dès lors qu’elles entendent garantir le respect des droits fondamentaux.

13. Les observations et recommandations de la CNCDH traiteront des deux composantes d’un encadrement de l’IA respectueux des droits fondamentaux : une dĂ©finition des « lignes rouges », autrement dit les usages de l’IA Ă  proscrire (1); des garanties Ă  promouvoir pour assurer un encadrement des systèmes d’IA respectueux des droits fondamentaux (2).

14. Dans le cadre de cet avis, et en s’inspirant de la terminologie consacrĂ©e par les instances de l’Union europĂ©enne (16), la CNCDH dĂ©signera par « concepteur » ou « fournisseur » la personne physique ou morale qui dĂ©veloppe un système d’IA ; par « utilisateur », toute personne physique ou morale, autoritĂ© publique, agence ou autre organisme, y compris de droit privĂ©, utilisant sous sa propre autoritĂ© un système d’IA ; et par « personne concernĂ©e » ou « personne visĂ©e par un système d’IA », toute personne physique exposĂ©e Ă  un système d’IA ou impactĂ©e par celui-ci.

1. Les lignes rouges :

15. Certains usages de l’IA portent une atteinte trop grave aux droits fondamentaux pour ĂŞtre admis. Il revient aux pouvoirs publics d’en prohiber la mise en place. La proposition de règlement de l’UE interdit quelques cas d’utilisation de l’IA considĂ©rĂ©s, Ă  juste titre, comme « particulièrement nĂ©fastes » (17). La CNCDH relève toutefois certaines limites dans la dĂ©finition des usages proscrits. En outre, d’autres usages paraissent tout aussi dangereux pour les droits fondamentaux et la dignitĂ© humaine et mĂ©riteraient, en tant que tels, d’ĂŞtre interdits Ă©galement.

1.1. Les apports et les limites des interdictions posées par la proposition de règlement UE :

16. La proposition de règlement de l’UE relative Ă  l’IA dresse une liste des utilisations « interdites en raison de leur caractère contraire aux valeurs de l’Union » (18). Cette technologie peut en effet ĂŞtre « utilisĂ©e Ă  mauvais escient et fournir des outils nouveaux et puissants Ă  l’appui de pratiques de manipulation, d’exploitation et de contrĂ´le social » (19). La CNCDH se rallie Ă  l’idĂ©e que certains usages de l’IA devraient faire l’objet d’une prohibition pure et simple, au regard de l’ampleur de leur impact sur les droits et libertĂ©s fondamentaux.

17. Les systèmes particulièrement problématiques de ce point de vue, identifiés par la proposition de règlement, représentent de graves menaces pour la protection des droits et libertés fondamentaux :
– les systèmes reposant sur des composants subliminaux que les personnes ne peuvent pas percevoir, ou exploitant les fragilitĂ©s des enfants et des personnes vulnĂ©rables en raison de leur âge ou de leurs handicaps physiques ou mentaux, et qui, en altĂ©rant leur comportement, peuvent leur causer un prĂ©judice, physique ou psychologique ;
– les systèmes d’IA permettant la notation sociale des personnes physiques, en fonction de leur comportement ou de leurs caractĂ©ristiques personnelles, par les autoritĂ©s publiques ou pour le compte de celles-ci, Ă  des fins de traitement prĂ©judiciable ou dĂ©favorable de certaines personnes physiques ou de groupes de personnes ;
– l’identification biomĂ©trique Ă  distance « en temps rĂ©el », Ă  des fins rĂ©pressives, de personnes physiques dans des espaces accessibles au public.

18. La CNCDH s’interroge sur la dĂ©finition et la portĂ©e des interdictions ainsi imposĂ©es Ă  l’utilisation des systèmes d’IA.

19. D’abord, s’agissant du premier cas de figure, les termes employĂ©s pour dĂ©finir des applications « malveillantes » pourraient couvrir un grand nombre de situations, d’interfaces et de services en ligne, actuellement très en vogue : les dispositifs de « nudge » ou de « sludge » (20), mis en place par les rĂ©seaux sociaux ou les sites d’achat en ligne, exploitent les biais cognitifs pour orienter le comportement des utilisateurs, afin de capter leur attention, les inciter Ă  acheter un produit, etc. Des termes tels que « subliminal » ou « substantiel » relèvent d’une apprĂ©ciation particulièrement complexe, et rendent incertaine la portĂ©e de cette première limite Ă  l’utilisation de l’IA. Cette interdiction prĂ©sente toutefois le mĂ©rite de susciter des interrogations sur les risques admissibles de manipulation par l’IA, notamment en ce qui concerne les processus d’automatisation du traitement des informations issues de recherches en neuromarketing (21). Elle est d’autant plus essentielle, de surcroĂ®t, que se dĂ©veloppent des « augmented dark patterns » permettant, par un traitement algorithmique, d’agir dynamiquement sur les stimuli des utilisateurs pour exploiter leurs vulnĂ©rabilitĂ©s. A cet Ă©gard, la CNCDH soutient la volontĂ© des parlementaires europĂ©ens, exprimĂ©e par ailleurs (22), d’interdire aux très grandes plateformes en ligne l’utilisation de techniques de manipulation qui visent Ă  inciter les utilisateurs Ă  faire certains choix.

Recommandation n° 4 : La CNCDH recommande l’interdiction du recours aux interfaces de choix dès lors qu’elles ont pour objet ou pour effet de manipuler, Ă  leur dĂ©triment, les utilisateurs en exploitant leurs vulnĂ©rabilitĂ©s.

20. Ensuite, et de manière plus inquiĂ©tante, la proposition du texte de l’UE prohibe la notation sociale (« social scoring »), qui consiste Ă  Ă©valuer les personnes en fonction de leur comportement social ou de caractĂ©ristiques personnelles ou de personnalitĂ© connues ou prĂ©dites, uniquement lorsqu’elle est pratiquĂ©e par les administrations ou pour le compte de celles-ci. Or, les entreprises privĂ©es, par exemple les rĂ©seaux sociaux, peuvent aussi traiter de vastes quantitĂ©s de donnĂ©es personnelles et effectuer du scoring. Par consĂ©quent, la CNCDH se rallie Ă  la position des autoritĂ©s europĂ©ennes de protection des donnĂ©es, favorable Ă  une interdiction de tout type de notation sociale, quelle que soit la nature, publique ou privĂ©e, de l’entitĂ© qui la met place (23).

Recommandation n° 5 : La CNCDH recommande d’interdire tout type de notation sociale (« social scoring ») mis en place par les administrations ou par toute entreprise, publique ou privĂ©e.

21. Enfin, la prohibition de l’identification biomĂ©trique Ă  distance « en temps rĂ©el » de personnes physiques – autrement dit l’utilisation de l’IA en vue d’une reconnaissance automatisĂ©e de caractĂ©ristiques humaines telles que le visage, la voix, la dĂ©marche, etc. – dans des espaces accessibles au public et Ă  des fins rĂ©pressives soulève, en tant que telle, des interrogations sur son champ d’application, mais Ă©galement des inquiĂ©tudes au regard de l’Ă©tendue des dĂ©rogations admises par la proposition de règlement.

22. La CNCDH rejoint la Commission europĂ©enne lorsqu’elle met en avant non seulement le risque pour le respect de la vie privĂ©e engendrĂ© par un tel dispositif, mais aussi le « sentiment de surveillance constante » susceptible d’ĂŞtre gĂ©nĂ©rĂ© par cette technologie et le risque de « dissuader indirectement l’exercice de la libertĂ© de rĂ©union et d’autres droits fondamentaux » (24), Ă  commencer par la libertĂ© de circulation. La CNCDH souligne toutefois que cet effet dissuasif vaut tout autant pour un système d’identification biomĂ©trique a posteriori, c’est-Ă -dire en temps diffĂ©rĂ© par rapport au moment oĂą les images ont Ă©tĂ© collectĂ©es (25). Par ailleurs, Ă  dĂ©faut d’une interdiction expresse, l’utilisation de cette technologie Ă  des fins prĂ©ventives est autorisĂ©e ; mais les rĂ©serves exprimĂ©es plus haut, Ă  l’Ă©gard de son utilisation dans un cadre rĂ©pressif, valent Ă©galement, si ce n’est plus, lorsqu’elle intervient pour prĂ©venir des atteintes Ă  l’ordre public.

23. Par ailleurs, la proposition de règlement prĂ©voit trois exceptions Ă  l’interdiction de l’identification biomĂ©trique en temps rĂ©el des personnes : la recherche ciblĂ©e de victimes potentielles, notamment d’enfants disparus ; la prĂ©vention d’une menace spĂ©cifique, substantielle et imminente pour la vie ou la sĂ©curitĂ© des personnes ou la prĂ©vention d’une attaque terroriste ; la dĂ©tection, la localisation, l’identification ou les poursuites Ă  l’encontre de l’auteur, ou de la personne soupçonnĂ©e, d’une infraction pĂ©nale visĂ©e Ă  l’article 2, paragraphe 2, de la dĂ©cision-cadre 2002/584/JAI du Conseil (26). Cette troisième exception est particulièrement prĂ©occupante puisqu’en admettant cette technologie pour plus d’une trentaine d’infractions, elle vide d’une grande partie de son effectivitĂ© l’interdiction de principe.

24. En dĂ©finitive, la CNCDH recommande donc l’interdiction de l’identification biomĂ©trique Ă  distance des personnes dans l’espace public et les lieux accessibles au public, en raison des risques d’atteinte grave aux droits et libertĂ©s fondamentaux liĂ©s Ă  une remise en cause, rĂ©elle ou supposĂ©e, de l’anonymat dans l’espace public (27). Elle admet toutefois la lĂ©gitimitĂ© des deux premiers types d’exceptions envisagĂ©es par la proposition de règlement, tout en insistant sur la nĂ©cessitĂ© d’en assurer, le cas Ă©chĂ©ant, un strict encadrement. L’exception devrait ainsi notamment se limiter Ă  la recherche ciblĂ©e de victimes potentielles ou Ă  la prĂ©vention d’une menace grave et imminente pour la vie ou la sĂ©curitĂ© des personnes et celle des ouvrages, installations et Ă©tablissements d’importance vitale.

Recommandation n° 6 : La CNCDH recommande d’interdire l’identification biomĂ©trique Ă  distance des personnes dans l’espace public et les lieux accessibles au public, en admettant par exception son utilisation, dès lors que celle-ci est strictement nĂ©cessaire, adaptĂ©e et proportionnĂ©e pour la prĂ©vention d’une menace grave et imminente pour la vie ou la sĂ©curitĂ© des personnes et celle des ouvrages, installations et Ă©tablissements d’importance vitale.

25. Après avoir passĂ© en revue les utilisations de l’IA jugĂ©es inacceptables par la proposition de règlement, la CNCDH s’interroge sur la mĂ©thode suivie par la Commission europĂ©enne pour parvenir Ă  cette identification, Ă  dĂ©faut d’indications suffisantes Ă  ce sujet. En s’inspirant du « triple test » issu de la jurisprudence de la Cour europĂ©enne des droits de l’homme, entĂ©rinĂ© par les jurisprudences du Conseil constitutionnel et du Conseil d’Etat (28), la CNCDH estime que, pour ĂŞtre considĂ©rĂ©e comme lĂ©gitime, l’atteinte apportĂ©e par un système d’IA Ă  une libertĂ© doit ĂŞtre « adaptĂ©e, nĂ©cessaire et proportionnĂ©e » : adaptĂ©e, c’est-Ă -dire pertinente par rapport Ă  l’objectif lĂ©gitime poursuivi ; nĂ©cessaire, dès lors qu’elle ne doit pas excĂ©der ce qu’exige la rĂ©alisation de cet objectif et que d’autres moyens moins attentatoires Ă  la libertĂ© n’Ă©taient pas envisageables ; proportionnĂ©e, en ce qu’elle ne doit pas, par les charges qu’elle crĂ©e, ĂŞtre hors de proportion avec le rĂ©sultat recherchĂ© (29).

1.2. La nĂ©cessitĂ© d’Ă©tendre l’interdiction Ă  d’autres domaines :

26. La CNCDH a optĂ© dans le prĂ©sent avis pour une approche globale et transversale des systèmes d’IA. Elle n’a donc pas procĂ©dĂ© Ă  un examen dĂ©taillĂ© des diffĂ©rentes applications susceptibles de porter une atteinte excessive aux droits fondamentaux justifiant leur interdiction. Ce type d’analyse pourra ĂŞtre menĂ© dans des avis futurs consacrĂ©s Ă  de nouvelles technologies ou Ă  des secteurs d’activitĂ© particuliers. D’ores et dĂ©jĂ  toutefois, en complĂ©ment des observations relatives aux cas d’usage prohibĂ©s par la proposition de règlement UE sur l’IA, la CNCDH souhaiterait mettre en avant deux types d’utilisation particulièrement prĂ©occupants pour le respect des droits de l’Homme : la justice prĂ©dictive et la reconnaissance des Ă©motions Ă  l’appui d’un processus de sĂ©lection.

1.2.1. L’IA en justice :

27. Des applications telles que celles utilisĂ©es aux Etats-Unis pour Ă©valuer le risque de rĂ©cidive de personnes condamnĂ©es (30) font peser une grave menace sur les droits fondamentaux de ces dernières. Le manque de transparence des logiciels utilisĂ©s (conçus par des sociĂ©tĂ©s privĂ©es) remet en cause leur compatibilitĂ© avec les droits fondamentaux des personnes et la garantie des droits de la dĂ©fense. En effet, sous couvert du droit au secret des affaires et de la propriĂ©tĂ© intellectuelle, les concepteurs de ces logiciels ne sont pas tenus de partager le code source de leurs algorithmes, d’oĂą rĂ©sulte leur mode d’emploi. Il est donc impossible Ă  la fois pour le juge et les parties au procès de comprendre prĂ©cisĂ©ment la mĂ©thodologie utilisĂ©e par l’algorithme pour produire ses rĂ©sultats (31).

28. D’ores et dĂ©jĂ  ce type de recours Ă  l’IA est interdit en France puisqu’« aucune dĂ©cision de justice impliquant une apprĂ©ciation sur le comportement d’une personne ne peut avoir pour fondement un traitement automatisĂ© de donnĂ©es Ă  caractère personnel destinĂ© Ă  Ă©valuer certains aspects de la personnalitĂ© de cette personne » (32). La formule ainsi retenue n’Ă©carte cependant pas toute possibilitĂ© de fournir aux magistrats une application d’IA rĂ©pondant Ă  d’autres finalitĂ©s, par exemple pour automatiser le calcul de l’indemnisation d’un prĂ©judice.

29. Au regard de la charge de travail qui pèse actuellement sur les magistrats, les garanties qui pourraient ĂŞtre prĂ©vues afin de prĂ©server l’impartialitĂ© du juge (explicabilitĂ©/intelligibilitĂ© du fonctionnement de l’algorithme, renforcement des moyens de remĂ©dier aux biais d’automatisation) ne paraissent pas suffisantes pour endiguer le risque d’une reprise quasi systĂ©matique des rĂ©sultats de la machine. En outre, l’intervention d’un système d’IA pour apporter une assistance au juge pourra Ă©veiller des doutes chez le justiciable Ă  l’Ă©gard de son impartialitĂ©. Or, le juge ne doit pas seulement ĂŞtre indĂ©pendant et impartial, il doit Ă©galement en donner l’apparence (33). C’est donc le droit Ă  un procès Ă©quitable qui est ainsi remis en cause par ce type de logiciel.

30. Par ailleurs, si l’on peut admettre que le juge dispose d’un outil informatique pour faciliter son Ă©valuation de l’indemnisation des victimes d’un prĂ©judice (34), celui-ci ne saurait reposer sur de l’apprentissage machine, trop opaque pour satisfaire Ă  l’exigence d’explicabilitĂ© que les justiciables sont en droit d’attendre (35). La CNCDH relève par ailleurs que le ministère de la Justice a mis fin prĂ©maturĂ©ment, en janvier dernier, Ă  son expĂ©rimentation d’un tel logiciel, en rĂ©alisant la multiplicitĂ© des critères Ă  prendre en compte pour caractĂ©riser l’Ă©tendue d’un prĂ©judice corporel et l’importance excessive des moyens Ă  mobiliser pour Ă©tudier et prĂ©venir les biais algorithmiques afin d’atteindre un niveau de performance satisfaisant (36).
Recommandation n° 7 : La CNCDH recommande de poursuivre et d’approfondir la rĂ©flexion afin d’identifier les apports et les limites d’une utilisation de l’IA dans le cadre des procĂ©dures juridictionnelles.

1.2.2. L’IA et la reconnaissance des Ă©motions :

31. Les technologies de reconnaissance des Ă©motions reposent sur un postulat dont la scientificitĂ© fait dĂ©faut, Ă  savoir que les Ă©motions sont dĂ©tectables par des expressions du visage ou, plus largement, par des manifestations corporelles. Or, comme le rappelle le CAHAI, « aucune preuve scientifique solide ne corrobore l’idĂ©e qu’il serait possible de « lire » les Ă©motions ou l’Ă©tat d’esprit d’une personne sur son visage ou via d’autres donnĂ©es biomĂ©triques » (37). Outre la performance du système d’IA, Ă  laquelle des progrès dans la conception pourraient remĂ©dier, son caractère peut ĂŞtre inappropriĂ©. Plusieurs instances, nationales (38) et internationales (39), ont dĂ©jĂ  exprimĂ© leur prĂ©occupation Ă  cet Ă©gard, les instances europĂ©ennes de protection des donnĂ©es ayant mĂŞme prĂ©conisĂ© rĂ©cemment d’interdire la dĂ©duction d’Ă©motions par l’utilisation de l’IA, sauf dans certains cas bien prĂ©cis « notamment Ă  des fins de santĂ© et de recherche » (40).

32. Partageant les mĂŞmes craintes, la CNCDH recommande donc d’appliquer en la matière un principe d’interdiction, Ă  moins de pouvoir dĂ©montrer que cette technologie biomĂ©trique est en mesure de renforcer l’autonomie des personnes, ou plus largement l’effectivitĂ© de leurs droits fondamentaux. A cette fin et malgrĂ© ses approximations, cette technologie d’IA peut par exemple favoriser des activitĂ©s d’apprentissage auprès de personnes en situation de handicap ou s’avĂ©rer utile pour d’autres interactions humain-machine (des robots de compagnie pour les personnes âgĂ©es par exemple).

Recommandation n° 8 : La CNCDH recommande d’interdire les technologies de reconnaissance des Ă©motions, en admettant par exception leur utilisation dès lors qu’elles visent Ă  renforcer l’autonomie des personnes, ou plus largement l’effectivitĂ© de leurs droits fondamentaux.

2. Un encadrement garant du respect des droits fondamentaux.

33. MĂŞme si beaucoup d’applications de l’IA ne portent pas une atteinte disproportionnĂ©e aux droits et libertĂ©s fondamentaux justifiant leur interdiction, la CNCDH appelle cependant les pouvoirs publics Ă  faire respecter certaines garanties par les acteurs publics et privĂ©s, aux stades de la conception, du dĂ©veloppement et de l’utilisation de l’IA. Cela doit passer essentiellement par un contrĂ´le et une supervision du système d’IA, Ă  tous les stades de son cycle de vie, au regard de son impact sur les droits fondamentaux. Outre cette vigilance Ă  exercer Ă  l’Ă©gard du système envisagĂ© globalement (2.1), les dĂ©cisions issues de sa mise en Ĺ“uvre doivent ĂŞtre assorties de garanties en mesure de protĂ©ger les individus (2.2).

2.1. Un contrôle à tous les stades de développement du système IA :

34. En fonction des domaines concernĂ©s (organisation du travail, calcul des prestations sociales, des aides aux entreprises, etc.), opter pour une solution IA peut avoir des rĂ©percussions sur les salariĂ©s ou sur les personnes visĂ©es par les dĂ©cisions du logiciel. Une approche de l’IA fondĂ©e sur les droits de l’homme suppose l’implication des personnes concernĂ©es par son dĂ©ploiement, en particulier les plus vulnĂ©rables (41) : 1. en amont, la rĂ©alisation d’une Ă©tude d’impact sur les droits fondamentaux reprĂ©sente une Ă©tape essentielle, dont le rĂ©sultat conditionnera le niveau de participation des parties prenantes Ă  ce stade ; 2. ensuite, la phase de supervision de l’exĂ©cution du système d’IA, doit les inclure afin d’Ă©valuer si son fonctionnement conduit Ă  des atteintes aux droits fondamentaux ; 3. plus gĂ©nĂ©ralement, l’Ă©tendue de ce contrĂ´le humain suppose de renforcer l’offre de formation des professionnels et de sensibilisation des particuliers.

2.1.1. Une Ă©tude d’impact sur les droits fondamentaux : un prĂ©alable nĂ©cessaire :

35. A cĂ´tĂ© de certains usages de l’IA Ă  prohiber en raison de la gravitĂ© des risques qu’ils font peser sur les droits et libertĂ©s fondamentaux (42), d’autres usages peuvent avoir un impact plus ou moins nĂ©gatif sur les droits fondamentaux. Ces effets nĂ©gatifs sont Ă©voquĂ©s le plus souvent Ă  partir d’une rĂ©fĂ©rence aux secteurs « sensibles » dans lesquels le système est dĂ©ployĂ©, tels que la police, la justice, ou la santĂ©, ou bien encore Ă  partir d’un inventaire des droits et libertĂ©s fondamentaux susceptibles d’ĂŞtre mis en cause par telle ou telle technologie d’IA (43).

L’approche du règlement IA de l’UE : une dĂ©finition a priori et centralisĂ©e des risques pour les droits fondamentaux :

36. De son cĂ´tĂ©, la proposition de règlement rĂ©serve un traitement particulier aux systèmes d’IA qualifiĂ©s « Ă  haut risque », identifiĂ©s comme tels par la Commission europĂ©enne en raison de l’« ampleur » de leur incidence nĂ©gative sur la santĂ©, la sĂ©curitĂ© ou sur les droits fondamentaux. Il s’agit de systèmes d’IA qui interviennent dans des domaines « sensibles » : identification biomĂ©trique, gestion et exploitation des infrastructures critiques, Ă©ducation et formation, emploi, accès aux services privĂ©s essentiels, aux services publics et aux prestations sociales, police, justice, gestion de la migration. L’Ă©valuation de l’impact des systèmes d’IA sur les droits de l’homme est par consĂ©quent centralisĂ©e et rĂ©alisĂ©e a priori : les systèmes Ă  haut risque figurent dans une liste (44) que la Commission a la possibilitĂ© de complĂ©ter Ă  certaines conditions et selon une procĂ©dure susceptible de prendre du temps (45). Demeure bien Ă©videmment pour les responsables de traitements de donnĂ©es personnelles l’obligation de procĂ©der, conformĂ©ment aux exigences du RGPD, Ă  une analyse d’impact relative Ă  la protection des donnĂ©es et, plus largement, aux droits et libertĂ©s des personnes physiques (46).

37. La CNCDH Ă©met des rĂ©serves sur ce dispositif pour plusieurs raisons. D’abord, l’innovation technologique Ă©volue toujours plus vite que la rĂ©glementation, et la liste des systèmes d’IA Ă  haut risque retenue par les institutions europĂ©ennes pourrait ne pas prendre en compte des utilisations prĂ©sentes et Ă  venir particulièrement prĂ©occupantes pour les droits fondamentaux. Ensuite, l’IA peut prĂ©senter la particularitĂ©, notamment s’agissant de l’apprentissage machine dans sa version le plus automatisĂ©e (deep learning), d’Ă©voluer de manière autonome par rapport aux intentions de ses concepteurs : c’est pourquoi des risques ignorĂ©s au moment de la conception du système peuvent apparaĂ®tre au stade du dĂ©veloppement de l’algorithme puis de son utilisation (47). Surtout, l’inscription dans cette liste engendre une sĂ©rie d’obligations, principalement Ă  la charge des fournisseurs, relatives Ă  la gestion des risques, l’intĂ©gritĂ© des donnĂ©es, le contrĂ´le et le suivi du système, etc. tandis que peu d’obligations pèsent sur l’utilisateur d’un système d’IA Ă  haut risque (48).

Une Ă©tude d’impact sur les droits fondamentaux Ă  la charge des utilisateurs :

38. La CNCDH considère qu’il faut aller plus loin en exigeant Ă©galement de la part de l’utilisateur du système d’IA qu’il rĂ©alise une Ă©tude de son impact sur les droits fondamentaux. Pour plusieurs motifs : d’abord, parce cette Ă©tude responsabilise l’organisme public ou privĂ© qui souhaite recourir Ă  cette option informatique ; ensuite, parce qu’elle pourra Ă©ventuellement permettre de nourrir un dialogue entre toutes les parties prenantes (salariĂ©s, clients, usagers d’un service public, etc.) sur l’opportunitĂ© de son utilisation ; enfin, parce qu’elle constituera une source d’information pour la supervision du système d’IA tout au long de son cycle de vie, voire aussi pour la personne visĂ©e in fine par une dĂ©cision automatisĂ©e.

39. S’il n’est pas question dans le cadre de cet avis Ă  portĂ©e gĂ©nĂ©rale de dĂ©tailler les Ă©lĂ©ments Ă  prendre en compte pour mener cette analyse, la CNCDH souhaiterait formuler un certain nombre de recommandations relatives aux grandes lignes qui pourraient orienter sa rĂ©alisation.

40. Elle recommande ainsi qu’il revienne Ă  l’utilisateur d’Ă©valuer l’impact du recours au système d’IA sur les droits fondamentaux et, en cas de risques identifiĂ©s, de procĂ©der Ă  leur Ă©valuation en tenant compte de la probabilitĂ© et de la gravitĂ© de ces derniers. Cela concernerait par exemple des algorithmes de dĂ©tection des fraudes Ă  la rĂ©glementation fiscale, ou aux prestations sociales, les systèmes d’aide Ă  la gestion du personnel, les logiciels de commande vocale dans les plateformes de distribution, etc.

41. Cette analyse inclura Ă©ventuellement la communication d’Ă©lĂ©ments fournis par le concepteur, lorsqu’ils ont une incidence sur les droits fondamentaux : les jeux de donnĂ©es utilisĂ©s pour l’apprentissage de la machine, par exemple pour les logiciels de dĂ©tection de comportements suspects destinĂ©s Ă  Ă©quiper des camĂ©ras de surveillance ; les diffĂ©rents types de paramĂ©trage possible, par exemple s’agissant des outils de modĂ©ration automatisĂ©e de contenu, etc. L’utilisateur devra par consĂ©quent indiquer et justifier ses choix de paramĂ©trage en mettant en perspective la finalitĂ© recherchĂ©e et les risques d’atteinte aux droits fondamentaux.

Le contenu de l’Ă©tude d’impact :

42. S’agissant de son contenu, toute analyse d’impact devrait, au minimum, consister dans un premier temps Ă  mentionner les finalitĂ©s attachĂ©es Ă  l’utilisation du système d’IA envisagĂ©, et Ă  identifier les droits fondamentaux susceptibles d’ĂŞtre affectĂ©s.

43. Dans un second temps, cette Ă©tude devrait faire apparaĂ®tre les rĂ©ponses apportĂ©es par l’utilisateur aux questions qui alimentent habituellement le rĂ©gime d’encadrement des droits et libertĂ©s fondamentaux :
Est-il nĂ©cessaire de recourir Ă  un système d’IA pour la tâche considĂ©rĂ©e ? Dans quelle mesure apporte-t-il une plus-value au fonctionnement antĂ©rieur ?
Le système d’IA est-il adaptĂ© Ă  la finalitĂ© poursuivie ? Dans quelle mesure parviendra-t-il Ă  accomplir la tâche considĂ©rĂ©e ?
Le système d’IA est-il proportionnĂ© ? Dans quelle mesure l’atteinte susceptible d’ĂŞtre portĂ©e aux droits de l’homme, y compris l’impact environnemental, est-elle justifiĂ©e par rapport aux bĂ©nĂ©fices attendus pour rĂ©aliser l’objectif lĂ©gitime assignĂ© au système ?

44. Enfin, et sur un plan plus technique, l’Ă©tude d’impact devrait faire figurer les procĂ©dures mises en place pour assurer le suivi de l’application, ainsi que les mesures d’attĂ©nuation des risques encourus (49).
Les modalitĂ©s de consultation des parties prenantes conditionnĂ©es par les conclusions de l’Ă©tude d’impact :

45. En fonction du niveau de risque pour les droits fondamentaux identifiĂ© au terme de l’Ă©tude d’impact, une consultation avec les parties prenantes devrait Ă©ventuellement ĂŞtre prĂ©vue afin d’Ă©changer sur le choix de recourir ou non Ă  la solution d’IA envisagĂ©e par la direction.

Trois niveaux de risques pourraient être retenus afin de déterminer les modalités de cette consultation :
– un niveau Ă©levĂ© (pour tous les traitements ayant une incidence sur les droits des personnes) : une consultation de l’ensemble des parties prenantes, associant notamment les reprĂ©sentants du personnel, les associations d’usagers des services publics ou de consommateurs, en veillant Ă  inclure des associations de personnes dĂ©favorisĂ©es ;
– un niveau modĂ©rĂ© (pour les traitements n’ayant pas directement une incidence sur les droits des personnes, par exemple un logiciel de gestion des congĂ©s) : la consultation Ă©voquĂ©e en cas de niveau Ă©levĂ© serait facultative, et pourrait ĂŞtre par exemple sollicitĂ©e par les personnes concernĂ©es ou leurs reprĂ©sentants ;
– un niveau faible : l’Ă©tude d’impact serait communiquĂ©e Ă  la demande des personnes concernĂ©es par le système d’IA ou de leurs reprĂ©sentants.

46. Une Ă©tude d’impact Ă  la charge de l’utilisateur est d’autant plus nĂ©cessaire qu’elle facilitera la supervision du système d’IA une fois qu’il sera mis en place.
Recommandation n° 9 : La CNCDH recommande que l’utilisateur d’un système d’IA Ă©value l’impact du recours Ă  ce système sur les droits fondamentaux et, en cas de risques identifiĂ©s, procède Ă  leur Ă©valuation en tenant compte de la probabilitĂ© et de la gravitĂ© de ces derniers. L’Ă©tude d’impact devrait inclure au minimum :
– une mention de la ou des finalitĂ©s attachĂ©es Ă  l’utilisation du système d’IA envisagĂ© ;
– une identification des droits fondamentaux susceptibles d’ĂŞtre affectĂ©s par le système ;
– un examen du système d’IA envisagĂ©, Ă  partir d’une Ă©valuation de sa nĂ©cessitĂ©, de son caractère adaptĂ©, et de la proportionnalitĂ© des atteintes portĂ©es aux droits fondamentaux par rapport au but escomptĂ© ;
– les procĂ©dures mises en place pour assurer le suivi de l’application, et les mesures d’attĂ©nuation au regard des risques encourus.

Recommandation n° 10 : En fonction des risques engendrĂ©s par un système d’IA sur les droits fondamentaux dans un contexte d’usage particulier, la CNCDH recommande d’assurer prĂ©alablement Ă  la dĂ©cision d’y recourir, une consultation des parties prenantes, selon des modalitĂ©s adaptĂ©es, en incluant par exemple les reprĂ©sentants du personnel et, plus largement, les personnes visĂ©es par le système d’IA.

2.1.2. Une supervision du système tout au long du cycle de vie :

47. La qualitĂ© et la pertinence des donnĂ©es sĂ©lectionnĂ©es pour concevoir les algorithmes et le caractère proportionnĂ© des Ă©ventuelles atteintes portĂ©es aux droits fondamentaux par le système d’IA peuvent faire l’objet d’un contrĂ´le en amont de l’utilisation du système d’IA. Toutefois, des atteintes aux droits fondamentaux peuvent survenir après sa prise en main par l’utilisateur. C’est pourquoi une vigilance continue Ă  l’Ă©gard du fonctionnement du système d’IA doit ĂŞtre assurĂ©e. Cette supervision doit ĂŞtre organisĂ©e, Ă  l’instar de ce qui a Ă©tĂ© exposĂ© plus haut s’agissant de la consultation des parties prenantes Ă  l’issue de l’Ă©tude d’impact, selon des modalitĂ©s plus ou moins exigeantes pour l’utilisateur en fonction des risques pour les droits fondamentaux identifiĂ©s par cette Ă©tude.

Une vigilance en continue Ă  l’Ă©gard des effets du système d’IA sur les droits fondamentaux :

48. Un contrĂ´le pĂ©riodique doit ĂŞtre assurĂ© aux diffĂ©rentes Ă©tapes de l’utilisation d’un système d’IA. Il doit se fonder sur l’analyse d’impact Ă  l’Ă©gard des droits de l’Homme en s’assurant que les risques identifiĂ©s en amont ne se sont pas concrĂ©tisĂ©s ou, le cas Ă©chĂ©ant, identifier les mesures Ă  prendre pour neutraliser ces risques. Des atteintes aux droits fondamentaux non identifiĂ©es par l’Ă©tude d’impact peuvent aussi ĂŞtre relevĂ©es Ă  cette occasion.

49. A cet Ă©gard, une attention particulière pourrait ĂŞtre portĂ©e aux risques de discrimination engendrĂ©s par les systèmes d’IA. Ces risques ont dĂ©jĂ  Ă©tĂ© largement documentĂ©s (50). Alors que l’automatisation des processus dĂ©cisionnels pourrait laisser penser au premier abord qu’ils s’affranchissent des prĂ©jugĂ©s inhĂ©rents Ă  la subjectivitĂ© humaine, les algorithmes peuvent reproduire, renforcer ou gĂ©nĂ©rer des biais, notamment systĂ©miques, susceptibles d’aggraver des situations discriminatoires. Comme le souligne le DĂ©fenseur des droits Ă  la suite de la Commissaire aux droits de l’Homme du Conseil de l’Europe, il existe alors un risque majeur d’« essentialisation » et de renforcement des « stĂ©rĂ©otypes » car le caractère prĂ©dictif de l’algorithme est fondĂ© sur le comportement ou les caractĂ©ristiques homogĂ©nĂ©isĂ©es de groupes.

50. Ces biais peuvent ĂŞtre la consĂ©quence des donnĂ©es utilisĂ©es pour alimenter la machine. Les jeux de donnĂ©es utilisĂ©s pour entraĂ®ner le modèle algorithmique peuvent en effet inclure des discriminations, par exemple si l’on attend d’une IA qu’elle sĂ©lectionne les meilleures candidatures pour un poste donnĂ© Ă  partir des seuls dossiers de personnes recrutĂ©es prĂ©cĂ©demment, le modèle pourra reproduire des biais discriminatoires dès lors qu’ils caractĂ©risaient ces recrutements (raciste ou sexiste par exemple). Ces jeux de donnĂ©es peuvent aussi ne pas ĂŞtre suffisamment reprĂ©sentatifs de la diversitĂ© de la population, par exemple si des logiciels de reconnaissance faciale sont alimentĂ©s principalement par des photos de personnes de type caucasien ; ceux-ci auront tendance Ă  commettre des erreurs d’identification sur les personnes de couleur noire, Ă  l’origine d’interpellations injustifiĂ©es.

51. Les classifications algorithmiques risquent donc de gĂ©nĂ©rer des discriminations envers les personnes, en raison de leur appartenance Ă  un groupe, qui peut recouper indirectement un groupe protĂ©gĂ© par le droit de la non-discrimination (par un proxy, c’est-Ă -dire une variable liĂ©e Ă  un critère de discrimination prohibĂ© – par exemple une habitude alimentaire qui tĂ©moignerait des convictions religieuses).

52. En outre, les effets discriminatoires de l’algorithme sont peu perceptibles Ă  l’Ă©chelle individuelle, compte tenu de l’opacitĂ© du fonctionnement des dispositifs algorithmiques mais aussi du fait que ces discriminations s’observent beaucoup mieux Ă  l’Ă©chelle de groupes qu’Ă  l’Ă©chelle de l’individu (51). C’est pourquoi, une vigilance en continu doit s’exercer sur les systèmes d’IA et la classification algorithmique lorsque ces systèmes produisent des rĂ©sultats ayant des effets, mĂŞme indirects, sur les droits et libertĂ©s des personnes (52).

Les modalitĂ©s de la supervision par l’utilisateur :

53. La proposition de règlement relatif Ă  l’IA contraint les fournisseurs de systèmes d’IA Ă  haut risque Ă  instaurer un système de gestion de la qualitĂ©, censĂ© documenter l’ensemble des procĂ©dures et instructions qu’ils mettent en place pour se conformer aux exigences du règlement (53). Ces instructions doivent notamment inclure les modalitĂ©s de la surveillance Ă©tablie par le fournisseur après la commercialisation d’un système d’IA, afin qu’il respecte durablement la règlementation (54). Le contrĂ´le sur la manière dont le fournisseur assure cette surveillance est confiĂ© par la proposition de règlement Ă  des organismes d’Ă©valuation de la conformitĂ© homologuĂ©s (55), voire relève d’une Ă©valuation interne du fournisseur (56).

54. La CNCDH estime cette approche nĂ©cessaire mais insuffisante lorsque sont concernĂ©s des systèmes d’IA pour lesquels l’Ă©tude d’impact rĂ©vèle un risque important d’atteinte aux droits fondamentaux. Dans ce cas-lĂ , la supervision devrait reposer en complĂ©ment sur des tests et des sondages mis en Ĺ“uvre par les parties prenantes, l’utilisateur et les personnes concernĂ©es, selon une pĂ©riodicitĂ© Ă  dĂ©terminer en fonction du contexte d’usage. De ce point de vue, le « contrĂ´le humain » prĂ©vu par l’article 14 de la proposition de règlement, en particulier pour « apprĂ©hender totalement les capacitĂ©s et les limites du système d’IA », mĂ©riterait d’ĂŞtre prĂ©cisĂ© et complĂ©tĂ© par une rĂ©fĂ©rence Ă  la collĂ©gialitĂ© du processus et Ă  l’ouverture de ce collège aux diffĂ©rentes parties prenantes.

55. Le contrĂ´le relatif Ă  l’impact d’un système d’IA de recrutement ou de management au sein d’une entreprise ou d’une administration doit, par exemple, inclure une participation des reprĂ©sentants du personnel. Ces derniers sont en effet des acteurs de premier plan, notamment au sein du comitĂ© social et Ă©conomique (CSE) de l’entreprise, pour Ă©valuer les risques psycho sociaux engendrĂ©s par un système d’IA au sein de leur organisme mais Ă©galement son impact sur l’organisation du travail.

56. Si l’Ă©tude d’impact ne rĂ©vèle pas de risques importants pour les droits fondamentaux, la supervision du système d’IA pourra relever uniquement de l’utilisateur. La CNCDH insiste en effet sur la nĂ©cessitĂ© de mettre en avant son rĂ´le dans la vigilance Ă  maintenir tout au long du dĂ©ploiement du système, au-delĂ  de la simple communication de « donnĂ©es pertinentes » au fournisseur pour satisfaire Ă  l’obligation de surveillance qui incombe Ă  ce dernier, conformĂ©ment Ă  la proposition de règlement (57).

Recommandation n° 11 : La CNCDH recommande de mettre en place une supervision du système d’IA, selon une procĂ©dure susceptible de varier selon les risques d’atteintes aux droits fondamentaux tels qu’identifiĂ©s par l’Ă©tude d’impact, afin de maintenir une vigilance en continu de la part de l’utilisateur Ă  l’Ă©gard des effets du système, notamment ses effets discriminatoires.

2.1.3. Une formation et une sensibilisation aux enjeux de l’IA :

57. Vu la place Ă  accorder aux parties prenantes dans le contrĂ´le et la supervision des systèmes d’IA, notamment les salariĂ©s et les personnes concernĂ©es par les dĂ©cisions du système, la CNCDH recommande la mise en place de formations et de campagnes de sensibilisation aux technologies d’IA. Des modules de formation pourraient ĂŞtre largement diffusĂ©s auprès des salariĂ©s et de tout un chacun, par exemple sous forme de MOOC. La CNCDH recommande donc des investissements publics dans la conception d’outils de formation et d’information accessibles au plus grand nombre.

Recommandation n° 12 : La CNCDH recommande de favoriser les investissements publics dans la conception d’outils de formation et d’information accessibles au plus grand nombre.

58. En outre, les pouvoirs publics devraient organiser des dĂ©bats publics sur la question. Sur le modèle des Etats gĂ©nĂ©raux de la bioĂ©thique organisĂ©s par le ComitĂ© consultatif national d’Ă©thique (CCNE), ces consultations auraient une double vocation : d’une part, informer les citoyens du fonctionnement de ces systèmes, de leur finalitĂ©, et d’autre part, les mettre en capacitĂ© de se positionner Ă  l’Ă©gard des orientations nationales en la matière. Ce faisant, il s’agit de favoriser l’expression d’une diversitĂ© de points de vue sur un certain nombre d’usages de l’IA. Une attention particulière devrait ĂŞtre accordĂ©e aux personnes les plus dĂ©munies, afin de s’assurer qu’elles soient en mesure d’y participer.

Recommandation n° 13 : La CNCDH recommande l’organisation de consultations nationales sur le modèle des Etats gĂ©nĂ©raux de la bioĂ©thique organisĂ©s par le ComitĂ© consultatif national d’Ă©thique.

59. La part prise par les algorithmes dans la vie quotidienne et le fonctionnement de la sociĂ©tĂ© appelle Ă  l’acquisition d’une vĂ©ritable culture informatique dès le plus jeune âge. La CNCDH souligne ainsi la nĂ©cessitĂ© pour l’Education nationale de renforcer la formation des Ă©lèves aux enjeux techniques, politiques et sociĂ©taux de l’intelligence artificielle et de proposer, Ă  cette fin, des supports pĂ©dagogiques Ă  destination des enseignants.

Recommandation n° 14 : La CNCDH recommande Ă  l’Education nationale de renforcer la formation des Ă©lèves aux enjeux techniques, politiques et sociĂ©taux de l’intelligence artificielle et de proposer, Ă  cette fin, des supports pĂ©dagogiques Ă  destination des enseignants.

2.2. Des garanties du respect des droits fondamentaux Ă  l’Ă©gard des dĂ©cisions individuelles :

60. La part accordĂ©e Ă  l’algorithme dans la prise de dĂ©cision varie d’un usage Ă  l’autre : une intervention humaine peut ĂŞtre prĂ©vue, voire parfois requise, mais dans certains cas la dĂ©cision peut aussi ĂŞtre totalement automatisĂ©e. La nĂ©cessitĂ© et les modalitĂ©s de cette intervention dĂ©pendent du niveau de risque d’atteinte Ă  des droits fondamentaux. Par ailleurs, les personnes visĂ©es par un système d’IA doivent en ĂŞtre informĂ©es, et disposer Ă©galement d’informations intelligibles tant sur le fonctionnement de l’algorithme que sur la part prise par cet algorithme dans la dĂ©cision individuelle.

2.2.1. Une intervention humaine garante de la prise en compte des spécificités individuelles :

61. Pour « permettre Ă  l’homme de garder la main » (58) sur l’IA, la CNCDH appelle Ă  rĂ©introduire de l’humain au terme du processus de dĂ©cision automatisĂ©e : soit au niveau de l’utilisateur, chargĂ© d’assurer un contrĂ´le sur le rĂ©sultat produit par l’algorithme, soit au niveau de la personne concernĂ©e.

Une intervention humaine au niveau de l’utilisateur : un contrĂ´le du rĂ©sultat algorithmique :

62. Dans certains cas, la supervision humaine du fonctionnement gĂ©nĂ©ral du système d’IA, Ă©voquĂ©e plus haut, requiert en complĂ©ment une intervention humaine Ă  l’Ă©gard des dĂ©cisions individuelles fondĂ©es sur les rĂ©sultats de ce système. Le RGPD a consacrĂ© un droit « de ne pas faire l’objet d’une dĂ©cision fondĂ©e exclusivement sur un traitement automatisĂ©, y compris le profilage, produisant des effets juridiques la concernant ou l’affectant de manière significative de façon similaire » (59). Le lĂ©gislateur a pris soin de l’inscrire dans la loi de 1978 relative Ă  l’informatique et aux libertĂ©s en prĂ©cisant, vu le champ d’application du RGPD, que la prohibition concerne tout « traitement automatisĂ© de donnĂ©es Ă  caractère personnel » (60).

63. La règlementation actuelle prĂ©sente cependant une double limite : d’une part, elle ne couvre pas les traitements algorithmiques alimentĂ©s par des donnĂ©es anonymisĂ©es et, d’autre part, elle envisage de nombreuses dĂ©rogations Ă  son interdiction de principe, Ă  commencer par la facultĂ© laissĂ©e aux Etats membres de l’UE d’autoriser ce type de traitement, Ă  condition toutefois de prĂ©voir des « mesures appropriĂ©es pour la sauvegarde des droits et libertĂ©s et des intĂ©rĂŞts lĂ©gitimes de la personne concernĂ©e ».

64. La nĂ©cessitĂ© d’une intervention humaine a dĂ©jĂ  Ă©tĂ© soulignĂ©e par le Conseil constitutionnel, pour les dĂ©cisions individuelles adoptĂ©es Ă  partir d’un algorithme dont les modalitĂ©s de fonctionnement ne peuvent pas ĂŞtre communiquĂ©es (parce que leur communication porterait atteinte au secret dĂ©fense, Ă  la sĂ»retĂ© de l’Etat, etc.) (61). Plus rĂ©cemment, s’agissant du dispositif français de dĂ©tection des connexions susceptibles de rĂ©vĂ©ler une menace terroriste, la CJUE a fait valoir que « tout rĂ©sultat positif obtenu Ă  la suite d’un traitement automatisĂ© doit ĂŞtre soumis Ă  un rĂ©examen individuel par des moyens non automatisĂ©s avant l’adoption d’une mesure individuelle produisant des effets prĂ©judiciables Ă  l’Ă©gard des personnes concernĂ©es » (62).

65. La CNCDH considère que la nĂ©cessitĂ© d’une intervention humaine devrait s’imposer de manière plus gĂ©nĂ©rale, Ă  des degrĂ©s divers, selon le domaine considĂ©rĂ©, pour l’ensemble des traitements algorithmiques produisant des effets sur les droits des personnes.

66. Afin d’assurer un contrĂ´le humain effectif dans le contexte d’usage du système d’IA, les modalitĂ©s de l’intervention humaine pourront varier en fonction de l’impact du système d’IA sur les droits fondamentaux, s’agissant notamment :
– de la composition de l’instance en charge du contrĂ´le (individu ou collège) ;
– de l’Ă©tendue des informations mises Ă  la disposition de l’intervenant, sachant que, dans certains cas, il faudra lui communiquer des donnĂ©es complĂ©mentaires Ă  celles traitĂ©es par le système ;
– du type de formation dont doivent bĂ©nĂ©ficier les personnes chargĂ©es d’intervenir ;
– du moment propice pour intervenir (Ă  l’issue du rĂ©sultat obtenu par la machine, donc en amont de la dĂ©cision, ou bien ex post Ă  la demande de la personne).

67. Assurer une intervention humaine effective suppose d’informer l’intervenant sur les caractĂ©ristiques de l’algorithme utilisĂ© : la technologie Ă  l’origine de sa conception, le type de donnĂ©es utilisĂ©es pour sa modĂ©lisation, les paramètres de fonctionnement et la pondĂ©ration des critères retenus par le concepteur de l’algorithme, la fiabilitĂ©, etc. Cette information relative aux « rouages de la machine » s’impose pour favoriser une prise de distance vis-Ă -vis du système d’IA utilisĂ©, et ainsi rĂ©duire le biais cognitif d’automatisation qui consiste Ă  accorder une confiance excessive aux processus de dĂ©cision automatisĂ©s. C’est pourquoi la CNCDH rappelle la nĂ©cessitĂ© pour les professionnels assistĂ©s par une application d’IA dans l’exercice de leurs fonctions (mĂ©decins, magistrats, agents administratifs, recruteurs, etc.) de bĂ©nĂ©ficier d’une information claire, complète, et comprĂ©hensible sur ces aspects.

68. Afin de neutraliser le biais d’automatisation, la CNCDH recommande Ă©galement de former tout intervenant appelĂ© Ă  assurer un contrĂ´le sur les rĂ©sultats individuels produits par le système d’IA, qui insistera notamment sur ses limites (les biais issus des donnĂ©es, la nature probabiliste des rĂ©sultats obtenus, etc.). En outre, la Commission recommande de ne pas faire peser de contrainte particulière, par un surcroĂ®t de formalitĂ©s par exemple, sur ces personnes lorsqu’elles s’Ă©cartent de l’indication algorithmique.

69. Enfin, et s’agissant plus particulièrement des administrĂ©s, l’automatisation des dĂ©cisions ne peut qu’aggraver la mise Ă  l’Ă©cart ressentie, face Ă  la dĂ©matĂ©rialisation croissante des services publics et Ă  la difficultĂ© de faire valoir leurs droits (63). La CNCDH souscrit donc Ă  la recommandation du DĂ©fenseur des droits lorsqu’il prĂ©conise « le maintien systĂ©matique d’un accès alternatif et la possibilitĂ© d’un accompagnement suffisamment proche, compĂ©tent et disponible » (64).

Recommandation n° 15 : La CNCDH recommande de :
– garantir une intervention humaine pour le contrĂ´le des dĂ©cisions individuelles issues d’un système d’IA selon des modalitĂ©s correspondant au niveau de risque de ce dernier ;
– en assurer l’effectivitĂ© par une formation appropriĂ©e et une information de l’intervenant sur les caractĂ©ristiques du système, sans lui imposer de contrainte particulière lorsqu’il s’Ă©carte de la prĂ©conisation issue du système d’IA ;
– assurer aux usagers du service public le maintien systĂ©matique d’un accès alternatif Ă  un agent humain.

Une intervention humaine au niveau de la personne concernée : le droit au paramétrage :

70. Dans certains cas, la personne concernĂ©e par le fonctionnement de l’IA est directement exposĂ©e aux rĂ©sultats d’un algorithme conçu, selon le discours marketing qui l’accompagne, pour « rĂ©pondre Ă  ses besoins ». Sous cet angle, l’algorithme se prĂ©sente comme un outil façonnĂ© par un opĂ©rateur et utilisĂ© par les personnes qui recourent Ă  ses services. A cet Ă©gard, la CNCDH s’inquiète particulièrement de l’absence de maĂ®trise par l’utilisateur des paramètres de fonctionnement du système.

71. Comme la CNCDH l’a dĂ©jĂ  relevĂ© dans son avis sur la lutte contre la haine en ligne, une telle maĂ®trise paraĂ®t notamment nĂ©cessaire s’agissant des algorithmes de sĂ©lection des contenus sur les rĂ©seaux sociaux. La libertĂ© de conscience exige en effet de renforcer l’autonomie des utilisateurs et d’accroĂ®tre leur maĂ®trise sur les contenus qui leur sont proposĂ©s. La CNCDH renouvelle, dès lors, sa recommandation de leur reconnaĂ®tre un droit au paramĂ©trage des critères permettant de dĂ©terminer les contenus reçus, s’agissant tant de leur sĂ©lection que de leur prĂ©sentation (65).

72. Plus gĂ©nĂ©ralement, ce droit d’agir sur les paramètres de l’algorithme traduirait une nouvelle manifestation du rĂ´le qu’il convient de reconnaĂ®tre Ă  l’utilisateur dès lors que l’on prĂ´ne une vĂ©ritable « IA centrĂ©e sur l’humain », intention partagĂ©e par les autoritĂ©s françaises, europĂ©ennes et internationales. L’utilisateur pourrait ainsi se voir confĂ©rer un droit d’agir sur les paramètres des systèmes d’IA dès lors que ceux-ci se nourrissent des interactions interpersonnelles ou humain-machine qui sont notamment appelĂ©es Ă  se dĂ©velopper avec l’essor des agents conversationnels.

Recommandation n° 16 : La CNCDH recommande de reconnaĂ®tre au bĂ©nĂ©fice des utilisateurs des systèmes d’IA un droit au paramĂ©trage de leurs critères, notamment afin de dĂ©terminer la sĂ©lection et la prĂ©sentation des contenus reçus, et plus gĂ©nĂ©ralement dans l’hypothèse des interactions humain-machine.

2.2.2. Une information garante de la dignité de la personne humaine :

73. L’information relative aux caractĂ©ristiques du système d’IA utilisĂ© s’impose pour assurer le contrĂ´le de la dĂ©cision individuelle. Elle doit Ă©galement permettre Ă  la personne concernĂ©e d’en comprendre les motifs et, Ă©ventuellement, de la contester. Pour ce faire, la personne doit ĂŞtre informĂ©e que la dĂ©cision dont elle fait l’objet repose, en partie ou totalement, sur un processus automatisĂ©. Elle doit, ensuite, disposer d’Ă©lĂ©ments lui permettant de comprendre le fonctionnement de l’algorithme utilisĂ©.

L’information relative Ă  l’intervention d’un système d’IA dans la dĂ©cision :

74. La personne exposĂ©e Ă  un système d’IA doit en ĂŞtre informĂ©e. La CNCDH estime que c’est un prĂ©alable qui ne doit souffrir aucune exception.

75. La rĂ©glementation actuelle reconnaĂ®t d’ores et dĂ©jĂ  un droit, pour les usagers de l’administration concernĂ©s par l’utilisation d’un système d’IA, d’ĂŞtre informĂ©s qu’une dĂ©cision administrative individuelle a Ă©tĂ© prise sur le fondement d’un algorithme (66). Ce droit connaĂ®t toutefois un grand nombre d’exceptions. En effet, la loi prĂ©voit d’exclure cette information au cas oĂą cela aurait une incidence sur : le secret des dĂ©libĂ©rations du Gouvernement et des autoritĂ©s responsables relevant du pouvoir exĂ©cutif ; la dĂ©fense nationale ; la conduite de la politique extĂ©rieure de la France ; la sĂ»retĂ© de l’Etat, la sĂ©curitĂ© publique, la sĂ©curitĂ© des personnes ou la sĂ©curitĂ© des systèmes d’information des administrations ; la monnaie et le crĂ©dit public ; le dĂ©roulement des procĂ©dures engagĂ©es devant les juridictions ou d’opĂ©rations prĂ©liminaires Ă  de telles procĂ©dures, sauf autorisation donnĂ©e par l’autoritĂ© compĂ©tente ; la recherche et la prĂ©vention, par les services compĂ©tents, d’infractions de toute nature ; les autres secrets protĂ©gĂ©s au titre de l’article L. 124-4 du code de l’environnement (67).

76. La CNCDH regrette l’Ă©tendue de ces motifs, d’autant plus qu’ils ont Ă©tĂ© prĂ©vus initialement pour justifier l’exclusion d’une communication ou d’une consultation d’un document administratif. Il faut en effet distinguer deux types d’information : d’une part, l’information sur la nature du processus Ă  l’origine de la dĂ©cision, en l’occurrence l’utilisation d’un processus de dĂ©cision automatisĂ© et, d’autre part, l’information sur le fonctionnement de l’algorithme utilisĂ©. Si l’on peut admettre que les règles logiques composant l’algorithme puissent Ă©chapper Ă  une communication en raison d’un certain nombre d’impĂ©ratifs publics, cela ne saurait justifier l’absence de mention que la dĂ©cision individuelle repose sur l’utilisation d’un algorithme, alors mĂŞme que cet Ă©lĂ©ment d’information sera utile Ă  l’intĂ©ressĂ© en cas de recours juridictionnel.

77. La CNCDH estime que cette obligation d’information doit ĂŞtre Ă©tendue aux personnes privĂ©es, tout en Ă©tant conçue de manière plus large Ă  l’Ă©gard des personnes publiques.

78. Si la proposition de règlement de l’UE mentionne une « obligation de transparence », elle le fait de manière restrictive en la rĂ©servant Ă  certains systèmes d’IA. Elle fait d’abord peser une obligation sur les fournisseurs de systèmes d’IA destinĂ©s Ă  interagir avec l’ĂŞtre humain, en leur enjoignant de les concevoir de manière Ă  ce que les personnes concernĂ©es en soient averties. Ensuite, elle fait peser une obligation sur les utilisateurs de systèmes de reconnaissance des Ă©motions, ou d’un système de catĂ©gorisation biomĂ©trique, d’informer les personnes qui y sont exposĂ©es. Enfin, les manipulations d’image ou de contenus audio ou vidĂ©o, tels les « hypertrucages » (ou deepfake), doivent ĂŞtre accompagnĂ©es d’un message d’avertissement.

Recommandation n° 17 : La CNCDH recommande d’informer systĂ©matiquement les personnes lorsqu’elles sont exposĂ©es ou amenĂ©es Ă  interagir avec un système d’IA et, lorsqu’elles font l’objet d’une dĂ©cision, que cette dernière se fonde, le cas Ă©chĂ©ant, en partie ou totalement sur un traitement algorithmique.

79. Les personnes visĂ©es par une dĂ©cision issue d’un système d’IA doivent non seulement disposer d’un droit d’en ĂŞtre informĂ©es, mais Ă©galement disposer d’un droit de contester cette dĂ©cision auprès d’un ĂŞtre humain. Ce dernier devra ĂŞtre en mesure de rĂ©examiner le dossier de la personne. Afin de rendre effectif ce droit Ă  un rĂ©examen, des canaux facilement accessibles doivent ĂŞtre mis Ă  la disposition des personnes concernĂ©es.

Recommandation n° 18 : La CNCDH recommande de garantir Ă  la personne concernĂ©e un droit au rĂ©examen, par un ĂŞtre humain, de toute dĂ©cision individuelle fondĂ©e totalement, ou mĂŞme en partie, sur un traitement algorithmique, dès lors qu’elle emporte des consĂ©quences significatives pour elle.

L’information sur les modalitĂ©s de la prise de dĂ©cision automatisĂ©e :

80. L’exigence d’explicabilitĂ© des systèmes d’IA figure dans la plupart des textes de rĂ©fĂ©rence sur l’encadrement de l’IA (68). Parfois assimilĂ©e Ă  la « transparence », en tout cas susceptible d’acceptions diverses, l’explicabilitĂ© renvoie en substance Ă  la nĂ©cessitĂ© pour le concepteur et/ou pour l’utilisateur d’un système d’IA d’ĂŞtre en mesure de fournir aux personnes concernĂ©es des Ă©lĂ©ments d’information comprĂ©hensibles sur le fonctionnement de l’algorithme. Il convient de garantir un droit de disposer des moyens de comprendre les raisons pour lesquelles l’IA est parvenue Ă  son rĂ©sultat. Ce droit Ă  l’information doit s’Ă©tendre Ă  la communication des modalitĂ©s de l’Ă©ventuelle intervention humaine dans le processus de dĂ©cision.

81. A l’heure actuelle, la rĂ©glementation n’impose cette exigence qu’Ă  l’Ă©gard de l’administration. Celle-ci doit en effet communiquer « sous une forme intelligible » aux personnes ayant fait l’objet d’une dĂ©cision individuelle prise sur le fondement d’un traitement algorithmique, si elles en font la demande, les informations suivantes (69) :
1° Le degré et le mode de contribution du traitement algorithmique à la prise de décision ;
2° Les données traitées et leurs sources ;
3° Les paramètres de traitement et, le cas Ă©chĂ©ant, leur pondĂ©ration, appliquĂ©s Ă  la situation de l’intĂ©ressĂ© ;
4° Les opérations effectuées par le traitement.

82. La CNCDH recommande de mener une rĂ©flexion s’agissant de l’extension de cette obligation aux organismes privĂ©s dont l’activitĂ© peut affecter les droits des personnes (rĂ©seaux sociaux, banques, assurances, etc.). A cet Ă©gard, la protection de la propriĂ©tĂ© intellectuelle ne saurait constituer un obstacle dirimant : il ne s’agirait pas de rendre public le code source d’un logiciel, mais de communiquer Ă  la personne qui en fait la demande des informations sur les Ă©lĂ©ments pris en compte par la machine (notamment les critères saillants relatifs Ă  sa situation individuelle), dans un langage facile Ă  comprendre, afin d’expliquer le processus ayant conduit Ă  la dĂ©cision.

83. Dans des avis ultĂ©rieurs, la CNCDH examinera la proportionnalitĂ© des restrictions apportĂ©es Ă  l’exigence de communication de ces informations par l’administration et les organismes privĂ©s, lorsqu’elles sont susceptibles de porter atteinte Ă  un secret protĂ©gĂ© par la loi (70), en fonction des domaines considĂ©rĂ©s.

84. L’exigence d’explicabilitĂ© vaut plus largement pour garantir l’effectivitĂ© du droit au recours Ă  l’encontre des dĂ©cisions individuelles fondĂ©es sur un algorithme.

85. La complète information de la personne qui fait l’objet d’une dĂ©cision, par l’administration ou par un organisme privĂ©, un Ă©tablissement bancaire par exemple, suppose de lui communiquer des explications sur le fonctionnement de l’algorithme appliquĂ© Ă  sa situation personnelle et, plus encore, de lui restituer, le cas Ă©chant, les modalitĂ©s d’une intervention humaine.

Recommandation n° 19 : La CNCDH recommande aux administrations de communiquer sous une forme intelligible les informations sur le fonctionnement de l’algorithme, ainsi que sur la part Ă©ventuellement prise par une intervention humaine dans le processus de dĂ©cision. Elle recommande par ailleurs de mener une rĂ©flexion s’agissant de l’extension de cette obligation aux organismes privĂ©s.

86. Compte tenu de l’importance grandissante du dĂ©ploiement des systèmes d’intelligence artificielle, des enjeux majeurs qui en rĂ©sultent pour le respect des droits fondamentaux, ainsi que pour la prĂ©servation de l’Etat de droit et de la dĂ©mocratie, sans oublier celle de l’environnement, la Commission nationale consultative des droits de l’homme entend poursuivre Ă  l’avenir ses travaux sur l’intelligence artificielle, tout particulièrement pour examiner ses impacts, notamment dans les domaines de la santĂ©, de l’Ă©ducation, de l’emploi et de la justice.

Synthèse des recommandations.

Recommandation n° 1 : La CNCDH recommande de privilĂ©gier, dans la communication institutionnelle, une terminologie plus neutre et objective que l’expression « intelligence artificielle », telle que « systèmes algorithmiques d’aide Ă  la dĂ©cision » (SAAD).
Recommandation n° 2 : La Commission recommande de renforcer, au sein de la proposition de règlement de l’Union europĂ©enne relatif Ă  l’IA, les dispositions propres Ă  assurer la mise en place d’un cadre juridique contraignant, garant du respect effectif des droits fondamentaux. De surcroĂ®t, la CNCDH recommande l’adoption, dans le cadre du Conseil de l’Europe, d’une « Convention 108+ de l’IA ».
Recommandation n° 3 : la CNCDH recommande la prise en compte d’une approche fondĂ©e sur les droits de l’Homme dans les rĂ©formes en cours, dès lors qu’elles entendent garantir le respect des droits fondamentaux.
Recommandation n° 4 : La CNCDH recommande l’interdiction du recours aux interfaces de choix dès lors qu’elles ont pour objet ou pour effet de manipuler, Ă  leur dĂ©triment, les utilisateurs en exploitant leurs vulnĂ©rabilitĂ©s.
Recommandation n° 5 : La CNCDH recommande d’interdire tout type de notation sociale (« social scoring ») mis en place par les administrations ou par toute entreprise, publique ou privĂ©e.
Recommandation n° 6 : La CNCDH recommande d’interdire l’identification biomĂ©trique Ă  distance des personnes dans l’espace public et les lieux accessibles au public, en admettant par exception son utilisation, dès lors que celle-ci est strictement nĂ©cessaire, adaptĂ©e et proportionnĂ©e pour la prĂ©vention d’une menace grave et imminente pour la vie ou la sĂ©curitĂ© des personnes et celle des ouvrages, installations et Ă©tablissements d’importance vitale.
Recommandation n° 7 : La CNCDH recommande de poursuivre et d’approfondir la rĂ©flexion afin d’identifier les apports et les limites d’une utilisation de l’IA dans le cadre des procĂ©dures juridictionnelles.
Recommandation n° 8 : La CNCDH recommande d’interdire les technologies de reconnaissance des Ă©motions, en admettant par exception leur utilisation dès lors qu’elles visent Ă  renforcer l’autonomie des personnes, ou plus largement l’effectivitĂ© de leurs droits fondamentaux.
Recommandation n° 9 : La CNCDH recommande que l’utilisateur d’un système d’IA Ă©value l’impact du recours Ă  ce système sur les droits fondamentaux et, en cas de risques identifiĂ©s, procède Ă  leur Ă©valuation en tenant compte de la probabilitĂ© et de la gravitĂ© de ces derniers.
L’Ă©tude d’impact devrait inclure au minimum
– une mention de la ou des finalitĂ©s attachĂ©es Ă  l’utilisation du système d’IA envisagĂ© ;
– une identification des droits fondamentaux susceptibles d’ĂŞtre affectĂ©s par le système ;
– un examen du système d’IA envisagĂ©, Ă  partir d’une Ă©valuation de sa nĂ©cessitĂ©, de son caractère adaptĂ©, et de la proportionnalitĂ© des atteintes portĂ©es aux droits fondamentaux par rapport au but escomptĂ© ;
– les procĂ©dures mises en place pour assurer le suivi de l’application, et les mesures d’attĂ©nuation au regard des risques encourus.
Recommandation n° 10 : En fonction des risques engendrĂ©s par un système d’IA sur les droits fondamentaux dans un contexte d’usage particulier, la CNCDH recommande d’assurer prĂ©alablement Ă  la dĂ©cision d’y recourir, une consultation des parties prenantes, selon des modalitĂ©s adaptĂ©es, en incluant par exemple les reprĂ©sentants du personnel et, plus largement, les personnes visĂ©es par le système d’IA.
Recommandation n° 11 : La CNCDH recommande de mettre en place une supervision du système d’IA, selon une procĂ©dure susceptible de varier selon les risques d’atteintes aux droits fondamentaux tels qu’identifiĂ©s par l’Ă©tude d’impact, afin de maintenir une vigilance en continu de la part de l’utilisateur Ă  l’Ă©gard des effets du système, notamment ses effets discriminatoires.
Recommandation n° 12 : La CNCDH recommande de favoriser les investissements publics dans la conception d’outils de formation et d’information accessibles au plus grand nombre.
Recommandation n° 13 : La CNCDH recommande l’organisation de consultations nationales sur le modèle des Etats gĂ©nĂ©raux de la bioĂ©thique organisĂ©s par le ComitĂ© consultatif national d’Ă©thique.
Recommandation n° 14 : La CNCDH recommande Ă  l’Education nationale de renforcer la formation des Ă©lèves aux enjeux techniques, politiques et sociĂ©taux de l’intelligence artificielle et de proposer, Ă  cette fin, des supports pĂ©dagogiques Ă  destination des enseignants.
Recommandation n° 15 : La CNCDH recommande de :
– garantir une intervention humaine pour le contrĂ´le des dĂ©cisions individuelles issues d’un système d’IA selon des modalitĂ©s correspondant au niveau de risque de ce dernier ;
– en assurer l’effectivitĂ© par une formation appropriĂ©e et une information de l’intervenant sur les caractĂ©ristiques du système, sans lui imposer de contrainte particulière lorsqu’il s’Ă©carte de la prĂ©conisation issue du système d’IA ;
– assurer aux usagers du service public le maintien systĂ©matique d’un accès alternatif Ă  un agent humain.
Recommandation n° 16 : La CNCDH recommande de reconnaĂ®tre au bĂ©nĂ©fice des utilisateurs des systèmes d’IA un droit au paramĂ©trage de leurs critères, notamment afin de dĂ©terminer la sĂ©lection et la prĂ©sentation des contenus reçus, et plus gĂ©nĂ©ralement dans l’hypothèse des interactions humain-machine.
Recommandation n° 17 : La CNCDH recommande d’informer systĂ©matiquement les personnes lorsqu’elles sont exposĂ©es ou amenĂ©es Ă  interagir avec un système d’IA et, lorsqu’elles font l’objet d’une dĂ©cision, que cette dernière se fonde, le cas Ă©chĂ©ant, en partie ou totalement sur un traitement algorithmique.
Recommandation n° 18 : La CNCDH recommande de garantir Ă  la personne concernĂ©e un droit au rĂ©examen, par un ĂŞtre humain, de toute dĂ©cision individuelle fondĂ©e totalement, ou mĂŞme en partie, sur un traitement algorithmique, dès lors qu’elle emporte des consĂ©quences significatives pour elle.
Recommandation n° 19 : La CNCDH recommande aux administrations de communiquer sous une forme intelligible les informations sur le fonctionnement de l’algorithme, ainsi que sur la part Ă©ventuellement prise par une intervention humaine dans le processus de dĂ©cision. Elle recommande par ailleurs de mener une rĂ©flexion s’agissant de l’extension de cette obligation aux organismes privĂ©s.

Note de bas de page

(1) Selon la formule prĂ©sente dans le rapport Villani : « Donner un sens Ă  l’intelligence artificielle : pour une stratĂ©gie nationale et europĂ©enne », 28 mars 2018.
(2) CNIL, « Comment permettre Ă  l’homme de garder la main ? Les enjeux Ă©thiques des algorithmes et de l’intelligence artificielle », dĂ©cembre 2017.
(3) CNIL, « Chatbots : des humains comme les autres », LINC, 3 février 2017 ; « Reconnaissance faciale : pour un débat à la hauteur des enjeux », 2019.
(4) Défenseur des droits, « Lutte contre la fraude aux prestations sociales : à quel prix pour les droits des usagers », septembre 2017.
(5) DĂ©fenseur des droits, en partenariat avec la CNIL, « Algorithmes : prĂ©venir l’automatisation des discriminations », 2020. Plus rĂ©cemment, le DDD a publiĂ© un rapport sur les technologies biomĂ©triques : « Technologies biomĂ©triques : l’impĂ©ratif respect des droits fondamentaux », 2021.
(6) Voir not. : Agence des droits fondamentaux de l’UE, « Getting the future right : Artificial intelligence and fundamental rights », 14 dĂ©cembre 2020 ; UNESCO, Recommandation sur l’Ă©thique de l’intelligence artificielle, novembre 2021 ; CAHAI, « Etude de faisabilitĂ© », 17 dĂ©cembre 2020 ; OCDE, Recommandation du Conseil sur l’intelligence artificielle, 22 mai 2019.
(7) CNIL, « Comment permettre Ă  l’homme de garder la main ? Les enjeux Ă©thiques des algorithmes et de l’intelligence artificielle », dĂ©cembre 2017, p. 49. Certains algorithmes sont appelĂ©s Ă  Ă©tablir des corrĂ©lations entre diffĂ©rentes caractĂ©ristiques individuelles, Ă  partir desquelles ils constituent des groupes et font des prĂ©dictions sur le comportement au niveau d’un groupe, par exemple le groupe des « propriĂ©taires de chiens rĂ©sidant en rĂ©gion parisienne, âgĂ©s de 35 Ă  40 ans, et qui pratiquent au moins deux fois par semaine une activitĂ© sportive ». Le fait d’ĂŞtre identifiĂ© comme membre de ce groupe peut dès lors entraĂ®ner des prises de dĂ©cisions automatisĂ©es ayant des effets nĂ©fastes ou bĂ©nĂ©fiques pour les membres individuels, comme un tarif diffĂ©renciĂ© pour l’assurance maladie par exemple.
(8) Voir notamment le guide pratique « Ethical IA », lancé en septembre 2021 par Numeum, premier syndicat professionnel des entreprises du numérique en France.
(9) Dernier texte en date : UNESCO, Recommandation sur l’Ă©thique de l’intelligence artificielle, novembre 2021.
(10) Le CAHAI ayant rempli son mandat (2019-2021), il a Ă©tĂ© remplacĂ© par le ComitĂ© sur l’intelligence artificielle (CAI) pour l’Ă©laboration d’un cadre juridique appropriĂ© sur le dĂ©veloppement, la conception et l’application de l’intelligence artificielle, sur la base des normes du Conseil de l’Europe.
(11) Voir not. sa dernière publication : CAHAI, « ElĂ©ments potentiels d’un cadre juridique sur l’intelligence artificielle, fondĂ©s sur les normes du Conseil de l’Europe en matière de droits de l’homme, de dĂ©mocratie et d’Etat de droit », 2 dĂ©cembre 2021.
(12) « Convention 108+ » : Convention pour la protection des personnes Ă  l’Ă©gard du traitement des donnĂ©es Ă  caractère personnel, disponible en ligne : https://rm.coe.int/convention-108-convention-pour-la-protection-des-personnes-a-l-egard-d/16808b3726. Ouverte Ă  la signature le 28 janvier 1981, au sein du Conseil de l’Europe, la Convention 108 fut le premier instrument international juridique contraignant dans le domaine de la protection des donnĂ©es. Afin de rĂ©pondre aux dĂ©fis soulevĂ©s en la matière par le numĂ©rique, un protocole d’amendement Ă©tĂ© ouvert, le 10 octobre 2018, Ă  la signature des Etats partis Ă  la Convention. On parle dĂ©sormais de « Convention 108+ » pour dĂ©signer cette nouvelle version.
(13) Proposition de règlement IA, cons. 5. Disponible en ligne : https://eur-lex.europa.eu/legal-content/FR/ALL/?uri=CELEX:52021PC0206.
(14) CNCDH, Avis relatif à la lutte contre la haine en ligne, Assemblée plénière du 8 juillet 2021, JORF n° 0170 du 24 juillet 2021, texte n° 79.
(15) CNCDH, Avis « Pour une approche fondĂ©e sur les droits de l’homme », AssemblĂ©e plĂ©nière du 3 juillet 2018, JORF n° 0161 du 14 juillet 2018, texte n° 104.
(16) Voir le RGPD et la proposition de règlement sur l’IA.
(17) Proposition de règlement IA, « Exposé des motifs ».
(18) Proposition de règlement IA, « Exposé des motifs ».
(19) Ibid., cons. 15.
(20) Les « nudges » correspondent Ă  des techniques pour orienter l’utilisateur d’un service en ligne Ă  faire tel ou tel choix. Par exemple, indiquer sur un site qu’un article ou un produit est « populaire » incitera l’internaute Ă  le consulter ou Ă  l’acheter. Voir not. : « La forme des choix », CNIL, 2019. Les « sludges » ont, au contraire, une finalitĂ© dissuasive. Par exemple, s’agissant de la gestion des cookies sur un site, certains sites simplifient l’option “tout accepter” et complexifient l’option “paramĂ©trer les cookies”, de telle sorte que l’utilisateur aura tendance Ă  privilĂ©gier la première.
(21) Le neuromarketing Ă©tudie le fonctionnement du cerveau, notamment Ă  l’aide de l’imagerie cĂ©rĂ©brale (IRM), pour mieux comprendre comment le consommateur rĂ©agit Ă  la publicitĂ© et aux dispositifs de vente.
(22) Voir les débats relatifs à la proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (DSA).
(23) Avis conjoint 05/2021 de l’EDPB et du CEPD sur la proposition de règlement du Parlement europĂ©en et du Conseil Ă©tablissant des règles harmonisĂ©es concernant l’intelligence artificielle. Disponible en ligne : https://edpb.europa.eu/system/files/2021-10/edpb-edps_joint_opinion_ai_regulation_fr.pdf.
(24) Proposition de règlement IA, Cons. 18. La CNCDH pointait aussi ce risque de « chilling effect » associĂ© Ă  l’utilisation de drones Ă©quipĂ©s d’un logiciel de reconnaissance faciale : CNCDH, Avis sur la proposition de loi relative Ă  la sĂ©curitĂ© globale, AssemblĂ©e plĂ©nière du 26 novembre 2020, JORF n° 0290 du 1er dĂ©cembre 2020, texte n° 83.
(25) La proposition de règlement admet la possibilitĂ© d’utiliser cette technologie dans ce cas-lĂ , en la rangeant nĂ©anmoins dans la catĂ©gorie des systèmes d’IA Ă  haut risque.
(26) Notamment : participation Ă  une organisation criminelle, trafic illicite d’armes, de munitions et d’explosifs, corruption, crimes contre l’environnement, y compris le trafic illicite d’espèces animales menacĂ©es et le trafic illicite d’espèces et d’essences vĂ©gĂ©tales menacĂ©es, aide Ă  l’entrĂ©e et au sĂ©jour irrĂ©guliers, racisme et xĂ©nophobie, vols organisĂ©s ou avec arme, trafic illicite de biens culturels, y compris antiquitĂ©s et Ĺ“uvres d’art, escroquerie, racket et extorsion de fonds, falsification de documents administratifs et trafic de faux, trafic illicite de substances hormonales et autres facteurs de croissance, trafic illicite de matières nuclĂ©aires et radioactives, trafic de vĂ©hicules volĂ©s.
(27) Dans le mĂŞme sens : EDPB et CEPD, Avis conjoint 05/2021 sur la proposition de règlement du Parlement europĂ©en et du Conseil Ă©tablissant des règles harmonisĂ©es concernant l’intelligence artificielle (lĂ©gislation sur l’intelligence artificielle, 18 juin 2021.
(28) CC, DĂ©cision n° 2008-562 DC du 21 fĂ©vrier 2008, Loi relative Ă  la rĂ©tention de sĂ»retĂ© et Ă  la dĂ©claration d’irresponsabilitĂ© pĂ©nale pour cause de trouble mental.
(29) Voir not. : M. Guyomar, « Le passeport biométrique au contrôle : empreintes et cliché », Actualité Juridique Droit Administratif, 2012, p. 35 ; J.-M. Sauvé, « Le principe de proportionnalité, protecteur des libertés », Institut Portalis, Aix-en-Provence, 17 mars 2017.
(30) Voir not. COMPAS, l’algorithme d’Ă©valuation et d’apprĂ©ciation des risques de rĂ©cidive utilisĂ© dans plusieurs Etats des Etats-Unis.
(31) Voir : Cour suprĂŞme du Wisconsin, 13 juillet 2016, l’affaire State v. Loomis.
(32) Loi n° 78-17 du 6 janvier 1978 relative Ă  l’informatique, aux fichiers et aux libertĂ©s, art. 47 modifiĂ© par l’ordonnance n° 2018-1125 du 12 dĂ©cembre 2018. Sur ce point, la loi française va plus loin que le RGPD puisque ce dernier prohibe seulement les dĂ©cisions, notamment de justice, fondĂ©es « exclusivement » sur un traitement automatisĂ©.
(33) D’après la thĂ©orie des apparences, consacrĂ©e par la Cour europĂ©enne des droits de l’homme, « justice must not only be done, it must also be seen to be done » (il faut non seulement que justice soit faite, mais aussi qu’elle le soit au vu et au su de tous).
(34) L’analyse automatisĂ©e des dĂ©cisions de justice repose, techniquement, le plus souvent sur le traitement du langage naturel et l’apprentissage machine : ils peuvent reprĂ©senter un outil d’information utile pour les professionnels du droit.
(35) Sur ce point, la loi n° 2016-1321 du 7 octobre 2016 dite « RĂ©publique numĂ©rique » impose la transparence des algorithmes publics, offrant ainsi une garantie contre un Ă©ventuel phĂ©nomène de « boĂ®te noire » en matière d’usages judiciaires de l’intelligence artificielle. Voir la rĂ©ponse du ministre de la Justice publiĂ©e dans le JO SĂ©nat du 1er octobre 2020, page 4462, disponible en ligne : https://www.senat.fr/questions/base/2020/qSEQ200616942.html.
(36) E. Marzolf, « Le ministère de la Justice renonce à son algorithme DataJust », acteurspublics, 14 janvier 2022.
(37) CAHAI, Etude de faisabilité, p. 8.
(38) DDD, « Technologies biomĂ©triques : l’impĂ©ratif respect des droits fondamentaux », 2021 ; CNIL, « Reconnaissance faciale : pour un dĂ©bat Ă  la hauteur des enjeux », 2019.
(39) CEPD, EDPB, Avis conjoint 05/2021 de l’EDPB et du CEPD sur la proposition de règlement du Parlement europĂ©en et du Conseil Ă©tablissant des règles harmonisĂ©es concernant l’intelligence artificielle (lĂ©gislation sur l’intelligence artificielle, 18 juin 2021.
(40) CEPD, EDPB, ibid., p.14
(41) Voir l’avis de la CNCDH, Avis « Pour une approche fondĂ©e sur les droits de l’Homme », AssemblĂ©e plĂ©nière du 3 juillet 2018, JORF n° 0161 du 14 juillet 2018, texte n° 104.
(42) Voir plus haut.
(43) Voir not. l’Ă©tude de faisabilitĂ© du CAHAI.
(44) Annexe 3 de la proposition de règlement.
(45) La Commission dispose en effet du pouvoir de modifier la liste de l’annexe 3 par des « actes dĂ©lĂ©guĂ©s » dont la procĂ©dure d’adoption figure dans l’article 73 de la proposition de règlement : 6 mois peuvent passer entre la notification de la proposition de modification et son entrĂ©e en vigueur, sachant que le Parlement europĂ©en et le Conseil peuvent aussi s’y opposer.
(46) ConformĂ©ment Ă  l’article 35 du RGPD. La proposition de règlement prend d’ailleurs le soin de le rappeler Ă  l’article 29.
(47) Par exemple, l’agent conversationnel (« chatbot ») conçu par Microsoft, et destinĂ© en 2016 Ă  participer Ă  des Ă©changes sur les rĂ©seaux sociaux, a rapidement tenu des propos injurieux et racistes, Ă  rebours de l’intention de ses programmeurs. Cette dĂ©rive est le fruit de l’interaction du système d’IA avec des personnes mal intentionnĂ©es : M. Tual, « A peine lancĂ©e, une intelligence artificielle de Microsoft dĂ©rape sur Twitter », Le Monde, 24 mars 2016.
(48) Voir l’article 29 de la proposition de règlement IA et l’article 52 pour certains systèmes d’IA plus particuliers.
(49) Le groupe d’experts indĂ©pendants de haut niveau sur l’IA (UE) renvoie Ă  ce type d’analyse, en amont de l’auto-Ă©valuation qu’elle prĂ©conise et qu’elle fait reposer sur une check-list multi-critères pour une « IA digne de confiance » : High Level Expert Group on Artificial Intelligence, The Assessment List for Trustworthy Artificial Intelligence (ALTAI), juin 2020.
(50) Voir not. les rapports du Défenseur des droits : cf supra, nbp n° 4.
(51) DDD, en partenariat avec la CNIL, « Algorithmes : prĂ©venir l’automatisation des discriminations », 2020, p. 6.
(52) Dans le mĂŞme sens, le DDD et la CNIL recommandent un contrĂ´le rĂ©gulier des effets des algorithmes après leur dĂ©ploiement, sur le modèle du contrĂ´le des effets indĂ©sirables des mĂ©dicaments : DDD et CNIL, « Algorithmes : prĂ©venir l’automatisation des discriminations », p. 10.
(53) Proposition de règlement IA, art. 17.
(54) Proposition de règlement IA, art. 61.
(55) Les « organismes notifiés ».
(56) Proposition de règlement IA, art. 43.
(57) Selon les termes de l’article 61 de la proposition de règlement IA.
(58) Selon la formule consacrée par la CNIL dans son rapport de 2017. Cf supra.
(59) Proposition de règlement IA, art. 22.
(60) Loi n° 78-17 du 6 janvier 1978 relative Ă  l’informatique, aux fichiers et aux libertĂ©s, art. 47, al.2.
(61) CC, Décision n° 2018-765 DC, Loi relative à la protection des données personnelles, § 70.
(62) CJUE, 6 octobre 2020, aff. C 511/18, La Quadrature du Net, § 182.
(63) Défenseur des droits, « Dématérialisation des services publics : trois ans après, où en est-on ? », Rapport, 2022.
(64) Ibid., p. 5.
(65) Pour une présentation plus détaillée de ce droit et de ses implications, voir : CNCDH, Avis relatif à la lutte contre la haine en ligne, Assemblée plénière du 8 juillet 2021, JORF n° 0170 du 24 juillet 2021, texte n° 79.
(66) Art. L. 311-3-1 du code des relations entre le public et l’administration.
(67) Art. L. 311-5 du code des relations entre le public et l’administration.
(68) Voir not. : OCDE, Recommandation du Conseil sur l’IA, 1.3. ; UNESCO, Recommandation sur l’Ă©thique de l’IA, §§ 37 et s.
(69) R. 311-3-1-2 du code des relations entre le public et l’administration.
(70) Notamment le « secret-défense » et le secret des affaires.