UN@ est une plateforme d'édition de livres numériques pour les presses universitaires de Nouvelle-Aquitaine

L’IA éthique et le droit de l’UE :
entre « soft law » et « hard law »

L’IA éthique et le droit de l’UE :
entre « soft law » et « hard law »

« In civilized life, law floats in a sea of ethics »1 (trad. « dans la vie civilisée, le droit flotte dans un océan d’éthique »). Ces mots démontrent clairement l’existence d’un lien entre le droit et l’éthique. « L’intelligence artificielle est en train de changer le monde »2,change-t-elle pour autant l’articulation entre la société, le droit et l’éthique ? Alors que les origines de l’intelligence artificielle ne remontent qu’au milieu du XXe siècle lorsqu’Alain Touring a exprimé l’idée d’apporter l’intelligence aux machines3, les sujets consacrés à l’IA sont au centre d’actualités quotidiennes. Chaque activité humaine, de la médecine à l’agriculture, chaque domaine, tant de la vie professionnelle que de la vie privée, sont en train de subir de profondes mutations impliquées par l’IA.

L’IA est un outil technique crée par l’homme, cependant elle est différente de tous les outils conçus auparavant. La distinction essentielle réside dans son caractère autonome. Les outils dits classiques, même très sophistiqués, permettaient à l’homme d’effectuer plus rapidement et efficacement certaines tâches. Ces tâches pouvaient être primitives ou complexes, mais elles étaient toutes précises, parce qu’elles étaient prédéterminées par l’homme. Contrairement à ces outils dits classiques créés en tenant compte des objectifs, l’IA n’est pas conçue de cette manière : elle n’est pas programmée, mais entraînée. « Elle surpasse le modèle classique « si-ceci-alors-cela » dans lequel un ingénieur en informatique a d’abord prédit toutes les occurrences possibles. L’IA répond de manière autonome à un problème qui lui est posé »4.

Ayant déjà touché tous les domaines de la vie humaine, l’IA est devenue l’une des technologies les plus stratégiques du XXIe siècle avec les enjeux politiques et économiques considérables5, y compris pour l’UE qui a clairement identifié ses nombreuses opportunités6. « Les progrès de l’IA ne laissent plus de doute sur la capacité des machines intelligentes à effectuer des tâches de plus en plus variées – répétitives, complexes, sophistiquées, etc. – les interrogations ne portent plus sur la réalité du phénomène, mais sur les dangers qu’il recèle »7. Les impacts actuels et futurs de l’IA sur les individus et les sociétés suscitent tant des attentes que des inquiétudes. D’une part, l’IA peut améliorer les capacités humaines, faciliter l’accès à des connaissances, soutenir la recherche scientifique, contribuer à une meilleure éducation, aux soins de santé et à la protection de l’environnement. D’autre part, l’IA est également capable de perturber les interactions sociales : exposer les humains à des nouveaux dommages résultant des défauts technologiques, accroître et banaliser les manipulations et les discriminations, créer de nouvelles atteintes aux droits et libertés individuelles et conduire ainsi à la création d’atteintes aux valeurs universelles sur lesquelles l’UE est fondée : le respect de la dignité humaine, la liberté, la démocratie, l’égalité, l’État de droit, ainsi que le respect des droits de l’homme, y compris les droits des personnes appartenant à des minorités8.

Alors que ces valeurs se sont développées à partir des héritages culturels, religieux et humanistes de l’Europe9, les potentiels impacts de l’IA sur ces valeurs ont impliqué la question de l’éthique de l’IA qui est rapidement devenu « primordiale et urgente »10.

L’éthique peut être définie comme une réflexion qui vise à déterminer le bien agir11. L’éthique met « en jeu des idéaux qui donnent du sens à notre vie ou des règles qu’on se sent obligé de respecter. On touche à la sphère des valeurs et des principes moraux »12. Ainsi l’objectif du discours sur l’éthique13 de l’IA consiste à préciser les manières moralement correctes de déployer l’IA, de déterminer quelles utilisations en sont bonnes, indifférentes ou mauvaises et quelles manières de s’engager dans l’IA sont recommandables, facultatives ou répréhensibles14. Il s’agit de l’élaboration de certains principes éthiques à respecter dans le contexte du développement et du déploiement de l’IA. Toutefois l’éthique seule est fragile.

Tout comme la dignité humaine a été piétinée par les régimes totalitaires du XXe siècle parce qu’ellen’était protégée par aucun droit, l’éthique de l’IA risque d’être inefficace si elle ne devient pas une politique contraignante qui protège l’individu et la coexistence sociale.15

Ainsi l’accompagnement de l’éthique par le droit semble nécessaire. Il convient ainsi de s’intéresser comment et dans quelle mesure les considérations éthiques soulevées par l’IA sont appréhendées par le droit de l’UE. Certes, l’articulation entre les règles éthiques et les règles de droit peut être variable16, les exigences des règles éthiques et juridiques peuvent tant aller dans des sens différents que se recouper, les unes peuvent impacter les autres et inversement. Cette articulation peut être impactée par des facteurs différents. Or, pour l’analyse qui va suivre, il sera supposé que dans l’UE, les considérations éthiques inspirent les règles de droit et se matérialisent en droit de l’UE principalement par la préservation des droits fondamentaux. « C’est au travers des droits fondamentaux que l’Europe affirme sa dimension éthique »17. Ainsi pour répondre à la question posée et déterminer comment l’éthique de l’IA est reçue par le droit de l’UE, il convient d’analyser les voies empruntées par l’UE pour la protection des droits fondamentaux dans le contexte de l’essor de l’IA.

Il est indéniable que le déploiement de l’IA peut avoir un impact sur un large éventail de droits fondamentaux18 et porter atteinte à la liberté d’expression et de réunion, la dignité humaine, l’absence de discrimination fondée sur le sexe, l’origine raciale ou ethnique, la religion ou les convictions, le handicap, l’âge ou l’orientation sexuelle, selon le cas, la protection des données à caractère personnel, le respect de la vie privée ou le droit à un recours juridictionnel effectif et à un procès équitable, ainsi que la protection des consommateurs19. La prise en compte de cette problématique par le législateur européen ainsi que par les autres parties prenantes ne s’est pas faite attendre. Le sujet étant extrêmement vaste, cette contribution ne saurait pas prétendre à l’exhaustivité, mais va étudier deux voies d’intégration des considérations éthiques soulevées par l’IA dans les règles juridiques et les façons dont l’UE les a appliquées.

L’ordre juridique de l’UE (art. 2 et art. 288 du TFUE) prévoit la distinction entre les normes juridiques contraignantes (droit dur ou hard law) et non-contraignantes (droit souple ou soft law). Cette distinction, qui n’est pas originale puisque connue déjà en droit romain avec lex perfecta et lex imperfecta, propose deux voies pour intégrer les considérations éthiques dans les règles juridiques : droit souple et droit dur. Alors que la première réponse à la problématique éthique soulevée par l’IA a eu lieu par l’adoption très active des instruments de droit souple, cette voie sera étudiée en première partie (I). Cependant les instruments de droit souple ne peuvent pas remplacer ceux de droit dur qui restent une voie principale pour appréhender les considérations éthiques soulevées par l’IA. Cette voie de droit dur sera présentée dans la seconde partie (II).

Le droit souple : une initiative féconde, mais insuffisante

Le recours aux instruments de droit souple a conduit à la création d’un corpus de règles de droit souple, très nombreuses et variables, qui promeuvent l’éthique de l’IA. Déjà en 2020 ont été adoptés plus de deux cents textes20, dont des avis, des recommandations, des chartes, des codes de déontologie et des lignes directrices. Alors que cette démarche n’est pas sans avantages et le recours à ces mécanismes peut être justifié, les règles de droit souple ont des limites importantes et peuvent impliquer certains risques à considérer. Leur aptitude à garantir suffisamment l’éthique de l’IA reste discutable.

La fabrication d’une masse de règles de droit souple

Malgré certaines divergences d’approches, le droit souple peut être défini comme « une norme ou un ensemble de normes non obligatoires, non sanctionnées ou floues »21. Trois critères pourraient être appliqués pour identifier les actes de droit souple : ce sont « l’ensemble des instruments » qui « ont pour objet de modifier ou d’orienter les comportements de leurs destinataires en suscitant, dans la mesure du possible, leur adhésion », qui « ne créent pas par eux-mêmes de droits ou d’obligations pour leurs destinataires » et, enfin, qui « présentent par leur contenu et leur mode d’élaboration un degré de formalisation et de structuration qui les apparente aux règles de droit »22.

Dès le début de l’année 2017 une tendance forte de l’adaptation des règles de droit souple peut être observée, tant en l’Europe que partout dans le monde23. Cette « vague de l’éthique de l’IA »24 répond à une inquiétude évidente face à l’essor annoncé de l’IA et à ses dangers, réels ou supposés25.

Ainsi les institutions européennes ont commencé à adopter de façon active des règles de droit souple pour accompagner la progression éthique de l’IA au sein de l’UE. À titre d’exemple et sans exhaustivité quelques résultats de cette démarche peuvent être présentés. En 2017 le Parlement européen a adopté une résolution qui contient des recommandations à la Commission concernant des règles de droit civil sur la robotique et qui propose une charte sur la robotique26. Celle-ci est déclinée en fonction des destinataires en code de déontologie, code de conduite et des licences. Il s’agit ici de la protection des droits fondamentaux, de principe de précaution, de préservation de la sécurité, de la santé, de droits des personnes et de protection de la vie privée. Un autre exemple est l’avis d’initiative rendu par le Comité économique et social européen qui assiste le Parlement, le Conseil et la Commission de l’UE « L’IA – Les retombées de l’intelligence artificielle pour le marché unique (numérique), la production, la consommation, l’emploi et la société »27. Par cet avis, il préconise l’instauration d’uncode de déontologie pour le développement, le déploiement et l’utilisation de l’IA, afin que les systèmes d’IA demeurent, tout au long de leur processus d’exploitation, compatibles avec les principes de dignité humaine, d’intégrité, de liberté, de respect de la vie privée, de diversité culturelle et d’égalité entre hommes et femmes, ainsi qu’avec les droits fondamentaux28.

Ensuite en 2018 la Commission a adopté la communication sur l’IA où elle a clairement indiqué la nécessité d’un « cadre éthique et juridique adéquat pour instaurer un climat de confiance et de responsabilité autour du développement et de l’utilisation de l’IA » 29. Puis en juin 2018, la Commission Européenne a constitué un groupe d’experts indépendants de haut niveau sur l’IA (GEHN IA) afin de définir les lignes directrices30 pour parvenir à une IA de confiance. Ces lignes directrices ont défini le caractère éthique de l’IA comme un élément nécessaire pour l’IA de confiance : cela signifie la nécessité de l’adhésion à des principes et valeurs éthiques tout au long du cycle de vie du système de l’IA. S’adressant à l’ensemble des parties prenantes, elles préconisent le respect de l’autonomie humaine, prévention de toute atteinte, équité et explicabilité. La communication de la Commission de 201931 se réfère à ces lignes directrices et aux principes retenus.

Les acteurs économiques étant également impliqués dans le processus de la création du droit souple en matière de l’éthique de l’IA, ils ont adopté de multiples chartes éthiques, des codes de déontologie, des guides de bonnes pratiques et des lignes directrices en matière de l’IA qu’ils s’appliquent à eux-mêmes.

Ces instruments proposent des cadres d’actions lisibles en premier lieu pour les développeurs de systèmes d’IA, à partir des principes éthiques. L’objectif essentiel de l’ensemble de ces règles de droit souple, quel que soit leur auteur, consiste à inciter les acteurs au développement, déploiement et usages de l’IA compatibles avec les droits fondamentaux et les accompagner dans ces démarches. Selon ces normes, l’IA « devrait être, de la conception à l’utilisation, ‘ethico-compatible’ – ethics-by-designe – c’est-à-dire, conforme aux valeurs humanistes portées par notre société »32.

Certes, l’objectif est louable, mais la pertinence et surtout la suffisance de ce type de règles pour l’atteindre dans le contexte actuel sont incertaines. Alors que le recours à cet outil présente des avantages et peut-être expliqué, son choix fait l’objet d’une critique importante.

Une démarche critiquable

Alors que les innovations des usages en matière de l’IA sont constantes et que le potentiel de ces nouvelles techniques de l’IA n’est pas encore clair, l’adoption des règles contraignantes en matière de l’IA sans briser l’innovation n’est pas une tâche simple. D’ailleurs, leur mise en œuvre exige l’identification de la nature des nouveaux risques et la détermination des lacunes juridiques à remplir. Dans ce contexte, l’UE a fait le choix de ne pas recourir directement aux instruments du droit dur, mais d’adopter les règles non-contraignantes de droit souple.

Certes, ce type de règles présente des atouts. Toutefois cet outil « à la mode »33, a des limites importantes et n’est pas en soi suffisant pour répondre aux enjeux éthiques posés par l’IA.

L’attractivité de ce type de réglementation est évidente. Tout d’abord cette démarche se repose sur la consécration de principes larges, traduits en termes d’objectifs à attendre. Cela est important pour un secteur en évolution où le cadre contraignant risquerait de freiner l’innovation. Il ne faut pas oublier que la stimulation de l’innovation par l’IA a toujours été et reste un enjeu central pour l’UE34. Puis, ces règles reposent sur la volonté : elles ne sont pas imposées de haut, elles proviennent principalement des acteurs, qui se les imposent à eux-mêmes, ainsi le degré de leur acceptabilité et par conséquent de leur performance peut être élevé. Et enfin, ces règles étant créées par les acteurs qui les appliquent, elles peuvent apparaître plus proches de leur pratique et répondre davantage à leurs besoins. Ainsi, il n’est pas étonnant que ces outils souples et non-contraignantes apparaissent comme la seule voie prompte à appréhender une réalité technologique35 qui est l’IA.

Pour autant, ces avantages évidents ne doivent pas faire oublier les faiblesses de ces mécanismes.

Le premier défaut important réside sans doute dans leur caractère non-contraignant. Les règles de droit souple définissent une ligne de conduite, mais ne prévoient pas de sanction. L’assujettissement aux valeurs ainsi protégées est absolument libre et le refus d’y adhérer n’implique pas de sanction juridique. Certes, le caractère contraignant et l’existence d’une sanction ne garantit pas l’effectivité de la règle36. Toutefois la faible normativité des règles de droit souple applicables à l’IA est un vice37. L’éthique de l’IA concerne les principes de la dignité humaine, d’égalité et non-discrimination, de droit à la vie privée, de droit à la protection des données personnelles, du droit au procès équitable et à la présomption d’innocence. Ces droits fondamentaux « ne sont pas négociables et encore moins optionnels »38. Si l’IA porte atteinte à ces droits, les règles non-contraignantes ne semblent pas suffisantes, elles ne peuvent pas constituer le mécanisme principal de la protection de ces valeurs essentielles.

D’ailleurs, les autres éléments de critique du recours si actif au droit souple doivent être aussi évoqués. Alors que ces règles peuvent provenir tant des autorités publiques que des acteurs privés, elles sont souvent conçues directement ou indirectement par un groupe d’acteurs privés. Cela conduit à une privatisation de la norme juridique qui implique deux points inquiétants. Le premier – l’éthique consacrée par ces règles est le résultat de réflexion de ces acteurs qui ne reflète pas forcément les idées partagées par la société. Les acteurs privés qui sont à l’origine des normes éthiques sont les acteurs les plus forts, les plus influents, donc l’éthique qu’ils imposent est leur éthique39. La seconde – ce phénomène de la privatisation de norme impliqueaussi le risque du remplacement des autorités publiques par les acteurs privés, ce qui pose la question de la souveraineté numérique de l’Europe qui est largement discutée40.

En outre, la participation active des acteurs privés à l’élaboration des instruments souples pourrait viser l’objectif d’éviter l’adoption et la mise en œuvre par les institutions de règles contraignantes pour l’IA41. La multitude et la variété des chartes adoptées par les acteurs privés ont conduit à l’apparition d’« ethics shopping »42 –qui consiste à choisir parmi une variété d’offres disponibles les principes éthiques les plus adaptés – un phénomène qui semble en soi incompatible avec l’éthique.

Cette analyse rapide de l’aptitude du droit souple pour appréhender les considérations de l’éthique de l’IA permet de constater que ces mécanismes représentent un certain intérêt, mais uniquement en qualité d’instruments supplémentaires qui devraient compléter le cadre contraignant. Le droit souple ne doit pas se substituer à la voie législative qui reste essentielle dans une société démocratique43. Ainsi il convient de s’intéresser aux mécanismes de droit dur de l’UE.

Le droit dur : une voie privilégiée

Le droit dur est la réglementation. Dans la tradition romano-germanique, c’est la manière d’être du droit44 ; les normes de droit dur, à l’exception des lex imperfecta, sont pourvues d’une sanction. La consécration par le droit dur des considérations éthiques soulevées par l’IA leur apporterait le caractère d’une norme juridiquement contraignante, dont la violation implique en règle générale une sanction juridique.

Certes, l’IA n’est pas apparue dans le vide juridique. Le droit de l’UE n’est pas privé de mécanismes juridiques contraignants aptes, au moins dans une certaine mesure, à répondre aux enjeux éthiques de l’IA. Même si les objectifs du marché sont à la base de la construction européenne45, la protection des droits fondamentaux est depuis relativement longtemps une préoccupation centrale pour l’UE. Les règles du droit dur qui consacrent les valeurs éthiques incarnées par les droits fondamentaux existent en droit de l’UE depuis relativement longtemps. Déjà en 2000 il était possible de constater que « les droits fondamentaux sont désormais placés au cœur de l’intégration communautaire »46. Ainsi les règles générales du droit de l’UE qui visent la protection de ces droits fondamentaux et dont le champ matériel d’application n’est pas limité par un domaine spécifique (les règles transversales) constituent déjà une base pour la promotion de l’IA éthique. Cette méthode de l’application de règles existantes « du droit vers la technique »47, suppose le recours à la règle existante pour la comparer aux défis posés par la technique. Mais ce n’est pas la voie unique de la prise en compte des considérations éthiques par le droit dur. La nécessité de recourir aux règles spéciales, pensées pour répondre aux enjeux de l’IA, a été reconnue ; la démarche est en cours de réalisation.

La promotion de l’éthique par des règles transversales de droit dur

Les règles juridiques générales et transversales, inspirées par les valeurs éthiques, s’appliquent à tous les rapports sociaux, y compris aux nouveaux rapports en lien avec le développement et le déploiement de l’IA. Le fait que certains systèmes de l’IA soient apparus après l’adoption de ces règles juridiques générales ne les exclut pas de leur champ d’application. Les actes du droit primaire de l’UE ainsi que ceux du droit dérivé consacrent et reconnaissent aujourd’hui très clairement les droits fondamentaux.

En premier lieu, il faut rappeler les dispositions des traités fondateurs de l’UE (le Traité sur l’UE et le Traité sur le fonctionnement de l’UE) ainsi que celles de la Charte des droits fondamentaux. L’art. 2 du TUE dispose que « l’Union est fondée sur les valeurs de respect de la dignité humaine, de liberté, de démocratie, d’égalité, de l’État de droit, ainsi que de respect des droits de l’homme, y compris des droits des personnes appartenant à des minorités ». La Charte dans son préambule établit que « l’Union se fonde sur les valeurs indivisibles et universelles de dignité humaine, de liberté, d’égalité et de solidarité ; elle repose sur le principe de la démocratie et le principe de l’État de droit… » et dispose que l’Union reconnaît les droits, les libertés et les principes énoncés par la Charte.Ainsi toute activité doit respecter les valeurs auxquelles l’UE et les États membres ont souscrit en vertu de l’art. 2 du TUE et de la Charte. « La mise en place de mécanismes se rapportant à l’IA doit se conformer aux mêmes exigences »48.

En second lieu, les actes de droit dérivé de l’UE, notamment les règlements et les directives comportent également des dispositions qui concrétisent le contenu et les régimes de la protection des droits fondamentaux et traduisent ainsi des considérations éthiques en droit. Ces dispositions ne font pas de référence directe à l’IA et n’ont pas été pensées pour l’IA, toutefois elles sont susceptibles de s’y appliquer, d’encadrer ses usages et ainsi de contribuer à la promotion de l’éthique de l’IA.

Les dispositions consacrées à la protection des données personnelles, celles qui visent la protection du droit des personnes à la non-discrimination et à l’égalité pourraient être des exemples des acquis européens applicables à l’IA.

Le règlement général sur la protection des données à caractère personnel (RGPD) par son art. 22 proclame le droit de chacun de ne pas faire l’objet d’une décision entièrement automatisée, souvent basée sur le profilage, produisant des effets juridiques ou l’affectant sensiblement. Alors que le profilage n’est pas en soi un phénomène neuf, l’IA modifie ses modalités et sa portée : il « gagne tous les domaines d’activité de nos entreprises et administrations et nos usages »49. Ainsi de plus en plus de décisions dans tous les domaines sont déléguées aux systèmes fondés sur l’IA. Dans ce cas les dispositions du RGPD pourraient s’appliquer pour encadrer l’IA, même si elles n’ont pas été pensées à cette fin. L’art. 35 du RGPD impose l’obligation d’effectuer une analyse d’impact relative à la protection des données personnelles dans l’hypothèse où un type de traitement, en particulier par le recours à de nouvelles technologies, compte tenu de la nature, de la portée, du contexte et des finalités du traitement, est susceptible d’engendrer un risque élevé pour les droits et libertés des personnes physiques. Ainsi dans l’hypothèse où le traitement est effectué par le recours aux systèmes fondés sur l’IA ces dispositions doivent s’appliquer. L’appréciation du risque prévue par ces dispositions vise tout d’abord la protection des données personnelles et de la vie privée, mais concerne aussi les atteintes aux autres droits fondamentaux, tels que la liberté d’expression, la liberté de pensée, la liberté de mouvement, l’interdiction des discriminations, le droit à la liberté de conscience et de religion. Donc l’analyse d’impactva« bien au-delà de la protection des données personnelles et peut permettre de fonder une étude d’impact algorithmique sur les droits fondamentaux en lien avec l’utilisation des systèmes d’IA »50.

Les risques de discrimination qui peuvent apparaître en raison de biais algorithmiques51 inhérents aux systèmes de l’IA sont bien reconnus. « l’IA est faillible, à l’instar de son concepteur. Les stéréotypes et préjugés, conscients ou non, sont reproduits, voire amplifiés par la machine »52. Alors que le problème de discrimination n’est pas nouveau, les dispositions des directives visant la protection du droit des personnes à l’égalité de traitement et à la non-discrimination en matière d’emploi et de travail53, ainsi qu’en matière de la consommation54 peuvent également s’appliquer au système de l’IA.

Force est de constater que l’application à l’IA des dispositions du droit européen déjà existants n’est pas purement théorique. Ainsi par l’arrêt rendu le 21 juin 2022 dans l’affaire C-817/19 la Cour de Justice de l’UE a interdit dans certaines hypothèses le recours aux types spécifiques des systèmes d’IA au nom de la protection de droit à un recours juridictionnel effectif. Elle a invoqué l’opacité de ces systèmes55.

Ainsi, les règles générales du droit primaire et du droit dérivé sont applicables pour la protection des droits fondamentaux, y compris dans l’hypothèse de questions se rapportant à l’IA. Toutefois ces règles ont été principalement conçues et adoptées dans le contexte où une expansion actuelle des techniques de l’IA était difficile à imaginer. Or, les bouleversements impliqués par l’IA sont si considérables, que son essor peut être raisonnablement appelé « une révolution » ou « une invention de rupture »56 comparable avec la révolution industrielle, l’invention du chemin de fer ou de l’électricité. Alors que le droit n’est qu’un « compagnon de route boiteux de l’innovation : toujours en retard, un peu derrière »57, il n’est pas étonnant que les règles existantes ne puissent pas répondre à tous les défis éthiques de l’IA, comme par exemple aux phénomènes de discriminations systémiques ou de manipulations massives et constantes. Donc les nouvelles approches et dynamiques sont inévitables et attendues. Même si l’IA n’emporte pas de révolution juridique, elle annonce néanmoins une future transformation du droit qui pourrait conduire à l’apparition « d’un droit de l’IA »58. Comme le droit social qui est né en réponse à la révolution industrielle, le cadre des règles contraignantes du droit spécial de l’IA est en train de se construire au sein d’ordre juridique de l’UE. Un des enjeux de ce nouveau cadre est l’éthique de l’IA.

La promotion de l’éthique par des règles sectorielles de droit dur

La nécessité des règles spéciales pour l’IA a été reconnue par les institutions de l’UE. Depuis 2020 la Commission européenne œuvre sur le projet d’un tel cadre juridique, spécial et original.

En 2020 a été publié le livre blanc59, où la Commission européenne a déjà redonné « toute sa place aux droits fondamentaux per se »60 et a montré « une volonté d’adopter des règles légales obligatoires, au-delà de simples valeurs éthiques »61. En 2021 elle a publié le projet de règlement sur l’IA62 qui s’inscrit dans la continuité du livre blanc et marque une étape importante dans la réglementation de l’IA. Le 9 décembre 2023 le Parlement européen et le Conseil sont parvenus à un accord politique sur le projet du règlement concernant l’intelligence artificielle63 qui sera « le tout premier cadre juridique complet en matière d’intelligence artificielle dans le monde »64.

Le projet reflète l’objectif de l’UE de promouvoir l’utilisation fiable et responsable d’IA. Une attention particulière a été portée à la prévention des atteintes aux droits fondamentaux afin d’éviter les situations où l’IA impliquerait les violations de ces droits.

Le projet envisage l’approche fondée sur les risques pour la sécurité et pour les droits fondamentaux des personnes. Il distingue tous les systèmes d’IA en fonction des risques qu’ils peuvent impliquer et non en fonction de la technologie sur laquelle ils sont basés. Il prévoit des régimes juridiques différents pour des applications présentent des risques différents. Les régimes juridiques plus stricts sont envisagés pour les applications présentant des risques plus importants, les régimes moins stricts – pour celles présentant des risques moins importants.

Ainsi le projet distingue le risque inacceptable, le risque élevé et le risque minimal ; il tient compte des risques systémiques qui pourraient être dus à des modèles d’IA à usage général, notamment de grands modèles d’IA générative. Les systèmes d’IA qui portent atteinte aux droits fondamentaux sont considérés comme les systèmes présentant un risque inacceptable et sont interdits. La liste de ces systèmes interdits est établie, elle inclut la notation sociale à des fins publiques et privées, l’exploitation de la vulnérabilité des personnes, le recours à des techniques subliminales ; l’utilisation par les services répressifs de l’identification biométrique à distance en temps réel dans des espaces accessibles au public, sous réserve d’exceptions strictement limitées ; la catégorisation biométrique des personnes physiques utilisant des données biométriques pour déduire leur race, leurs opinions politiques, leur appartenance syndicale, leurs convictions religieuses ou philosophiques ou leur orientation sexuelle ; la police prédictive ciblant les individus ; la reconnaissance des émotions sur le lieu de travail et dans les établissements d’enseignement, sauf pour des raisons médicales ou de sécurité (par exemple, la surveillance de l’état de fatigue d’un pilote) ; le « moissonnage » non ciblé d’images provenant de l’internet ou de la vidéosurveillance afin de constituer ou d’étendre des bases de données de reconnaissance faciale.

En outre, le projet prévoit des obligations de conformité importantes qui se déterminent en fonction du niveau de risque qu’un système d’IA est susceptible de créer. Pour déterminer la catégorie de risque et le régime juridique applicable qui en découle tous les systèmes d’IA doivent être évalués.

Certes, les dispositions de ce futur règlement sur l’IA sont largement discutées, leur interprétation, leur application et leur articulation avec les autres règles vont poser des questions et impliquer des difficultés, surtout dans l’hypothèse où il va falloir concilier les enjeux de la protection des droits fondamentaux avec les enjeux économiques, géopolitiques ou sécuritaires. L’avenir montrera dans quelle mesure la protection qu’elles sont censées assurer sera effective ou non. Cependant c’est une avancée considérable en matière de la promotion de l’IA éthique et responsable.

Ainsi les considérations éthiques soulevées par l’IA ont été appréhendées par le droit de l’UE. Alors que le droit souple était la première voie empruntée pour répondre aux défis éthiques posés par l’IA, le recours aux normes contraignantes a été clairement privilégié pour la promotion de l’éthique de l’IA. Or, le droit souple reste un mécanisme important, mais complémentaire. La préservation des droits fondamentaux qui traduisent les valeurs éthiques, est garantie par les règles contraignantes transversales du droit de l’UE. Désormais elle occupe également une place centrale dans le nouveau règlement sur l’IA qui constitue l’ensemble des règles sectorielles contraignantes pour l’IA.

Bibliographie

Ouvrages et articles d’ouvrages

  • Blaise J.B. et Choné-Grimaldi A.S. (2017), Droit des affaires de l’Union européenne, Paris, Presse Universitaire de France/Humensis.
  • Carbonnier J. (2001), « Effectivité et ineffectivité de la règle de droit », dans Carbonnier J. (dir.), Flexible droit. Pour une sociologie du droit sans rigueur, 10e éd., Paris, LGDJ, p. 136-148.
  • Castet-Renard C. (2020), Droit du marché unique numérique et intelligence artificielle, Bruxelles, Bruylant.
  • Le Tourneau P. (2000), L’éthique des affaires et du management au XXIe siècle. Essai. Dalloz Dunod. Mis en ligne, substantiellement révisé sur le site personnel de l’auteur https://www.philippe-le-tourneau.fr/lethique-des-affaires-et-du-management [consulté 01/2024]
  • Loiseau G. (2022), « La norme en droit du numérique : de la réglementation à la régulation », dans Collectif, Mélanges en l’honneur de Pierre Sirinelli, Entre art et technique : les dynamiques du droit, Paris, Dalloz, p. 715-728.
  • Meneceur Y. (2022), « Analyse des principaux cadres supranationaux de régulation des applications de l’intelligence artificielle. Des éthiques de l’intelligence artificielle à la conformité ? », dans Mendoza-Camiade A. (dir.), L’entreprise et l’intelligence artificielle – Les réponses du droit,Toulouse, Presses de l’Université Toulouse Capitole. https://doi.org/10.4000/books.putc.15334 [consulté 01/2024]
  • Merabet S. (2020), Vers un droit de l’intelligence artificielle, Nouvelle Bibliothèque de Thèses, 197, Paris, Dalloz.
  • Picod F. (2020), « Préface », dans Castets-Renard C., Droit du marché unique numérique et intelligence artificielle, Bruxelles, Bruylant, p. 9-12.
  • Sudre,F. (2000), « Introduction », dans Labayle H. et Sudre F. Réalité et perspectives du droit communautaire des droits fondamentaux, Bruxelles, Bruylant et Nemesis, p. 7-34.
  • Wagner B. (2018), «Ethics As an Escape From Regulation. From “Ethics-Washing” To Ethics-Shopping?» dans Bayamlioglu E., Baraliuc I., Janssens L.A.W. and Hildebrandt M., Being Profiled: Cogitas Ergo Sum: 10 Years of Profiling the European Citizen, Amsterdam, Amsterdam University Press, p. 84-89. https://doi.org/10.1515/9789048550180-016 [consulté 01/2024]

Articles de journaux et revues

  • Allen A.L. (2006), « Moralizing in Public », Hofstra Law Review, 34, p. 1325-1330. https://scholarship.law.upenn.edu/cgi/viewcontent.cgi?article=1559&context=faculty_scholarship [consulté 01/2024]
  • Benanti P. (2020), « Algor-éthique : intelligence artificielle et réflexion éthique », traduit de l’italien par Alain Thomasser, avec l’aide de l’IA DeepL, Revue d’éthique et de théologie morale, 307 (3), p. 93-110. https://www.cairn.info/revue-d-ethique-et-de-theologie-morale-2020-3-page-93.htm [consulté 01/2024]
  • Bensamoun A. et Loiseau G. (2017), « La gestion des risques de l’intelligence artificielle – de l’éthique à la responsabilité », La Semaine Juridique. Edition Générale, 46, doctrine 1203,p. 2063-2072.
  • Bensamoun A. (2023), « Maitriser les risques de l’intelligence artificielle : entre éthique, responsabilisation et responsabilité », La Semaine Juridique, Edition Générale, 5, doctr.181, p. 280-290.
  • Castets-Renard C. (2020), « Comment construire une intelligence artificielle responsable et inclusive ? », Recueil Dalloz, 4, p. 225.
  • Godefroy L. (2020), « Éthique et droit de l’intelligence artificielle. Osmose ou symbiose ? », Recueil Dalloz, 4, p. 231-236.
  • Nicolas E. (2017), « Droit souple + droit fluide = droit liquide. Réflexion sur les mutations de la normativité juridique à l’ère des flux », Revue interdisciplinaire d’études juridiques, 79 (2), p. 5-38.
  • Poullet Y. (2021), « Cinq ans après : le RGPD et les défis du profilage à l’heure de l’intelligence artificielle », Revue des affaires européennes, 1, p. 87-101. https://pure.unamur.be/ws/portalfiles/portal/61104360/8792.pdf [consulté 01/2024]
  • Renondin de Hauteclocque S. (2021), « L’intelligence artificielle : les différents chemins de la régulation ». Éthique publique, 23 (2). https://doi.org/10.4000/ethiquepublique.6554  [consulté 01/2024]
  • Sartor G. (2020), « Artificial intelligence and human rights: Between law and ethics », Maastricht Journal of European and Comparative Law, 27 (6), p. 705-719. https://doi.org/10.1177/1023263X20981566 [consulté 01/2024]
  • Sereno S. (2020), « Focus sur les discriminations par algorithmes », Revue de droit du travail, 11. https://www.dalloz.fr/documentation/Document?id=REVTRAV/CHRON/2020/0159 [consulté 01/2024]
  • Turing A. (1950), « Computing Machinery and Intelligence », Mind, 59 (236), p. 433-460. https://academic.oup.com/mind/article/LIX/236/433/986238 [consulté 01/2024]
  • Kaminskiy M. et Malgieri G. (2019), « Algorithmic Impact Assessments under the GDPR: Producing Multi-layered Explanations », International Data Privacy Law, 19-28. http://dx.doi.org/10.2139/ssrn.3456224 [consulté 01/2024]

Sitographie

Divers (lois)

Commission européenne 

Conseil de l’UE 

Notes

  1. Earl Warren, Chief Justice, U.S. Supreme Court, Address at the Jewish Theological Seminary of America Annual Awards Dinner (Nov. 11, 1962), cité dans Allen, 2006, p. 1325.
  2. Benanti, 2020.
  3. Turing, 1950.
  4. Benanti, 2020,p. 95.
  5. Castets-Renard, 2020.
  6. Commission européenne, Communication au Parlement européen au Conseil, au Comité économique et social européen et au Comité des région, L’Intelligence artificielle pour l’Europe, COM(2018) 237 final. (Bruxelles : Commission européenne, 25 avril 2018), https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=COM%3A2018%3A237%3AFIN [consulté 01/2024]
  7. Bensamoun, Loiseau, 2017.
  8. Traité sur l’Union européenne (TUE), JOUE C 326 du 26 octobre 2012, article 2, https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX%3A12012E%2FTXT [consulté 01/2024]
  9. TUE, préambule.
  10. Benanti, 2020, p. 96.
  11. Sutour, Lorrain, 2013.
  12. Godefroy, 2020, p. 231, cite la Commission de l’éthique en science et en technologie, sous l’onglet « éthique » : http://www.ethique.gouv.qc.ca/fr/ethique/quest-ce-que-lethique/lethique-et-la-morale-de-quoi-on-parle.html [consulté 01/2024]
  13. Dans cet article les mots « l’éthique » et « la morale » seront utilisées comme synonymes, quant aux types d’utilisations de l’IA qui devraient être interdites ou plutôt encouragées compte tenu de leurs impacts sociaux, car c’est ainsi que ces termes sont utilisés dans le débat actuel à propos des impacts de l’IA. Bien que certains auteurs, comme M. Sutour et M. Lorrain dans le rapport cité, fassent une distinction entre les mots « l’éthique » et « la morale », les autres, comme par exemple M. Le Tourneau, 2000, considèrent qu’ils « ont exactement la même signification ; tous deux désignent une considération régulatrice des comportements ».
  14. Sartor, 2020.
  15. Benanti, 2020, p. 97.
  16. En ce sens : Godefroy, 2020 ; Elliston, 1985.
  17. Sutour, Lorrain, 2013, p. 20.
  18. En ce sens : Agence des droits fondamentaux de l’UE, Rapport, « Bien préparer l’avenir. L’intelligence artificielle et les droits fondamentaux », Luxembourg : Office des publications de l’UE (2021), https://fra.europa.eu/sites/default/files/fra_uploads/fra-2021-artificial-intelligence-summary_fr.pdf [consulté 01/2024]
  19. Commission Européenne, Livre blanc, L’intelligence artificielle – une approche européenne axée sur l’excellence et confiance, COM(2020) 65 final. (Bruxelles : Commission européenne 19 février 2020), https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:52020DC0065 [consulté 01/2024]
  20. Castets-Renard, 2020.
  21. Nicolas, 2017, p. 10.
  22. Loiseau, 2022, p. 717, citant Conseil d’État, (2013), « Étude annuelle, 2013 : ‘‘Le droit souple’’ », La Documentation française, p. 61.
  23. Meneceur, https://lestempselectriques.net/index.php/2020/05/06/ia-algorithmes-big-data-data-science-inventaire-des-cadres-ethiques-et-politiques/ [consulté 01/2024]
  24. Meneceur, 2022, p. 53.
  25. Bensamoun, Loiseau, 2017.
  26. Parlement Européen, Résolution, Règles de droit civil sur la robotique, P8_TA(2017)0051, (Bruxelles : Parlement européen, 16 février 2017), https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_FR.pdf [consulté 01/2024]
  27. Comité économique et social européen, Avis d’initiative, L’intelligence artificielle : les retombées de l’intelligence artificielle pour le marché unique (numérique) la production, la consommation, l’emploi et la société, 2017/C288/01. (Bruxelles : Comité économique et social européen, 31 mai 2017), https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:52016IE5369&from=IT#:~:text=L%27intelligence%20artificielle%20(IA),milliards%20d%27USD%20en%202025 [consulté 01/2024]
  28. Comité économique et social européen, Avis d’initiative, point 1.7.
  29. Commission européenne, COM(2018) 237.
  30. GEHN IA, Lignes directrices en matière d’éthique pour l’IA digne de confiance, (Bruxelles : GEHN IA, 8 avril 2019) https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai [consulté 01/2024]
  31. Commission Européenne, Communication au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions, Renforcer la confiance dans l’intelligence artificielle axée sur le facteur humain, COM (2019)168 final, (Bruxelles : Commission européenne, 8 avril 2019), https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX%3A52019DC0168 [consulté 01/2024]
  32. Bensamoun, Loiseau, 2017, p. 20-64.
  33. En ce sens : Castets-Renard, 2020 ; Le Tourneau, 2000.
  34. Commission européenne, COM (2018) 237 ; COM(2019) 168 ; COM (2020) 65.
  35. Bensamoun, 2023.
  36. En ce sens : Carbonnier, 2001.
  37. Bensamoun, Loiseau, 2017.
  38. Castets-Renard, 2020, p. 227.
  39. Bensamoun, Loiseau, 2017.
  40. En ce sens : Pons, « Souveraineté numérique : Pour un Plan Schuman de la donnée », Fondation Robert Schuman, https://www.robert-schuman.eu/questions-d-europe/652-souverainete-numerique-pour-un-plan-schuman-de-la-donnee [consulté 01/2024]
  41. Ochigame, https://theintercept.com/2019/12/20/mit-ethical-ai-artificial-intelligence/ [consulté 01/2024]
  42. Wagner, 2018, p. 86.
  43. Castets-Renards, 2020.
  44. Loiseau, 2022.
  45. En ce sens :  Blaise, Choné-Grimaldi, 2017.
  46. Sudre, 2000, p. 7.
  47. Renondin de Hauteclocque, 2022, p. 5.
  48. Picod, 2020, p. 9.
  49. Poullet, 2021, p. 90.
  50. Castets-Renard, 2020, p. 345, citant Kaminskiy, Malgieri, 2019.
  51. Agence des droits fondamentaux de l’UE, Rapport, « Bias in Algorithms – Artificial Intelligence and Discrimination », Office des publications de l’UE (2022), https://fra.europa.eu/sites/default/files/fra_uploads/fra-2022-bias-in-algorithms_en.pdf [consulté 01/2024]
  52. Sereno, 2020, p. 680.
  53. Directive 2000/78/CE du Conseil du 27 novembre 2000 portant création d’un cadre général en faveur de l’égalité de traitement en matière d’emploi et de travail, JOCE L 303 du 2 décembre 2000, 16-22.
  54. Directive 2005/29/CE du Parlement européen et de Conseil du 11 mai 2005 relative aux pratiques commerciales déloyales des entreprises vis-à-vis des consommateurs dans le marché intérieur et modifiant la directive 84/450/CEE du Conseil et les directives 97/7/CE, 98/27/CE et 2002/65/CE du Parlement européen et du Conseil et le règlement (CE) n° 2006/2004 du Parlement européen et du Conseil (« directive sur les pratiques commerciales déloyales »), JOCE L 149 du 11 juin 2005, 22-39.
  55. Selon la Cour, l’opacité caractérisant le fonctionnement des technologies d’IA serait susceptible de priver les personnes concernées […] de leur droit à un recours juridictionnel effectif consacré à l’article 47 de la Charte que la directive PNR vise, selon son considérant 28, à garantir à un niveau élevé, en particulier pour contester le caractère non discriminatoire des résultats obtenus (CJUE, 21 juin 2022, Ligue des droits humains, aff. C-817/19, ECLI:EU:C:2022:491, pt 195).
  56. Merabet, 2020, p. 23.
  57. Vallée, « Un droit de l’innovation ? », Les nouveaux cahiers du Conseil Constitutionnel, n° 52 (juin 2016), https://www.conseil-constitutionnel.fr/nouveaux-cahiers-du-conseil-constitutionnel/un-droit-de-l-innovation [consulté 01/2024]
  58. Merabet, 2020, p. 28-29.
  59. COM(2020) 65 final.
  60. Castets-Renard, 2020, p. 336.
  61. Castets-Renard, 2020, p. 336.
  62. Commission Européenne, Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union, COM(2021) 206 final. (Bruxelles : Commission européenne, 21 avril 2021),https://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=CELEX:52021PC0206.
  63. Conseil de l’UE, Communiqué de presse 986/23, Législation sur l’intelligence artificielle : le Conseil et le Parlement parviennent à un accord sur les premières règles au monde en matière d’IA. (Bruxelles : Conseil de l’UE, 9 décembre 2023), https://www.consilium.europa.eu/fr/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/ [consulté 01/2024]
  64. Déclaration sur l’accord politique sur la législation de l’UE sur l’IA, prononcé le 9 décembre 2023 par Ursula von der Leyen en sa qualité de Présidente de la Commission européenne, https://ec.europa.eu/commission/presscorner/detail/en/statement_23_6474 [consulté 01/2024]
Rechercher
Rechercher
Pau, Pessac
Chapitre de livre
EAN html : 9782353110025
ISBN html : 978-2-35311-002-5
ISBN pdf : 978-2-35311-003-2
Volume : 4
ISSN : 2827-1971
Posté le 15/07/2024
16 p.
Code CLIL : 3767; 4093; 4091;
licence CC by SA

Comment citer

Ostrovskaya, Elena, « L’IA éthique et le droit de l’UE : entre « soft law » et « hard law » », in : Alkorta, Itziar, Hernández, Yannick, Etxeberria, Urtzi, dir., Mugarteko ingurumena: aldaketa klimatikoa, hezkuntza-testuinguruak eta erronka digital berriak / Environnements transfrontaliers : changements climatique, contextes éducatifs et nouveaux défis numériques / Entornos transfronterizos: cambio climático, contextos educativos y nuevos retos digitales, Pessac, PUPPA, collection Schol@ 4, 2024, 259-274, [en ligne] https://una-editions.fr/intelligence-artificielle-ethique [consulté le 15/07/2024].
http://dx.doi.org/10.46608/schola4.9782353110025.22
Illustration de couverture • d’après © Metamorworks / Adobe Stock, T. Ferreira, PUPPA.
Retour en haut
Aller au contenu principal