UN@ est une plateforme d'édition de livres numériques pour les presses universitaires de Nouvelle-Aquitaine

Intelligence artificielle :
l’Union européenne, la Chine et les États-Unis, des instruments et des logiques à l’épreuve d’une gouvernance globale

Intelligence artificielle :
l’Union européenne, la Chine et les États-Unis, des instruments et des logiques à l’épreuve d’une gouvernance globale

Les avancées récentes dans le domaine de l’intelligence artificielle (IA) ont envahi le débat public et suscitent autant d’enthousiasme que d’effroi. Ses plus fervents défenseurs y voient des promesses d’immortalité tandis que ses plus vifs détracteurs, tous aussi excessifs, y voient l’annonce de la fin de l’humanité. Si l’IA semble pouvoir à terme pénétrer et « augmenter presque chaque moment de notre vie »1, elle est pourtant longtemps restée tapie au fond des laboratoires de recherche. L’expression intelligence artificielle, elle-même, n’est pas récente. Elle est attribuée à John McCarthy du Massachusetts Institute of Technology, en 1956 lors d’une conférence fondatrice au Dartmouth College. Toutefois, il faut attendre les années 2010 pour que les progrès en termes de stockage, de traitement de l’information, associés à ceux réalisés dans le domaine de la miniaturisation des puces électroniques2 se répercutent significativement sur l’essor de l’IA.

Proche et lointaine en même temps3, l’IA fait aujourd’hui partie de notre vie quotidienne.Présente dans de nombreux métiers au point de laisser espérer ou craindre la fin du travail4, elle reste pourtant très mystérieuse. Elle est définie au journal officiel comme

un champ interdisciplinaire théorique et pratique qui a pour objet la compréhension de mécanismes de la cognition et de la réflexion, et leur imitation par un dispositif matériel et logiciel, à des fins d’assistance ou de substitution à des activités humaines5.

Pour la présente étude, la définition retenue sera celle retenue par la Commission européenne dans la proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle6. Aux fins de ce règlement, l’article 3 retient l’expression « système d’intelligence artificielle » défini comme « un logiciel qui est développé au moyen d’une ou plusieurs des techniques ou approches énumérées à l’annexe I et qui peut, pour un ensemble donné d’objectifs définis par l’homme, générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels il interagit ». Cette définition réfère donc à une forme d’IA communément appelée « IA génératrice ».

L’expression « Intelligence artificielle » elle-même suscite la perplexité dans la mesure où elle associe « intelligence » propre à l’humain (et au règne animal dans une certaine mesure) et « artificielle » propre à la technique et aux machines7. D’ailleurs, il est communément admis que l’IA n’est pas intelligente, en ce sens qu’elle n’accède pas ni à la compréhension, ni aux finalités des résultats qu’elle produit.

Toutefois, qu’elle soit dépourvue d’intelligence n’enlève rien à son immense potentiel, aujourd’hui unanimement reconnu. À cet égard, la gouvernance de l’Intelligence artificielle au niveau mondial fait l’objet d’une compétition aussi âpre qu’intense. Alors que l’Union européenne est sur le point de se doter d’un cadre juridique dont l’esprit vise à favoriser une IA de confiance, en Chine et aux États-Unis la régulation de l’IA est également au cœur des discussions. Toutefois, dans chacune de ces régions du monde, les logiques qui président sont très différentes. Il est peu douteux de penser que ces divergences auront des répercussions sur les modèles d’IA développés portant en germe une fragmentation posant (par la même occasion) un sérieux défi face aux enjeux d’harmonisation.

Dans ce contexte, cette contribution s’articulera autour de deux thématiques envisageant, d’une part, l’émergence et des limites du cadre réglementaire dans l’UE à partir de la proposition de règlement du Parlement européen et du conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’IA)8 adoptée par la Commission européenne le 21 avril 2021, et d’autre part, les logiques divergentes en termes de gouvernance et les défis qui en résultent.

Émergence et limites du cadre réglementaire européen de l’IA

Cette proposition de règlement sur l’IA s’inscrit dans le cadre de la procédure législative ordinaire suivant un parcours basé sur l’adoption conjointe du texte par le Parlement européen et le Conseil de l’Union européenne. À l’image de nombreux textes européens, le contenu de la proposition est le fruit d’un compromis entre la protection des personnes, la promotion du marché numérique et l’innovation.

L’adoption conjointe du règlement par le Parlement européen et le Conseil de l’Union européenne

Ce règlement établissant des règles harmonisées concernant l’IA s’inscrit plus largement dans un ensemble réglementaire participant à la stratégie européenne de l’IA9 (§ Le règlement au sein du plan stratégique européen de l’IA). Il est présenté comme un instrument phare de la construction du cadre réglementaire européen de l’IA10. À ce titre, le choix de l’instrument législatif au sein de l’UE n’est jamais neutre. De manière générale, le choix d’adopter une réglementation sous la forme d’un règlement atteste d’une ambition harmonisation, qui se retrouve manifestement dans le cas présent (§ Le règlement, signe d’une volonté d’harmonisation).

Le règlement au sein du plan stratégique européen de l’IA

Cette proposition est une mise en œuvre de l’engagement politique pris par la présidente Von der Leyen qui avait annoncé dans ses orientations politiques11 que la Commission présenterait une proposition législative en vue de l’adoption d’une approche européenne coordonnée relative aux implications humaines et éthiques de l’IA.

À la suite de cette annonce, la Commission a élaboré une stratégie sur l’IA fondée sur deux volets affirmant d’une part sa volonté de faire de l’Europe un centre névralgique de l’IA tout en veillant à ce que l’IA soit centrée sur l’humain et digne de confiance12. Elle a ensuite publié un livre blanc intitulé « Intelligence artificielle – une approche européenne axée sur l’excellence et la confiance »13. Ce livre blanc affiche le double objectif de promouvoir l’adoption de l’IA et de tenir compte des risques associés à certaines utilisations de cette technologie. Il réitère les sept exigences essentielles énumérées dans les lignes directives du groupe d’experts de haut niveau (GEHN IA)14, et reprises par la Commission européenne dans une communication, que tous systèmes d’IA devraient respecter pour une IA digne de confiance15. Celles-ci concernent le contrôle humain, la robustesse technique et la sécurité, le respect de la vie privée et la gouvernance des données, la transparence, la diversité, la non-discrimination et l’équité, le bien-être sociétal et environnemental et enfin la responsabilité. En outre, le livre blanc souligne les effets positifs et négatifs de l’IA. Il ressort de ce texte que les principaux risques liés à l’utilisation de l’IA concernent l’application des règles visant à protéger les droits fondamentaux (notamment la protection des données à caractère personnel, le respect de la vie privée et la non-discrimination), ainsi que les questions liées à la sécurité et à la responsabilité16.

Après trois années de travaux préparatoires, la Commission va adopter, outre la proposition de règlement relatif à l’IA, un train de mesures en vue de la révision du plan coordonnée dans le domaine de l’IA17. Ainsi, elle annonce que cette proposition de cadre réglementaire sera accompagnée d’une nouvelle stratégie en matière de cybersécurité18, d’un plan d’action en matière d’éducation numérique. De surcroît, elle indique que cette proposition sera complétée par la révision de la directive relative aux machines19 portant notamment les risques résultant de la collaboration homme-robot ou de la présence des machines autonomes et par une législation en matière de responsabilité prévoyant entre autres l’adoption d’une directive. En résumé, la proposition de règlement sur l’IA bien que présentée comme un instrument majeur de régulation, s’inscrit dans un vaste plan stratégique sur l’IA.

Une fois adoptée par la Commission, la proposition suit la procédure législative ordinaire par laquelle elle a d’abord été soumise pour avis au Comité économique et social européen, à la Banque centrale européenne et au Comité européen des régions, pour être ensuite soumise à la lecture du Conseil de l’UE puis du Parlement européen. En effet, le traité de Maastricht a élevé le Parlement européen au rang de co-législateur à égalité avec le Conseil. La proposition a donc dans un premier temps été transmise au Conseil. Dans un second temps, elle a été discutée par le Parlement européen en première lecture, qui a adopté des amendements ; ce qui l’a conduit dans un troisième temps, à faire l’objet de négociations interinstitutionnelles également appelées trilogue. Un accord entre les députés européens et les membres du Conseil a été trouvé le 9 décembre 202320

Le règlement, signe d’une volonté d’harmonisation

Le choix de l’instrument n’est jamais anodin. Il a été opéré à la suite d’une analyse d’impact examinée par le comité d’examen de la réglementation de la Commission européenne. Plusieurs options ont été étudiées pour déterminer celle qui serait la plus appropriée pour atteindre l’objectif général de la proposition c’est-à-dire « assurer le bon fonctionnement du marché unique en créant des conditions propices au développement et à l’utilisation d’une IA de confiance dans l’Union »21. Les différentes options allaient de l’approche la plus souple avec un système de label non contraignant à l’approche la plus stricte établissant des exigences obligatoires pour tous systèmes d’IA. Chaque option a fait l’objet d’une évaluation au regard des incidences économiques et sociétales avec une vigilance particulière sur les incidences en termes de droits fondamentaux et l’option qui a été privilégiée est celle « d’un instrument législatif horizontal de l’UE suivant une approche proportionnée fondée sur les risques [assorti] de codes de conduite pour les systèmes d’IA qui ne sont pas à haut risque »22.

La Commission européenne justifie le choix d’un règlement en tant qu’instrument juridique, par la nécessité d’une application uniforme et directe des nouvelles règles, permettant d’éviter ou de réduire les risques de fragmentation juridique et de faciliter la mise en place d’un marché unique pour des systèmes d’IA « licites sûrs et dignes de confiance »23. Dans le même temps, cette volonté d’harmonisation est tempérée par la recherche de compromis propre à l’UE. En effet, la proposition indique que les dispositions du règlement « ne sont pas excessivement contraignantes [laissant] aux États membres la possibilité d’agir à divers niveaux pour des éléments qui ne compromettent pas les objectifs de l’initiative, en particulier l’organisation interne du système de surveillance du marché et l’adoption de mesures visant à favoriser l’innovation »24.

Le contenu de la proposition : la recherche d’équilibre

L’esprit général du texte (§ L’esprit général du texte) témoigne de cette recherche d’équilibre visant à créer un écosystème de confiance garantissant que l’IA est utilisée au service des personnes, dans le respect des droits fondamentaux (§ La place des droits fondamentaux) tout en établissant des exigences d’ordre technique (§ La place de la réglementation technique).

L’esprit général du texte : la création d’un écosystème de confiance

La proposition s’appuie sur deux ans de travaux et réflexions ayant débuté en 2018 avec la mise en place du groupe d’experts indépendants de haut niveau sur l’IA25. L’approche du groupe d’expert consiste « à faire de l’éthique un piller essentiel pour garantir et développer une IA digne de confiance »26. Si l’éthique a guidé les premiers pas de la réflexion de la Commission européenne, et si la Commission a soutenu que la dimension éthique de l’IA n’est pas un luxe superflu ou un élément « accessoire », mais qu’elle doit au contraire « faire partie intégrante du développement de l’IA »27, dans la proposition de règlement, l’éthique tout en restant présente au stade des principes directeurs, cède la place au droit dur contenant des normes ayant force obligatoire. En réalité, éthique et droit ne sont pas incompatibles, ils sont même « complémentaires »28. Grâce à cette complémentarité, « le droit peut s’inspirer des valeurs éthiques qui, une fois intégrées dans la loi, prennent force obligatoire et exécutoire »29.

Aux termes de l’exposé des motifs de la proposition de règlement adoptée par la Commission européenne le 21 avril 2021, celle-ci indique que la présente proposition vise la mise en place un écosystème de confiance, en proposant un cadre juridique pour une IA digne de confiance. La confiance imprègne en effet l’esprit général de la proposition. Le texte vise à la « mise en place d’un écosystème de confiance, en proposant un cadre juridique pour une IA digne de confiance ». La confiance des utilisateurs qu’il faut favoriser qu’ils adoptent des solutions fondées sur l’IA est envisagée à plusieurs reprises, de même que les « gages de confiance » sont évoqués au regard des attentes des opérateurs concernant les coûts que ceux-ci peuvent supporter.

Pour favoriser ce contexte, la proposition fixe des objectifs spécifiques visant d’abord à veiller à ce que les systèmes d’IA mis sur le marché de l’union soient sûrs et respectueux de la législation en vigueur en matière de droits fondamentaux et de valeur de l’union. Ils visent ensuite à garantir la sécurité juridique pour faciliter les investissements et l’innovation dans ce domaine. En outre, ils cherchent à renforcer la gouvernance et l’application effective de la législation existante en matière de droits fondamentaux et des exigences de sécurité applicables au système d’IA. Enfin, ils souhaitent faciliter le développement d’un marché unique pour des applications d’IA légales, sûres et dignes de confiance, et empêcher la fragmentation du marché.

Pour répondre à l’ensemble de ces objectifs, la proposition établit des règles pour le développement, la mise sur le marché et l’utilisation de systèmes d’IA dans l’UE en classifiant les systèmes d’IA en trois catégories suivant une approche fondée sur le risque, introduisant une classification entre les utilisations de l’IA qui créent un risque inacceptable, celles pour lesquelles le risque est élevé et celles ayant un risque faible ou minimal. Une première catégorie est ainsi constituée des pratiques d’IA identifiées comme étant particulièrement néfastes qui sont dès lors interdites en raison de leur caractère contraire aux valeurs de l’Union. La deuxième catégorie recense les systèmes d’IA dits « à haut risque » dans la mesure où ils « présentent des risques importants pour la santé, la sécurité ou les droits fondamentaux des personnes ». Pour la troisième catégorie, seules des obligations minimales en matière de transparence sont prévues.

La proposition liste, d’abord, les pratiques d’IA interdites dont l’utilisation est jugée inacceptable car contraire aux valeurs de l’UE. Quatre pratiques interdites figurent à l’article 5 paragraphe 1 de la proposition. La première vise le recours à des techniques subliminales agissant sur l’inconscient présentant un risque d’altération du comportement des personnes. La seconde concerne les systèmes d’IA qui exploite les vulnérabilités tels que celles dues à l’âge ou au handicap physique ou mental. Est également interdite la notation sociale fondée sur l’IA initialement effectuée à des fins générales par les autorités publiques et étendue par amendement du Parlement aux entreprises privées. À ces interdictions prévues par la proposition, le Parlement européen et le Conseil se sont accordés pour ajouter l’interdiction de certains systèmes biométriques tels que la reconnaissance des émotions sur les lieux de travail.

La proposition identifie, ensuite, les systèmes d’IA à haut risque selon une méthode d’évaluation du risque prenant en compte les risques importants pour la santé, la sécurité ou les droits fondamentaux. Ceux-ci seront autorisés mais ils devront respecter un certain nombre d’exigences et d’obligations pour entre sur le Marché intérieur de l’UE.

L’article 6 établit deux catégories de systèmes à risque. La première catégorie concerne la sécurité des produits. Aux termes de l’article 6 paragraphe 1, est à haut risque un système destiné à être utilisé comme composant de sécurité d’un produit ou constituant lui-même un tel produit. Lorsque les systèmes d’IA entrent dans cette classification, ils sont soumis à une évaluation de conformité par un tiers, en vue de la mise sur le marché ou la mise en service. La seconde catégorie est prévue à l’article 6 paragraphe 2. Elle vise les systèmes d’IA énumérés à l’annexe III selon huit domaines : l’identification biométrique et la catégorisation des personnes physiques ; la gestion et l’exploitation des infrastructures critiques ; l’éducation et la formation professionnelle ; l’emploi, la gestion de la main-d’œuvre et l’accès à l’emploi indépendant ; l’accès et les droits aux services privés essentiels, services publics et prestations sociales ; les autorités répressives ; la gestion de la migration, de l’asile et des contrôles aux frontières ; l’administration de la justice et le processus démocratique.

La proposition pose, enfin, des règles de transparence pour les systèmes qui ne présentent qu’un risque faible et limité, utilisé par exemple pour interagir avec les humains ou pour générer ou manipuler des contenus. Ainsi, dans ces situations, une information devra être délivrée et si un système d’IA est utilisé pour générer ou manipuler des images ou des contenus audio ou vidéo afin de produire un résultat sensiblement similaire au continu authentique, il sera obligatoire de déclarer que le contenu est généré par des moyens automatisés.

La mise en place d’un écosystème de confiance visée par la proposition se fonde sur le respect des valeurs de l’UE et des droits fondamentaux.

La place des droits fondamentaux

Lors de conclusions sur la Charte des droits fondamentaux dans le contexte de l’IA et du changement numérique30, publiées le 21 octobre 2020, le Conseil de l’UE avait réaffirmé sa détermination « à défendre et promouvoir conjointement les valeurs et principes communs consacrés à l’article 2 du traité de l’UE »31, soulignant que « la conception, le déploiement et l’utilisation de l’IA doivent respecter pleinement les droits fondamentaux »32. En ce sens, il préconisait de « placer la protection et la promotion des droits fondamentaux ainsi que l’idée sous-jacente de la dignité humaine au cœur d’une approche de l’IA centrée sur l’humain »33.

Pour s’assurer du respect des droits fondamentaux, la proposition de règlement s’appuie sur la Charte des droits fondamentaux de l’UE et sur les valeurs de l’UE. Aux termes du considérant 28, sont ainsi envisagés, le droit à la dignité humaine, le respect de la vie privée et la protection des données à caractère personnel, la non-discrimination, l’égalité entre les femmes et les hommes. Sont également considérés les effets dissuasifs sur les droits à la liberté d’expression et à la liberté de réunion, la préservation du droit à un recours effectif. Enfin, sont pris en compte les droits de certains groupes particuliers (les travailleurs, les consommateurs, les enfants, les personnes handicapées). La protection de l’environnement est également citée comme un droit pertinent au regard de la santé et de la sécurité des personnes.

L’exposé des motifs de la proposition, indique que la prévention d’éventuelles violations des droits fondamentaux justifie des restrictions proportionnées, précisant que face à l’émergence et à l’utilisation de systèmes d’IA à haut risque, sont ainsi admises certaines restrictions à la liberté d’entreprise et à la liberté des arts et des sciences pour des raisons impérieuses d’intérêt général liées à la santé, à la sécurité, à la protection des consommateurs.

Le respect des droits fondamentaux intervient dès le stade de la classification des systèmes d’IA. Ensuite, au stade de leur développement, les systèmes d’IA à haut risque devront être accompagnés d’une notice d’utilisation mentionnant notamment non seulement « toutes circonstances connues ou prévisibles liées à l’utilisation du système d’IA à haut risque conformément à sa destination »34 mais également les « conditions de mauvaise utilisation raisonnablement prévisible, susceptibles d’entraîner des risques pour la santé et la sécurité ou pour les droits fondamentaux »35. Enfin, au stade de la mise sur le marché, tout incident grave ou tout dysfonctionnement d’un système d’IA à haut risque constitutifs d’une violation des obligations visant à protéger les droits fondamentaux devra être notifié par le fournisseur du système aux autorités de surveillance du marché des États membres36. Au-delà de ces dispositions qui interviennent en aval de la mise sur le marché, le texte de compromis du Parlement et du Conseil a ajouté en amont une analyse d’impact sur les droits fondamentaux. De surcroît, dans l’hypothèse où l’autorité de surveillance du marché d’un État membre a des raisons suffisantes de considérer qu’un système d’IA présente un risque au regard de la santé, la sécurité ou la protection des droits fondamentaux, elle procède à une évaluation qui peut aller jusqu’à conduire à son retrait du marché.

Le respect des droits fondamentaux et des valeurs de l’UE qui se traduit par un ensemble d’obligations horizontales, visant des exigences techniques devant être mises en œuvre par les fournisseurs de systèmes d’IA à haut risque, donne une place importante à la réglementation technique.

La place de la réglementation technique

La proposition fixe les exigences légales applicables aux systèmes d’IA à haut risque prévues au chapitre 2 du titre III. Pour garantir le respect de ces exigences, un système de gestion des risques comprenant l’estimation et l’évaluation des risques susceptibles d’apparaître, de même que l’adoption de mesures appropriées de gestion des risques, doit être établi, documenté et tenu à jour37. La détermination des mesures de gestion des risques est établie à la suite de tests effectués sur la base de métriques et de seuils probabilistes et garantissant le fonctionnement cohérent du système conformément à sa destination et aux exigences légales38.

Parmi les exigences légales, une documentation technique doit être établie visant à démontrer que le système répond aux exigences légales39. Lors de sa conception et de son développement, un journal d’enregistrement automatique des événements doit être prévu40. Des exigences en matière d’exactitude, de robustesse et de cybersécurité sont également posées à l’article 15.

Le contrôle humain est également prévu à l’article 14. À cet égard, le considérant 48 de la proposition indique que les systèmes de d’IA à haut risque devraient être conçus et développés de sorte à ce que les personnes physiques puissent contrôler leur fonctionnement. Aux termes du considérant, cette approche implique que le fournisseur du système établit des « mesures appropriées de contrôle humain »41. En ce sens, le contrôle humain vise à prévenir ou à réduire les risques pour la santé, la sécurité ou les droits fondamentaux qui peuvent apparaître lorsqu’un système d’IA à haut risque est utilisé conformément à sa destination ou dans des conditions de mauvaise utilisation raisonnablement prévisible42. Il peut être assuré, soit par des moyens techniques intégrés par le fournisseur dans le système, soit par des mesures qui se prêtent à une mise en œuvre par l’utilisateur. Par ces mesures, la proposition vise à rendre possible la surveillance du fonctionnement du système afin de pouvoir détecter et traiter les signes d’anomalies, d’avoir conscience d’une éventuelle tendance à se fier automatiquement aux résultats produits. Le contrôle humain a également pour objectif de permettre aux personnes de décider de ne pas utiliser le système d’IA à haut risque ou de passer outre le résultat fourni par le système, d’être capable d’intervenir sur le fonctionnement du système ou d’en interrompre le fonctionnement.

Compte tenu de la nature des risques, le chapitre 3 du titre III énonce un certain nombre d’obligations incombant aux fournisseurs de ces systèmes. À ce titre, les fournisseurs de systèmes à haut risque devront veiller à ce que leur système d’IA à haut risque soit conforme aux exigences légales, mettre en place un système de gestion de la qualité, établir une documentation technique, assurer la tenue des journaux générés automatiquement et veiller à ce que le système d’IA soit soumis à la procédure d’évaluation de la conformité applicable, avant sa mise sur le marché43.

Aux termes de l’article 17, le fournisseur de système d’IA à haut risque met en place un système de gestion de la qualité sous forme de politiques, de spécifications techniques et de procédures. Cet aspect de la réglementation est déterminant dans la mesure où le système de qualité sert de référence pour l’évaluation de la conformité.

La conformité d’un système qui détermine sa mise sur le marché est présumée lorsque le fournisseur a appliqué des normes harmonisées dont les références sont publiées au Journal officiel de l’Union européenne44 ou des spécifications communes adoptées par la Commission européenne45. Dans le cas contraire, exception faite des systèmes ayant été entraînés et testés de manière spécifique qui bénéficient également de ce fait d’une présomption de conformité, l’obtention de la conformité est soumise, soit à une évaluation interne, soit à un organisme tiers selon la catégorie de système d’IA mis en œuvre46.

À la suite du texte de compromis adopté le 9 décembre 2023 par le Parlement et le Conseil, des travaux doivent encore se poursuivre au niveau technique afin de finaliser le règlement avant son adoption formelle par les deux institutions. La législation sur l’IA devrait entrer en vigueur en 2025.

Si l’UE s’est saisie des enjeux liés à l’IA et qu’elle apparaît pionnière en matière de réglementation sur l’IA, d’autres acteurs au niveau régionale et internationale interviennent et prennent part à la gouvernance de l’IA. Tous ne témoignent pas de la même logique ; ce qui pose de sérieux défis en termes de gouvernance mondiale.

Logiques régionales et défis d’une gouvernance mondiale

Éclairés par les dérives d’une réglementation insuffisante des médias sociaux qui a donné lieu à des abus de la vie privée et à de la désinformation toxique, certains leaders de l’industrie technologique, de nombreux décideurs politiques, de nombreux chercheurs, les régulateurs discutent des garde-fous à mettre en place autour de cette puissante technologie47, car des questions telles que la désinformation, la discrimination et la destruction des emplois prennent de l’importance dans le débat public en même temps que les avantages potentiels de l’IA.

Toutefois au-delà des craintes, certains décideurs s’alarment au contraire qu’une réglementation trop stricte ne ralentisse le développement de la technologie et ne donne un avantage à d’autres régions du monde48. Dès lors, il apparaît d’évidence que la gouvernance de l’IA est avant tout un enjeu géopolitique dévoilant des logiques régionales divergentes. Face à cette absence de vision commune, la gouvernance mondiale, malgré certaines initiatives, reste largement en construction.

Des gouvernances régionales portées par des logiques divergentes

La compétition mondiale qui s’est installée au sujet de l’IA dévoile en filigrane des approches régionales très variées de l’IA et de sa régulation. Si l’UE est en quête d’équilibre pour que la régulation ne soit pas source de déséquilibre compétitif (§ Au niveau de l’UE, une régulation fondée sur la recherche d’équilibre), la Chine pour sa part a adopté un modèle basé sur le contrôle étatique (§ Au niveau chinois, une régulation fondée sur une recherche de contrôle étatique) tandis que les États-Unis souhaitent que la régulation soit le fruit des acteurs du marché numérique (§ Aux États-Unis, une réglementation fondée sur l’initiative responsable des entreprises du secteur).

Au niveau de l’UE, une régulation fondée sur la recherche d’équilibre

Les objectifs de la proposition mêlant marché unique, innovation et droits fondamentaux attestent d’une volonté d’équilibre. Le développement d’une intelligence artificielle sûre, fiable et éthique répond à la stratégie de l’UE49 visant à promouvoir et garantir le fonctionnement du marché unique numérique. Cette visée est très clairement attestée par la base juridique de la proposition qui est, en premier lieu l’article 114 du traité de fonctionnement de l’UE (TFUE), prévoyant l’adoption de mesures destinées à assurer l’établissement et le fonctionnement du marché intérieur. Une seconde base juridique est prévue. En effet, dans la mesure où la proposition prévoit des dispositions spécifiques à la protection des personnes physiques concernant le traitement des données à caractère personnel, l’article 16 du TFUE fonde également le texte.

Dans le même temps, la proposition souligne que les dispositions du règlement laissent aux États membres la possibilité d’agir à divers niveaux dans le respect des objectifs, en particulier au regard de l’adoption de mesures visant à favoriser l’innovation. Ce dernier point est un enjeu pour l’Union qui souhaite être et rester un acteur majeur dans le domaine de l’IA. À cet égard, la proposition prévoit des mesures spécifiques de soutien à l’innovation comprenant notamment des bacs à sable réglementaires, offrant la possibilité de mettre à l’essai des technologies novatrices.

Enfin, la proposition affirme la place centrale de l’être humain. À ce titre, elle énonce que « l’IA est un outil qui devrait se mettre au service des personnes et constituer une force positive pour la société afin d’accroître, en définitive, le bien-être de l’être humain » de sorte que les utilisateurs des systèmes d’IA puissent avoir confiance dans le fait que la technologie est respectueuse des droits fondamentaux.

La proposition de règlement a instauré la mise en place d’organes de gouvernance. Ainsi, au titre IV, il est prévu la création d’un Comité européen de l’IA dont les objectifs seront de contribuer à la coopération entre les autorités de contrôle nationales et la Commission, de coordonner leurs orientations et de les aider dans l’application cohérente du règlement. De leur côté, chaque État membre désignera une autorité de contrôle. Par ailleurs, le Parlement et le Conseil ont ajouté la création d’un bureau de l’IA au sein de la Commission afin de superviser les modèles d’IA à usage général. Ces modèles les plus avancés feront ainsi l’objet d’une surveillance spécifique. Un groupe scientifique d’experts indépendants, ainsi qu’un forum consultatif ouvert aux parties prenantes du monde industriel, de la société civile et du domaine académique complètent cette architecture.

Au niveau chinois, une régulation fondée sur une recherche de contrôle étatique

La volonté d’être une puissance technologique, de même que l’indépendance à ce sujet sont centrales dans l’agenda politique chinois depuis de nombreuses années50. Le plan Made in China 2025 élaboré par le ministère de l’industrie et de la technologie et l’Académie chinoise d’ingénierie, publié le 27 mars 2015 le 14ème plan technologique et scientifique, les routes de la soie numérique, le développement d’un système de standardisation spécifique, en sont de multiples illustrations. En 2017, la Chine a publié son « Plan de développement de l’intelligence artificielle de nouvelle génération » qui fixe une feuille de route visant à faire de la Chine le leader mondial de l’IA en 203051. En ce sens, un rapport de la Cour des comptes paru en 2023 montre une évolution de production scientifique en IA qui place la Chine au premier rang devant les États-Unis52.

En matière de régulation, la Cyberspace Administration of China, l’autorité de contrôle du numérique, a publié un corpus de règles concernant l’IA53 génératrice de contenu54 en version provisoire, ouvert à la consultation dans un premier temps mais d’ores et déjà mis en œuvre55. L’article 3 précise des objectifs, somme toute, assez similaires à ceux de l’UE. En effet, le texte indique notamment que l’État soutient l’innovation et encourage l’adoption de logiciels, d’outils de ressources informatiques et de données sûrs et dignes de confiance.

Au-delà de cet apparent partage de vue, la réglementation chinoise fait peser de fortes exigences sur les fournisseurs d’IA génératrice de contenu. En ce sens, l’article 4 prévoit que le contenu généré à l’aide de l’IA devra incarner les valeurs sociales fondamentales. À l’inverse, il ne devra pas contenir de contenu subversif à l’égard du pouvoir de l’État, du système socialiste. Il ne devra pas non plus inciter à la sécession du pays, saper l’unité nationale, encourager entre autres le terrorisme, l’extrémisme, la haine nationale, la discrimination éthique. Il ne devra pas non plus être susceptible de perturber l’ordre économique et social. Ces termes très flous ouvrent une large place à l’interprétation.

Outre la garantie du respect aux principes idéologiques, aux termes des articles 4 et 15, les fournisseurs doivent s’assurer que le contenu généré à l’aide d’IA est vrai, exact, exempt de discrimination fondé sur la race, le pays ou le sexe de l’utilisateur. Soumis à des exigences de contrôle des contenus, ils doivent non seulement prendre des mesures empêchant la production de fausses informations et adopter des mesures de filtrage du contenu inapproprié, mais ils doivent également être en mesure d’empêcher que ce contenu soit à nouveau généré. Enfin, avant la mise en service des produits d’IA générateur de contenu, les fournisseurs doivent procéder à des formalités d’évaluation et de dépôt des algorithmes56.

Les mesures de surveillance ne pèsent pas uniquement sur les fournisseurs, elles concernent également les utilisateurs finaux pour lesquels le fournisseur d’IA génératrice de contenu doit recueillir l’identité réelle57.

Ce cadre normatif qui apparaît à bien des égards très contraignant, semble tout de même assez paradoxal, au regard de la volonté affirmée de s’imposer comme première puissance en termes d’innovation à l’horizon 2049. Dans ce paradoxe, il faut comprendre que la Chine actuelle ne partage pas la vision occidentale faisant de la liberté comme une condition de l’innovation58. En ce sens, la vision de la Chine est à l’évidence très éloignée de celle des États-Unis.

Aux États-Unis, une réglementation fondée sur l’initiative responsable des entreprises du secteur

Le bureau de la politique scientifique et technologique de la Maison Blanche a publié, en octobre 2022, un Plan pour la déclaration des droits de l’IA59. Le texte est un guide pour concevoir, utiliser et déployer des systèmes automatisés respectueux des individus. Il énonce cinq principes qui devraient guider la conception, l’utilisation et le déploiement de systèmes automatisés. Il affirme que les Américains devraient d’être protégés contre les systèmes dangereux ou inefficaces, que les algorithmes ne devraient pas être discriminatoires, que les systèmes devraient être utilisés et conçus de manière équitable, et que les Américains devraient d’être protégés contre les pratiques abusives en matière de données grâce à des protections intégrées. Les Américains devraient avoir un droit de regard sur l’utilisation des données les concernant, de même qu’ils devraient être informés de l’existence d’un système automatisé et, devraient pouvoir comprendre pourquoi et comment celui-ci participe aux résultats qui les concernent. Enfin, ils devraient bénéficier d’un droit de retrait et d’un droit à un recours en cas de difficultés. Ces principes n’ont cependant aucune valeur juridique contraignante. Il s’agit d’un livre blanc qui vise à soutenir l’élaboration de politiques et de pratiques protégeant les droits civils et assurant la promotion des valeurs démocratiques.

L’Institut des normes et de la technologie du Ministère du commerce a publié, pour sa part, en janvier 2023, un rapport relatif à un cadre de gestion des risques liés à l’IA60. Le rapport souligne que la gestion des risques liés à l’IA est un élément clé du développement et de l’utilisation responsables des systèmes d’IA. À ce titre, il indique que les concepts fondamentaux de l’IA responsable mettent l’accent sur l’humain, la responsabilité sociale et la soutenabilité et relève que la gestion des risques liés à l’IA peut favoriser des utilisations et des pratiques responsables en incitant les organisations qui conçoivent, développent et déploient l’IA à réfléchir aux impacts tant positifs que négatifs susceptibles à venir. En ce sens, le rapport considère que la compréhension et la gestion des risques liés aux systèmes d’IA favoriseront la fiabilité des systèmes d’IA et, par conséquent, contribueront à cultiver la confiance des utilisateurs. Cette approche par le risque peut présenter certains points de contacts avec le règlement européen en cours d’adoption. Cependant, il ne s’agit pas d’un cadre contraignant mais principalement d’un outil mis à la disposition des entreprises et qui a vocation à fournir une ressource méthodologique.

En parallèle de ces initiatives, le Congrès américain s’est également emparé de cette question. Récemment auditionné par le Congrès, Samuel Altam, le PDG d’open IA a reconnu que l’intervention des pouvoirs publics sera essentielle pour atténuer les risques liés aux systèmes d’IA les plus puissants61. Pour autant, la position du Président des États-Unis ne semble pas favorable à une réglementation contraignante. À la suite de l’audition, la vice-présidente des États-Unis, Kamala Harris a indiqué que les entreprises du secteur de l’IA ont un devoir éthique, moral et légal de s’assurer de la sûreté et de la sécurité de ses produits62.

Toutefois, même s’il est encore un peu tôt pour l’affirmer, un décret très récent pourrait amorcer un changement de cap. Le 30 octobre 2023, l’actuel Président des États-Unis, Joe Biden, a signé un décret établissant de nouveaux standards pour la sûreté et la sécurité de l’IA63. Le texte prévoit pour les entreprises développant des systèmes d’IA les plus puissants, l’obligation de fournir au gouvernement américain leurs résultats des tests de sécurité. Le décret fixe un certain nombre d’orientations dans des domaines sensibles tels que l’utilisation de l’IA par l’armée et les agences de renseignement ordonnant l’élaboration d’un mémorandum sur la sécurité nationale. La protection des citoyens contre la fraude et la manipulation via l’IA est également abordée sous l’angle de l’élaboration par le ministère du commerce de normes et de bonnes pratiques. Dans le cadre de la protection de la vie privées des Américains, le décret précise que le président invite le Congrès à adopter une législation sur la confidentialité des données afin de protéger tous les citoyens, en particulier les enfants. La protection des travailleurs est également envisagée à travers l’exigence d’élaborer des principes et des meilleures pratiques pour atténuer les inconvénients et maximiser les avantages de l’IA. De manière globale, le texte ne fixe pas un cadre normatif précis mais s’apparente davantage à un plan d’action normatif.

Finalement, face à l’UE, la Chine et les États-Unis qui dévoilent des modèles de gouvernance fondés sur des logiques très différentes, il n’est pas très étonnant que la gouvernance mondiale reste balbutiante malgré d’évidents enjeux de société.

Une gouvernance mondiale à construire

Attestant de la volonté de bâtir une gouvernance mondiale basée sur des valeurs communes, plusieurs initiatives se situent tantôt à l’échelle institutionnelle (§ Les initiatives inscrites dans un cadre institutionnel) tantôt en dehors du cadre institutionnel, à l’échelle des États (§ Les initiatives inscrites au-delà du cadre institutionnel).

Les initiatives inscrites dans un cadre institutionnel

Ces initiatives institutionnelles sont portées par les organisations internationales (a) et au plan régional par le Conseil de l’Europe (b).

a) Les initiatives portées par les organisations internationales

Au niveau des Nations Unis, les 193 États membres de l’UNESCO ont adopté, en novembre 2021, la Recommandation sur l’éthique de l’IA64, constituant le premier instrument normatif mondial dans ce domaine. Le texte fournit des orientations éthiques à la fois aux États membres en tant qu’autorités en charge de l’élaboration de cadres juridiques, et aux acteurs publics et privés de l’IA. La Recommandation a pour objet de « servir de base afin de mettre les systèmes d’IA au service de l’humanité, des individus, des sociétés, de l’environnement et des écosystèmes, ainsi que de prévenir les préjudices. Elle a également pour vocation de favoriser l’utilisation pacifique des systèmes d’IA »65. L’objectif de la Recommandation est d’« offrir un cadre universel de valeurs, de principes et d’actions pour guider les États dans la formulation de leur législation et de leur politique »66.

L’organisation de coopération et de développement économique (OCDE) est également un acteur institutionnel dans le domaine de l’IA. Instituée en 1960, initialement pour administrer l’aide américaine et canadienne au titre du Plan Marshall de reconstruction de l’Europe après la Seconde Guerre mondiale, l’OCDE regroupe à présent 38 États membres répartis sur tous les continents. Conformément à sa Convention, elle intervient dans tous les domaines de l’économie. Au regard de l’intelligence artificielle, les États membres ont approuvé, en mai 2019, la Recommandation du Comité sur l’IA67. Celle-ci recommande que les Membres et non-Membre adhérents à la dite-recommandation fassent la promotion et mettent en œuvre les Principes d’une approche responsable en appui d’une IA digne de confiance. Cette approche vise le respect de valeurs centrées sur l’humain et l’équité, de principes de transparence et d’explicabilité, de robustesse, sûreté et sécurité, de responsabilité. Cet instrument a pour objectif de façonner un cadre d’action au niveau des politiques nationales et de favoriser la coopération internationale au service d’une IA digne de confiance. À l’appui de la mise en œuvre de cette recommandation, l’OCDE a constitué en 2020 un Observatoire des politiques de l’IA ainsi qu’un réseau informel d’experts de l’OCDE sur l’IA.

Ces recommandations n’ont pas de portée juridique obligatoire. Elles représentent un engagement politique vis-à-vis des principes qu’elles contiennent. Toutefois, de tels instruments fondés sur des principes et des valeurs communs, se conjuguent avec un droit plus contraignant et participent à une harmonisation normative. Il en est de même au niveau du Conseil de l’Europe.

b) Les initiatives portées par le Conseil de l’Europe

Le Conseil de l’Europe, organisation internationale rassembleant46 États de l’Europe, a pour mission la promotion de la démocratie et la protection des droits de l’homme et de l’État de droit en Europe. Au vu de cette mission et eu égard aux enjeux que l’IA fait peser sur les droits et libertés, il était assez évident que le Conseil de l’Europe se saisit de la problématique de l’IA. En ce sens, le Comité sur le développement de l’intelligence artificielle a été chargé par le Conseil des ministres d’élaborer un instrument juridiquement contraignant sur les systèmes d’IA prenant en compte les principes fondamentaux du Conseil de l’Europe en matière de droits de l’homme, démocratie et état de droit. Un projet de Convention-cadre est en cours d’élaboration68.

Lors des travaux préparatoires, la dimension transversale du futur instrument juridique a été particulièrement mis en avant en raison des questions juridiques soulevées par la mise en œuvre des systèmes d’IA qui par nature impliquent un grand nombre d’acteurs au niveau mondial et engendrent des effets globaux69. Il s’agit pour le Conseil de l’Europe de faciliter l’adhésion d’États, permettant ainsi

non seulement d’augmenter de manière significative l’impact et l’efficacité de l’instrument proposé mais aussi d’établir des conditions équitables indispensables pour les acteurs concernés, y compris l’industrie et les chercheurs en IA, lesquels opèrent souvent par-delà les frontières nationales et les régions du monde70.

Le rayonnement, qui est ainsi recherché, témoigne d’une volonté de façonner une gouvernance de l’IA à partir d’un standard fondé sur les principes du Conseil de l’Europe.

Les initiatives inscrites au-delà du cadre institutionnel

Plusieurs initiatives étatiques qu’elles soient individuelles ou conjointes témoignent d’une volonté de promouvoir une gouvernance de l’IA fondées sur des valeurs communes.

Très récemment, les 1er et 2 novembre 2023, sous l’impulsion britannique, s’est déroulé le premier sommet mondial consacré à la sécurité sur l’IA. À cette occasion, 28 pays dont la Chine, les États-Unis, l’UE ont signé la déclaration de Bletchley s’accordant sur le fait que « pour le bien de tous, l’IA doit être conçu, développée, déployée et utilisée de manière sûre, de manière à être contrée sur l’humain, digne de confiance et responsable »71. Dans une dynamique de coopération, les signataires se sont engagés à mettre l’accent sur l’identification des risques qui suscitent des préoccupations communes. Ils se sont également engagés à élaborer des politiques respectives fondées sur les risques, en collaborant le cas échéant tout en reconnaissant que les approches peuvent différer en fonction des circonstances nationales et des cadres juridiques applicables. À ce stade, si les signataires partagent une vision commune des objectifs, ils semblent tout de même, pour l’instant assez éloignés d’une gouvernance commune.

Le G7 témoigne également d’une volonté de se saisir de la problématique de la gouvernance. En effet, lors de son dernier sommet, les chefs d’État et de gouvernement de cette instance, réunis à Hiroshima du 19 au 21 mai 2023 se sont également engagés à « faire progresser le dialogue international sur la gouvernance et l’interopérabilité inclusives de l’IA pour réaliser notre vision et notre objectif communs d’une IA digne de confiance, conformément à nos valeurs démocratiques communes »72.

Enfin, à l’initiative conjointe du Canada et de la France, a eu lieu à Montréal, le 4 décembre 2020, le premier sommet du Partenariat mondial pour l’intelligence artificielle (PMIA). Comprenant quinze membres fondateurs (Canada, France, Allemagne, Australie, République de Corée, États-Unis, Italie, Inde, Japon, Mexique, Nouvelle-Zélande, Royaume-Uni, Singapour, Slovénie et Union européenne) cette instance a pour objectif de promouvoir une l’IA de confiance, respectueuse des droits de la personne, garantissant les valeurs d’inclusion, de diversité, de même que la croissance.

Cette première étape a été suivie de la création du Global Partnership on AI (GPAI) regroupant à présent vingt-neuf membres. Rassemblant des acteurs de la société civile, du milieu université, de gouvernements, d’organisations internationales, cette instance vise à favoriser la coopération internationale et le partage de connaissance pluridisciplinaire dans le domaine de l’IA.

Si à différentes échelles et dans différents espaces, la question de la régulation de l’IA et de sa gouvernance se dessine par petites touches, elle reste malgré tout morcelée. D’autant que pour construire une gouvernance commune, il faut s’accorder sur certains dénominateurs. Alors que nombreuses régulations évoquent fréquemment la dimension cruciale de la confiance, son sens est-il communément partagé ? Au-delà de cette première difficulté, l’innovation qui est un dénominateur commun se conjugue rarement collectivement. La compétition qui en résulte, accompagnée de la volonté de préserver l’innovation, de lutter contre les freins y compris normatifs, compliquent à l’évidence une gouvernance commune.

Bibliographie

Ouvrages et articles d’ouvrages

Articles de journaux et revues

Sitographie

Divers

Commission européenne 

  • Communication jointe au Parlement européen et au Conseil. Favoriser une approche européenne en matière d’intelligence artificielle, COM(2021) 205 final. Bruxelles : Commission européenne, 21 avril 2021. https://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=CELEX:52021DC0205 [consulté 06/2024]
  • Communication jointe au Parlement européen et au Conseil. La stratégie de cybersécurité de l’UE pour la décennie numérique, JOIN(2020) 18 final. Bruxelles : Commission européenne, 16 décembre 2020. https://eur-lex.europa.eu/legal-content/FR/ALL/?uri=CELEX%3A52020JC0018 [consulté 06/2024]
  • Communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions. Façonner l’avenir numérique de l’Europe, COM(2020) 67 final. Bruxelles : Commission européenne, 19 février 2020. https://eur-lex.europa.eu/legal-content/FR/ALL/?uri=COM:2020:67:FIN [consulté 06/2024]
  • Communication au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions. Renforcer la confiance dans l’intelligence artificielle axée sur le facteur humain, COM(2019) 168 final. Bruxelles : Commission européenne, 8 avril 2019. https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:52019DC0168&from=EN [consulté 06/2024]
  • Communication au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions. L’intelligence artificielle pour l’Europe, COM(2018) 237 final. Bruxelles : Commission européenne, 25 avril 2018. https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX%3A52018DC0237 [consulté 06/2024]
  • Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union, COM(2021) 206 final. Bruxelles : Commission européenne, 21 avril 2021. https://eur-lex.europa.eu/legal-content/FR/ALL/?uri=CELEX%3A52021PC0206 [consulté 06/2024]
  • Livre blanc. Intelligence artificielle – une approche européenne axée sur l’excellence et la confiance, COM(2020) 65 final. Bruxelles : Commission européenne, 19 février 2020.

Conseil de l’Europe

  • Comité sur l’intelligence artificielle. Projet de Convention-cadre sur l’intelligence artificielle, les droits de l’homme, la démocratie et l’état de droit, CAI(2023)28_FR. Strasbourg : Conseil de l’Europe, 8 janvier 2024. https://rm.coe.int/cai-2023-28-fr-projet-de-convention-cadre/1680ae19a1 [consulté 06/2024]
  • Comité ad hoc sur l’intelligence artificielle. Éléments potentiels d’un cadre juridique sur l’intelligence artificielle, fondés sur les normes du Conseil de l’Europe en matière de droits de l’homme, de démocratie et d’État de droit, CAHAI(2021)09rev. Strasbourg : Conseil de l’Europe, 3 décembre 2021, https://rm.coe.int/cahai-2021-09rev-fr-elements/1680a6d90e [consulté 06/2024]

Conseil de l’UE 

Notes

  1. CNRS, https://lejournal.cnrs.fr/dossiers/comment-lintelligence-artificielle-va-changer-nos-vies [consulté 06/2024]
  2. Georges, 2019.
  3. Barraud, 2022.
  4. Casilli, 2019 ; Brynjolfsson, Mc Afee, 2015 ; Rifkin, 1997.
  5. JO n° 285 du 9 décembre 2018, Vocabulaire de l’intelligence artificielle liste de termes, expressions et définitions adoptés.
  6. Commission européenne, Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union, COM(2021) 206 final. (Bruxelles : Commission européenne, 21 avril 2021).
  7. En ce sens : Barraud, 2022.
  8. Commission européenne, COM(2021) 206 final.
  9. Commission européenne, Communication au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions, L’intelligence artificielle pour l’Europe, COM(2018) 237 final. (Bruxelles : Commission européenne, 25 avril 2018), https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX%3A52018DC0237 [consulté 06/2024]
  10. Conseil de l’UE, Comité de presse, Législation sur l’IA : le Conseil et le Parlement parviennent à un accord sur les premières règles au monde en matière d’IA. (Bruxelles : Conseil de l’UE, 9 décembre 2023), https://www.consilium.europa.eu/fr/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/ [consulté 06/2024]
  11. Orientations politiques pour la prochaine commission européenne 2019-2024 présenté le 16 juillet 2019 par Ursula Von der Leyen en sa qualité de candidate à la présidence de la Commission européenne.
  12. Commission européenne, COM(2018) 237 final.
  13. Commission européenne, Livre blanc, Intelligence artificielle – une approche européenne axée sur l’excellence et la confiance, COM(2020) 65 final. (Bruxelles : Commission européenne, 19 février 2020), Commission européenne, Livre blanc, Intelligence artificielle – une approche européenne axée sur l’excellence et la confiance, COM(2020) 65 final. (Bruxelles : Commission européenne, 19 février 2020).
  14. GEHN IA, 2019.
  15. Commission européenne, Communication au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions, Renforcer la confiance dans l’intelligence artificielle axée sur le facteur humain, COM(2019) 168 final. (Bruxelles : Commission européenne, 8 avril 2019), https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:52019DC0168&from=EN [consulté 06/2024]
  16. Commission européenne, COM(2020) 65 final, p. 12.
  17. Commission européenne, Communication jointe au Parlement européen et au Conseil, Favoriser une approche européenne en matière d’intelligence artificielle, COM(2021) 205 final. (Bruxelles : Commission européenne, 21 avril 2021), https://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=CELEX:52021DC0205 [consulté 06/2024]
  18. Commission européenne, Communication jointe au Parlement européen et au Conseil, La stratégie de cybersécurité de l’UE pour la décennie numérique, JOIN(2020) 18 final. (Bruxelles : Commission européenne, 16 décembre 2020), https://eur-lex.europa.eu/legal-content/FR/ALL/?uri=CELEX%3A52020JC0018 [consulté 06/2024]
  19. Règlement (UE) 2023/1230 du Parlement européen et du Conseil du 14 juin 2023 sur les machines, abrogeant la directive 2006/42/CE du Parlement européen et du Conseil et la directive 73/361/CEE du Conseil, JOUE L 165 du 29 juin 2023, 1.
  20. Parlement européen, Communiqué de presse, Loi sur l’intelligence artificielle : accord sur les règles globales pour une IA digne de confiance. (Bruxelles : Parlement européen, 9 décembre 2023), https://www.europarl.europa.eu/news.
  21. Commission européenne. COM(2021) 206 final.
  22. Commission européenne. COM(2021) 206 final.
  23. Commission européenne. COM(2021) 206 final.
  24. Commission européenne. COM(2021) 206 final.
  25. GEHN IA, 2019.
  26. Ibid., p. 6.
  27. Commission européenne, COM(2019) 168, 10.
  28. Castets-Renard, 2021, p. 297.
  29. Ibid., p. 297.
  30. Conseil de l’UE, Conclusion de la présidence, La Charte des droits fondamentaux dans le contexte de l’IA et du changement numérique, (11481/20). (Bruxelles : Conseil de l’UE, 21 octobre 2020), https://data.consilium.europa.eu/doc/document/ST-11481-2020-INIT/fr/pdf [consulté 06/2024]
  31. Conseil de l’UE, Conclusion de la présidence, (11481/20), point 3.
  32. Conseil de l’UE. Conclusion de la présidence. (11481/20), point 10.
  33. Conseil de l’UE. Conclusion de la présidence. (11481/20), point 14.
  34. Art 13 par. 3(b)iii), proposition COM(2021)206final.
  35. Art 13 par. 3(b)iii), proposition COM(2021)206final.
  36. Art. 62 par. 1, proposition COM(2021)206final.
  37. Art. 9 par. 1 et 2, proposition COM(2021)206final.
  38. Art. 9 par. 4-7, proposition COM(2021)206final.
  39. Art. 11, proposition COM(2021)206final.
  40. Art. 12, proposition COM(2021)206final.
  41. Considération 48, COM(2021)206final.
  42. Art. 14 par. 2, proposition COM(2021)206final.
  43. Art. 16, proposition COM(2021)206final.
  44. Art. 40, proposition COM(2021)206final.
  45. Art. 41, proposition COM(2021)206final.
  46. Art. 43, proposition COM(2021)206final.
  47. Voir la lettre ouverte signée par 350 acteurs dans le domaine de l’IA, disponible sur le Center for AI Safety (Centre pour la sûreté de l’IA, organisation à but non lucratif basée aux États-Unis), consulté le 21 décembre 2023, https://www.safe.ai/statement-on-ai-risk
  48. En ce sens notamment : Alexandre Piquard, « Intelligence artificielle : la France n’a pas renoncé à assouplir l’AI Act », Le Monde, 10-11 décembre, 2023.
  49. Commission européenne, Communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des région, Façonner l’avenir numérique de l’Europe, COM(2020) 67 final. (Bruxelles : Commission européenne, 19 février 2020), https://eur-lex.europa.eu/legal-content/FR/ALL/?uri=COM:2020:67:FIN ; Règlement (UE)2021/694 du Parlement européen et du Conseil du 29 avril 2021 établissant le programme pour une Europe numérique et abrogeant la décision (UE)2015/2240, JOUE L 166, 11 mai 2021, 1.
  50. En ce sens : Balme, [INTERVIEW] « La Chine entre puissance technologique et tensions géopolitiques », SciencesPo, 2023 [consulté 02/2024].
  51. French.China.org, « La Chine dévoile un nouveau plan de développement de l’IA », http://french.china.org.cn [consulté 06/2024]
  52. « Ce chiffre doit toutefois être nuancé par la mesure de l’impact des publications scientifiques. En ce sens, si la Chine publie le plus en IA, la qualité de ses articles reste faible. De la sorte, les États-Unis restent en première place en tenant compte de l’alliance de la quantité et de la qualité des publications. », Cour des comptes, Comparaison de 10 stratégies nationales sur l’intelligence artificielle, (avril 2023), 8-9.
  53. Cyberspace administration of China, http://www.cac.gov.cn [consulté 07/2023].
  54. Cyberspace administration of China, Mesures pour la gestion des services d’IA génératrice. art. 2., « L’intelligence artificielle générative, telle que visée dans les présentes mesures, désigne la technologie qui génère du texte, des images, du son, de la vidéo, du code et d’autres contenus sur la base d’algorithmes, de modèles et de règles », http://www.cac.gov.cn [consulté 07/2023.
  55. En ce sens : Bacou, « Comment les lois chinoises très strictes risquent de nuire à l’IA made in China », 01net, https ://www.01net.com/actualites/comment-les-lois-chinoises-tres-strictes-risquent-de-nuire-a-lia-made-in-china.html [consulté 02/2023].
  56. Cyberspace administration of China. Mesures pour la gestion des services d’IA génératrice. art. 6.
  57. Cyberspace administration of China. Mesures pour la gestion des services d’IA génératrice. art. 9.
  58. Heurtebise, 2020.
  59. La Maison Blanche, 2022.
  60. National Institute of standards and technology, 2023.
  61. Piquard, 16 mai, 2023.
  62. Piquard, 5 mai, 2023.
  63. La Maison Blanche, 2023.
  64. UNESCO, 2022.
  65. Ibid., point 5.
  66. Ibid., point 8(a).
  67. OCDE. (2019, amendée le 8 novembre 2023), Recommandation du Conseil sur l’intelligence artificielle, OECD/LEGAL/0449, Paris, OCDE.
  68. Conseil de l’Europe, Comité sur l’intelligence artificielle, Projet de Convention-cadre sur l’intelligence artificielle, les droits de l’homme, la démocratie et l’état de droit, CAI(2023)28_FR. (Strasbourg : Conseil de l’Europe, 8 janvier 2024), https://rm.coe.int/cai-2023-28-fr-projet-de-convention-cadre/1680ae19a1 [consulté 06/2024]
  69. Conseil de l’Europe, Comité ad hoc sur l’intelligence artificielle, Éléments potentiels d’un cadre juridique sur l’intelligence artificielle, fondés sur les normes du Conseil de l’Europe en matière de droits de l’homme, de démocratie et d’État de droit, CAHAI(2021)09rev. (Strasbourg : Conseil de l’Europe, 3 décembre 2021), point 7, https://rm.coe.int/cahai-2021-09rev-fr-elements/1680a6d90e [consulté 06/2024]
  70. Conseil de l’Europe, Comité ad hoc sur l’intelligence artificielle. CAHAI(2021)09rev.
  71. AI Safety Summit, 2023.
  72. G7, 2023.
Rechercher
Rechercher
Pau, Pessac
Chapitre de livre
EAN html : 9782353110025
ISBN html : 978-2-35311-002-5
ISBN pdf : 978-2-35311-003-2
Volume : 4
ISSN : 2827-1971
Posté le 15/07/2024
20 p.
Code CLIL : 3767; 4093; 4091;
licence CC by SA

Comment citer

Teyssier, Céline, « Intelligence artificielle : l’Union européenne, la Chine et les États-Unis, des instruments et des logiques à l’épreuve d’une gouvernance globale », in : Alkorta, Itziar, Hernández, Yannick, Etxeberria, Urtzi, dir., Mugarteko ingurumena: aldaketa klimatikoa, hezkuntza-testuinguruak eta erronka digital berriak / Environnements transfrontaliers : changements climatique, contextes éducatifs et nouveaux défis numériques / Entornos transfronterizos: cambio climático, contextos educativos y nuevos retos digitales, Pessac, PUPPA, collection Schol@ 4, 2024, 275-295, [en ligne] https://una-editions.fr/des-instruments-et-des-logiques-a-l-epreuve-d-une-gouvernance-globale [consulté le 15/07/2024].
http://dx.doi.org/10.46608/schola4.9782353110025.23
Illustration de couverture • d’après © Metamorworks / Adobe Stock, T. Ferreira, PUPPA.
Retour en haut
Aller au contenu principal