UN@ est une plateforme d'édition de livres numériques pour les presses universitaires de Nouvelle-Aquitaine

Introduction

Introduction

L’intelligence artificielle (IA) n’est pas récente, elle est apparue au Dartmouth College en 1956 durant une université d’été. Depuis, elle a connu une évolution en dent de scie, marquée de périodes d’expansion suivies de stagnation. En 1958, Herbert Simon prophétisait que d’ici à peine une décennie les machines seraient douées de capacités exceptionnelles leur permettant d’être championnes d’échecs ou de composer de la musique de grande qualité1[1]. Pourtant dans les deux décennies qui vont suivre l’émergence de l’IA, les progrès annoncés ne sont pas au rendez-vous et même si les travaux de recherche continuent, il faut attendre les années 1980 pour que le développement de systèmes dits experts suscitent à nouveau de grands espoirs. Toutefois, le tournant décisif marquant l’essor de l’IA n’aura lieu que dans les années 2010, finalement encore trente ans plus tard, grâce aux progrès réalisés en matière d’électronique et d’informatique. À cet égard, l’amélioration de la capacité de stockage et de traitement informatique de l’information, la miniaturisation des composants électroniques sont autant d’avancées à l’origine de la collecte massive de données. Cette première étape qui a permis l’avènement du big data, a par la même occasion fournit à l’IA, le matériau d’apprentissage nécessaire en préalable à son développement.

Cette brève histoire montre que l’IA est longtemps restée en gestation dans les laboratoires de recherche et dans les imaginaires au stade de la science-fiction, avant de devenir une réalité en passe de transformer durablement nos vies. En décembre 2022, le lancement théâtralisé de ChatGPT, un logiciel générateur de texte, basé sur un modèle d’apprentissage automatique, a créé une onde de choc dans le grand public suscitant presque aussitôt des questions d’ordre éthique relatives aux risques de manipulation de l’information et de diffusion de fausses informations et des interrogations d’ordre juridique se situant majoritairement sur le plan de la création et de la protection des droits d’auteur.

Au-delà de cette percée spectaculaire de l’IA générative, l’IA est déjà très présente dans de nombreux secteurs d’activité et sa puissance qui augure de profondes transformations enthousiasment les uns, et effrayent les autres. Plusieurs rapports soulignent que l’IA peut favoriser la prospérité et le bien-être individuel et social en apportant progrès et innovation, tout en mettant en lumière, dans le même temps les risques que certaines applications d’IA peuvent présenter en termes de discrimination, de respect des droits fondamentaux et les menaces pour la démocratie et l’État de droit2[2].

Porteuse d’avancées scientifiques autant que de périls, l’IA se caractérise principalement par une forte ambivalence. De nombreuses illustrations en attestent. Il en est ainsi des systèmes d’identification biométrique et de reconnaissance faciale, qui s’ils sont susceptibles d’améliorer la sécurité de l’espace public, comportent un risque élevé de surveillance de masse3[3]. Il en est de même dans le domaine professionnel, où l’IA outre le débat non résolu sur la disparition des emplois, renouvelle largement les questions en santé au travail. Ainsi, bien que la présence des robots, des exosquelettes soulage la pénibilité, les études montrent que fréquemment les risques physiques ne sont pas résolus, ils sont déplacés sur d’autres parties du corps4[4]. Dans le domaine agricole, l’IA peut participer activement à la lutte contre les impacts du changement climatique notamment par la gestion d’une meilleure allocation des ressources hydriques. Toutefois, si les experts soulignent qu’elle peut être une opportunité pour une « agriculture de précision »5[5], ils relèvent également les risques que comportent son utilisation en termes de perte d’autonomie pour les agriculteurs, de distance renforcée entre l’homme et la nature et in fine de vulnérabilité de la chaîne agroalimentaire6[6].

Il n’est évidemment pas envisageable d’être exhaustif face à la diversité et la spécificité des effets selon les domaines d’activité. Dans le cadre du cours d’été Les défis de l’intelligence artificielle aux prismes de la sécurité et de la justice : regards pluridisciplinaire et transfrontalier, ce sont principalement les questions de gouvernance et d’usages dans les domaines régaliens de la sécurité et de la justice qui ont été envisagées. Pour traiter ces thématiques, une approche transfrontalière a été adoptée réunissant, les universités espagnoles (Universidad del Pais vasco – UPV ; Universidad publica de Navara – UPNA) et française (Université de Pau et des pays de l’Adour – UPPA).

Cette partie introductive présentera les contributions françaises (UPPA), les présentations espagnoles seront simplement signalées mais elles ne sont pas présentées dans la section. Dans une première contribution conjointe, Éléna Ostrovskaya (UPPA) et Anibal M. Astobiza (UPV) abordent les enjeux éthiques. Celle d’Éléna Ostrovskaya, intitulée « L’IA éthique et le droit de l’UE » étudie l’articulation des considérations éthiques spécifiques à l’IA et du droit de l’UE. Au prisme des droits fondamentaux, elle observe la manifestation de l’éthique au sein du droit de l’UE sous l’angle du droit dur et du droit souple. Elle constate que le droit souple est un vecteur fécond de diffusion de l’éthique ainsi qu’en atteste un certain nombre d’instruments non- contraignants adopté par les institutions européennes. Toutefois, l’auteure tempère l’importance de ces outils soulignant que si ceux-ci visent à inciter à l’adoption de pratiques éthiques, cet objectif bien que louable, est d’un effet incertain. L’auteure poursuit l’analyse en s’intéressant au droit dur. Elle montre alors que les normes contraignantes qui visent à encadrer l’IA, consacrent des valeurs éthiques qui s’incarnent par les droits fondamentaux.

La contribution suivante, « Intelligence artificielle : l’Union européenne, la Chine et les États-Unis, des instruments et des logiques à l’épreuve d’une gouvernance globale », aborde également l’IA sous l’angle des normes contraignantes en y ajoutant cette fois une perspective comparatiste avec la Chine et les États-Unis. Céline Teyssier articule sa contribution autour de deux thématiques. En premier lieu, elle aborde l’émergence et les limites du cadre réglementaire de l’IA tel qu’il est envisagé par l’UE. À partir de la proposition de règlement du parlement européen et du conseil établissant des règles harmonisées concernant l’intelligence artificielle, l’auteure met en lumière les principes qui sous-tendent la règlementation, fondés sur la confiance et l’innovation. En second lieu, elle met en perspective les différentes logiques régionales (UE, Chine États-Unis), pour montrer que si la confiance et l’innovation sont des invariants, les systèmes de gouvernance de l’IA propres à chacun dévoilent une approche très différente de la régulation. La contribution se termine sur les enjeux d’une gouvernance mondiale qui reste encore largement à construire.

La contribution de Thomas Durand traite de « l’interconnexion des bases de données ». Thomas Durand explore au sein de l’espace de liberté de sécurité et de justice (ELSJ), l’implémentation de l’IA pour améliorer l’efficacité des politiques d’asile, d’immigration, de contrôles aux frontières. Il montre que la multiplication progressive des bases de données et leur récente interopérabilité s’accompagnent des questionnements qui se situent principalement au plus haut niveau, celui du respect des droits fondamentaux. Les traitements automatisés des données biométriques basés sur l’IA, notamment pour les empreintes digitales et les images faciales à des fins d’identifications, l’évaluation algorithmique du niveau de risques d’un ressortissant d’un pays tiers, constituent autant de dispositifs dont la mise en œuvre ouvre la voie vers un surplus de sécurité et interroge corrélativement la protection du droit au respect de la vie privée. L’auteur conclut en soulignant qu’un encadrement reste à imaginer, alors même que l’ELSJ est un domaine où ne s’appliquera pas, par exception, la proposition de règlement sur l’IA adoptée par la Commission en 2021.

Silvia Badiola Coca (UPNA) reste dans le domaine de la sécurité en proposant une contribution en Espagne portant sur la videosurveillance dans l’espace transfrontalier.

Quittant le domaine de la sécurité, le cours d’été aborde ensuite les défis posés par l’IA dans le domaine de la justice. Michèle Mestrot (UPPA) et Alberto Saiz (UPV) envisagent les enjeux de la justice prédictive en France et en Espagne. Dans sa contribution intitulée, « la justice prédictive en France : entre potentialités ambivalentes et résultats contrastés », Michèle Mestrot part du constat de l’intensification de l’utilisation de l’IA dans les services publics, à laquelle n’échappe pas la justice. L’auteure met en garde sur les raccourcis visant à considérer que la justice prédictive pourrait annoncer l’issue d’un procès. Loin de la boule de cristal, Michèle Mestrot précise qu’il s’agit d’un système fondé sur l’IA susceptible de quantifier l’aléa judiciaire. Elle souligne les multiples attentes, pratiques, politiques, économiques suscitées par l’IA. Pour autant cette justice prometteuse, plus rapide, plus prévisible, n’en est pas moins dépourvue de nombreux risques que l’auteure met en lumière. De son point de vue, au-delà de la législation en vigueur, la réponse aux enjeux dépendra largement des garanties et des limites contenues dans le cadre juridique européen en germe.

Enfin, le cours d’été se termine par les propos conclusifs de Manuel Richard (UPNA).

Ainsi ce regard transfrontalier sur l’IA aura été l’occasion de démystifier l’IA, de quitter le terrain des « on dit » souvent propice à la propagation de fausses affirmations. Il aura permis de mesurer les potentialités de l’IA tout en étant conscient des risques et des enjeux de régulation.

Bibliographie

Ouvrages et articles d’ouvrages

  • Ganascia J.-G. (2017), Intelligence artificielle, Vers une domination programmée ?, Paris, Le Cavalier Bleu.
  • Verkindt, P.-Y. (2020), « Ambivalences et promesses de l’intelligence artificielle dans le champ de la santé et de la sécurité des travailleurs », dans Adam P., Le Friant M., Tarasewicz, Y. (dir.), Intelligence artificielle, Gestion algorithmique du personnel et droit du travail, Les travaux de l’AFDT, Paris, Dalloz, p. 199-208.

Articles de journaux et revues

  • Sonhaye, K. N. (2022), « L’Intelligence Artificielle, une opportunité pour l’agriculture au Togo », Communication, technologies et développement, 11. https://doi.org/10.4000/ctd.7219 [consulté 06/2024]

Rapports

  • Conseil de l’Europe (2021), Comité ad hoc sur l’intelligence artificielle, « Éléments potentiels d’un cadre juridique sur l’intelligence artificielle, fondés sur les normes du Conseil de l’Europe en matière de droits de l’homme, de démocratie et d’État de droit », CAHAI(2021)09rev, Strasbourg, 3 décembre 2021.
  • Daubresse M. P., de Belenet A., Durain J. (2022), « La reconnaissance biométrique dans l’espace public : 30 propositions pour écarter le risque d’une société de surveillance », Rapport information 627, Paris, Sénat.
  • Garcia F., Labarthe P., Prados E., Bellon-Maurel V., Chambaz, G. (2022), « Risques », dansBellon-Maurel V., Brossard L., Garcia F., Mitton N., Termier A. (dir.), Agriculture et numérique, Tirer le meilleur du numérique pour contribuer à la transition vers des agricultures et des systèmes alimentaires durables, Livre blanc, INRIA, INREA, p. 107-119.

Sitographie

  • Conseil de l’Europe (2021), Comité ad hoc sur l’intelligence artificielle, « Éléments potentiels d’un cadre juridique sur l’intelligence artificielle, fondés sur les normes du Conseil de l’Europe en matière de droits de l’homme, de démocratie et d’État de droit », CAHAI(2021)09rev, Strasbourg, 3 décembre 2021.
  • Daubresse M. P., de Belenet A., Durain J. (2022), « La reconnaissance biométrique dans l’espace public : 30 propositions pour écarter le risque d’une société de surveillance », Rapport information 627, Paris, Sénat.
  • Garcia F., Labarthe P., Prados E., Bellon-Maurel V., Chambaz, G. (2022), « Risques », dansBellon-Maurel V., Brossard L., Garcia F., Mitton N., Termier A. (dir.), Agriculture et numérique, Tirer le meilleur du numérique pour contribuer à la transition vers des agricultures et des systèmes alimentaires durables, Livre blanc, INRIA, INREA, p. 107-119.

Notes

  1. Ganascia, 2017.
  2. Notamment, Conseil de l’Europe, CAHAI, 2021.
  3. Daubresse, de Belenet, Durain, 2022.
  4. Verkindt, 2020 ; Agence Européenne pour la santé et la sécurité au travail, https://osha.europa.eu/sites/default/files/OSH_future_of_work_artificial_intelligence_FR.pdf [consulté 06/2024]
  5. Sonhaye, 2022.
  6. Garcia et al., 2022.
Rechercher
Rechercher
Pau, Pessac
Chapitre de livre
EAN html : 9782353110025
ISBN html : 978-2-35311-002-5
ISBN pdf : 978-2-35311-003-2
Volume : 4
ISSN : 2827-1971
Posté le 15/07/2024
3 p.
Code CLIL : 3767; 4093; 4091;
licence CC by SA

Comment citer

Teyssier, Céline, « Introduction », in : Alkorta, Itziar, Hernández, Yannick, Etxeberria, Urtzi, dir., Mugarteko ingurumena: aldaketa klimatikoa, hezkuntza-testuinguruak eta erronka digital berriak / Environnements transfrontaliers : changements climatique, contextes éducatifs et nouveaux défis numériques / Entornos transfronterizos: cambio climático, contextos educativos y nuevos retos digitales, Pessac, PUPPA, collection Schol@ 4, 2024, 255-258, [en ligne] https://una-editions.fr/introduction-intelligence-artificielle [consulté le 15/07/2024].
http://dx.doi.org/10.46608/schola4.9782353110025.21
Illustration de couverture • d’après © Metamorworks / Adobe Stock, T. Ferreira, PUPPA.
Retour en haut
Aller au contenu principal