UN@ est une plateforme d'édition de livres numériques pour les presses universitaires de Nouvelle-Aquitaine

La justice prédictive en France :
entre potentialités ambivalentes et résultats contrastes

La justice prédictive en France :
entre potentialités ambivalentes et résultats contrastes

À l’heure où l’intelligence artificielle (IA) connaît un essor sans précédent, notamment grâce aux dernières versions d’IA dites génératives, les discussions sur son utilisation au sein de l’action publique française s’intensifient. Participant au débat, le Conseil d’État a ainsi adopté une approche « résolument volontariste »1 encourageant l’État, les collectivités territoriales et les établissements publics à se saisir plus pleinement de l’IA pour « un meilleur service public »2.

Au cœur de l’action publique, l’administration de la justice n’échappe évidemment pas à ces aspirations et fait partie des secteurs qui pourraient tirer directement profit des potentialités technologiques de l’IA. Dans cette quête d’amélioration des performances du service public, le modèle algorithmique de la justice prédictive semble toujours avoir un rôle à jouer.

Directement héritée d’un mouvement économique et culturel venu des États-Unis, la justice prédictive vise à exploiter des données judiciaires massives pour prédire l’issue de futurs procès, de manière à limiter l’aléa judiciaire. Outre-Atlantique, elle se développe, dès les années 1960, et diverses entreprises privées, fournissant des services juridiques, se lancent dans son expérimentation prometteuse.

En France, l’intérêt scientifique pour la justice prédictive se confirme plus tard, à partir du milieu des années 2010. De multiples travaux, recherches et rapports s’interrogent alors, d’un point de vue technique, philosophique ou encore juridique, sur les espoirs, les promesses mais aussi sur les risques et dangers véhiculés par cette justice prévisionnelle3. C’est aussi à partir de cette date qu’apparaissent les premières startups du droit dénommées LegalTechs qui se présentent comme des entreprises du numérique innovantes, proposant des offres de services juridiques dématérialisés4 et venant concurrencer les grandes maisons d’édition juridique.

Mais, contrairement à ce qu’elle semble annoncer, la justice prédictive n’a rien d’une boule de cristal5 qui prédirait l’avenir ou, à tout le moins, annoncerait l’issue d’un procès. Le terme de « justice prévisionnelle », de « justice simulative », de « justice quantitative » ou encore de jurimètrie6 devrait certainement lui être préféré car il ne s’agit pas, par avance, d’annoncer des événements futurs par inspiration surnaturelle mais de quantifier à partir d’algorithmes « la potentialité d’une réponse judiciaire compte tenu d’un certain nombre de variables ou de précédents »7. De même, la justice prédictive n’est pas non plus, à proprement parler, une justice, mais un outil qui utilise l’analyse de données afin d’aider les avocats, les juges et les parties prenantes du système judiciaire à prendre des décisions plus éclairées en évaluant les chances de succès d’un cas, les stratégies juridiques à adopter ou les arguments les plus convaincants à présenter.

Ainsi, concrètement, la justice prédictive se présente comme un système basé sur l’intelligence artificielle, susceptible de quantifier l’aléa judiciaire et de présenter des anticipations raisonnables de ce que pourrait décider une juridiction donnée8. Concrètement, ces outils pourraient, par exemple :

  • aider à la construction de barèmes d’indemnisation (montant de dommages et intérêts, calcul d’une pension ou prestation compensatoire…).
  • procurer des statistiques (moyennes, fourchettes, écarts-types, etc.) fondées sur des contentieux comparables.
  • aider à quantifier l’aléa judiciaire, en estimant le pourcentage de réussite d’un procès.
  • aider à la résolution de certains litiges (consommation, voisinage, licenciements…), simples, répétitifs et de faible valeur9.

Au soutien de cette justice prévisionnelle, ce sont essentiellement des algorithmes de statistiques et/ou de modélisation qui sont actuellement exploités notamment à partir du machine learning (ML) et de son évolution, le deep learning, supposant un apprentissage automatique et surtout du traitement du langage naturel (TAL) (en anglais « natural language processing »(NLP) qui permet à un ordinateur d’analyser et de comprendre le langage humain. Depuis 2022, les « large language models » (LLM) (GPT et al.) ont fait leur apparition tout en affichant des performances à la fois troublantes et inquiétantes10.

Or, actuellement, plusieurs paramètres semblent converger pour ouvrir à la justice prédictive de nouveaux horizons.

En premier lieu, le déploiement de ses potentialités s’inscrit tout d’abord dans un nouvel eldorado technologique boosté par le développement très récent et très bruyant, en termes commerciaux et médiatiques, des IA génératives.

En second lieu, son essor se trouve également favorisé par l’ouverture et la mise en ligne de toutes les décisions judiciaires et administratives (open data), d’ici fin 202511. À partir de cette date, plus de 4 millions de décisions seront mises à disposition gratuite du grand public, avec des objectifs de transparence, de publicité, d’accessibilité et d’égalité de traitement entre les justiciables. Pour les experts, l’open data ouvre des perspectives d’exploitation à la fois immenses et inédites sachant que la valeur créée par l’intelligence artificielle provient des données nécessaires à l’apprentissage bien plus que de l’algorithme. La donnée est ainsi comparée à de l’or noir, au nouveau pétrole du XXIe siècle.

Enfin, la transformation numérique de l’administration juridictionnelle12, actuellement à l’œuvre, supposera, à plus ou moins long terme, d’intégrer les avancées de l’IA au service des outils prédictifs. Il existe en effet une stratégie nationale forte13, de « digitalisation » pour aboutir à une meilleure justice.

Cette volonté est évidemment relayée sur le plan européen. L’Europe est, en effet, partie prenante pour relever les défis liés à l’utilisation de l’IA dans les systèmes judiciaires, prenant en considération à la fois les risques et les potentialités de ces nouveaux outils. Dans cet esprit, les travaux de la Commission européenne pour l’efficacité de la justice (CEPEJ) ont débouché, en décembre 2018, sur la création d’une Charte européenne d’éthique qui s’est imposée, en tant que texte de référence, auprès des décideurs politiques européens ainsi que des représentants des institutions judiciaires nationales14. À partir d’une appréhension plus globale, l’Union européenne a également choisi de déterminer un cadre plus contraignant de régulation des technologies d’IA à partir d’une approche fondée sur les risques : plus les risques sont élevés, plus les règles sont strictes. Le texte en voie d’adoption15 identifie tous les systèmes d’IA destinés à être utilisés par une autorité judiciaire ou administrative, ou lors d’un règlement extra-judiciaire d’un litige, comme des systèmes à haut risque, supposant, par conséquent, un contrôle renforcé.

En pleine actualité, la justice prédictive reste enfin un sujet brûlant dès lors qu’elle recèle autant d’espoirs que d’inquiétudes. On se rendra ainsi compte que ses potentialités sont très ambivalentes et que ses résultats, rapportés au fonctionnement du service public de la justice, restent finalement très contrastés.

Des potentialités ambivalentes

La justice prédictive suscite autant de promesses que de craintes. Elle poursuit des objectifs ambitieux certes, mais qui ne sont pas dénués de nombreux dangers16.

Objectifs ambitieux

L’essor de la justice prédictive correspond à de multiples attentes d’un point de vue tant pratique qu’économique et politique.

Les attentes pratiques

Parfois comparée à un Pharmakon17, les vertus supposées thérapeutiques de la justice prédictive sont mises en avant pour légitimer son utilisation. Ainsi, présentés comme des remèdes bénéfiques, les logiciels prédictifs porteraient en germe la capacité de sauver le fonctionnement judiciaire de ses maux les plus criants18.

En particulier, la justice prédictive serait en mesure de répondre aux différentes attentes des principaux acteurs du système judiciaire. En dépit du fait que ces demandes peuvent ne pas converger, la justice prédictive serait capable non seulement de faciliter le travail des magistrats et des auxiliaires de justice mais également d’améliorer la qualité du rapport entre les justiciables et l’administration de la justice19.

En favorisant une justice plus rapide, plus prévisible, les outils prédictifs renforceraient la qualité de la justice tout en restaurant la confiance des justiciables. Même si elle fait partie de son essence et conditionne la garantie de nombreux droits, la lenteur de la justice est l’une des principales critiques émises par les justiciables, laquelle entame leur relation de confiance avec l’institution judiciaire. Or, le recours à l’IA serait susceptible d’accélérer le traitement des contentieux de masse en apportant de meilleures réponses quantitatives en matière, par exemple, d’impayés de crédits à la consommation ou d’infractions au Code de la route, tout en accélérant le processus de résolution de ces conflits.

Dans le même sens, les justiciables pourraient se monter plus confiants dans le fonctionnement de l’institution judiciaire, si les réponses judiciaires gagnaient en prévisibilité, ce qui aurait également pour effet, de renforcer le sentiment de sécurité juridique. Les possibilités qu’offrent les algorithmes prédictifs d’éva­luer les chances de succès d’une procédure, le ­quantum d’une future condamnation, ou encore de développer des modèles capables de reproduire l’éventail des décisions judiciaires rendues sur un point donné, vont dans le sens d’un recul de l’aléa judiciaire et, conséquemment, d’une sécurité juridique accrue.

Le traitement par les algorithmes de certains contentieux de masse aurait également pour effet de recentrer le travail des magistrats sur des tâches plus qualitatives. L’IA est sollicitée pour automatiser les contentieux de masse du quotidien (consommation, voisinage, licenciements…) ce qui devrait permettre, en retour, aux magistrats de se recentrer sur des contentieux singuliers, à plus forte valeur qualitative20. C’est du moins ce que l’on espère…

Certains logiciels prédictifs sont aussi présentés comme des aides à la décision susceptibles de faciliter la prise de jugements. Il en va, ainsi, des programmes d’IA capables de déterminer le montant des sommes allouées par les juridictions selon les contentieux, de quantifier les probabilités d’issue des procès qui permettraient aux magistrats de disposer de davantage de données comparatives.

De manière évidente, le développement de ces outils prédictifs emporte également des conséquences pour les avocats, qui, grâce à leur application, peuvent mieux anticiper l’issue d’un contentieux, mieux analyser les risques d’une procédure afin de déterminer la meilleure voie de règlement, amiable ou judiciaire, pour leurs clients21.

Les potentialités de l’utilisation de l’IA sont donc multiples et concourent toutes, a priori, à l’amélioration du fonctionnement judiciaire. Mais ces avantages ne sont pas isolés. En effet, l’engouement pour l’utilisation des algorithmes répond aussi à des considérations économiques et politiques qui ne peuvent être sous-estimées.

Les attentes économiques et politiques

L’IA concentre un potentiel économique énorme, évalué à 39 milliards de dollars, en 2025, par le Comité économique et social européen (CESE). Pour l’heure, ce sont les grandes entreprises étrangères, principalement chinoise, américaine ou russe qui détiennent les plus grandes parts de marché tandis que la France peine à devenir un acteur clé dans ce secteur. Les autorités publiques sont bien conscientes que les capacités de la France à financer l’innovation publique et privée dans le domaine juridique et à faire croître les sociétés les plus performantes seront déterminantes si le pays veut préserver la compétitivité des acteurs français du secteur et, d’une certaine manière, préserver l’indépendance de son système juridique et l’attractivité de son droit22.

L’enjeu est donc de taille ! Plus prosaïquement, le recours aux instruments de justice prédictive pourrait réduire le coût de fonctionnement des tribunaux en favorisant le recours aux modes de résolution amiable des litiges mis en ligne notamment par les LegalTechs. Le but de désengorgement des tribunaux devient alors atteignable grâce à la technologie avec un risque évident de privatisation ou de marchandisation de la justice publique23. Toujours dans la recherche d’économies, l’automatisation de certains contentieux de masse devrait permettre de réduire le nombre de magistrats. Les effets économiques du développement de l’IA sont donc loin d’être négligeables.

Enfin, d’un point de vue politique, le sujet de la justice prédictive est également très sensible. L’ère du numérique s’est imposée à l’Europe et à ses États membres. S’agissant d’instruments utilisés dans le cadre du service public de la justice, les pouvoirs publics doivent garantir leur qualité, leur fiabilité et leur légitimité24. La puissance publique doit pouvoir garder la main sur les algorithmes, notamment sur ceux utilisés dans les systèmes judiciaires25.

D’autant plus que les risques sont nombreux…

Des risques nombreux

Même si les expérimentations en matière de justice prédictive semblent parfois afficher des résultats spectaculaires, il convient de ne pas sous-évaluer les dangers inhérents aux outils algorithmiques et d’exposer leurs effets indésirables sur la fonction de juger.

Une fiabilité incertaine

Il existe encore beaucoup d’incertitudes quant à la fiabilité des outils algorithmiques tandis que persistent les difficultés techniques entourant l’exploitation algorithmique des décisions de justice.

La confiance en l’outil algorithmique supposerait, tout d’abord, que l’on soit « assuré du fonctionnement correct et non biaisé de l’algorithme »26. Or, l’IA se trompe, en partie parce qu’elle génère des risques spécifiques de « biais, d’erreurs et d’opacité » comme le relèvent les parlementaires européens27.

Pour l’heure, les erreurs sont encore fréquentes, avec des origines variées. Elles peuvent tenir notamment « à la qualité des données utilisées par le logiciel mais il peut aussi s’agir d’erreurs de codage »28.

De plus, le mode de fonctionnement de ces algorithmes est souvent occulte, indéchiffrable, incompréhensible. C’est le cas lorsque l’IA propose une réponse à la question qui lui est posée mais qu’il n’est pas possible de reconstituer le raisonnement qui l’a conduite à donner cette réponse29. En ce sens, le fonctionnement des systèmes reposant sur l’apprentissage machine comporte toujours une part impénétrable, que l’on dénomme la boîte noire. Ainsi, en l’état actuel, « les systèmes d’IA auxquels peut être confrontée la justice pénale sont basés sur l’apprentissage machine et ne sont pas transparents »30.

Par ailleurs, l’un des dangers majeurs de la justice prédictive réside dans les biais dont elle peut être porteuse. En statistique ou en épidémiologie, un biais est une démarche ou un procédé qui engendre des erreurs dans les résultats d’une étude. Ces biais peuvent

trouver leur origine dans les critères définis par leurs algorithmes ou encore dans les bases de données qu’elles mobilisent. Le danger est d’autant plus important que ces biais peuvent être totalement inconscients, voire fortuits, lorsqu’ils sont la conséquence de données insuffisamment diversifiées31.

Il est alors légitime de craindre que l’utilisation de certaines données relatives à l’âge, au genre, à la nationalité, à l’adresse des personnes, puissent conduire à des résultats erronés. C’est d’ailleurs ce qui s’est passé avec le célèbre logiciel COMPAS (algorithme d’évaluation des risques de récidive) aux États-Unis qui, doté d’une fiabilité incertaine, a également intégré les préjugés raciaux des juges en raison d’un traitement non critique des données recueillies. Des études ont démontréque le logiciel manquait de fiabilité dès lorsque sur un échantillon de 7 000 personnes, seules 20 % des personnes, dont COMPAS prévoyait qu’elles allaient commettre des crimes violents, sont finalement passées à l’acte dans un délai de deux ans. Mais fait plus alarmant, ce système reproduisait de fortes disparités raciales : les prévenus noirs étaient presque deux fois plus « notés » à tort comme de « futurs criminels » que les prévenus blancs32.

Le système de profilage utilisé par l’administration fiscale aux Pays Bas pour détecter des fraudes aux allocations familiales est un autre exemple célèbre de l’influence négative de biais, ayant généré des résultats erronés et xénophobes. Des milliers de familles aux revenus modestes et, dans une large proportion, d’origine étrangère, ont été accusées, à tort, d’avoir fraudé et ont été contraintes de rembourser toutes les sommes dûment perçues. Le scandale, qui s’en est suivi, a d’ailleurs conduit à la démission du gouvernement néerlandais en 202133.

Mais au-delà de ces faiblesses opérationnelles, la crainte existe aussi que l’IA puisse pervertir la fonction de juger.

Des effets indésirables sur le juge et la fonction de juger

Avec inquiétude, la question du remplacement du juge par des outils algorithmiques s’est évidemment posée34. Mais pour l’heure, il faut se départir de l’idée que les machines vont l’emporter sur l’intelligence humaine et assurer le triomphe d’un juge robot35. En effet, pour l’instant, et en dépit des progrès fulgurants et exponentiels de l’IA, le raisonnement juridique résiste encore aux algorithmes36 et continue de poser des questions épistémologiques37. Les raisons peuvent en paraître simples : le raisonnement du juge ne se réduit pas à un simple syllogisme38 et la jurisprudence n’est pas un système clos.

Réduire le raisonnement du juge à l’application d’un syllogisme ressort, en effet, d’une vision déformée de la réalité. En pratique, le syllogisme est régressif, il constitue une mise en récit a posteriori : l’avocat part de la solution la plus favorable pour son client et le juge doit trancher entre deux solutions opposées. La question n’est donc pas de « savoir quelle sera la solution – ce que nous promet la justice prédictive – mais laquelle préférer et pour quelles raisons »39. Autrement dit, le syllogisme ne rend absolument pas compte de l’intégralité du raisonnement tenu par le juge qui s’inspire d’une série de choix discrétionnaires, résistant à une simple mise en boîte algorithmique. De même assimiler la jurisprudence à un système clos provient d’une analyse erronée. Comme le souligne avec réalisme Éloi Buat-Ménard,

une décision de justice n’est, et de loin, pas la résultante des seules décisions passées mais d’une pluralité de facteurs plus ou moins bien identifiés : contexte jurisprudentiel, certes, mais aussi normatif, politique, social, professionnel, médiatique, voire affectif, climatique (juge-t-on de la même façon en période orageuse ou de canicule ?), alimentaire (juge-t-on de la même façon le ventre creux ?, familial (juge-t-on de la même façon sous le coup d’une rupture douloureuse ?), culturel, etc.40

Dans ces conditions, l’existence d’un outil prédictif capable de prendre en compte « une telle pluralité d’interactions causales, reste à ce jour, une pure vue de l’esprit »41. Mais si le spectre du juge robot semble s’éloigner, d’autres craintes restent fondées. L’une d’entre-elles réside dans le fait, qu’au lieu de garantir l’accès au juge, les systèmes prédictifs pourraient conduire à détourner les justiciables d’une action en justice au profit d’une résolution amiable confiée à des algorithmes. Avec le développement des outils de justice prédictive, l’idée est de prévenir les contentieux en favorisant la résolution des petits litiges de la vie courante par des modes amiables plus simples et plus rapides qui pourraient se concrétiser par la mise en place de plates-formes de résolution en ligne, appelés aussi « online dispute resolution ». Ces modes alternatifs permettent d’obtenir le règlement de certains contentieux sans saisir les juridictions. Même si le projet semble attractif dès lors qu’il facilite un désengorgement des juridictions civiles, il éloigne, du même fait, le justiciable de la garantie d’un juge. Ainsi, présentés comme une exaltation du droit au juge, ces traitements probabilistes pourraient finalement se convertir en négation du droit au juge. En ce sens, ils seraient susceptibles de porter atteinte aux droits fondamentaux, notamment au droit à un accès effectif au juge.

Autre source de préoccupation : ces outils prédictifs, en tant que systèmes d’aide à la décision, sont aussi susceptibles de produire un effet de performativité42, de renforcer le conservatisme judiciaire. C’est ici l’idée de la prophétie autoréalisatrice qui se profile. En effet, il existe un risque que « les juges se conforment au résultat de la justice prédictive passant du stade de l’information sur les décisions rendues à la reproduction automatique et en chaine de celles-ci »43. Ainsi, « Le juge n’aura-t-il pas tendance, à l’instar des moutons de Panurge, à suivre le résultat de l’algorithme sans réfléchir par imitation ou par lassitude de devoir justifier toute dérogation à la voie tracée ? »44. En corollaire, le traitement algorithmique massif présente aussi l’inconvénient, en mettant toutes les décisions des tribunaux au même niveau, de lisser la hiérarchie des tribunaux. Or, le respect des normes et de leur cohérence suppose que soit assurée la supériorité des décisions des Cours suprêmes sur les juridictions inférieures.

Enfin, en tablant sur des solutions passées pour aboutir à un résultat probable, les logiciels prédictifs sont aussi susceptibles de « congeler », de figer la jurisprudence, en invitant le juge à reproduire des solutions passées plutôt qu’à faire œuvre de créativité. Les magistrats risquent ainsi de se conformer à la tendance probabiliste majoritaire au détriment de l’individualisation de la décision. Ce phénomène est aussi de nature à constituer une « porte d’entrée dans un système de précédent »45 et à modifier profondément le fonctionnement de la jurisprudence en accélérant un mouvement de « factualisation » du droit46.

En résumé, il est donc possible de constater que si les discours politiques mettent en avant les potentialités instrumentales et économiques de l’utilisation de l’IA dans les systèmes judiciaires, les anticipations théoriques tablent plutôt sur ses dérives potentielles. Face au caractère totalement inédit des prouesses technologiques, il est en effet légitime de dénoncer leurs possibles effets délétères.

Néanmoins, il semble que les prévisions pessimistes dépassent, pour l’instant, largement les réalisations concrètes. Force est, en effet, de constater que la justice prédictive n’est, encore, que virtuelle, manquant toujours d’actualité47. Comme le relève la commission européenne pour l’efficacité de la Justice (CEPEJ)48, « l’utilisation concrète et quotidienne de logiciels prédictifs par les juges paraît pour l’instant inexistante dans les États membres du Conseil de l’Europe ». Ainsi, il y aurait un véritable écart entre les potentialités relevées et la réalité opérationnelle, qu’il s’agit maintenant d’évaluer.

Des résultats contrastés

Même si les systèmes prédictifs ne sont pas immédiatement opérationnels, leur essor à venir suppose cependant d’assurer leur encadrement et leur contrôle tant d’un point de vue éthique que juridique.

Utilisation encore faible des outils prédictifs dans la justice

L’IA est surtout utilisée dans le cadre de l’administration de la justice49[49] et non dans celui de l’aide à la décision judiciaire.

Utilisation de l’IA dans l’administration de la justice

Il est indéniable que les progrès de l’IA ont pour effet de faciliter la digitalisation, la numérisation de la justice française. Grâce à son utilisation, il est plus simple de passer du dossier judiciaire papier au dossier judiciaire numérisé, plus aisé d’améliorer la gestion des flux et les stocks d’affaires. Beaucoup restent encore à faire, d’autant que la justice française accuse un sérieux retard, que le nouveau plan de transformation numérique de la justice ne suffira, sans doute pas, à rattraper50.

Mis à part dans le chantier de transformation numérique de la justice, les plus fortes expérimentations, en matière d’IA, ont lieu au sein des juridictions suprêmes, ce qui ne surprend pas dès lors que confier l’élaboration des algorithmes à ces autorités permet à l’État de conserver ses prérogatives51. C’est ainsi que la Cour de cassation et le Conseil d’État sont chargés de la mise à la disposition du public de toutes les décisions rendues par toutes les juridictions de leurs ordres respectifs, autrement dit de la mise en œuvre de l’open data52. C’est dans cette perspective que l’IA est utilisée pour assurer la « pseudonymisation » des décisions de toutes les juridictions judiciaires, de manière à rendre certaines données non identifiables. Les outils algorithmes nécessaires à ces traitements ont été élaborés, avec le soutien du Ministère de la Justice, et coordonnés par la direction interministérielle du numérique (DINUM). Dans cette optique, la Cour de cassation a développé un outil d’annotation open source lui permettant d’accélérer et de fiabiliser le processus de pseudonymisation des décisions de justice et leur mise en open data.

Toujours au sein de la Cour de cassation, l’IA a également permis le développement d’un nouveau moteur de recherche « Judilibre » chargé de mettre à la disposition du public, gratuitement, une base de données ouverte alimentée par les décisions, éventuellement enrichies et pseudonymisées, rendues par les juridictions de l’ordre judiciaire, suivant un calendrier précis.

Pour parvenir à ces résultats, le service de documentation, des études et du rapport de la Cour de cassation a accueilli dans ses locaux, des développeurs et un designer travaillant en étroite collaboration avec magistrats, directeurs de greffe, agents de la cellule d’anonymisation et data scientists, pour élaborer ces programmes. Les effets sont multiples – comme il est précisé sur le site de la Cour de cassation – avec : « une ergonomie repensée pour être plus efficace et agréable, un moteur de deep learning amélioré grâce aux corrections des utilisateurs, un traitement différencié selon des critères statistiques et métiers pour optimiser les temps de traitement »53.

Enfin, et sans prétendre à l’exhaustivité, l’IA est encore utilisée pour l’orientation des pourvois auprès des chambres de la Cour de cassation. Un algorithme d’apprentissage automatique a été entraîné sur une centaine de milliers de mémoires en demande. L’algorithme prend en entrée les moyens et, plus spécifiquement, le moyen du mémoire en demande des avocats appelé mémoire ampliatif, pour prédire vers quelle chambre pré-orienter le pourvoi. Les premières expérimentations ont constaté 87 % de bonne pré-orientation. À l’heure actuelle, un autre programme de recherche est en cours pour orienter les pourvois selon 3 circuits en fonction du degré de complexité de l’affaire, allant d’un circuit court qui juge les recours simples dont la solution s’impose, à un circuit approfondi pour juger les affaires les plus complexes, en passant par un circuit intermédiaire.

Mais si l’utilisation de l’IA dans le cadre de l’administration de la justice se déploie sans conteste, les systèmes prédictifs connaissent encore une phase d’expérimentation qui n’est toujours pas couronnée de succès.

Émergence des outils prédictifs

Parmi les enjeux poursuivis par l’open data, il est attendu la réalisation de « dispositifs d’aide à la décision voire à la définition de stratégies, de prévisibilité voire de prédiction des issues contentieuses »54. Mais, à notre connaissance, pour la plupart, ces outils sont encore en cours d’émergence et la déception a, le plus souvent, accompagné les dernières expériences. En effet, la plupart des outils prédictifs mis en œuvre ne se sont pas révélés concluants.

Cela a été le cas du programme « DataJust ». Créé par le décret n° 2020-264 du 17 mars 2020, ce nouveau traitement automatisé de données à caractère personnel avait été présenté comme une avancée importante de la justice numérique en France et devait permettre l’évaluation des indemnités dues pour réparer le préjudice corporel. Or, le ministère de la Justice a annoncé, en janvier 2022, mettre fin à l’expérimentation, sans avoir communiqué sur les causes justifiant cet abandon. On ignore véritablement si ce sont des difficultés techniques ou des considérations d’opportunité qui ont, en effet, entraîné le renoncement au projet55.

Le même sort funeste s’est abattu sur la juridiction nationale unique à compétence nationale, créée par la loi n° 2019-222 du 23 mars 2019 de programmation 2018-2022 et de réforme pour la justice, afin d’assurer le traitement dématérialisé des injonctions de payer. Cette juridiction a finalement été supprimée en partie en raison des difficultés techniques majeures liées à la performance des outils informatiques. Pour autant, l’idée de la mise en œuvre d’une procédure dématérialisée pour les petits litiges de moins de 5 000 euros n’est toujours pas abandonnée.

De façon similaire, l’utilisation du logiciel de la société Predictice56, s’est également soldée par un désaveu. À titre expérimental et en lien avec la Chancellerie, les Cours d’appel de Rennes et de Douai avaient testé, en 2017, en matière civile, le logiciel de la société Predictice, qui se disait en mesure de prévoir une décision judiciaire, par le traitement algorithmique préalable de l’ensemble de la jurisprudence. Parmi les différentes fonctionnalités, il promettait d’offrir une estimation fiable des indemnités obtenues par référence à des décisions similaires. Or, l’expérimentation n’a pas porté ses fruits. Il a été établi que le logiciel n’apportait aucune plus-value par rapport à d’autres moteurs de recherche qui permettaient déjà une analyse très satisfaisante de la jurisprudence des Cours d’appel et de la Cour de cassation et qu’il existait, par ailleurs, des biais dans l’algorithme. Le programme se situait « plus dans un projet d’approche statistique et quantitative que qualitative », avait déploré à l’époque Xavier Ronsin, premier Président de la cour d’appel de Rennes57.

Pour autant, tous ces échecs n’ont pas entamé la poursuite des expérimentations.

Parmi les expériences actuelles, il est possible de relever, toujours au sein de la Cour de cassation, la création d’un outil numérique susceptible de détecter les divergences de jurisprudence à partir de l’ensemble des décisions de tous les tribunaux judiciaires. La Cour de cassation pilote l’expérience et collabore avec des experts scientifiques en intelligence artificielle du Lab IA, (rattaché à Etalab au sein de la Direction interministérielle du numérique (Dinum), et d’Inria pour élaborer ce système qui contient les promesses d’une harmonisation des jurisprudences, jusque-là jamais atteinte, dans l’intérêt des justiciables pour plus de sécurité juridique et d’égalité de traitement devant la loi58.

Toujours dans le cadre des pratiques exploratoires, une recherche menée avec l’ENM, entre 2019 et 2022, auprès de 109 juges et 139 auditeurs de justice, a porté sur l’utilisation de la preuve algorithmique et sur son incidence sur la décision judiciaire, tant en matière civile que pénale59. Ce programme a permis, d’une part, d’évaluer l’influence qu’une preuve algorithmique peut avoir sur la décision des juges et d’autre part de déterminer l’impact d’un outil d’aide à la décision lorsque ce dernier a fait l’objet d’une prise en main préalable par les magistrats ou les auditeurs de justice60. Sans reprendre l’intégralité de l’expérience, on peut retenir que 2 outils principaux ont été proposés aux magistrats :

  • dans le dossier civil, la preuve générée par l’intelligence artificielle portait sur des probabilités relatives à l’attribution et au montant d’une prestation compensatoire dans le cadre d’un divorce. Dans ce dossier, à partir des décisions rendues par les Cours d’appel françaises, le système d’intelligence artificielle avait établi qu’il existait 97 % de probabilité pour qu’une cour d’appel octroie une prestation compensatoire à l’ex-épouse. Le montant moyen de cette prestation était évalué à 40 000 € et l’analyse faisait valoir que 82 % des juges avaient octroyé une somme dans une fourchette comprise entre 32 000 € et 44 000 €. Cette expertise a été introduite dans le dossier civil par l’épouse à l’appui de sa demande. Il s’agissait d’une expertise privée recevable en justice.
  • dans le dossier pénal, les juges devaient se prononcer sur la culpabilité d’un père poursuivi pour des faits de violences correspondant au « syndrome du bébé secoué » (SBS). Il leur était proposé une expertise fondée sur un algorithme d’intelligence artificielle selon laquelle, la probabilité que l’enfant ait été victime d’un SBS était de 57,6 % tandis qu’à l’inverse, il était probable à 43,4 % que l’enfant n’ait pas été victime d’un SBS. S’agissant d’une affaire pénale, ce rapport de probabilité introduisait un doute important sur l’existence même de violences et donc sur la culpabilité de la personne mise en cause.

Les résultats ont fait apparaître que les probabilités relatives à la PC n’ont pas vraiment eu d’impact sur le principe de l’attribution de la PC mais ont influencé le montant de la PC. Les magistrats ont reconnu une plus-value à l’outil dans le sens où il leur a permis de gagner du temps, d’harmoniser les pratiques, d’objectiver le montant de la PC. Mais cette plus-value reste conditionnée au fait que la preuve algorithmique doit laisser entier le pouvoir de décision du juge dans le cadre de la preuve.

Dans le dossier pénal, en revanche, l’utilité de l’expertise chiffrant la probabilité de la culpabilité s’est révélée nulle. Les juges ont considéré que la statistique est un outil inadapté pour répondre à la question de la culpabilité car « la justice n’est pas affaire de statistiques » ou « qu’il n’est pas possible de quantifier les éléments de culpabilité ». (…) Pour l’heure, les magistrats insistent sur le fait que « l’acte de juger doit rester au niveau de la réflexion humaine ».

Finalement, ces expériences ont surtout relativisé les dangers des outils algorithmiques sur la décision des juges en mettant l’accent sur la lucidité, le pragmatisme et l’objectivité des juges face à l’outil. En effet, « bénéfique lorsqu’elle aide le juge à résoudre des problèmes liés à des calculs complexes, la preuve algorithmique est ignorée ou contournée lorsqu’elle n’apporte pas au juge une réponse adéquate à la question qui lui est posée ». Les magistrats restent donc maîtres de leur décision et se servent de l’outil comme d’un curseur à valeur indicative ou comme un instrument de validation de leur intime conviction.

Pour autant, les risques et les dangers liés à une exploitation systématique de ces outils dans la fonction de juger ne doivent pas être sous-estimés. En l’absence même de réalité opérationnelle, les risques d’atteintes aux droits fondamentaux, notamment au respect de la dignité humaine, au respect de la vie privée et la protection des données, à l’égalité et la non-discrimination, à l’accès à la justice, à l’accès aux droits sociaux, etc. sont bien perçus et commandent préventivement l’instauration d’un encadrement, tant du point de vue juridique qu’éthique, même si ce corps de règles est encore à renforcer.

Un encadrement à renforcer

Les inquiétudes liées à l’utilisation de l’IA dans les systèmes judiciaires attisent les précautions. Dans l’expectative de ces dangers, la France61 commence à se doter d’une réglementation protectrice, conforme à des principes éthiques forts.

L’encadrement éthique

Pour contrer les atteintes potentiellement majeures aux droits fondamentaux et dans l’attente de l’adoption prochaine du règlement européen sur l’IA, la Commission nationale consultative des droits de l’homme (CNCDH) a adopté, le 7 avril 2022, à l’unanimité, un avis62 dans lequel elle a formulé près de 20 recommandations qui préconisent l’interdiction de nombreuses pratiques et l’encadrement de certains usages.

Parce que certains usages de l’IA impliquent une menace trop forte sur les libertés fondamentales, les pratiques qui en découlent sont interdites, en particulier celles qui débouchent sur des procédés de manipulation, d’exploitation et de contrôle social. Pour les prévenir, la CNDH prohibe dans son avis :

  • les systèmes reposant sur des composants subliminaux que les personnes ne peuvent pas percevoir, ou exploitant les fragilités des enfants et des personnes vulnérables en raison de leur âge ou de leurs handicaps physiques ou mentaux, et qui, en altérant leur comportement, peuvent leur causer un préjudice, physique ou psychologique ;
  • les systèmes d’IA permettant la notation sociale des personnes physiques, en fonction de leur comportement ou de leurs caractéristiques personnelles, par les autorités publiques ou pour le compte de celles-ci, à des fins de traitement préjudiciable ou défavorable de certaines personnes physiques ou de groupes de personnes ;
  • l’identification biométrique à distance « en temps réel », à des fins répressives, de personnes physiques dans des espaces accessibles au public63.

Ce faisant, la CNCDH rejoint les principes éthiques développés à la fois dans la Charte européenne d’éthique d’utilisation de l’intelligence artificielle dans les systèmes judiciaires64 et dans la proposition de règlement européen sur l’IA65.

Mais, dans son avis, la CNCDH préconise aussi d’étendre les interdictions à d’autres domaines parmi lesquels figure l’utilisation de l’IA en justice, en raison des risques engendrés sur les droits et libertés fondamentaux. Avec beaucoup de prudence, le Comité recommande de « poursuivre et d’approfondir la réflexion afin d’identifier les apports et les limites d’une utilisation de l’IA dans le cadre des procédures juridictionnelles »66.

Par ailleurs, certains principes commandent l’encadrement des usages. Les technologies fondées sur l’IA doivent en effet reposer sur la garantie de l’intervention humaine, la transparence, l’information et la formation de tous les utilisateurs. Ces exigences s’appliquent déjà aux services en ligne de résolution des litiges qui utilisent des algorithmes. Les parties doivent en être informées par une mention explicite et doivent expressément y consentir. Les règles définissant ce traitement ainsi que les principales caractéristiques de sa mise en œuvre doivent être communiquées par le responsable de traitement à toute partie qui en fait la demande. Ces services en ligne sont également soumis aux obligations relatives à la protection des données à caractère personnel et, sauf accord des parties, de confidentialité67.

Ces principes ont pour effet de garantir que les utilisateurs (justiciables, juges…) sont des acteurs informés et maîtres de leur choix et obligent aussi les concepteurs à expliciter les modalités de conception et le fonctionnement des algorithmes utilisés. Cette obligation est déjà effective, en droit français, dans l’article L. 311-3-1 du code des relations entre le public et l’administration qui prévoit que « lorsqu’une décision individuelle est prise sur le fondement d’un traitement algorithmique, les règles définissant ce traitement ainsi que les principales caractéristiques de sa mise en œuvre doivent être clairement communiquées »68.

D’autres règles légales peuvent encore être invoquées même si la protection d’ensemble reste encore lacunaire.

L’encadrement légal

Il convient de rappeler, en premier lieu, que l’exigence d’une intervention humaine pour la résolution des conflits a été posée, en France, dès la loi du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés. En effet, son article 10 a interdit formellement de fonder une décision de justice de manière exclusive sur un traitement automatisé, repoussant de ce fait le spectre du juge-robot. Cela ne veut pas dire que le juge ne peut pas s’aider d’un outil algorithmique pour prendre sa décision mais cela signifie que l’algorithme ne peut constituer le seul fondement de sa décision.

Dans le cadre de l’Union européenne, cette même règle a, ensuite, été reprise à l’article 22 du Règlement européen du 27 avril 2016 sur les données à caractère personnel (RGPD) qui dispose que « la personne concernée a le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisantdes effets juridiques la concernant ou l’affectant de manière significative de façon similaire »69. Ce qui revient aussi à interdire en Europe l’utilisation exclusive d’outils d’analyse de risque. En matière pénale, plus spécifiquement, l’article 11 de la directive (UE) n° 2016/ 680 du 27 avril 2016 applicable aux traitements de données en matière pénale, dite directive « Police-Justice », qui s’applique au « traitement de données à caractère personnel à des fins de prévention et de détection des infractions pénales, d’enquêtes et de poursuites en la matière ou d’exécution de sanctions pénales »70, interdit toute décision « fondée exclusivement sur un traitement automatisé, y compris le profilage, qui produit des effets juridiques défavorables pour la personne concernée ou l’affecte de manière significative »71, à moins qu’une telle décision « ne soit autorisée par le droit de l’Union ou le droit d’un État membre auquel le responsable du traitement est soumis »72.

Cette interdiction de faire reposer une décision de justice exclusivement sur un traitement automatisé a, ensuite, été étendue, par la loi n° 2019-222 du 23 mars 2019 de programmation 2018-2022 et de réforme pour la justice aux services en ligne de conciliation ou de médiation ou d’arbitrage proposées par des personnes physiques ou morales qui ne peuvent donc avoir pour seul fondement un traitement algorithmique ou automatisé de données à caractère personnel. Comme le précise le projet de règlement européen, « l’utilisation d’outils d’intelligence artificielle peut soutenir le pouvoir de décision des juges ou l’indépendance judiciaire, mais ne devrait pas les remplacer, car la décision finale doit rester une activité et une décision humaines »73.

Dans le cadre des atteintes potentielles aux droits fondamentaux, les effets de l’IA sur l’égalité des justiciables, sur la protection de la vie privée doivent également être fortement contrôlés.

En particulier, étant donné que l’IA se fonde sur le traitement massif de données à caractère personnel, le droit fondamental à la protection de ces données doit être garanti. C’est en particulier l’objectif de la loi du 20 juin 2018 relative à la protection des données personnelles qui a modifié la loi « Informatique et Libertés » pour l’adapter aux dispositions du Règlement général sur la protection des données (RGPD) et à la directive (UE) no 2016/ 680 du 27 avril 2016 applicable aux traitements de données en matière pénale, dite directive « Police-Justice ».

Ainsi, cette loi a renforcé les droits des personnes en créant un droit à l’information de la personne concernée par les données personnelles traitées en matière pénale et l’exercice direct des droits d’accès, de rectification et d’effacement des données. Le traitement de données personnelles relatives à la prétendue origine raciale ou l’origine ethnique, les opinions politiques, les convictions religieuses ou philosophiques ou l’appartenance syndicale a été interdit. La prohibition porte également sur le traitement des données génétiques, des données biométriques aux fins d’identifier une personne physique de manière unique, des données concernant la santé ou des données concernant la vie sexuelle ou l’orientation sexuelle d’une personne.

Quant à la loi n° 2016-1321 du 7 octobre 2016 dite « République numérique », elle avait imposé la transparence des algorithmes publics, offrant ainsi une garantie supplémentaire contre un éventuel phénomène de « boîte noire » en matière d’usages judiciaires de l’intelligence artificielle.

Pour autant, à l’instar des progrès de l’IA en matière judiciaire, l’encadrement juridique de son exploitation est encore en gestation et dépendra, pour beaucoup, des garanties et des limites contenues dans le prochain règlement européen sur IA.

En conclusion, au regard des résultats actuels peu probants qu’elle génère, la justice prédictive reste un processus technologique toujours en phase d’expérimentation.

Pour autant, tous les discours pronostiquent une montée en puissance inéluctable de l’utilisation de l’IA dans tous les domaines (santé, environnement, transports…) et en particulier dans celui de la justice.

Mais à quel prix ?

La course effrénée à « l’armement numérique » est irrémédiablement lancée sans que l’on s’interroge plus sur sa légitimité74.

Face aux promesses prométhéennes de cette intelligence des machines, les États et les entreprises s’agitent dans deux directions opposées, l’une pour tenter de réguler le comportement de ces nouveaux génies mécaniques et l’autre pour essayer de ne pas se faire distancer dans la course mondiale75.

C’est la même ambiguïté qui a agité les négociations autour de l’adoption du règlement européen sur IA. Or, à trop vouloir booster l’innovation, à vouloir trop rester dans la compétition, la volonté européenne initiale d’un encadrement fort risque d’être reléguée au second plan. L’abandon de ce cap ambitieux signerait alors forcément la fragilisation inquiétante de la protection des libertés et droits fondamentaux, alors même que c’est cette protection qui ne devrait pas avoir de prix !

Désormais, seule l’analyse en détail de l’Artificial Intelligence Act, une fois définitivement adopté par l’Union européenne76 permettra de déterminer si un équilibre satisfaisant entre innovation et sécurité a finalement été trouvé.

Bibliographie

Ouvrages et articles d’ouvrages

  • Abiteboul, S. et G’Sell F. (2019), « Les algorithmes pourraient-ils remplacer les juges ? » dans Le Big Data et le droit, Paris, Dalloz, Thèmes et commentaires. https://inria.hal.science/hal-02304016v2/ [consulté 06/2024]
  • Amrani-Mekki, S. (2018), « Le point de vue d’une universitaire », dans Ordre des avocats au Conseil d’État et à la Cour de cassation (dir.), La justice prédictive, Paris, Dalloz, p. 49-63.
  • Bensamoun A. et Loiseau G. (2022), Droit de l’intelligence artificielle, Paris, LGDJ, 2e éd.
  • Berezkina, E. (2023), observations sous « AI Act : le Parlement européen adopte le futur cadre réglementaire de l’IA », Dalloz IP/IT, 385.
  • Beynel J.F. et Casas D. (2018), « Chantiers de la justice », Transformation numérique, Paris, Ministère de la Justice. https://www.vie-publique.fr/files/rapport/pdf/184000051.pdf [consulté 06/2024]
  • Canivet G. (dir.) (2017), Justice : faites entrer le numérique, Paris, Institut Montaigne.
  • Commission européenne pour l’efficacité de la justice (CEPEJ) (2018), Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement, Paris.
  • Garapon A. et Lassègue J. (2018), Justice digitale, Paris, PUF.
  • G’Sell F. (dir.) (2019), Le Big Data et le droit, Paris, Dalloz. https://inria.hal.science/hal-02304016v2 [consulté 06/2024]
  • Jacquemin Z. (2019), « Vices et vertus de la justice prédictive en droit de la responsabilité civile », dans Mekki, M. et Blanc, N. (dir.), Le juge et le numérique : un défi pour la justice du XXIe siècle, Paris, Dalloz, p. 121-128.
  • Jeuland E. (2022), « Intelligence artificielle et justice : une approche interhumaniste », dans Bensamoun A. et Loiseau G. (dir.), Droit de l’intelligence artificielle, Paris, LGDJ, 227-256.
  • Ordre des avocats au Conseil d’État et à la Cour de cassation (dir.). La justice prédictive, Paris, Dalloz, 2018.

Articles de journaux et revues

  • (2022) « Dossier : L’impact des algorithmes sur la décision de justice », Recueil Dalloz, 38, p. 1919-1933.
  • Clémentine B. (2020), « Encadrer l’utilisation de l’intelligence artificielle, notamment dans les systèmes judiciaires – les travaux de la Commission européenne pour l’efficacité de la justice et du comité ad hoc sur l’intelligence artificielle du Conseil de l’Europe », Annuaire international de justice constitutionnelle, p. 587-597.
  • Barthe E. (2019), « Les outils de l’intelligence artificielle pour le droit français ». JCP, La Semaine Juridique, 14, Doctr. 381, p. 665-674.
  • Bengio J., « Aujourd’hui, l’IA c’est le far west, nous devons ralentir et réguler », Le Monde, 28-4-2023. https://www.lemonde.fr/idees/article/2023/04/28/yoshua-bengio-chercheur-aujourd-hui-l-intelligence-artificielle-c-est-le-far-west-nous-devons-ralentir-et-reguler_6171336_3232.html [consulté 06/2024]
  • Bloch L. (2022), « DataJust : ni fleurs, ni couronnes », Responsabilité civile et Assurances, 3, p. 3-7.
  • Buat-Ménard E. (2019), « La justice dite “prédictive” : prérequis, risques et attentes – l’expérience française ». Les Cahiers de la justice, 2 (2), p. 269-276. https://doi.org/10.3917/cdlj.1902.0269 [consulté 06/2024]
  • Cadiet L. (2018), « Les promesses d’une justice dite prédictive reposant sur des décisions de justice déjà rendues sont à tempérer (…) En quelque sorte, c’est le rétrospectif qui fait le prédictif ! », Revue pratique de la prospective et de l’innovation, 1, entretien 2.
  • Clément M. (2017), « Les juges doivent-ils craindre l’arrivée de l’intelligence artificielle ? », Recueil Dalloz, 2, p. 102-106.
  • Croze H. (2017), « Justice prédictive. La factualisation du droit ». JCP G, La Semaine juridique Générale, 5, act.101, p. 174-175.
  • Dondero B. (2017), « Justice prédictive : la fin de l’aléa judiciaire ? », Recueil Dalloz, 10, p. 532-538.
  • Eudier F. (2023), « Nouveau plan de transformation numérique de la justice », AJfam, 3, p. 137.
  • Fricero N. (2017), « Les chiffres-clés pour sauver la justice : 5 ans, 4 objectifs, 127 propositions ! À propos du rapport de la mission d’information sur le redressement de la Justice », JCP G, La Semaine juridique Générale, 19-20, p. 898-901.
  • Garapon A. (2016), « Les enjeux de la justice prédictive », Revue pratique de la prospective et de l’innovation, dossier 4, 1, p. 28-32.
  • Garapon A. (2017), « Les enjeux de la justice prédictive », JCP G, La Semaine juridique Générale, 1-2,Doctr. 31.
  • Godefroy Lêmy D. (2018), « La performativité de la justice “prédictive” : un pharmakon ? », Recueil Dalloz, 36, p. 1979- 1985.
  • Grynbaum L. (2016), « la loi n° 2016-1321 du 7 octobre 2016 sur la République numérique, Aperçu rapide », JCP G, La Semaine juridique Générale, act. 1129, p. 1956-1958.
  • Harvard Law Review (2017), « Criminal Law — Sentencing Guidelines — Wisconsin Supreme Court Requires Warning Before Use of Algorithmic Risk Assessments in Sentencing. — “State v. Loomis”, 881 N.W.2d 749 (Wis. 2016) », 130 (5), p. 1530-1537. https://harvardlawreview.org/print/vol-130/state-v-loomis/ [consulté 06/2024]
  • Hyde A. (2021), « Droit et intelligence artificielle : quelle régulation du marché pour des outils de justice prévisionnelle dignes de confiance ? », JCP G, La Semaine juridique Générale, 6, act. 142, p. 262-265.
  • Jombart J. (2022), « Données – L’Open data des décisions de justice en droit pénal », Droit pénal, 11, p. 8-13.
  • Lebreton-Derrien S. (2018), « La justice prédictive. Introduction à une justice “simplement” », Archives de philosophie du droit , 60 (1), pp. 3-21. https://doi.org/10.3917/apd.601.0018 [consulté 06/2024]
  • Le Cun Y. (2023), « L’idée même de vouloir ralentir la recherche sur l’IA s’apparente à un nouvel obscurantisme », Le Monde , 28-4-2023. https://www.lemonde.fr/idees/article/2023/04/28/yann-le-cun-directeur-a-meta-l-idee-meme-de-vouloir-ralentir-la-recherche-sur-l-ia-s-apparente-a-un-nouvel-obscurantisme_6171338_3232.html [consulté 06/2024]
  • Lelieur, J. (2023), « L’intelligence artificielle, une nouvelle technologie probatoire en émergence », Actualité juridique Pénal, 3, p. 112-115.
  • Macron E. (2017), « Une justice pour notre temps. Programme justice d’Emmanuel Macron », Gazette du Palais, 16, p. 16-20. https://www.labase-lextenso.fr/gazette-du-palais/GPL291b9 / https://www.gazette-du-palais.fr/wp-content/uploads/2017/12/995.pdf [consulté 06/2024]
  • Marti G. (2022), « Justice et intelligence artificielle : de la promesse de l’aube aux liaisons dangereuses ? », Revue pratique de la prospective et de l’innovation, 1, dossier 5, p. 22-26.
  • Merabet S. (2022), « La digitalisation pour une meilleure justice » – À propos du plan d’action 2022-2025 de la CEPEJ », JCP G, La Semaine juridique Générale,1, p. 12-15.
  • Merabet S. (2022), « Hommage posthume à l’abandon de DataJust : des principes directeurs de la justice numérique », Revue pratique de la prospective et de l’innovation, 1, dossier 4, doctr. 2, p. 18-21.
  • Méneceur Y. (2020), « DataJust face aux défis de l’intelligence artificielle », JCP G, La Semaine juridique Générale, doctr. 1087, 40, p. 1708-1714.
  • Meneceur Y. (2018), « Quel avenir pour la « justice prédictive ? – Enjeux et limites des algorithmes d’anticipation des décisions de justice », JCP G, La Semaine juridique Générale, 7, doctr. 190, p. 316-322.
  • Mouly P. (1989), « Signification épistémologique de l’échec des systèmes experts juridiques », Les Petites Affiches, 91, p. 4-8.
  • Pécaut-Rivolier L. et Robin S. (2020), « Justice et intelligence artificielle, préparer demain – épisode I ». Dalloz actualité, 14-04-2020. https://www.dalloz-actualite.fr/flash/justice-et-intelligence-artificielle-preparer-demain-episode-i [consulté 06/2024]
  • Racine J.-B. (2018), « La résolution amiable des différends en ligne ou la figure de l’algorithme médiateur », Recueil Dalloz, 31, p. 1700-1705.
  • Rouvière, F. (2017) « La justice prédictive, version moderne de la boule de cristal », RTD civ. , p. 527-528
  • Rouvière, F. (2021), « Dix problèmes épistémologiques sur la justice prédictive », Recueil Dalloz, 11, p. 587-93.
  • Serverin, E. (2018), « De l’informatique juridique aux services de justice prédictive, la longue route de l’accès du public aux décisions de justice dématérialisées », Archives de philosophie du droit , Tome 60, p. 23-47. DOI : https://doi.org/10.3917/apd.601.0038
  • Sève R. (2018), « La justice prédictive », Archives de philosophie du droit , Tome 60, p. 10-14. https://www.cairn.info/revue-archives-de-philosophie-du-droit-2018-1-page-X.htm [consulté 06/2024]
  • Tercinet A. (2019), « Réflexions sur la justice prédictive en France à l’aune du rapport CEPEJ 2018 », La Semaine Juridique Entreprise et Affaires, 61058, p. 27-32.
  • Vergès E. (2022), « Le juge face à la boîte noire : l’intelligence artificielle au tribunal », Recueil Dalloz, 38, p.1920-1927.
  • Vial G. (2022), « Prise en main d’un outil d’intelligence artificielle par des auditeurs de justice : l’office du juge sous l’influence des algorithmes », Recueil Dalloz, 38, p.1928-1933.
  • Vigneau V. (2018), « Le passé ne manque pas d’avenir. Libres propos d’un juge sur la justice prédictive », Recueil Dalloz, 20, p. 1095-1103.
  • G’Sell G. et Aïdan P. (2016), « Le marché français des services juridiques en 2020 », Revue pratique de la prospective et de l’innovation, Étude 1.
  • Degos L. (2020), « Legaltech et justice prédictive : cartographie », Revue pratique de la prospective et de l’innovation, 2, p. 2-3.

Sitographie

Vidéographie

Divers

Notes

  1. Conseil d’État (2022a), « Intelligence artificielle et action publique : construire la confiance, servir la performance », https://www.conseil-etat.fr/publications-colloques/etudes/intelligence-artificielle-et-action-publique-construire-la-confiance-servir-la-performance [consulté 06/2024]
  2. Conseil d’État (2022b), « S’engager dans l’intelligence artificielle pour un meilleur service public », https://www.conseil-etat.fr/actualites/s-engager-dans-l-intelligence-artificielle-pour-un-meilleur-service-public [consulté 06/2024]
  3. Garapon, 2017 ; Dondero, 2017 ; Rouvière, 2017 ; Croze, 2017 ; Clément, 2017 ; Sève, 2018 ; Garapon, Lassègue, 2018 ; Ordre des avocats au Conseil d’État et à la Cour de cassation (dir.), 2018) ; Jeuland, 2022.
  4. Selon Barthe, en 2023, plus de 220 start-ups sont référencées en France qui proposent de la génération automatique de documents juridiques (Legalstart.fr, Wonderlegal, Testamento, etc.), numérisation de démarches juridiques (création d’entreprise avec Cacreepourmoi.fr ou Legalstart.fr, saisine d’une juridiction avec DemanderJustice.com), résolution de litiges non contentieux en ligne (Ejust, Weclaim, Youstice), calcul de probabilité concernant les décisions de justice…Peu d’entre-elles utilisent d’ailleurs des outils prédictifs, exception faite de case law analitics » ; voir aussi G’Sell, Patrick Aïdan, 2016 ; Degos, 2020.
  5. Rouvière, 2017 ; Dondero, 2017.
  6. Degos, 2020 ; Quézel-Ambrunaz, 2022.
  7. Godefroy, Lebaron, Lévy-Vehel, 2019.
  8. Il existe d’autres applications sollicitant l’IA comme les moteurs de recherche utilisant des requêtes en langage naturel, les robots de conversation à destination des usagers ou des générateurs d’actes mais ils ne seront pas traités ici.
  9. Pour plus de détails : Hyde, 2021.
  10. Présentation empruntée à Barthe, 2019.
  11. Loi n° 2016-1321 du 7 octobre 2016 sur la République numérique.
  12. Merabet, 2022 ; Eudier, 2023 ; Ministère de la justice, « Plan de transformation numérique 2027 du Ministère de la Justice », https://www.justice.gouv.fr/actualites/espace-presse/plan-transformation-numerique-du-ministere-justice [consulté 06/2024]
  13. Macron, 2017 ; Canivet (dir.), 2017 ; Beynel, Casas, 2018 ; Agostini, Molfessis, 2018 ; Cadiet, Chainais, Sommer (dir.), 2022 ; Merabet, 2022.
  14. En ce sens, Barbaro, 2020.
  15. Commission européenne, « Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union », COM (2021) 206 final. (Bruxelles : Commission européenne, 21 avril 2021), https://eur-lex.europa.eu/legal-content/FR/ALL/?uri=CELEX%3A52021PC0206 [consulté 06/2024] ; Berezkina, 2023.
  16. Garapon, 2016.
  17. Godefroy, 2018.
  18. Tercinet, 2019 ; Bas, 2017 ; Fricero, 2017.
  19. Pécaut-Rivolier, Robin, 2020.
  20. Godefroy, Lebaron, Lévy-Vehel, 2019.
  21. Ibid.
  22. Cadiet, 2018, entretien 2.
  23. Garapon, 2016 ; Tercinet, 2019 ; Racine, 2018 ; Amrani-Mekki, 2018.
  24. Favorisée par la politique européenne, la dématérialisation des procédures, la digitalisation de la justice correspond également à une volonté gouvernementale et législative forte, en droit interne ; Gazette du Palais, 2017 ; Canivet (dir.), 2017 ; Beynel, Casas, 2018 ; Agostini, Molfessis, 2018.
  25. Commission nationale de l’informatique et des libertés (CNIL), « Comment permettre à l’homme de garder la main ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle », https://www.cnil.fr/fr/comment-permettre-lhomme-de-garder-la-main-rapport-sur-les-enjeux-ethiques-des-algorithmes-et-de [consulté 06/2024]
  26. Dondero, 2017, p. 537.
  27. Commission européenne, « Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union, considérant 40 », op.cit.
  28. Lelieur, 2023, p. 112.
  29. 2022, « Dossier : L’impact des algorithmes sur la décision de justice ».
  30. Lelieur, 2023, p. 115.
  31. Jombart, 2022, étude 22.
  32. Harvard Law Review, 2017, p. 1534.
  33. Lelieur, 2023.
  34. Abiteboul, G’Sell, 2019.
  35. Meneceur, 2018.
  36. Plus précisément, dans les années soixante à quatre-vingt, l’utilisation des systèmes experts s’est soldée par un échec, notamment dans la recherche d’une reproduction du raisonnement juridique.
  37. Rouvière, 2021.
  38. Mouly, 1989.
  39. Rouvière, 2021.
  40. Buat-Ménard, 2019, p, 270.
  41. Ibid.
  42. Le terme a été employé par Godefroy, 2018.
  43. Jombart, 2022, p. 12.
  44. Jacquemin, 2019, p. 125.
  45. Serverin, 2018, p. 43.
  46. Croze, 2017.
  47. C’est l’analyse très fine empruntée par Lebreton-Derrien, 2018, qui envisage la justice prédictive comme une justice virtuelle. En effet, « le virtuel n’aurait donc rien à voir avec le fictif, il ne manquerait pas de réalité : il manquerait simplement d’actualité », p. 8.
  48. Commission européenne pour l’efficacité de la justice (CEPEJ), 2018, p. 14.
  49. Marti, 2022.
  50. Eudier, 2023.
  51. Sommer, « La Cour de cassation à l’épreuve du numérique et de l’intelligence artificielle », Vie publique, https://www.vie-publique.fr/parole-dexpert/278415-la-cour-de-cassation-face-au-numerique-et-lintelligence-artificielle [consulté 06/2024]
  52. C’est d’abord la loi n° 2016-1321 du 7 octobre 2016 sur la République numérique (JO 8 oct. 2016, texte n° 235 ; Aperçu rapide par Grynbaum, 2016), qui a organisé la mise à disposition gratuite de toutes les données émanant des administrations publiques et donc des décisions de toutes les juridictions (COJ, art. L. 111-13) complétée par l’article 33 de la loi n° 2019-222 du 23 mars 2019 de programmation 2018-2022 et de réforme pour la justice, par le décret n° 2020-797 du 29 juin 2020 relatif à la mise à la disposition du public des décisions des juridictions judiciaires et administratives et enfin l’arrêté du 28 avril 2021 pris en son application.
  53. Le service de documentation des études et du rapport de la Cour de cassation : https://www.courdecassation.fr/la-cour-de-cassation/demain/lopen-data-des-decisions-judiciaires [consulté 06/2024]
  54. Sommer, « La Cour de cassation à l’épreuve du numérique et de l’intelligence artificielle », Vie publique, https://www.vie-publique.fr/parole-dexpert/278415-la-cour-de-cassation-face-au-numerique-et-lintelligence-artificielle [consulté 06/2024]
  55. Merabet, 2022 ; Bloch, 2022 ; Méneceur, 2020.
  56. Predictice est une start-up française créée en 2016 qui intervient dans le domaine de l’information juridique.
  57. Ronsin, 2017. 
  58. Vigneau, 2018.
  59. 2022, « Dossier : L’impact des algorithmes sur la décision de justice » ; Vergès, 2022 ; Vial, 2022.
  60. Les preuves algorithmiques ont été fournies, d’une part, par une société privée travaillant dans le secteur de l’intelligence artificielle et, d’autre part, par un chercheur en informatique au CNRS.
  61. Dans le cadre de cette présentation, j’insisterai principalement sur la réglementation française.
  62. Commission nationale consultative des droits de l’homme, « Avis relatif à l’impact de l’intelligence artificielle sur les droits fondamentaux (A-2022-6) », https://www.cncdh.fr/publications/avis-relatif-limpact-de-lintelligence-artificielle-sur-les-droits-fondamentaux-2022-6 [consulté 06/2024]
  63. Avis relatif à l’impact de l’intelligence artificielle sur les droits fondamentaux (A – 2022 – 6), NOR : CDHX2211293V, JORF n° 0091 du 17 avril 2022, Texte n° 99, Recommandation n° 3, https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000045593731 [consulté 06/2024]
  64. Commission européenne pour l’efficacité de la justice (CEPEJ), 2018, https://www.coe.int/fr/web/cepej/cepej-european-ethical-charter-on-the-use-of-artificial-intelligence-ai-in-judicial-systems-and-their-environment [consulté 06/2024]
  65. Commission européenne, « Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union », Exposé des motifs, COM (2021) 206 final. (Bruxelles : Commission européenne, 21 avril 2021), https://eur-lex.europa.eu/legal-content/FR/ALL/?uri=CELEX%3A52021PC0206 [consulté 06/2024]
  66. Avis relatif à l’impact de l’intelligence artificielle sur les droits fondamentaux (A – 2022 – 6), NOR : CDHX2211293V, JORF n° 0091 du 17 avril 2022, Texte n° 99, Recommandation n° 7 : https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000045593731 [consulté 06/2024]
  67. Article 4- 3 de la loi n° 2019-222 du 23 mars 2019 de programmation 2018-2022 et de réforme pour la justice.
  68. Loi n° 2016-1321 du 7 octobre 2016 pour une République numérique, article L. 311-3-1, https://www.legifrance.gouv.fr/dossierlegislatif/JORFDOLE000031589829/?detailType=CONTENU&detailId=1 [consulté 06/2024]
  69. Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016, relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données), article 22, https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:32016R0679 [consulté 06/2024]
  70. Directive (UE) 2016/680 du Parlement européen et du Conseil du 27 avril 2016 relative à la protection des personnes physiques à l’égard du traitement des données à caractère personnel par les autorités compétentes à des fins de prévention et de détection des infractions pénales, d’enquêtes et de poursuites en la matière ou d’exécution de sanctions pénales, et à la libre circulation de ces données, et abrogeant la decisión-cadre 2008/977/JAI du Conseil, https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:32016L0680 [consulté 06/2024]
  71. Ibid., article 11.
  72. Ibid.
  73. Commission européenne, « Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union », considérant 40, COM (2021) 206 final. (Bruxelles : Commission européenne, 21 avril 2021), https://eur-lex.europa.eu/legal-content/FR/ALL/?uri=CELEX%3A52021PC0206 [consulté 06/2024]
  74. Selon Le Cun, 2023. A l’inverse, le chercheur canadien, Bengio, 2023, précurseur des réseaux de neurones artificiels, insiste plutôt sur la nécessité de ralentir le développement de systèmes d’intelligence artificielle qui, selon lui, s’est accéléré au détriment du principe de précaution et de l’éthique.
  75. Escande, 2023.
  76. Le règlement sur l’intelligence artificielle a franchi une étape décisive en ayant été validé à l’unanimité, le 2 février 2024, par les États membres de l’Union européenne.
Rechercher
Rechercher
Pau, Pessac
Chapitre de livre
EAN html : 9782353110025
ISBN html : 978-2-35311-002-5
ISBN pdf : 978-2-35311-003-2
Volume : 4
ISSN : 2827-1971
Posté le 15/07/2024
21 p.
Code CLIL : 3767; 4093; 4091;
licence CC by SA

Comment citer

Mestrot, Michèle, « La justice prédictive en France : entre potentialités ambivalentes et résultats contrastes », in : Alkorta, Itziar, Hernández, Yannick, Etxeberria, Urtzi, dir., Mugarteko ingurumena: aldaketa klimatikoa, hezkuntza-testuinguruak eta erronka digital berriak / Environnements transfrontaliers : changements climatique, contextes éducatifs et nouveaux défis numériques / Entornos transfronterizos: cambio climático, contextos educativos y nuevos retos digitales, Pessac, PUPPA, collection Schol@ 4, 2024, 313-335, [en ligne] https://una-editions.fr/la-justice-predictive-en-france [consulté le 15/07/2024].
http://dx.doi.org/10.46608/schola4.9782353110025.25
Illustration de couverture • d’après © Metamorworks / Adobe Stock, T. Ferreira, PUPPA.
Retour en haut
Aller au contenu principal