Yannick Meneceur est magistrat de l’ordre judiciaire et candidat à la thèse de doctorat en droit à l’université de Paris-Saclay sur la régulation de l’intelligence artificielle. Il est également maître de conférences associé à l’université de Strasbourg en droit du numérique. En disponibilité durant 10 années au Conseil de l’Europe, il a contribué à l’analyse comparative des systèmes judiciaires européens et a développé une expertise en matière de régulation de la transformation numérique, notamment en ce qui concerne l’intelligence artificielle. Son premier ouvrage, L’intelligence artificielle en procès, a été publié en mai 2020 dans la collection Macro Droit – Micro Droit aux éditions Bruylant et a reçu le prix du Cercle Montesquieu en 2021. Son second ouvrage, Intelligence artificielle générative et professions du droit, est à paraître en fin 2024 aux éditions LexisNexis.
En quelques mots, qu’est-ce que l’intelligence artificielle (IA) et quelles pourraient être ses principales applications dans le domaine de la justice ?
« Une IA, ou plus précisément un système d’IA (SIA) afin d’éviter tout anthropomorphisme, est un dispositif algorithmique présentant des caractéristiques particulières d’autonomie et d’adaptation. Il ne sera pas développé la très longue histoire ayant conduit l’informaticien John Mc Carthy à qualifier son champ de recherche avec le terme ingénieux et marketing « d’intelligence artificielle ». Il doit être seulement souligné que ce terme a recouvert des réalités technologiques très différentes depuis sa création. Actuellement, il désigne plutôt des algorithmes particuliers, imitant sommairement le fonctionnement des neurones biologiques : les réseaux de neurones. Mais (et c’est une difficulté majeure), il peut continuer à désigner d’autres solutions ne présentant pas toujours les mêmes qualités et, surtout, les mêmes inconvénients. Les discours sur les SIA permettant ceci ou présentant des dangers pour cela sont donc systématiquement à contextualiser.
« Pour tenter de clarifier les usages de cette technologie dans le domaine de la justice, il pourrait être dressé, de manière tout à fait arbitraire, trois grandes catégories : 1°) les SIA « prédictifs », cherchant à anticiper un résultat comme une fourchette d’indemnisation prononcée par une juridiction ; 2°) les SIA regroupant des informations similaires, pour classer par exemple des courriers électroniques similaires vers la même destination ; 3°) enfin, les plus récents sont les SIA traitant du langage et générant du contenu.
« Si l’usage « prédictif » a animé beaucoup de débats à la fin des années 2010, il semble que le champ de la « jurimétrie »[1] se concentre maintenant sur ce qu’il est capable de produire de la manière la plus fiable, avec beaucoup plus de prudence de la part des concepteurs. Les SIA regroupant des informations sont déjà employés depuis des années pour traiter du spam dans les courriers électroniques par exemple. De manière tout aussi concrète, ces SIA permettent aujourd’hui à la Cour de cassation d’orienter automatiquement les pourvois reçus vers la chambre concernée. La Cour de cassation a également employé d’autres types d’algorithmes pour contribuer à la pseudonymisation des décisions avant leur publication en open data : ceux permettant de traiter du langage. Depuis la fin 2022 et le lancement de ChatGPT, la génération de langage (et de documents) suscite un très vif engouement, tempéré par des retours d’expérience démontrant que ces systèmes font beaucoup trop bien ce pour quoi ils ont été conçus : ils créent du contenu sans limites, mais pas nécessairement véridique. Ce qui est gênant dans des domaines d’expertise pointue comme le droit. »
Vous préconisez de dépasser une analyse prospective de l’IA fondée sur le rapport bénéfices-risques pour adopter une autre grille de lecture. Pourriez-vous nous en dire davantage ?
« C’est vrai que les débats sur l’intelligence artificielle, notamment chez les régulateurs, se sont structurés autour d’une balance, extrêmement classique, opposant les opportunités aux dangers, pour en déduire des moyens d’actions minimisant les risques. Or, cette approche ne nous instruit en réalité qu’assez peu sur la réelle nature de cette technologie (son « affordance » pour emprunter le terme au champ de la psychologie).
« Si je prends un exemple aussi simple qu’un marteau, opposer ses bénéfices (il enfonce des clous) à ses risques (il peut servir d’arme par destination) ne nous permet pas de mesurer que, sans cet outil, nous vivrions probablement encore dans des cavernes. Pour l’intelligence artificielle, l’analyse de son « affordance » nous conduit même bien au-delà : cette technologie embarque inévitablement une part de politique, au vu de sa complexité, de sa capacité à influencer nos décisions par un formalisme particulier (mathématique, statistique et probabiliste) et, surtout, du fait de l’organisation sociale extrêmement sophistiquée pour coordonner tous les aspects de sa production.
« Pour illustrer que tout artefact est politique, le chercheur américain Langdon Winner choisit l’exemple des machines à ramasser les tomates en Californie. Ce ne sont pas les machines qui se sont adaptées à la fragilité des fruits les plus goûteux, typiques de la région, mais les tomates qui ont été sélectionnées pour permettre une production industrielle, quitte à ce qu’elles perdent en goût. Avec l’intelligence artificielle, l’on se dirige vers les mêmes types de choix politiques : ce sont les contraintes des systèmes informatiques qui risquent de dégrader la qualité des informations traitées pour permettre un traitement de masse… ce qui peut avoir des conséquences désastreuses dans le champ de la santé ou du droit. »
En se fondant sur cette nouvelle grille de lecture, où situer selon vous le curseur de la proportionnalité de l’usage de l’IA dans la sphère du droit et de la justice ? La règlementation actuelle, nationale et européenne, vous paraît-elle placer ce curseur au bon endroit ? Quel rôle pourrait jouer l’éthique / la déontologie ?
« Il me semble tout d’abord urgent de prévenir tout « solutionnisme technologique » dans des champs aussi sensibles que le droit et la justice. Le recours à des SIA peut présenter en première analyse d’extraordinaires opportunités mais, mis en pratique, révéler des difficultés ne pouvant être aisément surmontées. C’est ainsi que l’expérimentation d’un SIA produisant un référentiel d’indemnisation des préjudices corporels n’a pas encore produit les résultats espérés. Une question centrale, probablement provocante, serait de s’interroger si ces difficultés ne proviennent pas, au moins en partie, du fait que l’on utilise un marteau pour tenter d’ouvrir un œuf : avec beaucoup de précautions, l’on arrivera peut-être à des résultats, mais d’autres méthodes, plus qualitatives et mieux adaptées, pourraient peut-être aussi conduire à des solutions partagées entre toutes les parties prenantes (y compris les assureurs).
« La réglementation européenne la plus récente s’est adaptée à ces enjeux en 2014. Deux textes juridiquement contraignants ont été adoptés, quasiment dans le même temps : d’une part le règlement sur l’intelligence artificielle (RIA) adopté par l’Union européenne, organisant par un régime de prévention des risques la mise sur le marché de SIA ; d’autre part une convention cadre du Conseil de l’Europe, établissant un certain nombre de principes de haut niveau afin de protéger les droits humains, la démocratie et l’État de droit. Le RIA classe l’administration de la justice comme l’un des domaines à haut risque et va imposer une procédure spécifique de mise en conformité.
« C’est vrai que l’éthique avait été envisagée jusqu’à la fin 2010 comme l’une des réponses centrales à ces enjeux : la Commission européenne a toutefois appuyé une tout autre stratégie avec l’arrivée d’Ursula von der Layen à la présidence de la Commission, en développant tout un « paquet » réglementaire juridiquement contraignant sur le numérique. Au crédit de cette approche, il faut reconnaître que les discours éthiques ont été très largement instrumentalisés, notamment par l’industrie numérique, afin de « blanchir » nombre d’applications aux caractéristiques contestables (comme l’évaluation du risque de récidive en matière pénale en Californie). Les textes produits ont toutefois été critiqués par la société civile pour ne protéger qu’imparfaitement les droits fondamentaux, du fait de leur approche par les risques. La déontologie des professions du droit a donc probablement encore un rôle important à jouer : là où des interstices se présenteront inévitablement, l’emploi des SIA devra être bien réfléchi et adapté avec discernement aux contraintes des offices de chacun. »
[1] Ensemble des méthodes de l’étude du droit qui traitent, par les mathématiques, les données statistiques relatives aux phénomènes juridiques afin d’en améliorer l’analyse ou d’en dégager des lois ou des relations constantes (NDLR).