Entretien avec Camille Girard-Chanudet, autrice « La justice algorithmique en chantier. Sociologie du travail et des infrastructures de l’Intelligence Artificielle »

Camille Girard-Chanudet est chercheuse en sociologie au Centre d’études de l’emploi et du travail du CNAM. Elle est l’autrice de « La justice algorithmique en chantier. Sociologie du travail et des infrastructures de l’Intelligence Artificielle », thèse soutenue à l’Ecole des Hautes Etudes en Sciences sociales en 2023. Son ouvrage est consultable ici.

J’ai commencé ma thèse en 2018 au moment de l’émergence des premiers outils d’IA juridique. Les premières startups de la Legal Tech commençaient à se structurer, à essayer de vendre leurs produits à la fois aux professions traditionnelles du droit mais aussi aux services juridiques d’entreprise, aux compagnies d’assurance. C’était un moment d’effervescence, assez marqué par des représentations culturelles, fictionnelles, presque mythologiques, autour de l’IA. Je pense notamment au film Minority Report, qui est tiré de la nouvelle de Philip K. Dick, avec les « précogs », êtres hybrides qui prédisent les crimes avant qu’ils ne surviennent et mettent les gens en prison de manière préventive. Cela paraît anecdotique mais ça ne l’est pas. A cette époque-là, dans la presse, ces références culturelles étaient omniprésentes, autour de l’idée du juge-robot qui remplacerait les magistrats.

Et puis, dans le même temps, les outils d’IA qui étaient développés n’avaient quand même pas grand-chose à voir avec cette imaginaire de science-fiction. C’est là que j’ai débuté ma thèse, avec l’envie d’ouvrir cette espèce de boîte noire qu’est l’IA et d’aller regarder concrètement ce qu’il y a derrière.

En tant que sociologue, je me suis intéressée aux gens qui fabriquent ces outils, quel est le travail mis en œuvre pour les construire. C’est comme ça que je suis arrivée à la question des données et de l’open data parce que dispositifs d’IA sont machines qui traitent en masse des grandes quantités de données. Or, les données, contrairement à ce que leur nom laisse croire, ne sont jamais données mais plutôt « obtenues » : ce sont des objets construits par un grand nombre d’acteurs. Dans le domaine de la justice, la transformation des décisions de justice en données exploitables par les algorithmes d’apprentissage automatique repose sur de nombreuses activités. Mon ambition était donc de déconstruire les mythes autour des outils d’IA pour aller voir concrètement ce qui se joue politiquement, économiquement, socialement autour du déploiement de ces outils.

Les données sont au fondement du déploiement des outils d’apprentissage automatique. C’est un point vraiment crucial. C’est ainsi la Loi pour une République numérique, votée en 2016, qui marque la date de naissance de l’IA juridique en actant le principe de la mise en open data de l’ensemble des documents administratifs et des décisions de justice. Le ministère de la Justice a pourtant été assez peu mobilisé dans la rédaction du texte de cette loi qui, portée par la secrétaire d’État au numérique et à l’innovation, Axelle Lemaire, trouvait son origine dans le projet de loi Nouvelles opportunités économiques « Noé » porté par le ministère de l’économie afin de développer l’innovation. L’écosystème des startups de la Legal Tech s’est constitué dans le sillage de cette loi, en y voyant une nouvelle manne de données à exploiter pour nourrir des modèles d’apprentissage automatique. Le monde de la justice n’avait que peu anticipé ce mouvement.

La loi pour une République numérique intervient à un moment historiquement très spécifique de promotion de l’open data administratif à une échelle internationale. La déclaration de Sebastopol en Californie en 2007 marque la naissance idéologique de l’open data. Les travaux de Samuel Goëta montrent comment ce consortium d’acteurs privés, venus en majorité du monde de la Tech, ont poussé pour la mise en open data des documents des administrations publiques étasuniennes afin de venir nourrir un écosystème d’entreprises désireuses d’exploiter ces données dans le cadre de projets numériques innovants.

De grands principes sont établis à cette époque-là : le principe d’ouverture par défaut des documents, le fait qu’ils doivent être dans des formats qui sont traitables par des machines automatiquement, le principe d’exhaustivité, etc.

Par la suite, Barack Obama va en faire l’un des étendards de sa politique administrative à la suite de son élection en 2008. Les États-Unis vont être le premier pays à avoir une plateforme de mise à disposition des documents administratifs, data.gov, qui inspirera en France la plateforme data.gouv.fr. Dans un deuxième temps, les Etats-Unis vont promouvoir l’open data dans leurs relations diplomatiques, avec la mise en place de l’Open Government partnership (partenariat pour un gouvernement ouvert), que la France rejoint en 2014. C’est en continuité de ce mouvement international qu’est votée, en 2016, la Loi pour une République numérique.

On voit donc que le principe de l’open data vient de très loin, avec l’idée de stimuler un écosystème entrepreneurial, sans préfiguration de que vont réellement pouvoir faire les startups avec ces données, mais avec une sorte de confiance dans les possibilités d’innovation portées par la mise à disposition publique de l’information.

Au lendemain du vote de la Loi pour une République numérique, le ministère de la Justice s’est trouvé face l’obligation de mise en œuvre de ce principe. Le monde de la justice diffusait déjà bien sûr ses décisions, mais selon des modalités très distinctes. L’open data implique un bouleversement majeur à la fois des modes de travail, des principes de circulation des décisions, mais aussi des infrastructures matérielles de circulation des décisions, puisque ce sont désormais des volumes massifs de décisions, plus de 4 millions, qu’il s’agit faire circuler vers l’extérieur.

A mon sens, et c’est vrai pour le monde de la justice, comme pour la plupart des mondes administratifs qui se sont retrouvés face à cette obligation de mise en open data de leur documentation, un processus de traduction, de réappropriation des motifs de déploiement de l’open data était nécessaire. L’effort colossal que cela représente pour institutions, en termes financier, humain et matériel, imposait de faire sien le principe de l’open data. Dans cette perspective, le rapport sur l’open data des décisions de Justice confié au professeur Loïc Cadiet marque une étape importante. Ce rapport est très particulier parce qu’il a permis de réunir tous les acteurs du monde du droit, qu’il s’agisse de magistrats, d’avocats, des éditeurs juridiques, pour faire advenir une compréhension partagée de quel serait l’objet open data traduit dans les mots du monde du droit, dans ses principes.

Ce travail de réappropriation était absolument indispensable pour que le monde de la justice mette en œuvre cette obligation légale.

J’ai fini ma thèse en 2023 et je ne travaille plus sur ce sujet depuis. A l’époque, des débats très denses se sont structurés autour de cette question de l’occultation du nom des professionnels. Si je devais citer le point le plus controversé autour de la mise en open data des décisions de justice, ce serait même celui-là, alors qu’il il y a pourtant eu beaucoup de sujets de controverse !

Les syndicats de magistrats judiciaires que j’avais rencontrés étaient à l’époque très opposés à l’occultation, au nom de la transparence de la justice.

Toutefois, il faut replacer ces débats dans un contexte où n’y avait pas encore d’application algorithmique traitant à grande échelle les décisions de justice, en l’absence de mise en œuvre de l’open data, ce qui peut expliquer la prédominance de cette position à l’époque. Aujourd’hui, les applications se multiplient et les conséquences du traitement des noms de professionnels apparaissent plus clairement. A mon sens, l’entre-deux de la loi, consistant à laisser les noms des professionnels tout en interdisant les traitements, n’est tenable que temporairement, dans cette temporalité où les traitements ne sont pas encore mis en œuvre à grande échelle. Dès lors que les traitements algorithmiques seront ouvert, et, c’est certain, opérés en sous-marin par les entreprises et les acteurs qui possèdent les décisions, cet entre-deux deviendra plus difficilement tenable. La position précoce des magistrats administratifs sur ce sujet, plus réticente, est très intéressante ; on peut se demander si, dans certaine mesure, l’antécédent Supra Legem n’a pas joué.

Ce que je trouve assez frappant en enquêtant sur le déploiement des outils d’IA, c’est qu’ils répondent rarement aux besoins des acteurs de terrain, parce qu’ils sont développés très loin de leurs préoccupations, de leurs façons de faire et de dire le droit.

La première et seule expérimentation d’un outil d’IA issu d’une start-up de la Legal Tech, qui devait permettre d’estimer les montants d’indemnités, dans les cours d’appel de Rennes et Douai en 2018, a été un échec retentissant. Les magistrats participant à l’expérimentation ont dénoncé des résultats aberrants et inutiles par rapport à leur expertise professionnelle. D’un point de vue sociologique, ce résultat n’est pas très surprenant, dans la mesure où cet outil avait été conçu à distance de l’expertise juridique : à l’époque, les startups étaient constituées à peu près pour moitié de diplômés d’école d’ingénieur et pour moitié de diplômés d’écoles de commerce.

Lorsqu’on enquête sur le terrain, ce qui frappe également, par rapport à l’idée que l’IA va automatiser certaines tâches et permettre d’aller plus vite, est que l’IA ne supprime pas du tout le travail. Elle le déplace. Elle change les tâches qui doivent être effectuées et, parfois, les types de professionnels qui vont devoir les prendre en charge.

Les IA ne fonctionnent pas dans le vide, il faut préparer les données. Par exemple, si l’on veut une IA qui permette d’identifier des groupes de contentieux similaires, il faut annoter des grands volumes de contentieux pour identifier quelles sont leurs caractéristiques principales. Souvent il existe un manque d’anticipation du travail nécessaire à la conception des outils d’IA. Le travail de préparation et d’entraînement des algorithmes d’apprentissage automatique, d’une part, et de surveillance des résultats produits par les modèles, d’interprétation et d’articulation avec les besoins de la pratique professionnelle, d’autre part, est un travail phénoménal. En prêtant attention à ces activités nouvelles, on constate que l’IA ne supprime pas le travail, mais peut au contraire l’augmenter. Pourtant,l y a une véritable ignorance du fait que l’IA c’est avant tout du travail qui est fait dans l’ombre. Un travail qui durable dès lors que les décisions de justice traduisent des éléments d’un monde qui est pluriel, mouvant, changeant. Donc ce travail ne s’arrête jamais.

Je pense qu’il est nécessaire de revisibiliser le fait que l’IA c’est avant tout les personnes, les institutions qui participent à sa conception, pour se donner les instruments critiques vis-à-vis de ces outils et des objectifs qu’on leur assigne. Parce qu’il faut bien comprendre que ces outils ne font que ce qu’on leur dit de faire. Derrière l’IA il y a des choix et on se doit, surtout quand il s’agit d’un service public régalien d’importance comme la justice, d’aller questionner les choix qui sont faits. Dans tous les cas, ce n’est pas l’IA qui risque de remplacer les juges.  Par contre on risque de déplacer les chaînes de responsabilité, les chaînes de décision dans d’autres espaces. Mais cela ne sera pas le fait de l’IA mais des groupes sociaux qui évoluent autour de ces outils techniques. Il est important de se poser ces questions plutôt que de maintenir le regard vers l’aspect technique en tant que tel du développement de l’IA.

La question, au fond, c’est qu’est-ce qu’on veut faire pour la justice ? Il faut ramener l’IA à sa place d’outil et se demander si cet outil est pertinent par rapport aux problèmes que l’on veut traiter.