L’impact concret de l’intelligence artificielle sur la profession et sur les juridictions administratives
À votre connaissance, des magistrats administratifs ont-ils introduit des outils d’intelligence artificielle générative dans leur pratique professionnelle en juridiction ? Si oui, dans quelle mesure ? Quels outils sont mobilisés et pour exécuter quelles tâches ?
A notre connaissance, les magistrats administratifs n’utilisent pas, à titre individuel dans leur pratique professionnelle, d’outils dotés d’une intelligence artificielle générative.
Certains outils à leur disposition, comme le logiciel dénommé « Poste rapporteur », sont dotés d’une intelligence artificielle « classique », qui vise seulement à préremplir un modèle de jugement à partir de données extraites d’une application (« Skipper ») dans laquelle sont enregistrées manuellement par le greffe les données de chaque affaire. Le « portail contentieux » est quant à lui une plateforme web qui a vocation à remplacer des applications (« skipper », « telerecours ») utilisées quotidiennement par les magistrats et les agents de greffe afin de suivre l’instruction d’un dossier et connaitre l’état d’un stock. « Telerecours » permet la gestion dématérialisée des requêtes. « Le portail contentieux », « telerecours » ou « skipper » n’ont pas de vocation générative.
Avez-vous conduit des études sur le degré d’adoption d’outils d’intelligence artificielle au sein de votre profession ? Si oui, quels en sont les résultats ? À défaut, estimeriez-vous que votre profession soit plutôt réceptive à ce type de technologies ?
Aucune étude n’a été menée pour le moment et nous ne disposons pas de données objectives sur le degré de réceptivité des magistrats administratifs à ce type de technologies.
Des réflexions avec nos adhérents ont néanmoins été initiées au moment du projet DataJust et du projet d’algorithme du Conseil d’État retenu par la direction interministérielle du numérique et la direction interministérielle de la transformation publique. Celui-ci avait pour objectif de mesurer la capacité d’une IA à regrouper des décisions attaquées, des conclusions et des moyens. Ce projet ne semble pas avoir eu de suite. Il a néanmoins permis de mettre en avant que s’il n’y avait pas de refus de principe des magistrats administratifs, il est impératif que toute requête recevable bénéficie d’un traitement individualisé réalisé par un magistrat au terme d’une analyse propre à chaque situation, particulièrement quand les enjeux humains sont forts.
Nous estimons que l’usage d’outils d’intelligence artificielle générative ne doit en aucun cas interférer avec la prise de décision juridictionnelle qui se matérialise par la rédaction du jugement au terme d’un raisonnement précis et adapté à chaque situation particulière.
Nous nous opposons ainsi à tout objectif d’augmentation des sorties par un traitement automatisé des « contentieux de masse » ou le recours à l’écriture automatique avec des bibliothèques de considérants.
Dans notre métier, l’intelligence artificielle doit, selon nous, être avant tout envisagée comme un approfondissement technique des outils déjà mis à disposition des magistrats pour leur permettre de se concentrer sur leur cœur de métier, à savoir déterminer le cadre juridique d’un litige et appliquer le droit aux faits de l’espèce au terme d’une appréciation de chaque situation particulière.
Il nous semble par ailleurs impératif que la formation initiale et continue des magistrats intègre un volet théorique sur l’IAG (intelligence artificielle générative) mettant en avant son mode de fonctionnement, ses potentialités, ses limites et ses risques (v. infra).
Il est à prévoir que certains cabinets d’avocats se dotent très prochainement d’outils d’intelligence artificielle générative matures, soit qu’ils les développent, soit qu’ils adoptent ceux en cours de développement par les éditeurs juridiques ou les legaltechs. À terme, estimez-vous que l’adoption des outils d’intelligence artificielle générative par les cabinets porte le risque d’une inégalité des armes entre avocats et magistrats ?
Estimez-vous qu’il soit nécessaire de doter les magistrats administratifs de tels outils à brève échéance ?
Quels outils ou fonctionnalités dépendant de l’intelligence artificielle générative vous paraîtraient les plus utiles à l’exercice des fonctions de magistrat administratif ?
A titre liminaire, la notion d’égalité des armes n’a pas sa place dans les relations entre magistrats et parties (représentées ou non par un avocat). L’égalité des armes doit être assurée entre les parties.
Dans l’hypothèse où certains avocats utiliseraient l’intelligence artificielle générative afin de faciliter leurs recherches juridiques dans le cadre d’une affaire, par exemple pour obtenir l’exposé précis d’un régime juridique, ils n’auraient aucun intérêt à occulter le résultat de leurs recherches au juge. Ces recherches participent à leur travail visant à emporter la conviction du juge sur le bien-fondé de leur argumentation. Le juge bénéficiera par ricochet du fruit de ces recherches. Nous estimons en outre (cf. ci-après) qu’une mention d’un recours à l’intelligence artificielle au niveau d’une recherche ou d’une rédaction doit être faite en amont et en aval, au-delà de ce que prévoit actuellement l’article 50 de l’IA Act.
Il nous semble également préférable de doter les magistrats administratifs de tels outils, afin de les faire bénéficier de cette avancée technologique en facilitant leurs propres recherches juridiques. En outre, il peut être nécessaire aux magistrats de vérifier la fiabilité de l’information présentée par l’avocat et générée par l’intelligence artificielle.
Outre la recherche juridique, l’intelligence artificielle générative pourrait être utile aux magistrats dans la phase préparatoire au jugement, la gestion des stocks, l’instruction des dossiers. Les outils métiers dont nous disposons pour gérer notre stock d’affaires (« Sid ») ou encore suivre et mener l’instruction (« Télérecours » et « Portail contentieux »), pourraient être améliorés par la mise en place d’outils facilitant l’analyse transversale d’un stock, en identifiant par exemple les dossiers présentant des moyens similaires (en analysant et comparant le contenu des écritures), ou présentant telle ou telle caractéristique (tel avocat, telle question juridique). Elargie à l’ensemble de la juridiction administrative, l’intelligence artificielle pourrait également être utile afin de détecter automatiquement les contentieux « de série » introduits devant plusieurs juridictions.
Enfin, dans la phase préparatoire au jugement, l’intelligence artificielle peut faciliter le repérage du contenu des écritures en aidant à identifier plus rapidement les moyens et les conclusions répartis parfois sur 3 ou 4 mémoires (disséminés sur autant de PDF numérisés en raison de la limitation en taille de ceux-ci), ou encore pour comparer deux mémoires afin d’identifier les différences d’écritures et faciliter l’identification du dernier état des écritures.
Outre l’extraction de données au sein d’un large panel ou la synthèse de documents volumineux, certaines applications proposent notamment une aide à la rédaction, pour l’heure à destination d’avocats (rédaction de conclusions etc.). Seriez-vous favorables à ce que vos adhérents disposent d’une aide à la rédaction par une intelligence artificielle générative dans leur pratique professionnelle ?
Il s’agit pour nous de la ligne rouge à ne pas franchir : l’intelligence artificielle générative ne doit aucun cas être utilisée pour la rédaction du jugement qui matérialise une décision prise par un magistrat au terme d’un raisonnement individualisé.
En effet, la rédaction est l’aboutissement du raisonnement du juge, c’est l’étape finale qui lui permet de conforter son raisonnement, ou au contraire de faire apparaître ses failles. Mettre à disposition des magistrats une intelligence artificielle générative leur proposant immédiatement une rédaction, outre les risques de biais et de discrimination pointés dans de nombreux articles sur le sujet, reviendrait à dénaturer le processus de la prise de décision juridictionnelle et à interférer avec l’appréciation du juge.
S’agissant plus particulièrement des contentieux de masse, une telle aide à la rédaction n’aurait en outre aucune plus-value. Certes, les moyens invoqués dans ces types de contentieux appellent parfois une réponse stéréotypée (par ex., le moyen tiré de l’incompétence du signataire de l’acte ou encore le moyen tiré de l’insuffisance de motivation). Mais les magistrats ont déjà développé leurs propres techniques pour répondre rapidement à ces moyens qui ne présentent aucune difficulté. Le gain de temps espéré à ce titre serait donc négligeable.
Il nous semble que l’intelligence artificielle générative doit être centrée et limitée à la recherche juridique, l’instruction des dossiers et la phase préparatoire à la prise de décision, et ainsi permettre au magistrat de dégager du temps afin qu’il se concentre justement sur l’appréciation, le raisonnement et la rédaction du jugement qui en est l’aboutissement.
Alors que, selon une étude de Goldman Sachs publiée en mars 2023, 44 % des « tâches juridiques » pourraient être automatisées en raison du déploiement de l’intelligence artificielle générative, estimez‑vous que le développement de l’intelligence artificielle générative puisse entraîner une réduction à terme du nombre de magistrats administratifs ?
Nous ne saisissons pas à quoi le terme « taches juridiques » se rattache exactement pour les magistrats administratifs. L’essentiel du travail des magistrats ne peut et ne doit pas être assuré par l’intelligence artificielle générative, comme il a été dit plus haut, si bien que cette technologie ne pourra pas, selon nous, dans un contexte de fort accroissement de la demande de justice, entraîner une réduction du nombre de magistrats.
Au contraire, la facilitation de l’accès au droit qu’offrira l’intelligence artificielle générative risque d’entraîner une augmentation du contentieux, d’étoffer et de complexifier les débats juridiques, à l’instar de ce qui a été relevé lors du passage au numérique. Les requêtes seront probablement plus pointues juridiquement, nécessitant plus de temps pour les traiter.
Il est probable qu’à tout le moins, l’intelligence artificielle supplée le travail humain dans certaines tâches. Quelles sont les tâches qui pourraient être automatisées ou disparaître dans votre pratique professionnelle ? Plus globalement, quels sont les avantages, pour la profession, du déploiement des outils d’intelligence artificielle générative ?
L’intelligence artificielle générative doit être conçue comme une aide au magistrat dans la préparation de son travail juridictionnel, en amont de la prise de décision. Ainsi, aucune tâche ne disparaîtra, mais certaines seront réalisées plus facilement, d’autres se développeront du fait de ses effets induits.
À l’inverse, identifiez-vous d’ores et déjà des tâches susceptibles d’être créées par le recours à l’intelligence artificielle ?
Pas pour le moment.
Estimez-vous que l’intelligence artificielle puisse faciliter le recours à l’ « autojuridication » ? Si tel est le cas, seriez-vous favorables à ce que davantage de procédures – notamment en première instance, où l’obligation du recours à un avocat est plus rare qu’en appel ou en cassation – impliquent le recours obligatoire à un avocat ?
L’ « autojuridication » existe déjà grâce aux bases de données comme Légifrance, ou encore avec l’Open data. Il est probable que l’intelligence artificielle facilitera cette pratique, ce qui pourra éventuellement permettre à certains justiciables de mieux comprendre les raisons juridiques ayant présidé à la décision qu’ils entendent contester, et ainsi de les décourager à engager une action en justice, ou au contraire de porter devant le juge une argumentation plus pertinente.
Nous ne voyons pas de raison objective à l’extension de l’obligation du ministère d’avocat, même en cas d’accroissement du phénomène d’« autojuridication ». La facilité d’accès au prétoire, qui n’existe qu’en première instance, est une caractéristique historique de la justice administrative qu’il ne nous semble pas opportun de limiter.
À cet égard, estimeriez-vous souhaitable que l’accès à certains outils d’intelligence artificielle soit restreint – en tout ou partie – aux seuls professionnels du droit ? Si oui, comment estimeriez-vous souhaitable de procéder (prix des outils les rendant accessibles aux seuls professionnels, régulation instaurant des conditions d’usage, etc.) ?
Notre syndicat est favorable à permettre l’accès au droit pour tous, et il n’y a pas de raison objective de restreindre l’accès à ces outils.
Afin de garantir l’appropriation de ces nouveaux outils, la formation semble devoir être adaptée dans trois domaines : technologique – pour comprendre le fonctionnement de l’outil et ses éventuels défauts –, juridique – l’outil nécessitant une montée en compétences de l’usager pour garantir la véracité des informations qu’il donne – et éthique – afin que l’usage de l’outil demeure contrôlé. Avez-vous conduit une réflexion sur l’adaptation des formations initiale et continue des magistrats administratifs en la matière ? Quelles modifications de celles-ci envisageriez-vous pour répondre à ce triple défi ?
La justice administrative doit rester vigilante à ne pas être dépassée par le développement de ces nouveaux outils qui sont, de fait, amenés à se développer.
Il nous semble ainsi primordial d’inclure dès maintenant, dans la formation initiale et continue des magistrats administratifs, un module pour les informer de manière générale sur l’intelligence artificielle générative, son fonctionnement et son utilisation dans le milieu juridique, et les sensibiliser à ce qu’elle peut apporter, ses limites et aux risques qu’elle comporte.
Dès qu’un outil utilisant l’intelligence artificielle générative sera mis à disposition des magistrats administratifs, il sera bien sûr impératif d’accompagner ces derniers, par le biais d’une formation spécifique, à la bonne utilisation de ce nouvel outil.
Enjeux éthiques
Faudrait-il inciter au développement de la justice prédictive ? Ne risque-t-elle pas « d’accélérer le phénomène de désacralisation du procès […] et donc l’autorité de la justice » ?
La justice prédictive vise à mesurer les chances de succès d’un procès. Cela pourrait réduire le rôle de conseil des avocats, et le cas échéant réduire la saisine des juridictions au motif que les chances de succès sont statistiquement faibles.
Nous sommes opposés à toute forme de justice prédictive car :
- la justice n’est pas une science exacte ;
- il suffit que le justiciable oublie ou néglige un élément de sa situation pour que la prédiction se fasse sur de mauvaises bases ;
- l’appréciation portée par le juge ne pourra jamais être finement comprise par l’intelligence artificielle.
A cet égard, nous rappelons que le 4e alinéa de l’article L. 10 du code de justice administrative interdit tout traitement algorithmique des décisions de justice rendues par les TA, CAA et le CE, fondé sur l’identité des magistrats et des membres du greffe. Ce seul dernier critère nous semble toutefois insuffisant en l’état, car l’interdiction peut être aisément contournée. Il convient selon nous d’étendre l’interdiction à tout traitement algorithmique des décisions de justice fondé sur les formations de jugement (les numéros de chambre principalement) mais aussi aux juridictions.
Le recours par les juges à des outils d’intelligence artificielle pourrait entraîner une uniformisation des décisions de justice, si une même solution était apportée pour un problème donné, avec une moindre prise en compte d’éléments subjectifs propres aux décisions humaines ou des spécificités de chaque affaire. Cette uniformisation vous paraît-elle constituer un risque tangible ?
Nous rappelons ce qui, pour nous, constitue une ligne rouge dans l’utilisation de l’intelligence artificielle générative : celle-ci ne doit en aucun cas être utilisée pour se substituer aux différentes étapes du raisonnement nécessaire l’acte de juger. Cette ligne rouge permet d’éviter l’écueil d’uniformisation pointé par les rapporteurs, qui est un risque réel.
Le développement de modèles d’intelligence artificielle est lié à l’utilisation de données ouvertement accessibles. Estimez-vous que le fait de nourrir ces modèles à partir de telles données constitue une difficulté sur le plan éthique ? Si oui, pourriez-vous préciser en quoi ?
Nous nous permettons de renvoyer sur ce point à une contribution que vous trouverez sur le lien suivant :
Si non, estimez-vous qu’il ait été donné une ampleur suffisante à l’open data des décisions de justice ?
Sans objet.
Quels sont les principes déontologiques et éthiques vous paraissant devoir encadrer l’usage par votre profession d’outils d’intelligence artificielle générative ? Quels sont les principes déontologiques et éthiques vous paraissant devoir encadrer l’usage par d’autres professions juridiques, en particulier les avocats, de tels outils ?
L’usage d’outils d’intelligence artificielle générative ne doit en aucun cas interférer avec la prise de décision qui se matérialise par la rédaction du jugement au terme d’un raisonnement précis et adapté à chaque situation particulière.
S’agissant des avocats, il ne revient pas à l’USMA de les dissuader d’utiliser l’intelligence artificielle générative pour la rédaction de leurs mémoires. Mais, d’une part, il nous semble indispensable qu’un humain contrôle le résultat généré par l’intelligence artificielle et s’assure que ce résultat est parfaitement adapté au cas d’espèce. Cela relève a minima des règles déontologiques applicables à la profession. D’autre part, en cas d’usage de l’intelligence artificielle générative, l’avocat devra le signaler à son client, et mention devra en être faite systématiquement dans les mémoires produits devant la juridiction.
D’une manière générale, faudrait-il encadrer davantage l’usage de l’intelligence artificielle dans le domaine du droit ? Le cadre législatif et règlementaire actuel, y compris au niveau européen avec l’IA Act qui vient d’être adopté par le Parlement européen et le Conseil, vous semble-t-il suffisant ? Identifiez-vous des modifications à y apporter ?
Nous l’avons indiqué dans les points précédents, nous sommes opposés à ce que, de quelque manière que ce soit, la justice puisse dans un avenir plus ou moins proche reposer en premier lieu sur une intelligence artificielle. Cette impossibilité est d’ailleurs heureusement le principe en droit européen (article 22 §1 du RGPD) concernant la prise de toute décision, et a fortiori juridictionnelle. Les exceptions existant au §2 de cet article 22 ne devraient en aucun cas trouver à s’appliquer pour la prise de décision juridictionnelle, ce qui pourrait faire l’objet d’une précision dans la réglementation actuelle.
Il est nécessaire de figer dans le marbre l’interdiction de recourir à des systèmes d’IA en amont, ceux-ci ayant vocation plutôt à permettre aux magistrats de se concentrer sur leur cœur de métier en économisant du temps grâce à la gestion intelligente des dossiers permise par ces outils. S’il peut se révéler délicat d’édicter une réglementation aussi précise dans ce domaine, à tout le moins, des règles déontologiques peuvent utilement définir les conditions limitatives dans lesquelles l’intelligence artificielle doit être utilisée dans le processus juridictionnel. L’édiction de telles règles déontologiques est nécessaire afin de prévenir l’usage futur de ces outils.
Concernant la réglementation européenne, même si nous sommes favorables à leur interdiction, il est heureux que soient considérés comme à haut risque, et donc justifiant un encadrement strict, les systèmes d’intelligence artificielle qui seraient en rapport avec notre cœur de métier (se rapporter au point 8 a) de l’annexe de l’IA act : « Les systèmes d’IA à haut risque visés à l’article 6, paragraphe 2, sont les systèmes d’IA énumérés dans l’un des domaines suivants : / (…) 8. Administration de la justice et processus démocratiques : / (a) les systèmes d’IA destinés à être utilisés par une autorité judiciaire ou en son nom pour l’aider à rechercher et à interpréter les faits et le droit et à appliquer le droit à un ensemble concret de faits, ou à être utilisés d’une manière similaire dans le cadre d’un règlement extrajudiciaire des litiges (…) »).
Il est également indispensable que l’article 4 de l’IA Act impose aux utilisateurs de systèmes d’IA de disposer d’un socle de connaissances suffisantes pour utiliser cet outil. Nous estimons incontournable que cette formation préalable minimale soit effectivement assurée, tant auprès de leurs agents qu’au sein des entreprises et en l’espèce tous les participants à la chaîne juridictionnelle. Un contrôle décentralisé, à l’instar du délégué à la protection des données dans le cadre du RGPD, pourrait se révéler intéressant pour s’assurer du respect de cet article 4.
