USMAg’ #56 – novembre 2024 : La juridiction administrative face à l’intelligence artificielle

Chères et chers collègues,

Consciente des enjeux majeurs que représente l’intelligence artificielle (IA), l’USMA est convaincue que la juridiction administrative doit se préparer et anticiper l’appropriation de cette technologie en pleine accélération.

Si l’IA ouvre des perspectives intéressantes pour notre métier, son utilisation doit être réfléchie au regard de la particularité de nos fonctions de juge, proportionnée au degré de subtilité requis et cantonnée à certaines tâches, afin de ne pas porter atteinte à la qualité de la justice rendue. L’USMA a déjà eu l’occasion de fixer des lignes rouges, notamment lors de son audition au Sénat dans le cadre des travaux de la mission d’information de la commission des lois sur l’intelligence artificielle et les métiers du droit (retrouvez notre contribution ici), au cours de laquelle elle s’est notamment opposée à toute utilisation de l’IA générative pour la rédaction de décisions de justice.

L’USMA a également demandé l’inscription de ce sujet en thème annexe du dialogue social du 16 octobre dernier. Nous avons ainsi pu avoir un aperçu des chantiers actuellement en cours qui impliquent l’IA :

  • outil d’anonymisation des décisions ;
  • outil d’aide à l’enrôlement pour la CNDA ;
  • outils à destination des justiciables visant à faciliter l’accès au juge, à aider à la rédaction de la requête et à rendre les décisions de justice plus accessibles ;
  • outil d’aide au traitement des séries, notamment grâce à la détection des similitudes et des irrecevabilités, actuellement expérimenté au TA de Paris.

A également été annoncée la constitution d’un groupe de travail pour l’élaboration d’une charte encadrant l’usage de l’IA. L’USMA a salué la volonté de doter dès aujourd’hui la juridiction administrative d’une telle charte, des logiciels d’IA « grand public » étant d’ores et déjà disponibles. Elle a par ailleurs rappelé l’importance d’inclure au plus vite, dans la formation initiale et continue des magistrats, un module sur l’IA.

Pour approfondir nos réflexions sur le sujet, l’USMA a rencontré M. Yannick Meneceur, magistrat judiciaire et maître de conférences associé à l’université de Strasbourg.

Bonne lecture, Le bureau de l’USMA

Le dialogue social du 16 octobre dernier, dont le thème principal choisi par nos collègues du SJA était consacré au décrochage statutaire, a été l’occasion pour l’USMA de rappeler quelques-unes de ses demandes relatives à notre statut.

Nous avons tout d’abord alerté une nouvelle fois sur les conséquences de l’obligation de double mobilité, qui perturbe l’organisation et le fonctionnement des juridictions administratives et crée une rupture d’égalité entre les femmes et les hommes, ainsi que sur l’enjeu d’attractivité du corps qu’elle implique. Nous avons réitéré notre demande tendant à la suppression de l’obligation de double mobilité et au rétablissement de la mobilité en CAA, ou, à tout le moins, à l’assouplissement des modalités de mise en œuvre de cette obligation pour que l’une des deux mobilités puisse, à l’instar de ce qui prévaut dans les lignes de directrices de gestion applicables aux administrateurs de l’État, s’entendre comme une mobilité fonctionnelle, une mobilité géographique ou une mobilité d’environnement professionnel.

Le SGCE a par ailleurs indiqué avoir effectué des démarches pour que, comme le réclame l’USMA, les magistrats administratifs soient inclus dans la liste fixée par le décret dit « corps de niveau comparable » (décret n° 2021-1216 du 22 septembre 2021 fixant la liste des corps et cadres d’emplois dont les membres peuvent être nommés auditeurs au Conseil d’État et à la Cour des comptes).

Le gestionnaire s’est également déclaré favorable à la demande des organisations syndicales tendant à la suppression de la condition de 2 ans qui subordonne la qualité d’électeur des magistrats issus du détachement pour les élections des représentants au CSTACAA.

Enfin, concernant le tableau d’avancement au grade de PC, nous avons rappelé notre demande tendant à la suppression de l’inscription « par ordre de mérite » qui n’a aucune incidence pour la suite de la carrière et peut s’avérer vexatoire.

L’USMA a saisi l’occasion des auditions à l’Assemblée nationale et au Sénat dans le cadre du PLF 2025 pour présenter aux parlementaires ses réflexions relatives à la modification des objectifs et indicateurs de performance du programme 165 « Conseil d’État et autres juridictions administratives ».

Il s’agit d’un chantier essentiel pour agir efficacement contre une charge de travail déraisonnable, car les objectifs et indicateurs inscrits dans la loi de finances sont à la source des dérives statistiques qui pèsent trop souvent sur les magistrats administratifs.

Nos propositions sont destinées à amorcer le dialogue pour aboutir à une modification des objectifs et indicateurs de performance dans le cadre d’une prochaine loi de finances.

Merci à celles et ceux qui nous ont déjà partagé leurs réflexions. N’hésitez pas à continuer de réagir à ces propositions !

La formation initiale des magistrats administratifs intègre désormais six modules de formation issus du tronc commun de l’INSP, ce qui représente un nombre conséquent d’heures de formation. Seuls deux modules sont dispensés lors de la période des 6 mois de formation au CFJA, les quatre autres devant être suivis après l’affectation en juridiction via la plateforme interministérielle « Mentor ».

L’USMA a très récemment rappelé au SGCE, comme elle l’avait fait lors du CSTA du 12 mars 2024, que cette obligation supplémentaire de formation post CFJA doit systématiquement faire l’objet d’une décharge d’activité correspondant au nombre d’heures de formation exigées. Elle a souligné l’importance de rappeler aux chefs de juridiction et aux présidents de chambre que les heures de formation supplémentaires imposées doivent se traduire par une décharge d’activité effective afin de garantir aux nouveaux collègues un apprentissage serein du métier – ce temps d’apprentissage étant fondamental pour la suite – dans un cadre respectueux de leur droit au repos.

Il est important que chacun d’entre nous puisse faire valoir son droit à la déconnexion ce jour-là. C’est notre charge de travail qui doit s’adapter à notre temps de travail, et pas l’inverse. Il en va de l’équilibre entre la vie personnelle et la vie professionnelle auquel nous avons tout autant droit que les autres agents publics !

Pour rappel et pour l’avenir, si vous posez des jours RTT dans une quinzaine où il y a un jour férié, vous devrez en poser 9 au lieu de 10 (article 4 de l’arrêté du 5 juillet 2004 relatif à la mise en œuvre du compte épargne temps dans les TA et CAA).

Yannick Meneceur est magistrat de l’ordre judiciaire et maître de conférences associé à l’université de Strasbourg en droit du numérique. En disponibilité durant 10 années au Conseil de l’Europe, il a développé une expertise en matière de régulation de la transformation numérique, notamment en ce qui concerne l’intelligence artificielle.

Retrouvez l’intégralité de l’entrevue sur la page dédiée.

« Une IA, ou plus précisément un système d’IA (SIA) afin d’éviter tout anthropomorphisme, est un dispositif algorithmique présentant des caractéristiques particulières d’autonomie et d’adaptation. (…) Actuellement, il désigne plutôt des algorithmes particuliers, imitant sommairement le fonctionnement des neurones biologiques : les réseaux de neurones. Mais (et c’est une difficulté majeure), il peut continuer à désigner d’autres solutions ne présentant pas toujours les mêmes qualités et, surtout, les mêmes inconvénients. Les discours sur les SIA permettant ceci ou présentant des dangers pour cela sont donc systématiquement à contextualiser.

« Pour tenter de clarifier les usages de cette technologie dans le domaine de la justice, il pourrait être dressé, de manière tout à fait arbitraire, trois grandes catégories : 1°) les SIA « prédictifs », cherchant à anticiper un résultat comme une fourchette d’indemnisation prononcée par une juridiction ; 2°) les SIA regroupant des informations similaires, pour classer par exemple des courriers électroniques similaires vers la même destination ; 3°) enfin, les plus récents sont les SIA traitant du langage et générant du contenu. (…) »

« C’est vrai que les débats sur l’intelligence artificielle, notamment chez les régulateurs, se sont structurés autour d’une balance, extrêmement classique, opposant les opportunités aux dangers, pour en déduire des moyens d’actions minimisant les risques. Or, cette approche ne nous instruit en réalité qu’assez peu sur la réelle nature de cette technologie (son « affordance » pour emprunter le terme au champ de la psychologie).

« Si je prends un exemple aussi simple qu’un marteau, opposer ses bénéfices (il enfonce des clous) à ses risques (il peut servir d’arme par destination) ne nous permet pas de mesurer que, sans cet outil, nous vivrions probablement encore dans des cavernes. (…)

« Pour illustrer que tout artefact est politique, le chercheur américain Langdon Winner choisit l’exemple des machines à ramasser les tomates en Californie. Ce ne sont pas les machines qui se sont adaptées à la fragilité des fruits les plus goûteux, typiques de la région, mais les tomates qui ont été sélectionnées pour permettre une production industrielle, quitte à ce qu’elles perdent en goût. Avec l’intelligence artificielle, l’on se dirige vers les mêmes types de choix politiques : ce sont les contraintes des systèmes informatiques qui risquent de dégrader la qualité des informations traitées pour permettre un traitement de masse… ce qui peut avoir des conséquences désastreuses dans le champ de la santé ou du droit. »

« (…) Le recours à des SIA peut présenter en première analyse d’extraordinaires opportunités mais, mis en pratique, révéler des difficultés ne pouvant être aisément surmontées. C’est ainsi que l’expérimentation d’un SIA produisant un référentiel d’indemnisation des préjudices corporels n’a pas encore produit les résultats espérés. Une question centrale, probablement provocante, serait de s’interroger si ces difficultés ne proviennent pas, au moins en partie, du fait que l’on utilise un marteau pour tenter d’ouvrir un œuf : avec beaucoup de précautions, l’on arrivera peut-être à des résultats, mais d’autres méthodes, plus qualitatives et mieux adaptées, pourraient peut-être aussi conduire à des solutions partagées entre toutes les parties prenantes (y compris les assureurs).

« La réglementation européenne la plus récente s’est adaptée à ces enjeux en 2014. Deux textes juridiquement contraignants ont été adoptés, quasiment dans le même temps : d’une part le règlement sur l’intelligence artificielle (RIA) adopté par l’Union européenne, organisant par un régime de prévention des risques la mise sur le marché de SIA ; d’autre part une convention cadre du Conseil de l’Europe, établissant un certain nombre de principes de haut niveau afin de protéger les droits humains, la démocratie et l’État de droit. Le RIA classe l’administration de la justice comme l’un des domaines à haut risque et va imposer une procédure spécifique de mise en conformité.

« C’est vrai que l’éthique avait été envisagée jusqu’à la fin 2010 comme l’une des réponses centrales à ces enjeux : la Commission européenne a toutefois appuyé une tout autre stratégie avec l’arrivée d’Ursula von der Layen à la présidence de la Commission, en développant tout un « paquet » réglementaire juridiquement contraignant sur le numérique. (…) La déontologie des professions du droit a (…) probablement encore un rôle important à jouer : là où des interstices se présenteront inévitablement, l’emploi des SIA devra être bien réfléchi et adapté avec discernement aux contraintes des offices de chacun. »

7 novembre
Comité de sélection des dossiers de demande de subvention 2025
8 novembre
CSTACAA
18 novembre
Groupe de travail : accompagnement des victimes et témoins de VSS
26 novembre
Présentation des syndicats aux promotions d’automne (CFJA)
28 novembre
Comité de suivi du plan égalité professionnelle