Le point sur…
L’intelligence artificielle dans la justice
Le Conseil D’État développe-t-il ses propres projets en matière d’intelligence artificielle?
Oui. Outre les projets d’algorithmes d’intelligence artificielle (IA) élaborés par des acteurs privés à partir des jugements et arrêts gratuitement mis à disposition par les juridictions (open data) , le conseil D’État (CE) a présenté son propre projet d’algorithme retenu par la direction interministérielle du numérique (DINUM) et la direction interministérielle de la transformation publique (DITP). Il a pour objectif de permettre de mesurer la capacité d’une IA à regrouper des décisions attaquées, des conclusions et des moyens.
C’est dans ce cadre que le gestionnaire a sollicité les magistrats pour analyser des requêtes en distinguant moyens et conclusions afin « d’apprendre à l’algorithme ».
Il serait dans un premier temps possible de détecter les requêtes présentant des questions communes dans un tribunal ou une cour et au-delà. Si l’algorithme fonctionne, le schéma directeur numérique de la juridiction administrative envisage, dans un deuxième temps, de créer une « aide à l’instruction et à la rédaction », par la détection des similarités entre dossiers, le repérage des éléments nouveaux dans un mémoire, la vérification de la complétude du projet par rapport aux moyens dans les contentieux simples. Il est également prévu de « renforcer la cohérence jurisprudentielle (harmonisation des rédactions à partir d’une banque de paragraphes centralisée et actualisée) ».
L’USMA ne refuse pas le recours aux outils informatiques mais se défie d’un objectif d’augmentation des sorties par un traitement automatisé des « contentieux de masse » ou le recours à l’écriture automatique avec des bibliothèques de considérants. Toute requête recevable mérite un traitement individualisé, particulièrement quand les enjeux humains sont forts.
Qu’est-ce que DataJust ?
« Le traitement automatisé des données dans la justice administrative par DataJust » ?
Le décret n° 2020-356 du 27 mars 2020 portant création d’un traitement automatisé de données à caractère personnel dénommé « DataJust » autorise le garde des sceaux « à mettre en œuvre, pour une durée de deux ans, un traitement automatisé de données à caractère personnel, dénommé « DataJust ». Il concerne « les décisions de justice rendues en appel entre le 1er janvier 2017 et le 31 décembre 2019 par les juridictions administratives et les formations civiles des juridictions judiciaires » en matière d’indemnisation des préjudices corporels.
Les objectifs sont au nombre de quatre :
« 1° La réalisation d’évaluations rétrospectives et prospectives des politiques publiques en matière de responsabilité civile ou administrative ;
2° L’élaboration d’un référentiel indicatif d’indemnisation des préjudices corporels ;
3° L’information des parties et l’aide à l’évaluation du montant de l’indemnisation à laquelle les victimes peuvent prétendre afin de favoriser un règlement amiable des litiges ;
4° L’information ou la documentation des juges appelés à statuer sur des demandes d’indemnisation des préjudices corporels ».
L’algorithme recense les montants demandés et offerts par les parties, les évaluations proposées dans le cadre de procédures de règlement amiable des litiges et les montants alloués aux victimes pour chaque type de préjudice ainsi que de très nombreuses informations concernant le litige.
Quels sont les avantages et les inconvénients de cette automatisation de l’indemnisation du préjudice corporel ?
Le traitement statistique d’une masse de données peut faire émerger des questions intéressantes. Harmoniser l’indemnisation est un objectif incontestable. Deux aspects au moins méritent toutefois réflexion.
D’une part, seuls les noms des parties sont enlevés, on conserve celui des autres personnes physiques. Même s’il est « interdit de sélectionner dans le traitement une catégorie particulière de personnes à partir de ces seules données », on ignore ce qui l’empêchera en pratique. Le risque est là encore le profilage et peut-être plus particulièrement celui des avocats. Alors même qu’il n’est pas possible de comparer les prestations et honoraires des avocats, on pourrait imaginer que les parties ne disposent, comme seule information, que de comparateurs des sommes « gagnées » par ceux-ci.
D’autre part, les objectifs 3 et 4 assignés à DataJust montrent que les pouvoirs publics souhaitent aller vers des réponses de plus en plus fournies par l’intelligence artificielle en matière de réparation du dommage corporel. Le traitement statistique encadre déjà la matière par l’intermédiaire du « barème ONIAM » mais cet aspect a vocation à être affiné et nettement renforcé par l’analyse des données DataJust. A terme, il est possible qu’il ne soit plus nécessaire de saisir le juge puisque les avocats et assureurs disposeront de la même évaluation. Les conséquences d’une telle évolution, qui fige l’indemnisation, doivent être pesées.
Existe-t-il une réflexion éthique en cours pour encadrer le recours à l’IA ?
Oui mais, pour le moment, ces réflexions n’ont pas apporté d’outils pratiques et opposables.
La commission européenne pour l’efficacité de la justice (CEPEJ) dépendant du Conseil de l’Europe a élaboré une charte européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires. Cette charte rappelle des principes tels que la non-discrimination. Certains traitements peuvent révéler des discriminations existantes et les acteurs publics et privés doivent veiller à ce que les applications ne reproduisent ni n’aggravent ces discriminations et ne conduisent pas à des analyses ou pratiques déterministes. Cela est particulièrement vrai en matière pénale.
Les principes de qualité et de sécurité, d’une part, et de transparence des méthodologies et des techniques utilisées dans le traitement des décisions judiciaires, d’autre part, revêtent également une grande importance. Ex : l’algorithme d’indemnisation du préjudice corporel ne doit pas être élaboré à l’avantage d’une partie, par exemple d’assureurs qui investiraient dans une société développant le logiciel.
La charte comporte également un intéressant état des lieux de l’utilisation de l’intelligence artificielle et des politiques publiques d’open data dans les systèmes judiciaires des états membres en 2018.
L’Institut européen du droit, organisation à but non lucratif qui promeut et conduit des recherches en vue d’inspirer la législation européenne et qui compte le CE et la Cour de Cassation parmi ses membres, est également en train de mener une réflexion plus large sur les processus décisionnels utilisant les technologies informatiques dans les administrations (Artificial Intelligence (AI) and Public Administration – Developing Impact Assessments and Public Participation for Digital Democracy). Le Canada s’est par exemple doté d’une intéressante Directive sur la prise de décision automatisée. Inspiré par les principes et procédures en matière environnementale, le groupe d’experts de l’Institut analyse la possibilité d’aller vers une « démocratie numérique » en prévoyant notamment des études d’impact concernant les différents usages des données. La mesure des effets de l’automatisation des décisions est une piste prometteuse. Notre collègue Marc Clément, du TA de Lyon, est l’un des trois rapporteurs de ce projet.