L’intelligence artificielle fonctionne sur la base d’algorithmes : des calculs effectués à partir d’une base de données conduisent à un résultat. Ces formules mathématiques permettent de sélectionner des informations et de les classer (l’ensemble des décisions prises par un tribunal en matière de divorce, par exemple).
Des startups spécialisées (la legaltech) ont créé des logiciels pour accompagner les acteurs de la justice, en particulier les magistrats et avocats, dans leur travail. Les algorithmes peuvent aider à la prise de décision, assister un juge lors de l’instruction d’un dossier, par exemple, en l’informant de tous les jugements rendus par les tribunaux français dans des affaires similaires.
Concrètement, soit le magistrat choisit lui-même des critères (mots-clés, textes, etc.) dans une base de données pour en extraire les affaires similaires à celle qu’il doit traiter, soit l’extraction est effectuée automatiquement par un logiciel et le juge retient ce qui l’intéresse. L’IA accélère la recherche d’informations mais c’est le juge seul qui prend la décision.
La prédiction de décision va plus loin. Elle propose au juge une décision de justice. Dans ce cas, un logiciel analyse de très nombreux d’exemples et en tire « automatiquement » des règles de décision. Autrement dit, pour le professeur Bruno Dondero, « c’est tenter de prédire avec le moins d’incertitude possible ce que sera la réponse de la juridiction X quand elle est confrontée au cas Y ».
Par exemple, un logiciel peut prévoir l’indemnité de licenciement qu’un salarié pourrait obtenir en se basant sur l’ensemble des jugements rendus aux prud’hommes. Même processus : soit le magistrat choisit lui-même les critères, soit l’algorithme associe à chaque cas une indemnité.
Réponse personnalisée, traitement plus rapide des affaires, meilleure uniformisation des décisions de justice… L’intelligence artificielle est plébiscitée par les acteurs de la justice (juges, greffiers, avocats). Sa place varie selon les pays. Très ancrés dans la pratique anglo-saxonne notamment, ces nouveaux outils sont en cours d’expérimentation en France.
Un développement récent en France
Un décret du 27 mars 2020(nouvelle fenêtre) crée un traitement automatisé de données à caractère personnel « DataJust ». Le traitement DataJust vise à développer, pour une durée de deux ans, un dispositif algorithmique permettant de recenser, par type de préjudice :
- les montants demandés et offerts par les parties à un litige ;
- les montants alloués aux victimes en indemnisation de leur préjudice corporel dans les décisions de justice rendues en appel par les juridictions administratives et les formations civiles des juridictions judiciaires.
Le dispositif repose sur l’extraction, de manière automatique, des données contenues dans les décisions de justice et leur exploitation. À terme, le traitement Datajust vise à constituer un outil de restitution et de diffusion de ces montants relatifs à l’indemnisation du préjudice corporel des victimes.
Ce traitement est rendu possible par la loi pour une République numérique du 7 octobre 2016 qui autorise la publication en open data des décisions de justice anonymisées. Depuis, la loi du 23 mars 2019 de programmation et de réforme pour la justice et le décret du 29 juin 2020(nouvelle fenêtre) ont apporté des précisions sur :
- les conditions de mise à la disposition du public des décisions de justice (délais de mise en ligne, droit d’accès et de rectification, notamment) ;
- le renforcement de l’anonymat : il doit aussi porter sur les éléments permettant l’identification des parties, en cas de risque d’atteinte « à la sécurité ou au respect de la vie privée de ces personnes ou de leur entourage » (et pas seulement les noms et prénoms des personnes) ;
- la délivrance de copies aux tiers ;
- le calendrier de diffusion. Celui-ci s’échelonne jusqu’en 2025 : diffusion des arrêts de la Cour de cassation en septembre 2021, puis les décisions civiles, sociales et commerciales des cours d’appel à l’échéance du premier semestre 2022 (un flux de 230 000 décisions en avril 2022), suivent les jugements des tribunaux administratifs (juin 2022) et les autres juridictions, notamment en matière pénale.
L’anonymisation et la diffusion accessible et gratuite en ligne des décisions est en cours sous la responsabilité de la Cour de cassation. Près de 3,9 millions de décisions de justice sont concernées. Pour l’heure, les arrêts des cours d’appel sont prioritaires dans l’attente d’un portail (Portalis) qui diffusera les décisions des tribunaux de première instance. Dans le cadre du programme « Entrepreneurs d’intérêt général » (EIG), la Cour est également candidate pour développer des techniques d’apprentissage automatique pour identifier les données à pseudonymiser (à rendre non identifiables).
L’utilisation de ces outils modifie profondément le travail des magistrats et des acteurs de la justice. Leur essor à venir posent des questions d’éthique. Certains professionnels s’inquiètent de possibles dérives et appellent à la prudence, en particulier en matière de justice prédictive.
Les dangers d’une justice prédictive : mythe ou réalité ?
Les robots vont-ils remplacer les juges ? La crainte d’une justice automatique et déshumanisée revient souvent dans les critiques de l’intelligence artificielle.
Des expériences étrangères utilisent déjà des logiciels pour rendre la justice et, par là, désengorger les tribunaux et alléger les coûts. Dans l’Ontario (Canada), un « tribunal virtuel » est chargé de trancher les conflits entre voisins ou entre salarié et employeur. Au Québec, un logiciel permet également de régler les petits contentieux commerciaux. En Estonie, un robot devrait bientôt établir la culpabilité d’une personne pour des litiges « mineurs » (moins de 7 000 euros).
Dans une tribune publiée en novembre dans Le Monde, le juriste Fabrizio Papa Techera pointe le risque d’un « Netflix du droit ». Pour lui, « le common law [des pays anglo-saxons] se prête particulièrement aux promesses de la justice algorithmique » mais, transposée en France, elle pourrait conduire à « un appauvrissement considérable de la culture juridique française » et une moindre « marge de manœuvre des professionnels du droit ».
À l’inverse, Gregory Lewkowicz, professeur de droit à Bruxelles, considère que les juristes doivent s’adapter : « La matière est par essence évolutive, c’est au coeur de la pratique que d’ajuster, continuellement, la règle aux réalités concrètes de l’époque. ». Il estime que le risque serait plutôt « d’être otages d’opérateurs privés et d’algorithmes opaques ».
Les questions éthiques sur l’opacité des algorithmes et les éventuel biais dans leur analyse restent entières. En Amérique du Nord, des juristes dénoncent déjà des biais raciaux dans les algorithmes qui pénalisent les minorités ethniques.
L’Europe se veut nettement plus protectrice. La charte éthique d’utilisation de l’intelligence artificielle dans les systèmes judiciaires adoptée par le Conseil de l’Europe le 8 décembre 2018(nouvelle fenêtre) énonce les principes suivants afin que l’IA reste un outil au service de l’intérêt général :
- respect des droits fondamentaux ;
- principe de non-discrimination ;
- qualité et sécurité dans le traitement des données ;
- transparence, neutralité et intégrité intellectuelle ;
- maîtrise par l’utilisateur (permettre à l’utilisateur d’être un acteur éclairé et maître de ses choix)
En France, confier à la Cour de cassation l’élaboration de son propre algorithme permet à l’État de conserver ses prérogatives. Chantal Arens, première présidente de la Cour de cassation, affirme que la haute juridiction sera « attentive à la mise en œuvre de dispositifs de contrôle » et à « l’accompagnement des juges ». Elle assure que « les risques d’erreurs sont bien identifiés », à la suite des recommandations du rapport Cadiet sur l’open data des décisions de justice.
Pour le secrétaire général de l’institut des hautes études sur la justice (IHEJ), « le numérique ne livre pas des décisions de justice, il apporte des solutions. » Cette technologie constitue « un remède à la lenteur de la justice » et favorise l’accès à la justice et à l’information. Mais, prévient-il, « il y a un pas à ne pas franchir » qui serait un « usage performatif » (ou « effet moutonnier » qui pousserait à prendre toujours les mêmes décisions et mettrait en cause l’indépendance du juge). Il revient à l’État de garantir l’impartialité des algorithmes utilisés. Le magistrat rappelle que le rôle des pouvoirs publics est bien de « contrôler les legaltech qui peuvent affecter nos valeurs. »
À ce propos, le Conseil d’État, le Conseil national des barreaux et l’Ordre des avocats au Conseil d’État et à la Cour de cassation ont adopté une déclaration commune dans laquelle ils demandent la création d’un dispositif de régulation et de contrôle des algorithmes utilisés(nouvelle fenêtre)