Ces juristes qui s’exaspèrent d’une mauvaise utilisation de l’IA générative

Dans trois décisions de justice, récemment repérées sur les réseaux sociaux, une mauvaise utilisation de l’IA générative est signalée. Un phénomène toutefois pour l’instant moins perceptible en France que dans d’autres pays.

En ce mois de décembre, Caroline Lantero fulmine. Dans un contentieux en responsabilité administrative où l’avocate au Barreau de Clermont-Ferrand défend l’administration, elle vient de recevoir cinq pages d’un argumentaire complètement faux. « Il y avait une dizaine de références à des jurisprudences, des citations et plusieurs renvois très faux au code de justice administrative », détaille-t-elle à Dalloz actualité.

La marque évidente pour la professeure de droit public à l’Université Clermont Auvergne d’une utilisation inconséquente d’une IA générative grand public. « Des confrères utilisent ces outils, ce n’est pas un problème en soi », remarque-t-elle. Mais dans ce cas précis, c’est l’avocate qui a dû faire un important travail de vérification à la place de la partie adverse, « un temps que je supporte assez mal de perdre ». « J’ai répondu au vitriol », conclut celle qui envisage désormais d’alerter le bâtonnier. « C’est notre responsabilité d’avocat de ne pas dire de bêtises. »

Les grands modèles de langage derrière la révolution technologique de l’IA générative, incarnée depuis l’automne 2022 par ChatGPT, l’agent conversationnel d’OpenAI, ont en effet un travers connu. Ils « hallucinent » – on parle également de confabulation –, c’est-à-dire qu’ils peuvent générer des contenus faux ou trompeurs.

Relecture humaine approfondie nécessaire

Ce problème avait été notamment relevé en juin 2025 dans le rapport sur l’IA au service de la justice, un groupe de travail réunissant une vingtaine d’experts du domaine et des représentants des différents métiers de la Place Vendôme. Ces IA génératives « accentuent la nécessité de contrôle humain car elles peuvent produire du contenu très convaincant en langage naturel », était-il souligné dans une synthèse annexée au rapport. Avant de conclure : « un texte généré ne doit pas être utilisé sans relecture humaine approfondie ».

Un principe de base qui est manifestement parfois oublié par des juristes ou des plaignants. Sur le réseau social Bluesky, le juriste en droit public et droit européen des droits de l’homme Nicolas Hervieu a ainsi partagé deux récentes décisions où les magistrats n’ont pas caché leur exaspération face à une mauvaise utilisation de l’IA générative.

Le 3 décembre 2025, la présidente de la 8e chambre du Tribunal administratif de Grenoble tance ainsi un requérant dans sa décision. Le « manque de clarté » de sa requête résulte vraisemblablement » d’une rédaction « au moyen d’un outil dit d’intelligence artificielle générative, totalement inadapté à cet usage ». À Orléans, le 29 décembre 2025, le tribunal administratif suggère également à l’avocat d’un plaignant de « vérifier à l’avenir que les références trouvées par quelque moyen que ce soit ne constituent pas une “hallucination” ou une “confabulation” » – quinze jurisprudences invoquées n’existant pas.

« On a en tous eu »

Des erreurs manifestement pas isolées. « Chez les magistrats civilistes, on a tous eu dans des écritures au moins une jurisprudence qui n’existe pas », confirme auprès de Dalloz actualité Cyril Jeanningros, juge au Tribunal judiciaire de Paris. Mais difficile d’être certain qu’il s’agit d’une mauvaise utilisation de l’IA générative ou d’une simple coquille, souligne ce magistrat qui suit ce sujet technologique à l’Union syndicale des magistrats.

Si les exemples publics dans l’Hexagone sont encore peu nombreux – un jugement du 18 décembre 2025 du Tribunal judiciaire de Périgueux pointe également une mauvaise utilisation de l’IA générative –, « cela peut s’emballer très vite », en fonction des usages, prévient Damien Charlotin, à l’instar de ce qu’il a observé dans d’autres pays.

Ce chercheur associé à HEC Paris et Science Po est à l’origine d’une base de données recensant les cas juridiques d’hallucinations liées à l’IA. Ce lundi 12 janvier 2026, 767 cas étaient décomptés dans le monde. Un chiffre qu’il juge finalement assez bas au vu de l’adoption des outils d’IA générative dans les professions juridiques.

Filtre de l’avocat

Pour ce chercheur, plusieurs raisons structurelles devraient toutefois empêcher l’apparition d’une avalanche de commentaires courroucés face à la présence d’hallucinations juridiques dans des écritures en France. « Il y a des différences de culture juridique : ce n’est pas forcément le tempérament du magistrat français d’évoquer un tel problème dans son jugement », note-t-il.

« On sait que les avocats utilisent beaucoup l’IA générative et qu’il peut y avoir des erreurs », observe Cyril Jeanningros. Mais si « c’est dans notre nature de nous agacer, cela ne se traduira pas dans les décisions et ne dépassera pas le stade de la machine à café », confirme-t-il.

Une expérience vécue à quelques reprises, avec des fausses jurisprudences remarquées par la partie adverse. L’avocat pointé avait alors « supprimé le passage incriminé », signale le magistrat. Mais pas de quoi dépasser le stade de la mise en état, estime-t-il. Outre une réserve à mettre l’avocat en porte-à-faux avec son client, faire la leçon à des plaignants peut dégrader les relations avec les avocats, des interlocuteurs quotidiens.

Enfin, qu’elle soit vraie ou fausse, la jurisprudence invoquée n’est pas forcément très productive. « Une citation de jurisprudence de cour d’appel ou tribunal judiciaire n’est que très rarement un élément déterminant », rappelle Cyril Jeanningros.

Surtout, pour Damien Charlotin, ces mauvaises utilisations de l’IA générative vont d’abord constituer un problème pour « les juridictions confrontées à des plaignants se représentant eux-mêmes ». En France, l’obligation de constituer avocat, devenue le principe dans les contentieux relevant des juridictions judiciaires, peut donc « faire office de filtre », poursuit le chercheur.

« On sait que ces outils hallucinent beaucoup, mais la plupart des professionnels font attention, et les filtres fonctionnent plus ou moins, résume-t-il. Mais il y a un risque de retour de bâton au fur et à mesure que la technologie s’améliorera, car on prendra moins l’habitude de vérifier. »

Changement subi

Un changement technologique qui suscite le malaise, à cause de cette impression d’une adoption à marche forcée. « Avant, on voyait ceux qui copiaient des jurisclasseurs dans leurs écritures, on se moquait mais au moins c’était juste, note Caroline Lantero. Avec l’IA générative, nous devons identifier les propos hallucinés, cela nous complique la tâche », un changement de méthode de travail subi.

« Ma crainte, c’est que l’on se retrouve à faire de l’IA contre de l’IA, souligne également Cyril Jeanningros. Au syndicat, notre vision, c’est que si l’IA doit bien être un appui au travail du juge, il faut maintenir un certain artisanat, qu’on soit bien certain qu’un humain a lu l’affaire et que le magistrat ne soit pas seulement un contrôleur de procédures » seul neuf heures par jour devant son logiciel de traitement de texte.

Un problème déjà ancien. « L’affaire qui nécessitait douze pages il y a 25 ans en comporte désormais trente, mais c’est plus le fait du copier-coller que de l’IA », admet le magistrat. Reste que ce phénomène devrait encore être accéléré avec l’IA générative, une révolution technologique qui pose la question du rôle de l’écrit, note Damien Charlotin. « Même si souvent il n’est pas lu, on rédige beaucoup de texte », note-t-il. Un équilibre, installé notamment dans nos pratiques juridiques, qui est désormais remis en question par l’IA générative.

 

par Gabriel Thierry

© Lefebvre Dalloz