Régulation et règlementation des usages de l’IA dans la justice : état des lieux

À l’heure où les initiatives visant à encadrer le recours aux technologies de l’intelligence artificielle (IA) commencent à prendre forme, quelle place y occupent les usages liés au droit et à la justice ?

Les choses se sont accélérées ces derniers mois avec l’essor de l’IA générative et des LLM (large language models). Ces systèmes capables de générer des contenus – textes, sons, images…– ont en effet impulsé une nouvelle dynamique aux réflexions et travaux visant à encadrer les usages de l’IA général. La Chine a ainsi adopté cette année une réglementation sur le recours aux services d’IA générative, dont les mesures – provisoires – sont entrées en application en août 2023. Aux États-Unis, un décret présidentiel signé fin octobre 2023 impose de nouvelles règles pour la création de grands modèles d’IA : obligation de réaliser des tests standardisés pour évaluer les risques, d’apposer un marquage pour identifier les contenus générés par ces systèmes d’IA, de transmettre à l’administration les résultats des tests de sécurité effectués sur les modèles d’IA générative si ces derniers présentent « un risque sérieux en matière de sécurité nationale, de sécurité économique nationale, ou de santé publique… »

Négociations tendues sur l’AI Act européen

Si l’Union européenne a été pionnière par sa volonté à instaurer un cadre réglementaire aux usages de l’IA, les ultimes négociations sur l’AI Act, le projet de règlement européen, ont été très tendues début décembre. En cause : des désaccords sur la réglementation des « modèles de fondation » (les grands systèmes de traitement du langage ou de l’image utilisés pour créer des services comme ChatGPT ou Midjourney) que certains pays, dont la France, l’Allemagne et l’Italie, jugeaient trop stricte. Les négociateurs ont réussi à trouver un terrain d’entente et un équilibre entre régulation et innovation, afin de ne pas nuire à la compétitivité et la souveraineté technologique de l’Europe sur ce terrain.

Un projet de traité international contraignant

Autre initiative assez avancée : le projet de convention-cadre sur l’intelligence artificielle, les droits de l’homme, la démocratie et l’État de droit du Conseil de l’Europe. Il s’agirait du premier traité international juridiquement contraignant sur le développement, la conception et l’application des systèmes d’IA. La dernière mouture du texte devrait être arrêtée au premier trimestre 2024 et l’adoption de la convention par le comité des ministres (46 pays) est prévue lors du 75anniversaire du Conseil de l’Europe en mai 2024. Le texte (version consolidée provisoire) liste une série de principes à respecter – transparence et contrôle, obligation de rendre des comptes, égalité et non-discrimination, vie privée et protection des données à caractère personnel… – pour que les systèmes d’intelligence artificielle ne viennent pas interférer avec le respect des droits de l’homme et des libertés fondamentales, le fonctionnement de la démocratie et le respect de l’État de droit.

IA et justice, un domaine sensible

Dans le domaine de la justice, la réglementation et la régulation des usages de l’IA est un sujet qui fait l’objet de préoccupations bien spécifiques du fait de ses potentielles répercussions sur les droits fondamentaux et l’État de droit. Et c’est un des thèmes qui a été discuté lors de la 2e Conférence Cyberjustice Europe organisée le 24 novembre 2023 par le Conseil de l’Europe, l’Institut des études et de la recherche sur le droit et la justice, le Laboratoire de cyberjustice de Montréal et l’Université de Strasbourg. « La justice est un secteur dans lequel il y a des répercussions lourdes pour les droits fondamentaux des justiciables, un secteur sensible où l’automatisation de tâches dévolues à l’humain par des systèmes eux-mêmes de plus en plus autonomes présente un risque dont il faut se saisir », a déclaré à cette occasion Aurore Hyde, professeure de droit privé à l’Université de Reims, et auteur d’un travail de recherche sur la justice dite prédictive.

Les limites de l’approche de l’AI Act

Aujourd’hui, dans l’AI Act européen, « les systèmes d’intelligence artificielle ne sont considérés à haut risque que s’ils sont utilisés par les juges et l’institution judiciaire et, éventuellement, des arbitres et des médiateurs », a-t-elle poursuivi. « Les outils intégrant de l’IA ne sont pas considérés à haut risque s’ils sont utilisés par des professionnels du droit relevant du secteur privé. Or, c’est peut-être un problème puisqu’il me semble que les droits fondamentaux des justiciables peuvent être atteints de la même manière. Supposons qu’un avocat amène son client à transiger sur la base de résultats algorithmiques qui apparaîtraient erronés par la suite. Il l’a peut-être privé d’un accès au juge, et on peut même y voir un vice du consentement. » Avec le risque « de voir naître tout un contentieux sur la fiabilité de ces systèmes basés sur l’IA ».

Autre difficulté que présente le règlement européen à ses yeux : « si on s’oriente vers une approche par les risques, il faudra décider qui est compétent pour certifier et ce que l’on certifie. Est-ce que l’on certifie la manière dont les données sont collectées ? La qualité des données ? Le processus de traitement ? Le résultat en sortie… ? Et il faudra aussi s’interroger sur la portée de la certification : est-ce que cela déresponsabilise l’entreprise en cas de faille, après coup ? »

Une Charte éthique européenne spécifique à la cyberjustice

En matière de cyberjustice, « il me semble que le meilleur cadre dont on dispose aujourd’hui est la Charte éthique de la CEPEJ », a déclaré Aurore Hyde. Instituée dès 2016 au sein de Conseil de l’Europe, la  Commission européenne pour l’efficacité de la justice (CEPEJ) conduit différents travaux qui visent à réconcilier la cyberjustice et les droits fondamentaux et, en particulier, le droit à un procès équitable. Parmi les différents outils qu’elle a mis au point, souvent sous forme de lignes directrices, figure la Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement. Et lors de sa 41e réunion plénière, les 4 et 5 décembre 2023, la CEPEJ a présenté un outil d’évaluation permettant de vérifier que les outils d’IA utilisés dans le domaine de la justice respectent bien les cinq grands principes de la Charte.

Traduire les grands principes en lignes directrices opérationnelles

« C’est un cadre non contraignant spécifique à la justice, qui énonce des grands principes qui sont autant de valeurs à atteindre, sans être trop rigide sur la manière d’y parvenir. Du fait de cette souplesse, on peut espérer que les opérateurs du marché du droit et de la justice iront d’eux-mêmes se conformer à ses principes et ses exigences », a-t-elle poursuivi. Mais le caractère non contraignant de la Charte est aussi une faiblesse, de même que le fait « d’énoncer des grands principes sans les traduire de façon opérationnelle ».

Dans sa Déclaration sur l’utilisation de l’intelligence artificielle dans le système judiciaire et le maintien de l’ordre, publiée en mai 2023, le Conseil des barreaux européens (CCBE) dresse le même constat en ce qui concerne la nécessité de traduire ces grands principes sur le plan opérationnel. « Avant que tout outil d’intelligence artificielle ne soit utilisé dans le système judiciaire et le maintien de l’ordre, le CCBE demande qu’un ensemble de règles et de principes définis en régissent l’emploi » : des règles « fondées sur un ensemble clair de principes éthiques » et des principes « transformés en règles et lignes directrices opérationnelles spécifiques à chaque cas d’utilisation ».

Au final, faut-il encadrer spécifiquement le recours aux IA génératives de texte dans les métiers du droit et de la justice ? « Je n’en suis pas certaine », a conclu Aurore Hyde. « Je pense que la responsabilité demeure en définitive sur le professionnel du droit, qui ne peut pas se dispenser de son expertise et doit relire les documents que l’IA générative peut lui proposer. » Et pour ce qui relève de l’équilibre des garanties en matière de procès équitable, « peut-être faut-il qu’il soit rappelé quelque part que ces outils ne sont qu’une aide à la décision humaine et ne peuvent décider seuls ».

 

© Lefebvre Dalloz