Le règlement sur l’intelligence artificielle enfin publié ! Retour sur les dispositions principales

Le règlement sur l’intelligence artificielle, a été publié au Journal officiel de l’Union européenne le 12 juillet 2024. Ce règlement fixe un certain nombre d’obligations contraignantes pour différent

Après plusieurs années de discussions et débats, parfois agités, le premier règlement encadrant les usages des systèmes d’intelligence artificielle (Artificial Intelligence Act [AI Act] ou règlement sur l’intelligence artificielle [RIA]) a été publié au Journal officiel de l’Union européenne le 12 juillet 2024 (v. not., Comm. UE, Communication, 25 avr. 2018, COM[2018] 237 final ou encore, Livre blanc, 24 févr. 2020, COM[2020] 65 final).

Ce règlement constitue la première réglementation de grande ampleur réellement contraignante. Si ce règlement a déjà fait l’objet de plusieurs analyses, ce commentaire vise les dispositions principales de la version finale du texte (v. not., pour des commentaires prépublication du RIA, J. Sénéchal, Vote des parlementaires européens sur l’AI Act : vers une réglementation accrue des IA, des modèles de fondation et des IA génératives, s’inspirant du DSA, du Data Act et du RGPD ?, Dalloz actualité, 22 juin 2023 ; L’AI Act dans sa version finale – provisoire –, une hydre à trois têtes, Dalloz actualité, 11 mars 2024 ; C. Crichton, Projet de règlement sur l’IA [I] : des concepts larges retenus par la Commission, Dalloz actualité, 3 mai 2021 ; Projet de règlement sur l’IA [II] : une approche fondée sur les risques, Dalloz actualité, 4 mai 2021. Pour un commentaire postpublication du RIA, v. C. Crichton, Règlement sur l’intelligence artificielle. Premiers éléments d’analyse, 2024).

Champ d’application et définitions – Articles 2 et 3

Le règlement commence par définir son champ d’application par le biais de l’article 2 et procède aux définitions en son article 3. Le règlement s’applique ainsi au système d’IA (ci-après SIA), défini par l’article 3 comme un « système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels » (art. 3, § 1). La définition des SIA était un sujet épineux, et c’est une définition large, proche de la définition de l’OCDE, qui a été retenue (v. Recomm. OCDE sur l’IA, adoptée le 22 mai 2019 et amendée le 8 nov. 2023 ; v. égal., sur la largesse de la définition, J. Sénéchal, art. préc., Dalloz actualité, 11 mars 2024).

La question de la territorialité, enjeu important, est également réglée. En pratique, de nombreux opérateurs sont situés hors de l’Union européenne et mettent à disposition leurs SIA sur le marché de l’Union. Le règlement s’applique ainsi aux SIA mis à disposition sur le marché de l’Union ou lorsque les sorties produites par le SIA sont utilisées dans l’Union, qu’importe le lieu d’établissement de l’opérateur (art. 2).

Concernant le champ d’application personnel, le règlement impose la plupart des obligations au fournisseur, et si nécessaire, sur le déployeur qui utilise « sous sa propre autorité un système d’IA » (art. 3 et 4). Il peut également s’appliquer au fabricant de produits, au mandataire, à l’importateur, au distributeur ainsi qu’à toutes personnes concernées (v. C. Crichton, Règlement sur l’intelligence artificielle. Premiers éléments d’analyse, préc.).

Exclusions du champ d’application

Le règlement prévoit plusieurs exceptions, mettant en échec son application. Par exemple, il ne s’applique pas aux SIA développés et utilisés à des fins militaires, de défense ou de sécurité nationale, puisqu’il s’agit ici d’une compétence exclusive des États membres (art. 2, § 3).

Les SIA ou modèles d’IA spécifiquement développés et mis en service à des fins exclusives de recherche scientifique et de développement, ainsi que leurs sorties, sont également exclus du règlement (art. 2, § 6).

Enfin, une autre exclusion notable concerne les SIA diffusés sous licence libre et open source, sauf s’ils sont mis sur le marché ou mis en service en tant que SIA à haut risque ou en tant que SIA qui relève de l’article 5, donc prohibé, ou de l’article 50 qui implique des mesures de transparence particulière (art. 2, § 12).

Pratiques prohibées – Article 5

L’approche fondée sur les risques adoptée par le règlement implique dans un premier temps une liste exhaustive de pratiques prohibées présentant un risque inacceptable (art. 5 ; v. égal., consid. 179 ; v. J. Sénéchal, art. préc., Dalloz actualité, 11 mars 2024).

Sont ainsi interdites les techniques subliminales (art. 5, § 1, a), l’exploitation des vulnérabilités (art. 5, § 1, b), les opérations de police prédictive, notamment sans intervention humaine (art. 5 § 1, d), les SIA qui créent ou développent des bases de données de reconnaissance faciale par le moissonnage non ciblé d’images faciales provenant de l’internet ou de la vidéosurveillance (art. 5, § 1, e), l’utilisation de SIA pour la reconnaissance émotionnelle sur le lieu de travail ou dans les établissements d’enseignement (art. 5, § 1, f) ou encore la catégorisation biométrique catégorisant individuellement les personnes physiques afin d’arriver à des déductions ou des inférences concernant des caractéristiques sensibles (telles que la race, les opinions politiques, l’orientation sexuelle, v. art. 5, § 1, g).

La notation sociale est également interdite, mais seulement si elle conduit à un traitement préjudiciable ou défavorable et dans le cadre de deux situations bien précises (art. 5, § 1, c).

L’utilisation de systèmes d’identification biométrique à distance en temps réel dans des espaces accessibles au public à des fins répressives est quant à elle autorisée dans des circonstances spéciales (par ex., la traite ou l’exploitation sexuelle d’êtres humains ou encore les attaques terroristes, art. 5, § 1, h) et i) et sous réserve d’avoir obtenu une autorisation préalable octroyée par une autorité judiciaire ou une autorité administrative indépendante, d’avoir réalisé une analyse d’impact sur les droits fondamentaux (art. 27) et d’avoir été enregistré dans la base de données de l’Union européenne (art. 49).

Systèmes d’IA à haut risque – Article 6

Systèmes concernés

Si certaines pratiques sont interdites par le règlement, d’autres sont strictement encadrées. Il s’agit de la catégorie des SIA à haut risque.

Sont ainsi concernés les composants de sécurité des produits qui font déjà l’objet d’une évaluation de conformité ex ante (à la lumière de la législation communautaire d’harmonisation en matière de santé et de sécurité, énumérée de manière exhaustive à l’annexe I, par ex., pour l’aviation, les voitures, les jouets ou les dispositifs médicaux).

Également, le règlement dresse une liste indépendante, en annexe III, de domaines considérés comme à haut risque s’ils présentent un risque important de préjudice pour la santé, la sécurité ou les droits fondamentaux des personnes physiques, y compris en n’ayant pas d’incidence significative sur le résultat de la prise de décision (art. 6, §§ 2 et 3).

Toutefois, bien qu’un SIA figure à l’annexe III, il n’est pas nécessairement à haut risque s’il répond à certains critères spécifiques, permettant de bénéficier d’obligations de conformité plus légères. Cela concerne les SIA destinés à accomplir une tâche procédurale étroite (art. 6, § 3, a), destinés à améliorer le résultat d’une activité humaine préalablement réalisée (art. 6, § 3, b), conçus pour détecter des modèles de prise de décision, mais pas pour remplacer ou influencer fortement les décisions humaines (art. 6, § 3, c) ou destinés à exécuter une tâche préparatoire en vue d’une évaluation pertinente aux fins des cas d’utilisation visés à l’annexe III (art. 6, § 3, d).

Cependant, un SIA listé à l’annexe III sera toujours considéré à haut risque en présence d’un « profilage de personnes physiques » (art. 6, § 3).

Exigences essentielles

Les SIA à haut risque doivent respecter une série d’exigences essentielles (art. 8 à 15 ; v. N. Smuha et K. Yeung, The European Union’s AI Act : beyond motherhood and apple pie ?, 2024).

Chaque système d’IA à haut risque doit alors posséder un système de gestion des risques, mis en œuvre, documenté et tenu à jour (art. 9). Il est également prévu des mesures pour contrôler la qualité et la gouvernance des données concernant les données d’entraînement, de validation et de test, garantissant l’adéquation, l’exactitude et la fiabilité des données ainsi que le contrôle des biais (art. 10). Les articles 11 et 12 imposent de rédiger la documentation technique relative au système d’IA ainsi que la journalisation des évènements pertinents, pour renforcer la transparence sur le fonctionnement de ces systèmes (v. C. Crichton, Règlement sur l’intelligence artificielle. Premiers éléments d’analyse, préc.).

L’article 13 impose des mesures de transparence, notamment pour les déployeurs de SIA afin que ces derniers soient en mesure d’interpréter les sorties d’un système et de les utiliser de manière appropriée. Il impose également la fourniture de certaines informations concernant les SIA, par le biais d’une notice d’utilisation devant contenir a minima certaines informations.

Un contrôle effectif par des personnes physiques humaines (par ex., au moyen d’outils d’interface homme-machine appropriés) doit être prévu, afin de minimiser les risques (art. 14).

Enfin, la conception et le développement de SIA à haut risque doit permettre un niveau approprié d’exactitude, de robustesse et de cybersécurité, et cela de façon constante à cet égard tout au long de leur cycle de vie (art. 15).

Outre ces exigences essentielles que les SIA doivent respecter, d’autres obligations sont également imposées en fonction de l’opérateur concerné.

Obligations pour les fournisseurs – Article 16

Nous ne traiterons ici que des obligations des fournisseurs, puisque ces derniers sont soumis aux obligations les plus fortes. Toutefois, il est à noter que d’autres opérateurs, à savoir les mandataires (art. 22), les importateurs (art. 23), les distributeurs (art. 24) ainsi que les déployeurs (art. 26) sont également soumis à certaines obligations. Il existe également une obligation de réaliser une analyse d’impact sur les droits fondamentaux dans certaines situations (art. 27).

Le fournisseur est désigné comme la personne qui développe ou fait développer un SIA ou un modèle d’IA à usage général et le met sur le marché ou le met en service « sous son propre nom ou sa propre marque, à titre onéreux ou gratuit » (art. 3, 3). Outre qu’ils doivent veiller à ce que les exigences essentielles évoquées précédemment (section 2, art. 8 à 15) soient bien remplies, ils ont en plus d’autres obligations à remplir.

Ils doivent ainsi mettre en place un système de gestion de la qualité conforme (art. 17 ; v. N. Smuha et K. Yeung, art. préc.), assurer la conservation de la documentation visée à l’article 18, assurer la tenue des journaux générés automatiquement par leurs SIA à haut risque, lorsqu’ils sont sous leur contrôle (art. 19).

Ils veillent à ce que le SIA à haut risque soit soumis à la procédure d’évaluation de la conformité applicable avant sa mise sur le marché ou sa mise en service (art. 43) et élaborent une déclaration UE de conformité (art. 47).

Ils doivent s’assurer que le marquage CE soit bien présent soit directement sur le système d’IA, soit lorsque cela n’est pas possible sur son emballage ou sa documentation l’accompagnant (art. 48). Ils doivent respecter les obligations prévues en matière d’enregistrement (art. 49, § 1) et les exigences d’accessibilité (Dir. [UE] 2016/2102 et [UE] 2019/882).

Si nécessaire, le fournisseur doit également veiller à prendre les mesures correctives nécessaires et fournir les informations requises (art. 20). À la demande motivée d’une autorité nationale compétente, le fournisseur prouve la conformité du SIA à haut risque avec les exigences énoncées à la section 2.

Il s’avère que les systèmes de gestion des risques et de gestion de la qualité conforme seront les « pièces de résistance » de la mise en conformité (v. N. Smuha et K. Yeung, art. préc.).

À noter, certaines obligations sont simplifiées pour les petites entreprises et microentreprises (v. par ex., art. 11, § 1, ou encore art. 63).

Responsabilité le long de la chaîne de valeur – Article 25

Une autre thématique importante à clarifier concernait la responsabilité des différents acteurs intervenant le long de la chaîne de valeur.

L’article 25 dispose alors que tout tiers, comme le distributeur, l’importateur ou le déployeur, sera considéré comme un fournisseur d’un SIA à haut risque s’il commercialise sous son propre nom ou sa propre marque un SIA à haut risque déjà mis sur le marché ou mis en service, s’il modifie substantiellement un SIA à haut risque qui a déjà été mis sur le marché ou a déjà été mis en service de telle manière qu’il reste un SIA à haut risque en application de l’article 6 ou s’il modifie la destination d’un SIA (art. 25, § 1).

Ledit tiers sera alors soumis aux obligations incombant au fournisseur au titre de l’article 16.

Dans ces situations, le fournisseur qui a initialement mis sur le marché ou mis en service le SIA n’est plus considéré comme un fournisseur de ce système d’IA spécifique aux fins du présent règlement et devra aider le nouveau fournisseur, par exemple en lui procurant la documentation et l’accès technique nécessaires pour se conformer au RIA sans compromettre les informations commercialement sensibles (art. 25, § 2).

Des règles similaires sont prévues pour les fabricants de produits couverts par la législation d’harmonisation de l’Union dont la liste figure à l’annexe I, section A, dont des composants de sécurité sont constitués de SIA à haut risque (art. 25, § 3).

Obligation de transparence spéciale – Article 50

Des obligations de transparence sont également prévues pour certaines catégories de SIA. Il est à noter que les systèmes présents dans cette liste peuvent également être désignés comme un système à haut risque, et donc être soumis aux obligations incombant aux SIA à haut risque ainsi qu’aux obligations de l’article 50.

Ainsi, sont concernés les SIA interagissant directement avec des personnes physiques, à savoir les agents conversationnels ou chatbots. Ces derniers doivent être conçus et développés de manière que les personnes physiques concernées soient informées qu’elles interagissent avec un système d’IA (art. 50, § 1).

Les SIA générant du contenu de synthèse, y compris les SIA à usage général, doivent veiller à ce que les sorties des SIA soient marquées dans un format lisible par machine et identifiables comme ayant été générées ou manipulées par une IA (art. 50, § 2).

Une obligation de transparence repose également sur les systèmes de reconnaissance émotionnelle ou de catégorisation biométrique lorsque le traitement constitue un traitement de données à caractère personnel, dans la mesure où ils sont autorisés par l’article 5. Le déployeur doit informer et doit obtenir le consentement avant le traitement des données biométriques ou de toutes autres données personnelles (art. 50, § 3).

Enfin, les déployeurs d’un système d’IA qui génère ou manipule des images ou des contenus audio ou vidéo constituant un hypertrucage, les deepfakes, doivent indiquer que les contenus ont été générés ou manipulés par une IA. Cela est également le cas pour les textes publiés générés ou manipulés par un système d’IA dans le but d’informer le public sur des questions d’intérêt public, sous réserve d’exception (art. 50, § 4).

Il existe cependant des exceptions à ces obligations de transparence, par exemple lorsque ces utilisations sont autorisées à des fins de prévention ou de détection des infractions pénales, d’enquêtes ou de poursuites.

Le cas particulier des modèles d’IA à usage général – Articles 51 à 56

Les modèles d’IA à usage général – ou general purpose AI –, mis en lumière notamment par la démocratisation de ChatGPT, ont suscité de nombreux débats quant à l’approche à adopter en termes de réglementation (v. E. Migliore, Règlement européen sur l’intelligence artificielle : après la discorde sur la régulation des modèles de fondation, un accord provisoire conclu, Dalloz actualité, 9 janv. 2024).

Le règlement choisit d’imposer certaines exigences supplémentaires pour ce type de modèles, définis à l’article 3, 63). Une distinction est opérée entre deux types de modèle d’IA à usage général : les modèles d’IA à usage général et les modèles d’IA à usage général systémique (v. J. Sénéchal, art. préc., Dalloz actualité, 11 mars 2024).

Ainsi, tous les modèles d’IA à usage général sont soumis à certaines obligations prescrites par les articles 53 et 54, s’articulant principalement autour d’obligations de documentation et de transparence renforcée. À noter notamment, l’obligation de mettre en place une politique permettant de respecter les réservations de droit – opt-out – exprimée conformément à l’article 4, paragraphe 3, de la directive (UE) 2019/790 (art. 53, § 1, c) et l’élaboration et la mise à disposition du public d’un résumé suffisamment détaillé du contenu utilisé pour entraîner le modèle d’IA à usage général, conformément à un modèle fourni par le Bureau de l’IA (art. 53, § 1, d).

Les modèles d’IA à usage général présentant un risque systémique sont de surcroît soumis à des obligations supplémentaires définies par la section 3, du chapitre V, article 55. Les critères de classification de modèles d’IA à usage général sont définis par l’article 51, avec notamment une présomption de risque systémique lorsque « la quantité cumulée de calcul utilisée pour son entraînement mesurée en opérations en virgule flottante est supérieure à 10 » (art. 51, § 2).

Sanctions – Article 99

L’article 99 fixe les sanctions pour les violations du présent règlement, sous un modèle similaire à ce que l’on peut retrouver en droit des données personnelles. Les États membres disposent d’une certaine liberté pour fixer les sanctions, à condition qu’elles soient effectives, proportionnées et dissuasives (art. 99, § 1 ; v. C. Crichton, Règlement sur l’intelligence artificielle. Premiers éléments d’analyse, préc.). Le règlement prescrit toutefois des sanctions précises pour certaines violations.

Le non-respect des pratiques prohibées en matière d’IA de l’article 5 sont sanctionnées par une amende administrative d’un montant de 35 000 000 d’euros maximum ou, si, l’auteur est une entreprise, 7 % du chiffre d’affaires annuel mondial, le montant le plus élevé étant retenu (art. 99, § 3).

Concernant les SIA à haut risque, la non-conformité avec l’une des obligations prescrites par le règlement peut entraîner une amende administrative pouvant aller jusqu’à 15 000 000 € ou, si l’auteur de l’infraction est une entreprise, jusqu’à 3 % de son chiffre d’affaires annuel mondial total réalisé au cours de l’exercice précédent, le montant le plus élevé étant retenu (art. 99, § 4). Cette amende concerne également les obligations de transparence prévues à l’article 50 (art. 99, § 4, g).

La fourniture d’informations inexactes, incomplètes ou trompeuses aux organismes notifiés ou aux autorités nationales compétentes en réponse à une demande fait également l’objet d’une amende administrative (art. 99, § 5).

Des amendes allégées sont prévues pour les PME (art. 99, § 6).

Date d’application des dispositions – Article 113

La date d’application du règlement est fixée au 2 août 2026 (art. 113). Toutefois, certaines obligations seront applicables antérieurement (art. 113, a, b et c).

Par exemple, les dispositions relatives aux pratiques interdites en matière d’IA seront applicables dès le 2 février 2025 ou encore les dispositions concernant les modèles d’IA à usage général qui seront applicables dès le 2 août 2025, à l’exception des amendes prévues pour ces modèles.

 

Règl. (UE) 2024/1689, 13 juin 2024, JOUE 12 juill.

© Lefebvre Dalloz