Droit d’auteur et IA générative : le Parlement européen adopte le rapport Voss

Les députés européens ont adopté, à une large majorité (460 voix pour), une série de recommandations relatives aux relations entre droit d’auteur et intelligence artificielle générative. Fondée sur le rapport d’initiative présenté par le député Axel Voss, cette résolution aborde de nombreux thèmes : création d’un mécanisme de licences collectives volontaires, clarification du système d’opt-out, territorialité, transparence, étiquetage de contenu généré ou encore, protection du contenu généré par systèmes d’IA.

Le 10 mars 2026, le Parlement européen a adopté une résolution d’initiative relative au droit d’auteur et à l’intelligence artificielle générative, portée par le député Axel Voss. Après avoir constaté que le droit d’auteur européen, et particulièrement la directive (UE) 2019/790, présente des ambiguïtés face à l’IA générative nécessitant certaines clarifications, le document propose plusieurs résolutions.

Cette version finale intervient à la suite d’un premier rapport publié en juin dernier, dont elle se distingue par plusieurs modifications. À la lecture du texte, il est a priori compliqué de définir des thèmes structurants, la résolution apparaissant plutôt comme une succession de propositions sans ligne directrice claire (v. pour une critique similaire, P. Keller, Copyright, AI, and the Limits of Voluntary Licensing, Open Future, 16 mars 2026). Il est toutefois possible de dégager certains points d’attention, qui feront l’objet du présent commentaire.

La transparence : clef de voûte de la résolution

Parmi les différents axes susceptibles de structurer la résolution, la transparence apparaît comme un principe central, voire comme une véritable clef de voûte des mécanismes proposés, dont elle constitue le fil directeur.

En premier lieu, le texte impose aux fournisseurs et aux déployeurs de systèmes d’IA une obligation de transparence portant sur les contenus utilisés pour l’entraînement des modèles, se traduisant par la mise à disposition d’une liste détaillée de tous les contenus utilisés pour l’entraînement. Cette exigence n’est pas sans rappeler certaines analyses doctrinales proposant de distinguer les « ingrédients » de la « recette » (v. à ce sujet, Rapport de la mission relative à la mise en œuvre du RIA, CSPLA, 11 déc. 2024 ; v. égal., É. Migliore, Obligations de transparence sur les données d’entraînement du RIA : retour sur le rapport de mission du CSPLA, Dalloz actualité, 22 janv. 2025). Elle s’étend mutatis mutandis à toute utilisation ultérieure des contenus, notamment l’inférence, la génération augmentée par la recherche (RAG) ou encore le réglage fin (fine tuning). Elle concerne tant les fournisseurs de modèles d’IA que les fournisseurs ou déployeurs de systèmes d’IA (v. à ce sujet, RIA, art. 53). Cette exigence s’étend par ailleurs aux actes de crawling, impliquant que les crawlers doivent s’identifier auprès des opérateurs de sites web et que les entreprises conservent des registres détaillés de leurs activités de crawling (v. Résol., pt Y).

Cette volonté de transparence est prolongée par le recours à des mécanismes techniques, au premier rang desquels figurent le marquage des œuvres et l’étiquetage de contenus. La résolution propose que les titulaires de droits apposent un filigrane sur leurs œuvres, tout en imposant que les fournisseurs d’IA en préservent l’intégrité et mettent à disposition des outils de recherche permettant de les détecter au sein des données utilisés pour l’entraînement (v. Résol., pts AA et 12).

L’objectif de transparence requiert également l’étiquetage des contenus générés par IA, en proposant de les classifier comme « générés par l’IA » ou « créé par l’homme ». Dans cette optique, la résolution invite à étudier des mesures pour lutter contre les deepfakes (v. Résol., pt 27), dont l’étiquetage pourrait constituer une première solution, renforcé par la publication par la Commission d’un code de bonnes pratiques de l’Union européenne sur l’étiquetage des contenus (v. Résol., pt 28).

En dernier lieu, afin de pallier les situations où la transparence ne suffirait pas, le texte propose d’instaurer une présomption réfragable d’utilisation d’œuvres. Il est ainsi proposé que le défaut de respect des obligations de transparence par les fournisseurs d’IA, ou les exploitants de modèles et de systèmes d’IA, fasse naître une présomption réfragable selon laquelle toute œuvre protégée par le droit d’auteur ou tout autre objet protégé pertinent a été utilisé à des fins d’apprentissage, d’inférence ou de génération augmentée par la recherche (v. à ce sujet, Résol., pt AB ; v. égal., la proposition de loi relative à l’instauration d’une présomption d’exploitation des contenus culturels par les fournisseurs d’intelligence artificielle, 12 dec. 2025 ; v. les obs. de S. Le Cam et F. Maupomé, Dalloz actualité, 19 janv. 2026).

Précision sur le principe de territorialité

La résolution aborde également la question de la territorialité, enjeu central dans le contexte des opérations d’IA génératives (v. à ce sujet, les différents litiges mettant en avant la question de la territorialité, É. Migliore, Getty Images c/ Stability : une décision éclairante sur l’IA, le droit des marques et le droit d’auteur, Dalloz actualité, 25 nov. 2025 ; Gema c/ OpenAI : la mémorisation des modèles d’IA au secours des titulaires de droits ?, Dalloz actualité, 2 déc. 2025). Le document réitère des principes déjà dégagés par la doctrine française mais également par le règlement (UE) 2024/1689 sur l’IA du 13 juin 2024 (v. RIA, consid. 106 ; CSPLA, Rapport de mission sur la loi applicable, en vertu des règles de droit international privé, aux modèles d’IA générative commercialisés dans l’UE, 15 déc. 2025 ; É. Migliore, IA, droit d’auteur et loi applicable : analyse du rapport de mission présenté au Conseil supérieur de la propriété littéraire et artistique, Dalloz actualité, 10 févr. 2026). La résolution affirme que le droit d’auteur de l’Union doit s’appliquer à tout modèle ou système d’intelligence artificielle générative mis sur le marché ou mis à disposition dans l’Union, indépendamment du lieu de réalisation des actes d’exploitation sous-jacents, notamment ceux liés à l’entraînement (v. Résol., pts AH et 16).

Standardisation et harmonisation nécessaire pour une meilleure réponse

Un autre apport de la résolution peut être appréhendé sous l’angle de la standardisation et de l’harmonisation, constituant une réponse à certaines des problématiques rencontrées par les titulaires de droit.

À cet égard, s’agissant de la rémunération des œuvres protégées par le droit d’auteur utilisées pour le développement des systèmes d’IA, il est préconisé de mettre en place des mécanismes de licences collectives volontaires (v. Résol., pt 9). Concernant l’utilisation passée des œuvres, la résolution souligne la nécessité d’assurer une rémunération immédiate, équitable et proportionnée pour les utilisations passées d’œuvres protégées par le droit d’auteur par les fournisseurs de modèles et de systèmes d’IA à usage général. Dans le même temps, elle s’oppose à toute proposition consistant à instaurer une licence globale pour l’entraînement de leurs modèles d’IA en échange d’un paiement forfaitaire (v. Résol., pt 21).

S’agissant des mécanismes d’opt-out, le rapport relève, à juste titre, les limites des dispositifs actuels de réserve de droit applicables aux contenus protégés par le droit d’auteur, souvent jugés peu opérationnels, inadaptés et dépourvus de la transparence nécessaire à une mise en œuvre effective. Afin de remédier à ces insuffisances, le texte invite à évaluer la nécessité et la faisabilité d’outils permettant aux titulaires de droits d’exclure de manière effective l’utilisation de leurs œuvres de l’entraînement des IA. Ces outils reposeraient sur un nombre limité de formats standardisés, lisibles par machine, et seraient gérés par un intermédiaire de confiance. La création de tels mécanismes nécessite d’impliquer, en outre, toutes les parties prenantes concernées, en particulier les titulaires de droits, les fournisseurs d’IA et leurs organisations représentatives respectives pour créer les outils les plus pertinents (v. Résol., pts K et 10. À ce titre, la Commission européenne a lancé un appel à projet une étude sur la faisabilité d’un registre central des opt-out, v. à ce sujet, Comm. UE, Call for Tenders for a feasibility study on a central registry of opt-outs under the Text and Data Mining (TDM) exception, 23 janv. 2025).

Le rôle central de l’EUIPO

Un autre apport notable réside dans le rôle central conféré à l’Office de l’Union européenne pour la propriété intellectuelle (EUIPO), qui apparaît comme un acteur pivot des nombreuses mesures proposées.

À ce titre, l’EUIPO serait désigné comme l’intermédiaire de confiance chargé de gérer et de répertorier les opt-out (v. Résol., pt 10), serait responsable de soutenir un processus de concession de licences volontaire et sectoriel (v. Résol., pt 11), permettrait de mener des actions de sensibilisation sur l’IA et le droit d’auteur (v. Résol., pt 22) mais également servirait de tiers de confiance au regard des règles de transparence et de documentation des sources concernant l’utilisation d’œuvres protégées par le droit d’auteur ou d’autres objets protégés (v. Résol., pts 12 et Z).

Le statut des contenus générés par IA

S’agissant du régime applicable aux contenus générés par IA, la résolution réaffirme que les contenus purement générés par les systèmes d’IA ne répondent pas aux critères de protection au titre d’œuvre. Elle invite également à ce que le statut de domaine public de ces productions soit clairement établi. Le rapport évoque que des mesures doivent être mises en place pour lutter contre la violation des droits de reproduction, de mise à la disposition du public et de communication au public par le biais de la production de contenus générés par les systèmes d’IA. Toutefois, ces mesures ne doivent pas empêcher la production de contenus qui relèvent des exceptions au droit d’auteur, telles que la citation, l’usage privé, la parodie ou encore la caricature (v. Résol., pts AE, AG, 25 et 26)

Une attention particulière portée au secteur de la presse

Enfin, la résolution accorde une attention spécifique au secteur de la presse et des médias, incluant notamment éditeurs de presse, journalistes et rédacteurs en chef. Ce secteur apparaît particulièrement exposé aux transformations induites par les systèmes d’IA générative, en raison du développement d’usages consistant à accéder à l’information via ces systèmes, susceptibles de détourner le trafic traditionnel des sites de presse et donc d’impacter la rémunération de ces acteurs (v. Reuters Institute, Digital News Report 2025).

Dans ce contexte, les mesures proposées s’inscrivent dans le prolongement des propositions évoquées précédemment, tout en les adaptant à ce secteur spécifique. La résolution insiste sur la nécessité de garantir aux acteurs de la presse un contrôle effectif sur l’utilisation de leur contenu par les IA générative. Toute utilisation au-delà de l’entraînement, comme la génération ou l’exploitation dans des applications, doit être soumise à leur consentement explicite.

Le texte préconise, à cet égard, la mise en place de mécanismes permettant d’assurer une transparence complète des usages et garantissant aux titulaires de droits la capacité de conserver un contrôle total sur l’utilisation, avec la possibilité effective de s’y opposer et une transparence complète sur ces usages. Il invite en outre la Commission à examiner les modalités selon lesquelles les droits voisins des éditeurs de presse, des journalistes et des rédacteurs en chef, ainsi que d’autres droits connexes, pourraient être étendus afin de couvrir ces nouvelles formes d’exploitation.

Afin d’assurer une rémunération adéquate, le texte envisage une nouvelle fois le recours à des mécanismes de licences collectives volontaires, pouvant s’accompagner d’une présomption de gestion collective des droits au nom des titulaires de droits en ce qui concerne les utilisations de leur contenu liées à l’IA, sans préjudice du droit des titulaires de droits d’opter pour des licences individuelles.

De telles mesures apparaissent d’autant plus essentielles au regard de la préservation du pluralisme des médias, de la diversité de l’information et, plus largement, du débat démocratique au sein de l’Union européenne et de ses États membres (v. Résol., pts 6 à 8). 

 

par Élodie Migliore, Doctorante au CEIPI, Université de Strasbourg

Parl. UE, Résol. sur le droit d’auteur et l’intelligence artificielle générative – opportunités et défis, 10 mars 2026

Source

© Lefebvre Dalloz