Boussole IA & droit d’auteur #1
Cette chronique inédite, en forme de « boussole » constitue, dans cette rubrique consacrée à la propriété intellectuelle, un nouvel outil d’observation et d’analyse consacré au droit d’auteur à l’ère de l’intelligence artificielle. L’objectif est de proposer, d’une part, un état des lieux des faits marquants du trimestre, d’autre part, ce qui se profile et, enfin, la mise en perspective d’un point de droit particulièrement significatif.
Ce qui a bougé : LG München I, n° 42 O 14139/24 (GEMA c/ OpenAI)
Le 11 novembre 2025, la 42ᵉ chambre civile du Tribunal régional de Munich (Landgericht München I) a tranché le litige opposant la GEMA (société de gestion collective des droits d’auteur en Allemagne, équivalent de la SACEM ) à OpenAI Inc. et OpenAI Ireland Ltd., relatif à l’usage, lors de l’entraînement des modèles GPT-4 et GPT-4o, des paroles de neuf chansons protégées et leur régurgitation par ChatGPT. Le jugement distingue deux catégories d’atteintes : d’une part, les « Vervielfältigungen im Modell », c’est-à-dire la fixation interne des textes dans les paramètres du réseau de neurones artificiels, assimilée à une reproduction au sens du § 16 de la loi allemande sur le droit d’auteur (Urheberrechtsgesetz – UrhG) ; d’autre part, les reproductions et la mise à disposition du public constatées dans les sorties, visées aux §§ 16 et 19a de l’UrhG.
S’appuyant sur les articles 2 et 3 de la directive 2001/29/CE, dite « InfoSoc », la formation rappelle la neutralité technologique du droit de reproduction : toute fixation qui rend l’œuvre perceptible, fût-elle indirecte ou probabiliste, relève des droits exclusifs de reproduction et de communication. Elle examine d’abord le fonctionnement des modèles Transformer – tokenisation, vectorisation, mécanisme d’attention – et considère que la génération répétée de séquences quasi identiques aux paroles des chansons litigieuses démontre la mémorisation des œuvres. Faute d’accès au corpus, la preuve est rapportée par l’observation des outputs et les travaux scientifiques sur la « mémorisation » et la « régurgitation ».
Le tribunal érige ensuite les modèles eux-mêmes en exemplaires de l’œuvre (« Vervielfältigungsstücke »), la combinaison des paramètres permettant, via l’interface usuelle, de restituer un texte reconnaissable : l’aptitude à la Wahrnehmbarmachung (perceptibilité) suffit, quelle que soit la forme mathématique de la fixation. Les exceptions invoquées par OpenAI sont alors mises à l’épreuve. Pour l’exception de text and data mining (Dir. [UE] 2019/790 du 17 avr. 2019, art. 4 ; UrhG, § 44b), le tribunal opère le découpage hérité de la jurisprudence LAION (LG Hamburg, 27 sept. 2024, n° 310 O 227/23) : la phase 1 (collecte et préparation du corpus) bénéficie de l’exception ; la phase 2 (entraînement et ajustement des poids), où s’installe la mémorisation durable, en est exclue, faute d’être « strictement nécessaire » à l’analyse. La phase 3 (utilisation par prompts) reste soumise au régime général des droits patrimoniaux. L’exception de recherche scientifique (UrhG, § 60d) est rejetée, OpenAI n’étant pas un organisme à but non lucratif. Accessoirement, les exceptions de citation, de pastiche et de copie privée sont également écartées, les conditions du bénéfice de ces exceptions n’étant pas réunies.
Quant aux mécanismes d’opt-out invoqués par la GEMA, le tribunal les constate sans se prononcer sur leur validité, en décidant qu’ils ne pourraient de toute façon couvrir la mémorisation interne ni les outputs.
Le tribunal condamne OpenAI comme auteur de contrefaçon, ordonnant cessation des reproductions sous astreinte, information et publication. Ce jugement de première instance pourra être confirmé ou réformé par la Cour d’appel (Oberlandesgericht) de Munich.
En retenant la notion de « reproduction latente », la décision munichoise élargit le périmètre du droit exclusif à la mémorisation dans les paramètres des LLM et place la transparence des corpus au cœur de la licéité des modèles. Cette décision contraste avec l’approche adoptée, quelques jours plus tôt, par la High Court de Londres dans l’affaire Getty Images c/ Stability AI (EWHC 2863 [Ch], Dalloz actualité, 25 nov. 2025, obs. E. Migliore), qui a refusé de qualifier le modèle lui-même de contrefaçon, considérant que ses paramètres ne stockent pas les œuvres, mais des corrélations abstraites, de sorte que la notion de reproduction devait être limitée aux seules sorties (outputs) reproduisant une partie substantielle des œuvres originales.
Ce qui se profile : recomposition normative et reconnaissance de la valeur économique des catalogues
Au-delà du retentissement immédiat de l’affaire GEMA, plusieurs dynamiques convergentes sont à l’œuvre à court terme, qui tendent à redéfinir le cadre applicable à l’entraînement des modèles d’IA sur des œuvres protégées.
À l’échelle de l’Union européenne, une nouvelle étape a été franchie avec l’entrée en application, le 2 août 2025, des dispositions du règlement (UE) n° 2024/1689 sur l’intelligence artificielle (RIA) relatives aux modèles d’IA à usage général. Ce texte impose désormais aux fournisseurs de modèles GPAI des obligations spécifiques de transparence, de documentation technique et d’évaluation, qui viennent se superposer aux règles de propriété intellectuelle préexistantes. La transparence sur les données d’entraînement – qui comprennent dans la plupart des cas des œuvres protégées – et sur les caractéristiques des modèles devient ainsi, pour les régulateurs comme pour les ayants droit, un levier central de gouvernance.
Présentée le 19 novembre 2025, la proposition de règlement « Digital Omnibus » (COM[2025] 836 final) poursuit, dans un environnement en mutation, un objectif de simplification et d’ajustement du cadre réglementaire. Sans modifier l’architecture du RIA, elle vise à améliorer l’articulation entre plusieurs instruments du droit numérique (RGPD, Data Act, RIA). Si les discussions politiques anticipent des impacts sur le droit d’auteur (gestion des opt-out, registres), le dispositif du texte déposé ne contient aucune disposition en ce sens.
Parallèlement, au Parlement européen, les travaux autour du projet de rapport d’initiative d’Axel Voss sur l’IA et le droit d’auteur témoignent de la vivacité des débats. Une partie des représentants des titulaires de droits plaide pour un dépassement du modèle d’opt-out « œuvre par œuvre » instauré par la directive (UE) 2019/790, jugé trop complexe. Dans ce cadre, les discussions en commission des affaires juridiques (JURI) ont notamment porté sur l’idée d’un registre centralisé des réserves de droits auprès d’une agence européenne et sur des mécanismes de présomption d’utilisation en cas de défaut de transparence. Ces orientations restent toutefois, à ce stade, au rang de propositions parlementaires en cours de discussion, et non d’un compromis arrêté. Face à elles, les entreprises du secteur du numérique défendent le maintien de l’équilibre actuel fondé sur le droit exclusif et les exceptions, tout en contestant la faisabilité d’un système de gestion collective centralisée pour l’entraînement.
En France, alors que la concertation « IA & culture » bute sur la charge de la preuve de l’opt-out et les protocoles techniques, le rapport d’information du Sénat n° 842 (2024-2025) du 9 juillet 2025 (« Création et IA ») exige un droit à rémunération effectif et une transparence totale des corpus. Il structure une réponse graduée en trois temps : attendre l’issue de la concertation à l’automne 2025 ; en cas d’échec, déposer une proposition de loi instaurant une présomption d’utilisation des œuvres (Recomm. n° 9) ; et enfin, en dernier recours, instaurer une taxation du chiffre d’affaires des fournisseurs d’IA. De son côté, le Conseil supérieur de la propriété littéraire et artistique (CSPLA) recommande, dans son rapport de mission de juillet 2025, la gestion individuelle adossée, le cas échéant, à une gestion collective volontaire comme moyen de concilier la massification des usages d’entraînement et la juste rémunération des ayants droit. L’hypothèse d’une initiative législative début 2026, instaurant une présomption d’utilisation des œuvres, a été évoquée par certains parlementaires comme une possibilité de travail, mais ne constitue à ce stade qu’une piste parmi d’autres, dépourvue de traduction formelle dans l’ordre du jour parlementaire.
Le Royaume-Uni tente de définir une « troisième voie » singulière. À la suite de la consultation menée par l’IPO (Intellectual Property Office) l’hiver dernier (déc. 2024 – févr. 2025), le gouvernement britannique s’oriente vers l’introduction d’une exception de fouille de textes et de données (TDM) couvrant les usages commerciaux, sur le modèle européen, mais avec une approche pragmatique de l’opt-out. Si le principe d’un entraînement autorisé par défaut sur les contenus accessibles licitement est posé, la mise en œuvre reste suspendue à la définition d’un standard technique d’opposition (machine-readable opt-out) qui soit réellement interopérable. Cette question est devenue centrale dans les débats entourant le récent « Data (Use and Access) Act » de l’été 2025 : faute de consensus immédiat, le législateur a pour l’instant renvoyé à des évaluations d’impact supplémentaires, retardant la validation définitive de ce mécanisme essentiel au maintien de l’attractivité du territoire britannique pour les géants de l’IA.
Aux États-Unis, l’accord transactionnel de 1,5 milliard de dollars conclu en septembre 2025 entre Anthropic et un collectif d’auteurs (aff. Bartz c/ Anthropic) marque un tournant. En choisissant la voie contractuelle pour solder les usages passés sur un vaste corpus de livres, les parties ont privilégié une solution pragmatique de partage de la valeur, sans attendre l’issue incertaine des grands procès en fair use. Si les contentieux de principe se poursuivent, ce précédent envoie un signal économique fort : la reconnaissance de la valeur des données d’entraînement commence à se traduire en flux financiers concrets.
Sur le plan sectoriel, la régulation de l’IA se structure par la voie contractuelle, bien que de manière encore inégale. Dans l’industrie musicale, cette dynamique se concrétise par des accords de licence inédits – tel le partenariat scellant la fin du contentieux entre Warner Music Group et Suno en novembre 2025 – et par l’adoption de chartes éthiques (v. par ex., les Principles for Music Creation d’UMG et Roland) visant à sanctuariser l’intégrité vocale et encadrer l’entraînement des modèles.
Parallèlement, le secteur audiovisuel normalise des clauses de protection strictes, inspirées des standards du SAG-AFTRA sur les « répliques numériques », qui soumettent le doublage ou la génération d’images synthétiques à un consentement explicite et à une rémunération spécifique. Bien que dépourvus de force obligatoire, ces instruments privés standardisent les pratiques de marché, constituant progressivement un référentiel d’usages susceptible d’éclairer l’interprétation du juge en cas de litige. Étant précisé que ces « standards » connaissent une diffusion inégale en dehors des États-Unis d’Amérique.
Ainsi, la décision du Tribunal régional de Munich (Tr. régional de Munich, 11 nov. 2025, n° 42 O 14139/24, Dalloz actualité, 2 déc. 2025, obs. E. Migliore) ne doit pas être lue isolément. Elle s’insère dans un mouvement global de recomposition où s’entremêlent les instruments juridiques étatiques et de l’Union (RIA, réformes nationales du droit d’auteur), la régulation souple (standards techniques, chartes) et la pratique contractuelle. Cette décision, de laquelle il résulte que la mémorisation de contenus protégés dans les modèles de langage peut constituer une reproduction au sens de la directive InfoSoc et ne peut être couverte par l’exception de fouille de textes et de données, met en exergue une question centrale : comment ériger un cadre juridique cohérent pour l’entraînement sur contenus protégés au sein de régimes hétérogènes (RIA, codes de pratique et doctrine de la Commission européenne, exception TDM diversement interprétée, particularités des droits nationaux multiples pratiques contractuelles) ?
Le point de droit à retenir : la fixation des caractéristiques d’une œuvre dans les paramètres d’un modèle d’IA pourrait constituer une reproduction au sens de la directive InfoSoc
La principale nouveauté de ce trimestre réside dans la réponse que le Tribunal de Munich apporte à la question de la reproduction à l’heure de l’IA générative et de la formation des grands modèles de langage.
Le jugement munichois (Tr. régional de Munich, 11 nov. 2025, GEMA c/ OpenAI, n° 42 O 14139/24, préc.) explore et approfondit la notion de reproduction appliquée aux grands modèles de langage à la lumière de l’article 2 de la directive InfoSoc. Respectant la neutralité technologique dégagée par la Cour de justice de l’Union européenne, il procède en trois temps : (1) constat de l’inclusion des textes protégés dans le corpus d’entraînement et de la capacité du modèle à produire, sur simple requête, des quasi-copies ; (2) qualification de cette aptitude de « Memorization » (mémorisation), à la lumière des travaux sur la rétention d’information dans les réseaux neuronaux ; (3) affirmation que cette fixation interne – certes « probabiliste » et invisible – répond aux critères de la reproduction, car elle permet une perception indirecte et wiederholbar (perception répétée et fiable) de l’œuvre.
Trois conséquences en découlent. Primo, le droit exclusif s’exerce dès la phase d’apprentissage : la mémorisation paramétrique (« Vervielfältigung im Modell ») constitue une atteinte autonome, rendant tout entraînement non autorisé intrinsèquement risqué. Secundo, l’administration de la preuve se trouve facilitée pour les titulaires : des outputs substantiellement similaires, corroborés par des indices statistiques, peuvent suffire à établir la matérialité de la contrefaçon, sans créer pour autant, à ce stade, une présomption légale irréfragable. Tertio, le champ de l’exception TDM est précisé : la préparation du corpus (phase 1) demeure couverte, tandis que l’encodage durable intervenant en phase 2 en est exclu, faute d’être « strictement nécessaire » à l’analyse, de sorte que l’entraînement génératif échappe aux articles 4 de la directive (UE) 2019/790 et § 44b de l’UrhG.
En consacrant la « reproduction latente », la décision fait de la transparence des corpus et des architectures des modèles d’IA le pivot de la licéité. Ce positionnement reste cependant soumis aux aléas des recours et des évolutions jurisprudentielles à venir. La divergence avec les juges britanniques, les incertitudes sur les futurs standards du RIA et la perspective de questions préjudicielles devant la Cour de justice suggèrent que la construction du régime juridique des LLM et de l’IA générative est loin d’être achevée. Les mois et années qui viennent seront décisifs pour fixer, au niveau européen, la ligne de partage définitive entre les usages couverts par les exceptions et ceux requérant l’autorisation des ayants droit.
par Pascal Alix, Avocat associé, Virtualegis AARPI, DPO Externe
© Lefebvre Dalloz