IA et droit d’auteur : l’ADAGP en appelle à une régulation sur trois points
Afin d'encadrer l'utilisation des intelligences artificielles créatives, il paraît nécessaire de procéder urgemment à plusieurs adaptations du cadre législatif, notamment en ce qui concerne le consentement des auteurs, leur rémunération et la transparence des systèmes d’IA.
Les intelligences artificielles (IA) génératives (ChatGPT, Midjourney, Dall-E, Stable Diffusion, etc.) suscitent aujourd’hui de vives inquiétudes dans le secteur des arts visuels.
Sur la base d’une simple phrase décrivant le résultat attendu (prompt), les utilisateurs de ces outils peuvent, en quelques secondes, obtenir une série d’images générées à la volée, d’un rendu saisissant, capable de tromper l’œil humain quant à sa nature et à son origine.
Le cadre juridique défini par la directive 2019/790, qui a consacré deux nouvelles exceptions au droit d’auteur applicables à la fouille de données pour permettre l’entraînement des systèmes d’IA, n’a pas été élaboré en considération de ces IA capables d’offrir au public des créations générées en masse à partir d’œuvres aspirées sur les réseaux et venant concurrencer directement les auteurs de ces œuvres sur leur marché.
Et bien que l’intervention des législateurs européen et français soit récente, il paraît nécessaire de procéder urgemment à plusieurs adaptations du cadre législatif, notamment en ce qui concerne le consentement des auteurs, leur rémunération et la transparence des systèmes d’IA.
1. Consentement des auteurs
Le consentement des auteurs à l’utilisation de leurs œuvres est un principe essentiel du droit d’auteur. Les limitations qui y sont apportées doivent nécessairement être justifiées et proportionnées.
L’importance des volumes de données requis par l’entraînement des intelligences artificielles a convaincu le législateur européen de 2019 de déroger au principe d’autorisation préalable en matière de fouille de données.
S’agissant de l’exception au bénéfice des organismes de recherche et institutions du patrimoine culturel, prévue à l’article 3, le principe du consentement a été purement et simplement écarté en considération du champ et de la finalité strictes de l’exception, à savoir la recherche scientifique conduite à titre non lucratif par des organismes agissant dans le cadre d’une mission d’intérêt public.
S’agissant de l’exception prévue à l’article 4, non restreinte à la recherche scientifique et pouvant bénéficier aux sociétés commerciales, c’est la solution de l’opt out qui a été retenue, le texte prévoyant au surplus que, pour les œuvres mises à la disposition du public en ligne, « la réservation de ces droits ne devrait être jugée appropriée que si elle est effectuée au moyen de procédés lisibles par machine, y compris des métadonnées et les conditions générales d'utilisation d'un site internet ou d'un service » (considérant 18).
Ce mécanisme d’opt out, supposé offrir un équilibre entre les intérêts des concepteurs d’IA et ceux des titulaires de droits, n’a aucune pertinence dans le domaine des arts visuels. Car contrairement à la musique ou aux films, qui ne sont généralement accessibles en ligne qu’aux utilisateurs authentifiés (ou en recourrant à des lecteurs techniquement sécurisés), les images publiées en ligne sont pratiquement toujours immédiatement visibles et téléchargeables d’un simple clic, de sorte que les robots d’exploration du web qui aspirent les contenus pour nourrir les IA ne rencontrent aucune entrave technique. Quand bien même un standard de métadonnées permettant de s’opposer à ces actes de pillage parviendrait à s’imposer largement – ce qui n’est pas le cas aujourd’hui – cela ne couvrirait pas les milliards d'images déjà accessibles sur internet. Quant aux condititions générales d’utilisation des sites diffusant les images, sur lesquels les auteurs n’ont que rarement la main, il est clair qu’aucun robot d’exploration n’en tient aujourd’hui compte.
Il est essentiel d’inverser la logique de l’article 4, paragraphe 3, à tout le moins pour les images, et demander que soit mis en place un système d’opt in, dans lequel seules les œuvres des auteurs ayant expressément autorisé la fouille de données pourraient servir à entraîner et alimenter les IA.
Un mécanisme d’opt in individuel serait certainement impraticable. Mais il pourrait parfaitement être recouru à des mécanismes de gestion collective permettant d’offrir aux exploitants d’IA génératives des autorisations portant sur tout un répertoire, tout en respectant la volonté des auteurs souhaitant s’en extraire.
L’ADAGP demande que des initiatives soient prises rapidement, au niveau européen ou national, pour que des mécanismes de consentement alternatifs à l’opt out puissent être mis en œuvre dans le secteur des arts visuels.

2. Rémunération des auteurs
Les IA génératives n’ont pas d’esprit créateur : elle imitent, plagient. Il faut, pour qu’elles puissent générer des images, les nourrir de « données », constituées de milliards d’œuvres aspirées automatiquement sur internet et complétées de métadonnées les décrivant (auteur de l’œuvre, titre, sujets représentés…). C’est ce qui permet aujourd’hui de demander aux IA de générer une œuvre picturale ou photographique dans le style de tel ou tel artiste. Issues du pillage des œuvres des artistes, les IA viennent ainsi directement capter la valeur qui y est attachée.
Créer une œuvre à la manière d’un auteur n’est en soi pas interdit par la législation sur le droit d’auteur, dès lors qu’aucun élément formel n’est repris – y compris partiellement – d’une œuvre préexistante. De fait, l’histoire de l’art regorge d’exemples de dialogues artistiques d’un artiste avec l’œuvre d’un autre. L’IA change toutefois la donne par son ampleur (volume des créations générées, vitesse de génération) et, surtout, par sa nature. Dans ce processus de génération d’images, il n’y a en effet bien souvent plus d’artistes – même si un certain nombre de créateurs utilisent les IA comme de « super-pinceaux » numériques permettant de donner forme à leur projet artistique –, mais de simples utilisateurs, des consommateurs, se contentant de décrire leurs envies et se satisfaisant de créations sans âme.
De la même façon que le développement des microstocks (banques d’images à prix bradé) a lourdement affecté le secteur de la photographie, les créations générées par IA pourraient ainsi, à court ou moyen terme, venir concurrencer, dans toutes les disciplines artistiques, les œuvres créées par les auteurs.
La directive de 2019 entendait seulement appréhender la fouille de textes et de données consistant « à analyser des textes et des données sous une forme numérique afin d'en dégager des informations, ce qui comprend, à titre non exhaustif, des constantes, des tendances et des corrélations » (article 2). Il est évident que l’impact des IA génératives sur le marché de la création, agissant à l’égard des auteurs comme de gigantesques parasites numériques, n’a pas été pris en considération lors de l’élaboration du texte.
La question du partage de la valeur doit par conséquent être appréhendée sans tarder, en prévoyant, pour les auteurs ayant consenti à l’utilisation de leurs œuvres dans le cadre de la fouille de données, une compensation équitable au titre du préjudice porté à leurs intérêts.
La directive ne prévoit, certes, aucune obligation de compensation en matière de fouille de données. Elle semble même l’exclure en son dix-septième considérant. Mais c’est uniquement en considération « de la nature et l’étendue de l’exception, qui est limitée aux entités qui font de la recherche scientifique », impliquant que « le préjudice potentiel que cette exception pourrait occasionner aux titulaires de droits serait minime ». L’IA générative va bien au-delà d’une utilisation limitée au cadre de la recherche scientifique et, compte tenu de la monétisation des services offerts au public, génère un préjudice loin d’être minime pour les auteurs, de sorte que la réserve émise quant à la mise en place d’une compensation équitable ne peut guère s’y appliquer.
L’introduction d’un mécanisme de compensation équitable au niveau national spécifique aux IA génératives non seulement est compatible avec le dispositif de la directive mais, surtout, s’impose en application des conventions internationales (Convention de Berne, Traité de l’OMPI sur le droit d’auteur, Accord sur les ADPIC) qui prévoient expressément que des limitations ou exceptions aux droits d’auteur ne peuvent être introduites que « dans certains cas spéciaux où il n’est pas porté atteinte à l’exploitation normale de l’œuvre ni causé de préjudice injustifié aux intérêts légitimes de l’auteur » (test en trois étapes).
Des mécanismes de gestion collective existent pour gérer ce type de rémunérations (c’est le cas, notamment, de la rémunération pour copie privée). Les métadonnées très précises générées par les IA lors de la fouille de données, qui devraient être communiquées par les exploitants de ces outils, permettraient d’ailleurs de procéder à des répartitions très précises.
L’ADAGP appelle les pouvoirs publics à compléter la loi pour introduire un mécanisme de compensation équitable au profit des auteurs dont les œuvres sont utilisées pour entraîner les IA génératives.
3. Obligations de transparence
L’opacité des outils d’IA génératives est aujourd’hui un vrai problème, tant en ce qui concerne les processus de fouilles conduits en amont de la création qu’en ce qui concerne la nature des créations elles-mêmes.
Les auteurs devraient pouvoir disposer d’un droit d’accès leur permettant de connaître les œuvres et données les concernant utilisées dans la fouille de données, et ce quand bien même ils auraient consenti à l’utilisation de certaines de leurs créations par des IA (leur autorisation ne couvrant pas nécessairement toutes leurs œuvres ni tous les systèmes d’IA). Dans le cas où ils se seraient opposés à l’utilisation de leurs œuvres, ce dispositif d’information leur permettrait aussi de s’assurer qu’une autorisation n’a pas été accordée indûment par des tiers. Des principes similaires à ceux prévus par le RGPD (Règlement Général sur la Protection des Données) doivent être mis en œuvre, en offrant aux artistes un droit d’accès, de rectification, d’opposition et un droit à l’effacement.
La transparence est également due au public, qui doit être informé de l’origine – auteur humain ou IA – des créations mises à disposition. Si des utilisateurs peuvent se satisfaire de créations générées par une machine, bien d’autres restent attachés à l’intervention d’un artiste et doivent pouvoir opérer leurs choix en conséquence. Cette obligation de transparence devrait s’appliquer à l’ensemble des acteurs produisant ou diffusant des créations générées par IA. Cette transparence permettrait aussi d’éviter que des personnes puissent revendiquer abusivement des droits en gestion collective obligatoire (au préjudice des artistes dont les rémunérations se trouveraient diluées) au titre d’œuvres entièrement créées par des machines, hors de toute démarche artistique, et, par conséquent, non éligibles à la protection par le droit d’auteur.
L’ADAGP demande que le gouvernement français soutienne auprès des institutions européennes toutes mesures permettant d’imposer un devoir de transparence et d’information aux exploitants d’IA.