Une plainte collective déposée pour défendre les artistes face aux IA génératrices d’images

plainte collective défendre artistes ia génératrices images
| Midjourney/Pixabay (Arek Socha)/Trust My Science
⇧ [VIDÉO]   Vous pourriez aussi aimer ce contenu partenaire

C’est peut-être une nouvelle étape dans l’histoire des lois liées à l’intelligence artificielle qui s’annonce… Une plainte conjointe a été déposée le 13 janvier dernier contre l’usage de Stable Diffusion, une IA génératrice d’images. Cela fait maintenant plusieurs mois que des artistes protestent contre l’usage qui a été fait de leurs œuvres pour son développement, sans leur consentement.

« C’est, en bref, un outil de collage du 21e siècle », assène Matthew Butterick, avocat et artiste, au sujet de Stable Diffusion. Il s’agit d’un modèle d’apprentissage automatique, plus familièrement appelé « intelligence artificielle », sur lequel repose le fonctionnement de Midjourney, Stability AI, ou encore Dreamup, une application développée par DeviantArt. Ces différentes applications ont toutes en commun de proposer à l’utilisateur d’obtenir des images « originales » en quelques clics, ou en quelques mots.

En résumé, il suffit de décrire à l’IA le visuel souhaité pour obtenir une image. Évidemment, cette nouvelle possibilité a rapidement intéressé de nombreux utilisateurs : « Il est facile de comprendre pourquoi des applications comme Lensa ont captivé l’imagination de millions d’utilisateurs. Les portraits que Lensa produit sont dans une variété de styles flashy qui sont assez convaincants pour un œil non critique. À seulement 7,99 $ l’unité pour un lot de 50 images, beaucoup ont trouvé en Lensa le moyen idéal de créer une photo de profil pour les médias sociaux à un coût négligeable », écrivait en décembre à ce sujet le média Futurism, en prenant l’exemple de l’application Lensa.

Sur le papier, pas de problème. Mais en réalité, cette intelligence artificielle n’a pas tiré son « talent » de nulle part. En effet, il s’agit en réalité d’un « réseau neuronal artificiel » : un système inspiré du fonctionnement des neurones biologiques, qui s’est rapproché par la suite de méthodes statistiques. En résumé, l’intelligence artificielle se « nourrit » d’un grand nombre de données. Elle en extrait des connexions logiques, et les traite en vue d’un résultat. Ici, l’IA doit donc être nourrie d’images pour apprendre à créer de nouvelles images en fonction de la requête proposée.

Afin d’alimenter l’apprentissage de leur IA, ses créateurs ont créé une base de données nommée LAION-5B. Celle-ci utilise des images issues de nombreuses plateformes où des artistes ont déposé des œuvres, telles que DeviantArt, Art Station, Getty Images… Bien entendu, les résultats obtenus par l’IA ne sont pas des « copies », mais certains styles sont largement reconnaissables dans les images générées par les applications. Cependant, les données d’entrée (les images d’entrainement) sont bel et bien les oeuvres exactes des artistes, utilisées sans consentement. Jusqu’ici, les artistes avaient exprimé leur colère, mais n’avaient pas encore agi en justice. C’est désormais chose faite.

Plus de 5 milliards de dollars en jeu ?

« Le 13 janvier 2023, le cabinet d’avocats Joseph Saveri, LLP, a déposé une plainte auprès du tribunal du district nord de Californie au nom de Sarah Andersen, Kelly McKernan, Karla Ortiz et d’autres artistes et parties prenantes contre Stability AI Ltd. ; Stability AI, Inc. ; DeviantArt, Inc. ; et Midjourney, Inc », peut-on lire sur la page dédiée du cabinet d’avocat. Celui-ci compte attaquer les différentes entreprises sur des questions de violation du droit d’auteur, violation du DMCA (Digital Millennium Copyright Act), violations du droit de publicité, violation des conditions d’utilisation de DeviantArt, concurrence déloyale et enrichissement sans cause. Le cabinet compte également demander des dommages et intérêts, et obtenir une injonction pour indemniser le groupe d’artistes pour les préjudices déjà subis, et pour prévenir de futurs préjudices.

Pour donner une idée des préjudices subis par les artistes dans leur ensemble, Matthew Butterick, l’un de ceux à l’origine de la plainte, établit un comparatif sur son site internet. « Même en supposant des dommages nominaux de 1 $ par image, la valeur de ce détournement serait d’environ 5 milliards de dollars. À titre de comparaison, le plus grand vol d’art jamais réalisé a été le vol en 1990 de 13 œuvres d’art du musée Isabella Stewart Gardner, d’une valeur actuelle estimée à 500 millions de dollars », explique le juriste.

Autrement dit, si la plainte est jugée valide, les entreprises mises en cause ont du souci à se faire, surtout si d’autres artistes suivent ce même chemin. Pour le moment, difficile de dire si cela sera le cas. Jusqu’ici, les entreprises se sont défendues en arguant que la méthode d’apprentissage mise en cause n’était pas une pure copie, mais une forme d’apprentissage : « De la même manière qu’un être humain est capable d’apprendre et de s’autoformer à certains principes artistiques élémentaires en observant l’art, en explorant l’imagerie en ligne et en apprenant sur les artistes et en essayant finalement de créer quelque chose basé sur ces compétences agrégées », s’était défendu à ce sujet un porte-parole de l’entreprise Prisma Labs, à l’origine de l’application Lensa.

« Ces images résultantes peuvent ou non ressembler extérieurement aux images d’entraînement. Néanmoins, elles sont dérivées de copies des images de formation et leur font concurrence sur le marché », rétorque pourtant Matthew Butterick. Il détaille aussi dans son post le procédé de fabrication des images, afin de démontrer que les applications utilisent bel et bien des « copies » d’oeuvres, bien que cela soit un procédé indirect.

Laisser un commentaire
Cliquez pour accéder à d'autres articles sur ce sujet.