Getty Images poursuit Stability AI pour avoir illégalement utilisé des millions d’images de sa banque

accusation Getty Images Stable Diffusion
Exemples d’images apocalyptiques générées par Stable Diffusion (v2.1-768) à partir d’une description textuelle. | Stability AI
⇧ [VIDÉO]   Vous pourriez aussi aimer ce contenu partenaire

Stability AI est à l’origine de Stable Diffusion, une intelligence artificielle capable de générer des images à partir de descriptions textuelles. Ce type d’IA fonctionne par apprentissage automatique et de ce fait, nécessite d’être formée à la tâche avec des millions de données existantes. Getty Images accuse ses concepteurs d’avoir utilisé illégalement sa banque d’images pour entraîner leur outil.

« La position de Getty Images est que Stability AI a illégalement copié et traité des millions d’images protégées par le droit d’auteur et les métadonnées associées détenues ou représentées par Getty Images en l’absence d’une licence au profit des intérêts commerciaux de Stability AI et au détriment des créateurs de contenu », explique la banque d’images dans un communiqué. La société a donc engagé une procédure judiciaire devant la Haute Cour de justice de Londres.

Getty Images affirme dans son communiqué qu’elle soutient les projets d’intelligence artificielle artistiques, arguant que cela pourrait engendrer des efforts créatifs. Elle a ainsi déjà accordé des licences « à des innovateurs technologiques de premier plan » pour qu’ils puissent former leur IA avec une partie de son stock d’images tout en respectant les droits de propriété personnelle et intellectuelle. Stability IA n’aurait, quant à elle, entrepris aucune démarche auprès de Getty Images pour obtenir une licence et se serait servie des images sans permission ni contrepartie.

Des milliers de fichiers issus des plus célèbres banques d’images

Craig Peters, PDG de Getty Images, a déclaré à The Verge que la société avait délivré à Stability AI une « lettre avant action » — une notification officielle de l’imminence du litige — expliquant que Stability AI avait abusé de la propriété intellectuelle d’autrui pour construire une offre commerciale dont elle serait l’unique bénéficiaire. Contactée par The Verge, Stability AI n’a fait aucun commentaire et a affirmé n’avoir reçu aucune information sur cette action en justice.

Les détails du procès n’ont pas encore été rendus publics, mais Peters a déclaré que les accusations comprenaient la violation du droit d’auteur et la violation des conditions de service du site (en particulier, le web scraping, qui consiste à extraire le contenu d’un site Web via un programme).

Les données d’entraînement de Stable Diffusion étant open source, Andy Baio, technologue et blogger américain, a entrepris de récupérer et d’examiner une partie de ces données (un échantillon de 12 millions d’images sur les 2,3 milliards d’images sur lesquelles Stable Diffusion a été formé pour la première fois, précise Baio). « Sans surprise, un grand nombre provenait de sites de banques d’images. 123RF était le plus grand avec 497k, 171k images provenaient du CDN d’Adobe Stock sur ftcdn.net, 117k de PhotoShelter, 35k images de Dreamstime, 23k d’iStockPhoto, 22k de Depositphotos, 22k d’Unsplash, 15k de Getty Images, 10k de VectorStock, et 10k de Shutterstock, parmi tant d’autres », détaille-t-il.

Comme bien d’autres outils à base d’intelligence artificielle, Stable Diffusion s’appuie sur des données (ici des images) créées par l’Homme pour s’entraîner et se perfectionner. Ces données, textes et images, sont généralement glanées sur le Web, bien souvent à l’insu de leurs auteurs et créateurs et donc, sans leur autorisation.

La nécessité d’un nouveau cadre juridique pour les IA créatives

Les entreprises du secteur affirment toutefois que cette pratique est légale ; aux États-Unis, elle serait notamment couverte par le « fair use » (que l’on peut traduire comme usage « raisonnable » ou « acceptable »), un ensemble de règles qui définissent certaines limitations et exceptions aux droits d’auteur. Les auteurs, quant à eux, estiment que c’est une violation de leurs droits. « Ces modèles génératifs doivent tenir compte des droits de propriété intellectuelle d’autrui, c’est le cœur du problème. Et nous entreprenons cette action pour obtenir de la clarté », a déclaré Peters.

À ce jour, les experts juridiques sont divisés sur la question, mais il est certain que la loi va très vite devoir intégrer ces nouveaux aspects du secteur culturel et créatif, car ces conflits risquent de se multiplier. « Cette action en justice marque une escalade dans la bataille juridique qui se développe entre les entreprises d’IA et les créateurs de contenu », souligne James Vincent, journaliste à The Verge.

Un nouveau cadre juridique clair, c’est tout ce que souhaite le PDG de Getty Images, qui a déclaré que la société n’était pas intéressée par des dommages-intérêts ni par une éventuelle interdiction des outils artistiques à base d’IA. « Je pense qu’il y a des moyens de construire des modèles génératifs qui respectent la propriété intellectuelle. Je compare [ceci à] Napster et Spotify. Spotify a négocié avec les détenteurs de droits de propriété intellectuelle – labels et artistes – pour créer un service. Vous pouvez débattre de la question de savoir s’ils sont ou non rémunérés de manière équitable, mais il s’agit d’une négociation fondée sur les droits des individus et des entités », a-t-il déclaré.

À savoir que Stabilité AI fait également l’objet d’une autre action en justice, intentée par trois artistes : Sarah Andersen, Kelly McKernan et Karla Ortiz ont déposé un recours collectif contre Stability AI, DeviantArt et Midjourney pour leur utilisation de Stable Diffusion. Pour Matthew Butterick, qui fait partie des avocats représentant les trois artistes, ce recours est « un pas de plus vers une IA équitable et éthique pour tous ».

Stability est a priori persuadée d’agir en toute légalité, mais face au mécontentement croissant des créateurs d’images, la société a annoncé à la mi-décembre que les artistes qui le souhaitaient pouvaient retirer leurs images du corpus utilisé pour l’entraînement avant la formation de Stable Diffusion 3. Le processus, testé et décrit par Ars Technica, semble toutefois laborieux et peu rigoureux : aucune vérification d’identité n’est par exemple effectuée avant la « désactivation » des images et il est impossible de désactiver simultanément les multiples copies d’une même image.

Source : Getty Images

Laisser un commentaire
Cliquez pour accéder à d'autres articles sur ce sujet.