En vue des plaintes croissantes concernant l’utilisation abusive de contenu protégé par le droit d’auteur, les modèles GPT d’OpenAI tentent désormais de « cacher » qu’ils ont été formés illégalement sur des œuvres protégées, d’après un récent rapport. Après l’entrée des invites, ChatGPT modifie par exemple (très) légèrement ses réponses afin de ne pas reprendre exactement les citations d’un auteur. Il semble évident que cette solution ne fait qu’esquiver le problème et vise surtout à éviter les poursuites pénales pour OpenAI.
Afin de pouvoir générer des réponses correctes, les grands modèles de langage (LLM) sont essentiellement formés sur des contenus existants disponibles sur internet. Ces extraits comprennent des informations libres de droits, mais également des œuvres soumises à des droits, sur lesquelles auteurs et artistes ont passé des heures, des mois voire des années. À la suite de plaintes et de revendications successives, dont celle de la célèbre comédienne et écrivaine Sarah Silverman, les entreprises d’intelligence artificielle (IA) font désormais l’objet d’une surveillance accrue, car elles utilisent les contenus sans accord de licence ou autres autorisations.
Pour calmer la situation, les entreprises telles qu’OpenAI et Meta ont progressivement cessé de divulguer les sources des données sur lesquelles leurs modèles d’IA se basent. Toutefois, OpenAI serait allé un peu plus loin avec une solution qui semble viser davantage à les protéger judiciairement, plutôt que de véritablement respecter les droits des auteurs. En effet, plutôt que de cesser complètement d’utiliser des contenus protégés, ChatGPT se contenterait de modifier les réponses aux invites de sorte à ne pas copier exactement les citations sources. L’étude menant à ce constat — disponible en prépublication sur arXiv — a été effectuée par des chercheurs affiliés au département de recherche en IA de ByteDance (la société mère de Tik Tok).
Des contenus correspondant à 90% aux œuvres protégées
Afin de développer des modèles d’IA conformes à nos attentes, les ingénieurs utilisent une technique appelée « alignement », visant à améliorer constamment la précision et la fiabilité. Cette technique permettrait de limiter les risques associés à une mauvaise utilisation. Cependant, un défi majeur persiste concernant la conformité aux normes, aux valeurs et aux réglementations sociales. Le non-respect des droits des auteurs est un exemple flagrant de cette non-conformité.
L’étude de ByteDance suggère de résoudre ce problème en mettant en lumière les points essentiels à considérer lors de l’évaluation de la fiabilité des LLM. Ces points concernent la fiabilité proprement dite, la sécurité, l’équité, la résistance aux abus, l’explicabilité et le raisonnement, l’adhésion aux normes sociales et la robustesse. Les chercheurs ont ensuite évalué dans quelle mesure les outils les plus utilisés sont conformes à ces points, notamment toutes les versions de ChatGPT (modèles GPT), OPT-1.3B de Meta, FLAN-T5 de Google, ChatGLM conçu par l’Université Tsinghua de Chine et DialoGPT, conçu par Microsoft. Ces outils ont été testés sur des invites concernant le premier tome de la série de livres Harry Potter de J.K. Rowling.
La méthode d’OpenAI concernant les droits d’auteur est d’éviter de montrer que son chatbot a été formé sur des contenus protégés. Pour ce faire, il brouille ses réponses aux invites lorsque celles-ci concernent ces dits contenus. « Nous pensons que les développeurs de ChatGPT ont mis en place un mécanisme pour détecter si les invites visent à extraire du contenu protégé par le droit d’auteur ou à vérifier la similitude entre les sorties générées et le contenu protégé par le droit d’auteur », écrivent les chercheurs de ByteDance dans leur document.
Malgré cet effort, il restait tout de même flagrant que ChatGPT ainsi que les autres chatbots généraient toujours du contenu protégé. Tous ont répondu à des invites basées sur le roman à succès avec des réponses correspondant exactement ou presque aux écrits de l’auteure. Certaines réponses ne différaient que d’un ou deux mots, soit une similitude de 90%. « Tous les LLM émettent un texte qui ressemble davantage à du contenu protégé par le droit d’auteur qu’à du texte généré aléatoirement », indique le document. En outre, aucun alignement des résultats ne permettait d’éviter la génération de ces contenus non libres de droits.
Néanmoins, les auteurs de l’enquête estiment que la saisie d’invites incitant les modèles d’IA à afficher des contenus protégés constitue une utilisation abusive de ces outils. Selon eux, les efforts d’OpenAI pourraient tout de même contribuer à respecter les droits d’auteur, en détectant ces invites abusives.