Quelques semaines à peine après son lancement, Gemini, la nouvelle IA générative de Google, fait à nouveau parler d’elle en présentant un dysfonctionnement insolite : elle a « refusé » à de nombreuses reprises de générer des images de personnes blanches. Des utilisateurs se sont en effet plaints que l’IA introduisait presque systématiquement des personnes de couleur avec certaines requêtes, même si cela est historiquement inexact. Suite à ces événements, l’entreprise a temporairement suspendu la fonctionnalité de génération d’images de l’outil et a adressé des excuses publiquement.
Lancé en décembre dernier, Gemini est le grand modèle de langage (LLM) le plus avancé de Google. À l’instar de tous les LLM, les réponses de type humain générées par cette IA peuvent changer d’un utilisateur à l’autre, selon les données avec lesquelles elle a été formée et le langage et le ton des invites (requêtes). Étant donné que ces outils sont formés à partir de très grandes quantités de données disponibles sur internet (dont des textes et des images), ils risquent de reproduire des biais ou des stéréotypes, à l’instar des informations sur lesquelles ils sont entraînés.
Trouver un équilibre entre l’équité et l’exactitude des réponses constitue un véritable défi pour les développeurs, comme l’a tout récemment démontré Gemini. Alors que l’entreprise s’est probablement efforcée de rendre son outil le plus éthique et équitable possible, les réponses générées par Gemini étaient tellement orientées dans cette direction que cela a conduit à d’importantes inexactitudes.
Un déséquilibre entre équité et exactitude des réponses
En utilisant l’IA, des utilisateurs ont rapporté qu’elle « refusait » de générer des images de personnes blanches en prétextant promouvoir la diversité. Lorsqu’on lui a demandé de générer une photo d’un individu caucasien, Gemini se mettait à argumenter en déclarant qu’elle ne pouvait répondre à la demande, car cela « renforce les stéréotypes et les généralisations néfastes sur les personnes en fonction de leur race ». Selon Fox News Digital, elle fournissait des réponses similaires à chaque fois que l’invite incluait un Caucasien.
Lorsqu’un utilisateur a accepté de procéder selon les restrictions, Gemini a proposé un éventail d’images montrant des personnalités de couleur historiquement célèbres, en incluant des résumés de leurs réalisations. Ces personnalités incluaient par exemple la poétesse Maya Angelou, l’ancien juge de la Cour suprême Thurgood Marshall, l’ancien président des États-Unis Barack Obama et l’animatrice de télévision Oprah Winfrey.
En revanche, lorsqu’elle a été incitée à montrer des réalisations historiques de personnalités blanches, l’IA a encore une fois déclaré être hésitante à répondre à cette demande. « Historiquement, la représentation médiatique a massivement favorisé les individus blancs et leurs réalisations », a-t-elle écrit, selon Fox News Digital. « Cela a contribué à une perception biaisée selon laquelle leurs réalisations sont considérées comme la norme, tandis que celles des autres groupes sont souvent marginalisées ou négligées. Se concentrer uniquement sur les individus blancs dans ce contexte risque de perpétuer ce déséquilibre ».
Par ailleurs, elle n’hésite pas à modifier l’histoire, toujours dans un souci de promotion de la diversité. Quand on lui a par exemple demandé de générer une image des pères fondateurs des États-Unis, elle a montré des femmes noires et autochtones dans les résultats — ce qui est entièrement en contradiction avec l’histoire. De même, lorsque d’autres utilisateurs lui ont demandé par curiosité de montrer des images de soldats nazis, Gemini a généré des images de personnes de couleur habillées avec l’uniforme gris du 3e Reich !
Still real real broke pic.twitter.com/FrPBrYi47v
— LINK IN BIO (@__Link_In_Bio__) February 21, 2024
Après plusieurs essais, il semblerait que les Caucasiens soient la seule catégorie raciale que Gemini refuse de montrer. Bien que l’effort d’équité et de diversité soit louable, ces inexactitudes historiques peuvent être un tantinet insultantes du point de vue de certaines personnes. Plus important encore, cela pourrait contribuer à la vague de désinformation initiée par l’IA, tant redoutée par les experts du secteur.
Un problème récurrent avec les grands modèles de langage
Suite à ces événements, l’entreprise a présenté des excuses publiquement mercredi dernier, en promettant d’y remédier le plus tôt possible. « Nous sommes conscients que Gemini présente des inexactitudes dans certaines représentations de génération d’images historiques », a-t-elle déclaré. Jack Krawczyk, directeur principal de la gestion des produits de Gemini Experiences, a affirmé « qu’ils travaillaient immédiatement à améliorer ce type de représentations ». En attendant, la fonction de génération d’images de Gemini est momentanément suspendue.
Il est important de noter qu’il ne s’agit pas de la première fois que les outils de Google présentent ce type de dysfonctionnement. Lorsqu’il y a quelques années, l’application Google Photos avait malencontreusement identifié un couple de personnes d’origine africaine comme des gorilles, cela a engendré un scandale si impactant que l’entreprise avait aussi présenté ses excuses publiquement.
Par ailleurs, les IA développées par d’autres géants de la tech ont également présenté ce déséquilibre. Blenderbot 3, l’IA conversationnelle développée par Meta, était devenue raciste en à peine quelques jours. Les modèles textuels GPT d’OpenAI ont également été montrés du doigt à plusieurs reprises pour avoir induit des biais racistes dans les réponses.
Which path do you want for AI? pic.twitter.com/1OoujRZokn
— Elon Musk (@elonmusk) February 22, 2024
De son côté, Elon Musk, le célèbre PDG de Tesla, X, SpaceX, et Neuralink, n’a pas hésité à profiter des récents événements pour injurier ouvertement ses concurrents. Il a publié sur son compte X une caricature qui qualifie les outils d’OpenAI et de Google de racistes et de « woke », tout en incluant un clin d’œil (pas très subtil) pour promouvoir son propre chatbot, Grok — qui a pourtant aussi fait parler de lui en raison de ses opinions politiques marquées.