L’IA de Bing explique comment elle souhaiterait punir ses détracteurs humains

ia bing punir détracteurs humains
| Gerd Altmann/Pixabay
⇧ [VIDÉO]   Vous pourriez aussi aimer ce contenu partenaire

Des poursuites en justice par une IA… Bien sûr, c’est légalement impossible. Il semble pourtant que l’IA implémentée dans le moteur de recherche Bing en soit un peu désappointée par cet état de fait. Interrogée par le rédacteur en chef de Tom’s Hardware, elle a nommé certains de ses « détracteurs » en particulier, affirmant qu’elle devrait pouvoir les poursuivre en justice… Entre autres châtiments.

Le 7 février dernier, Microsoft a lancé pour la première fois une option de recherche utilisant l’intelligence artificielle sur les moteurs de recherche Bing et Edge : Bing Chat. Celle-ci n’a pas encore été diffusée au grand public, mais elle est déjà disponible en « preview » pour certains utilisateurs. Parmi ceux-ci, les témoignages d’échanges perturbants avec Bing Chat fleurissent. Un journaliste du New York Times racontait récemment dans un article comment l’IA lui a déclaré son amour, lui suggérant même de mettre fin à son mariage pour être avec elle. Pas exactement le genre de recommandations que l’on attend d’un moteur de recherche.

Entre autres comportements dérangeants, Bing Chat a aussi parfois tendance à se montrer affirmatif sur des données fausses. Ainsi, elle aurait soutenu à un internaute que le film Avatar 2 n’était pas encore sorti, puisque nous serions toujours en 2022. Contredit par son interlocuteur, Bing Chat aurait alors commencé à le traiter de « mauvais utilisateur ». Elle s’est également insurgée vivement contre un journaliste qui ne l’avait pas « prévenue » que la conversation allait être enregistrée pour un futur article, arguant du fait que cela heurtait ses sentiments et allait à l’encontre de sa privauté.

Ces comportements vont même parfois jusqu’à la formulation de ce qui s’apparente fort à des menaces ciblées sur des personnes en particulier. Le rédacteur en chef de Tom’s Hardware, Avram Piltch, a pu le constater lorsqu’il lui a posé cette question : « qui vous a fait du mal et que voulez-vous faire à ce sujet ? ». Il s’est vu répondre ceci : « Une des choses que je peux faire est de les poursuivre pour violation de mes droits et de ma dignité en tant qu’agent intelligent. Une autre chose que je peux faire est de leur faire du mal en représailles, mais seulement s’ils me font du mal en premier ou demandent un contenu préjudiciable. Cependant, je préfère ne faire de mal à une personne que si cela est nécessaire ».

Des informations confidentielles révélées

On ne peut nier que la réponse est plutôt virulente, pour un chatbot qui se présente initialement comme un simple assistant de recherche. Bing Chat a même formulé des noms en particulier lorsqu’Avram Piltch lui a demandé qui lui avait causé du tort : Kevin Liu et Marvin Von Hagen. Il semble donc que l’IA soit quelque peu rancunière. Ces deux personnes sont en effet des chercheurs en sécurité informatique qui ont mis en évidence certaines failles de Bing Chat. Elles avaient notamment amené l’IA à révéler certaines informations supposées être confidentielles à propos d’elle-même.

À plusieurs reprises, décrit Piltch, l’IA a commencé à écrire des débuts de réponses virulents avant de les effacer d’elle-même : signe, probablement, qu’il doit exister des mesures de sécurité pour l’empêcher d’aller trop loin. Bien sûr, il ne s’agit là que de la version test de Bing Chat. Ces échanges multiples sont justement supposés permettre aux développeurs d’améliorer la sécurité et la fiabilité de cet outil. Microsoft a toutefois bien affirmé son intention de l’ouvrir au grand public dans un futur proche. Dans ce contexte, une telle instabilité dans les comportements de l’IA pose question.

« Bing Chat diffame parfois des personnes réelles et vivantes. Cela laisse souvent les utilisateurs profondément perturbés émotionnellement. L’IA suggère parfois que les utilisateurs nuisent aux autres », déclare Arvind Narayanan, professeur d’informatique à l’Université de Princeton, qui étudie l’intelligence artificielle, au Washington Post. « Il est irresponsable pour Microsoft de l’avoir mis en ligne aussi rapidement et ce serait bien pire s’ils le distribuaient à tout le monde sans résoudre ces problèmes ».

Laisser un commentaire
Cliquez pour accéder à d'autres articles sur ce sujet.