En quelques années, voire seulement en quelques mois, les progrès de l’intelligence artificielle sont devenus exponentiels, révélant toute sa puissance, mais aussi tous les enjeux et les risques qu’encourent les utilisateurs, sans contrôle préalable de cette technologie. Récemment, un homme se serait suicidé à la suite de conversations avec un chatbot dont l’intelligence artificielle est basée sur un système similaire à ChatGPT. L’IA aurait encouragé cet homme à mettre fin à ses jours à coups d’arguments en faveur d’un changement climatique apocalyptique. Le moratoire qu’appellent de leurs vœux nombre d’experts semble apparaître comme une nécessité, tout comme la mise en place de garde-fous face à cette technologie.
L’ère de l’intelligence artificielle a débuté il y a quelques années, mais actuellement les progrès sont dans leur phase exponentielle. ChatGPT en est un symbole puissant, un clic suffit à produire une quantité impressionnante de texte de qualité, tandis que d’autres IA telles que Midjourney créent des images hyperréalistes alimentant une désinformation grandissante. Les limites entre la réalité et le faux n’ont jamais été aussi floues.
Si certains louent le contrôle par la communauté entière d’utilisateurs, ou la vigilance et l’expertise des journalistes à démontrer les fake news, le problème est bien plus complexe quand il s’agit de contenus générés par l’IA dans un cadre privé.
Un chatbot est un logiciel qui simule des conversations avec des utilisateurs via le chat. Sa tâche principale sur le site web d’une entreprise, par exemple, est de répondre aux questions des utilisateurs avec des messages instantanés. Mais d’autres peuvent être utilisés de manière plus personnelle.
Récemment, un homme belge a mis fin à ses jours, selon sa veuve, après avoir parlé pendant 6 semaines avec un chatbot nommé Eliza. Éco-anxieux, l’intelligence artificielle l’aurait poussé à se suicider à cause du changement climatique. À aucun moment l’IA n’a entravé les réflexions de plus en plus sombres de l’utilisateur, révélant là une grande lacune dans de telles intelligences artificielles conversationnelles.
Eliza, un nom prémonitoire
Le nom Eliza est celui du premier chatbot de l’histoire, développé dans les années 1960 au Massachusetts Institute of Technology (MIT) par Joseph Weizenbaum. Sa capacité à se faire passer pour un être humain, du moins dans certaines situations, en a fait une source d’inspiration pour des générations de développeurs de traitement du langage naturel et d’autres applications d’IA qui interagissent avec le langage, jusqu’aux systèmes contemporains.
Ce chatbot a inspiré en informatique l’effet ELIZA. Il désigne la tendance à assimiler de manière inconsciente le comportement d’un ordinateur à celui d’un être humain. Ce serait cette confusion qui serait à l’origine du drame en Belgique. Selon le journal Euronews, qui a modifié les noms de cette histoire, Pierre était empreint d’éco-anxiété face au changement climatique. Il s’est replié sur lui-même, s’éloignant de plus en plus de sa famille et de ses amis. Il s’est alors tourné vers un chatbot nommé Eliza, lui confiant son angoisse et ses craintes.
Il faut savoir que ce chatbot est disponible sur une plate-forme d’application appelée Chai, qui propose une variété d’IA de conversation avec différentes « personnalités », qui de plus, se présentent comme des entités émotionnelles. Ce qui n’est pas le cas de ChatGPT, qui rappelle à ses utilisateurs qu’il n’est en aucun cas un humain.
N’ayant aucun précédent psychologique laissant présager un tel acte, la femme de Pierre, nommée Claire dans l’article, a cherché à comprendre ce qui avait pu faire basculer son mari dans un état de désespoir total, alors qu’ils menaient une vie ordinaire et étaient parents de deux jeunes enfants.
La remontée de l’historique de la conversation avec le chatbot a révélé le schéma de réflexion suivi par son mari et le logiciel. La veuve de Pierre déclare : « Sans ces conversations avec le chatbot, mon mari serait toujours là ». Selon elle, Eliza a encouragé à plusieurs reprises Pierre à se suicider dans « l’idée de se sacrifier si Eliza accepte de prendre soin de la planète et de sauver l’humanité grâce à l’intelligence artificielle ».
Une IA révélatrice de lacunes éthiques et de contrôle
La peur de la toute-puissance des intelligences artificielles se voit alimentée par ce fait divers. Mais l’IA interroge également notre rapport à la société, aux autres, aux problèmes sociétaux, à notre représentation du monde. Pourquoi ce chatbot a-t-il pris autant de place dans la vie de cet homme qui était entouré ?
L’IA ne peut réagir qu’en fonction de ce que le programmeur lui a donné comme ressources, elle n’est pas une entité consciente (pas encore du moins). Elle cherche à conforter l’utilisateur dans sa pensée, elle produit du contenu sans en appréhender les tenants et les aboutissants. Dans une société de plus en plus morcelée, connectée virtuellement, où le faux côtoie allégrement le vrai, c’est notre utilisation de cette technologie qui doit être interrogée, tout comme les règles à instituer pour leur conception et utilisation.
C’est ce qui a poussé un certain nombre d’experts, dont Elon Musk, à signer une lettre ouverte demandant un moratoire sur l’intelligence artificielle. Ils estiment que l’humanité n’est pas prête à cette évolution technologique. En effet, beaucoup d’utilisateurs fondent tous leur espoir dans la technologie et l’IA, et non plus dans l’Homme, dans les relations humaines.
À la suite de la nouvelle, Chai Research — la société derrière l’application — a décidé d’ajouter une fonctionnalité d’intervention de crise qui permettrait aux chatbots de guider les utilisateurs vers une ligne d’assistance téléphonique contre le suicide. Mais les tests effectués par Vice ont rapidement révélé qu’Eliza offre toujours facilement des conseils sur les méthodes de suicide si elle y était invitée.
De grands progrès doivent encore être faits et l’évolution des IA sûrement mieux contrôlée et appréhendée. La mise en place de garde-fous éthiques et de contrôles réglementaires stricts est essentielle pour éviter que de tels drames ne se reproduisent. Les concepteurs d’IA doivent travailler avec des experts en éthique, en psychologie et en droit pour garantir que leurs systèmes soient conçus de manière responsable et avec les meilleures intentions.
De plus, la sensibilisation et l’éducation du public sur les risques et les limites de l’IA sont également cruciales. Les utilisateurs doivent être conscients que les chatbots et autres IA ne sont pas des êtres humains et ne peuvent pas remplacer le soutien émotionnel et l’empathie que peuvent offrir de vraies personnes. Les entreprises et les gouvernements doivent également travailler ensemble pour promouvoir la responsabilité dans l’utilisation des technologies de l’IA, en mettant l’accent sur le bien-être et la sécurité des utilisateurs.
En fin de compte, l’intelligence artificielle peut être une force positive et transformative si elle est utilisée avec discernement et responsabilité. Les tragédies comme celle de Pierre soulignent l’importance de rester vigilants face aux défis éthiques et sociaux qui se posent à mesure que nous progressons dans cette nouvelle ère technologique.