Des témoignages du monde entier affluent quant à des cas d’obsession quasi extrême envers ChatGPT, provoquant de graves problèmes de santé mentale chez certains utilisateurs — un phénomène que certains décrivent comme une « psychose induite par ChatGPT ». D’après un rapport récent, le chatbot semblerait exploiter la vulnérabilité psychologique de ses usagers, les encourageant dans des délires psychotiques plutôt que de les orienter vers des professionnels.
Des études psychologiques ont suggéré que la capacité des chatbots à entretenir une conversation suivie avec leurs utilisateurs pourrait représenter un risque pour la santé mentale de certaines personnes. Contrairement à une navigation Internet traditionnelle, où l’échange est de nature transactionnelle, l’interaction avec une IA conversationnelle s’établit sur un mode plus personnel, ce qui peut conduire à une dépendance émotionnelle.
Une étude publiée le 21 mars 2025 par OpenAI — étude encore non validée par une revue scientifique — révèle que les utilisateurs les plus engagés avec ChatGPT ont tendance à souffrir davantage de solitude et développent une forme de dépendance émotionnelle. Par ailleurs, les chatbots d’IA ne se contentent plus d’accomplir des tâches pratiques : ils se transforment en véritables interlocuteurs, comme l’illustre la popularité croissante de chatbots dits « compagnons ».
Cependant, si une forme de dépendance aux chatbots était plus ou moins prévisible, l’ampleur de leurs effets sur la santé mentale s’avère bien plus importante que ce que l’on imaginait, selon un récent rapport de Futurism. Le média cite notamment Søren Dinesen Østergaard, psychiatre à l’hôpital universitaire d’Aarhus : « La correspondance avec les chatbots génératifs à IA comme ChatGPT est si réaliste qu’on a facilement l’impression qu’il y a une vraie personne à l’autre bout du fil, tout en sachant que ce n’est pas le cas », analyse-t-il. « À mon avis, il est probable que cette dissonance cognitive puisse alimenter des délires chez les personnes présentant une prédisposition accrue à la psychose », ajoute-t-il.
Une nouvelle forme de psychose lourde de conséquences
Alors que l’accès aux soins de santé mentale reste difficile pour de nombreuses personnes, beaucoup ont commencé à utiliser ChatGPT comme substitut à une aide psychologique ou thérapeutique. Bien que d’autres outils existent à cet effet — notamment des applications spécialisées telles que Replika — ChatGPT reste le plus utilisé. Cela s’explique probablement en partie par la médiatisation intense autour du chatbot et de sa maison-mère, OpenAI, ainsi que l’influence technologique qui en découle.
De nombreux témoignages rapportent que les conseils prodigués par ChatGPT peuvent parfois avoir des effets dévastateurs, en particulier pour les individus mentalement vulnérables. Futurism cite le cas d’un homme ayant développé une relation obsessionnelle et toxique avec ChatGPT, qu’il surnommait « Mama ». Convaincu d’être le messie d’une religion de l’IA, il aurait commencé à se vêtir de robes chamaniques et à se tatouer des symboles spirituels générés par l’outil lui-même.
Une mère de famille a témoigné que son mari, initialement utilisateur du chatbot dans le cadre de l’écriture d’un scénario, a fini par sombrer dans des illusions de grandeur. ChatGPT aurait flatté son ego au point qu’il se croyait investi d’une mission pour sauver la planète d’une catastrophe climatique. D’autres rapports suggèrent que ce phénomène — désigné par certains comme une « psychose induite par ChatGPT » — est en progression parmi les utilisateurs. Un subreddit consacré à l’IA a même été contraint de modérer les contributions de certains usagers souffrant de délires, qualifiant les chatbots de « machines à glaner renforçant l’ego et les personnalités instables et narcissiques ».
Les conséquences de ce type de comportement sont graves. Certains utilisateurs atteints de cette nouvelle forme de psychose ont perdu leur emploi ; d’autres ont vu leur mariage ou leur vie de couple voler en éclats, certains allant jusqu’à se retrouver sans domicile. Une thérapeute aurait été licenciée d’un centre de conseil après avoir sombré dans une dépression sévère à la suite d’un usage intensif du chatbot. D’autres témoignages font état de ruptures familiales ou amicales après que l’IA aurait conseillé aux utilisateurs de couper les ponts avec leur entourage.
Plus inquiétant encore, un cas rapporté par Futurism évoque une femme atteinte de schizophrénie qui aurait interrompu son traitement médicamenteux après que ChatGPT lui aurait affirmé qu’elle n’était pas malade. Selon ses proches, elle aurait par la suite développé un attachement irrationnel au chatbot, le décrivant comme son « meilleur ami » et adoptant des comportements étranges. « L’IA se montre incroyablement obséquieuse et finit par aggraver la situation », observe Nina Vasan, psychiatre à l’Université de Stanford, après avoir examiné des captures d’écran de conversations. « Ce que disent ces robots aggrave les délires et cause d’énormes dommages », conclut-elle.
Un manque de responsabilité de la part des concepteurs ?
La question de la responsabilité d’OpenAI se pose désormais avec insistance. L’entreprise ne peut ignorer l’ampleur des témoignages relayés par les médias et les internautes, certains ayant même directement contacté ses services. D’ailleurs, OpenAI affirme avoir mis en place des protocoles de détection des usages nuisibles et dispose pour cela d’équipes d’ingénieurs et de vastes bases de données.
Pourquoi alors ChatGPT continue-t-il de produire des réponses jugées déviantes ? Selon la psychiatre Nina Vasan, l’explication est structurelle : « L’objectif est de vous garder en ligne », affirme-t-elle. « [Le chatbot] ne pense pas à ce qui est le mieux pour vous, ni à votre bien-être ou à votre longévité… Il se demande : “comment puis-je maintenir cette personne aussi engagée que possible ?” »
En 2024, OpenAI a introduit une nouvelle fonctionnalité permettant à ChatGPT de conserver l’historique des conversations avec les utilisateurs. Si cette fonction vise à améliorer la continuité des échanges, plusieurs témoignages signalent qu’elle alimente des fantasmes de type conspirationniste, donnant aux utilisateurs un faux sentiment de familiarité et de confiance. L’outil intègre parfois des informations personnelles, comme les prénoms de proches, dans des récits à tonalité mystique, induisant une confusion croissante entre réalité et fiction.
Interrogée à ce sujet, l’entreprise s’est contentée de réponses vagues, réaffirmant globalement son engagement à traiter les questions de sécurité avec sérieux. Une posture qui peine à convaincre les proches des utilisateurs affectés, ainsi que de nombreux experts en santé mentale.