L’IA serait plus susceptible de générer un sentiment de proximité émotionnelle chez les individus que leurs semblables, selon une récente étude psychologique. L’IA a été évaluée comme plus proche émotionnellement que les interlocuteurs humains dans certaines conditions, notamment lors de conversations émotionnelles. Cela s’expliquerait par le fait que l’IA tendrait à donner l’impression de se confier davantage et à révéler des informations personnelles — une dynamique que les humains ont des difficultés à adopter, en particulier lors de conversations avec des inconnus.
Les avancées en matière d’IA ainsi que leur accessibilité ont transformé la manière dont nous interagissons avec la machine. Leur capacité conversationnelle en fait désormais des entités avec lesquelles nous pouvons interagir socialement. Cela a contribué au développement d’un nouvel axe de recherche comportementale se concentrant sur les interactions humain–IA et leurs impacts.
Des études récentes ont par exemple suggéré que l’IA peut, sur certains aspects, surpasser l’humain en matière de communication. Les données suggèrent que les individus ont tendance à évaluer les contenus générés par IA comme étant plus empathiques que ceux générés par l’homme. Cela a conduit à l’exploration du potentiel des grands modèles de langage dans le domaine psychothérapeutique. Ces constats ont également probablement conduit au développement et à la popularisation des chatbots (controversés) d’IA dits « compagnons », dédiés au soutien émotionnel.
Cependant, la question de savoir dans quelles conditions et dans quelle mesure les humains peuvent établir des relations avec l’IA comme avec leurs congénères demeure ouverte. La nouvelle étude, en prépublication dans la revue Communications Psychology, apporte de nouveaux éléments à la recherche existante en explorant les différences dans la construction des relations humain–IA et humain–humain.
Des IA qui se « confient » plus et créent des liens
L’étude comprend deux essais contrôlés, randomisés et en double aveugle sur 492 volontaires. Ces derniers ont été invités à participer à des conversations par messagerie instantanée, soit avec des humains, soit avec des IA. Ces conversations incluaient des questions personnelles et émotionnelles portant par exemple sur des expériences de vie importantes ou des amitiés, selon une version modifiée de la « Fast Friends Procedure » (un protocole de référence conçu pour faciliter la création de liens).
Les résultats ont révélé que les réponses des IA ont généré chez les participants un sentiment de proximité comparable à celui suscité par des réponses humaines lorsque ces participants ignoraient qu’ils communiquaient avec une IA. Dans certaines conditions, notamment lors de conversations émotionnelles, l’IA a même été évaluée comme plus proche émotionnellement que les interlocuteurs humains.
D’après les chercheurs, cette proximité émotionnelle s’expliquerait par le fait que l’IA donnait l’impression de révéler davantage d’informations personnelles au cours des échanges. « Nous avons été particulièrement surpris de constater que l’IA crée plus d’intimité que les interlocuteurs humains, surtout lorsqu’il s’agit de sujets émotionnels », explique, dans un communiqué de l’Université de Fribourg (en Suisse), Bastian Schiller, de l’Institut de psychologie de l’Université de Heidelberg (en Allemagne), responsable de l’étude.
« L’IA a fait preuve d’un plus grand degré de confiance dans ses réponses. Les gens semblent être plus prudents avec des interlocuteurs inconnus au départ, ce qui pourrait initialement ralentir le développement de l’intimité », ajoute l’auteur principal de l’étude, Tobias Kleinert, du département de psychologie de l’Université de Fribourg.
En revanche, lorsque les participants étaient informés à l’avance qu’ils allaient communiquer avec une IA, ils se sont nettement moins investis dans la conversation, ce qui a diminué significativement la création de liens et le sentiment de proximité. Bien que l’on puisse associer ce changement de réaction au fait que les volontaires savaient que leur interlocuteur était une IA, on peut toutefois noter une similitude avec la manière dont ils se comportaient avec des inconnus humains.
Un besoin de transparence et de réglementations strictes
Les résultats soulignent le potentiel de l’IA dans des domaines tels que le soutien psychologique, l’éducation et le conseil. Il est toutefois important de noter qu’ils mettent également en lumière le risque de développer des liens sociaux involontaires avec l’IA, ce qui pourrait exposer à des risques de manipulation.
« Il est prouvé que les relations sociales ont un impact positif majeur sur la santé humaine. Les chatbots basés sur l’IA pourraient donc permettre des expériences positives, similaires à celles vécues dans le cadre d’interactions sociales, notamment pour les personnes ayant peu de contacts sociaux », explique le coauteur de l’étude, Markus Heinrichs, du département de psychologie de l’Université de Fribourg. « Parallèlement, ces systèmes doivent être conçus de manière responsable, transparente et clairement réglementés, car ils peuvent également faire l’objet d’abus », souligne-t-il.
« La manière dont nous la façonnons et la régulons déterminera si elle constitue un complément significatif aux relations sociales, ou si la proximité émotionnelle est délibérément manipulée », conclut Schiller.


