À quel point l’IA peut-elle reproduire une personnalité ?

intelligence artificielle reproduire personnalite
| Alexandra Koch/Pixabay
⇧ [VIDÉO]   Vous pourriez aussi aimer ce contenu partenaire

Les algorithmes d’intelligence artificielle dictent aujourd’hui de nombreux aspects de notre vie. Grâce aux données qu’ils collectent à travers les différentes technologies que nous utilisons, ils semblent nous connaître de mieux en mieux. À tel point que certains modèles d’IA peuvent aujourd’hui simuler la personnalité d’un individu de manière assez convaincante. Mais peuvent-ils réellement cerner toute la complexité humaine au point de créer de véritables doubles numériques ?

L’intelligence artificielle joue un rôle de plus en plus important dans notre vie quotidienne. Les assistants virtuels gèrent plusieurs de nos tâches et contrôlent nos appareils connectés, ce qui leur permet d’apprendre nos préférences. Certains appareils domestiques intelligents (thermostats, éclairage, etc.) sont capables de s’ajuster automatiquement en fonction de nos habitudes. De même, les plateformes de streaming audio et vidéo analysent nos comportements pour nous recommander les contenus les plus susceptibles de nous plaire.

À cela s’ajoutent les appareils et applications de santé/fitness, qui surveillent notre niveau d’activité, notre fréquence cardiaque, notre sommeil, etc. En résumé, tous ces algorithmes apprennent chaque jour à nous connaître un peu mieux. Parallèlement, comme le souligne une étude ExpressVPN, les IA génératives sont aujourd’hui capables de créer des visages humains extrêmement réalistes. D’ici à ce que vous vous retrouviez un jour nez à nez avec votre sosie numérique sur les réseaux sociaux, il n’y a qu’un pas.

Une personnalité prédéfinie ou adaptée au contexte

L’IA est déjà capable de reproduire presque parfaitement des voix et des visages existants. Si cela peut s’avérer utile dans un cadre cinématographique pour « ressusciter » momentanément des acteurs décédés, il est en revanche plus inquiétant de savoir que votre sosie numérique existe peut-être quelque part sur Internet à votre insu. Ce sosie vous ressemblerait sans doute beaucoup du point de vue physique. Mais qu’en serait-il de la personnalité de cet avatar ? Serait-il capable de réagir exactement comme vous ? Peut-être.

Une IA peut être programmée pour imiter certaines personnalités avec des traits spécifiques. Elle peut se montrer amicale ou plus formelle, drôle ou empathique. Ces personnalités sont prédéfinies via des règles ou des modèles linguistiques qui orientent les réponses. De la même manière, les IA peuvent simuler des émotions prédéfinies (joie, tristesse, colère, etc.).

Des systèmes plus avancés sont même capables de s’adapter au contexte. Ainsi, ils peuvent, dans une certaine mesure, ajuster leur style de communication et les émotions qu’ils souhaitent afficher en fonction du contexte et des interactions passées. L’interaction se fait dès lors plus fluide, plus naturelle ; la personnalité perçue par l’utilisateur est de ce fait beaucoup plus « crédible ».

Cet aspect est renforcé par le fait que l’IA peut apprendre des préférences et des comportements spécifiques d’un utilisateur au fil du temps. Cela lui permet de personnaliser ses réponses de manière à simuler le type de relation attendu par l’utilisateur.

Reproduire une manière de penser et de raisonner

Les grands modèles de langage (GPT, LaMDA, Claude, Llama, Gemini, etc.) peuvent générer du texte qui semble émaner d’une personnalité existante. Ces modèles sont entraînés à l’aide d’une énorme quantité de données (textes, discours, etc.) piochées sur Internet, dont forcément, dans le lot, certains textes produits par ou pour ces personnalités. Cela permet, si le modèle n’est pas trop bridé, de demander de générer un texte inspiré du style et de la personnalité d’une personnalité connue.

Ainsi, il existe déjà de nombreux chatbots intelligents calqués sur des personnalités humaines spécifiques. Des applications proposent même de discuter avec des personnalités décédées ! Marc Aurèle, Napoléon, Socrate, Einstein, etc., des célébrités de tous les domaines qui peuvent vous apporter leur point de vue algorithmique sur le monde actuel… De son côté, Meta expérimente des avatars basés sur des célébrités (Charli D’Amelio, Dwyane Wade, Kendall Jenner, Snoop Dogg, etc.) dans ses applications de messagerie — avec leur consentement.

Cette approche a toutefois ses dérives. Le magazine Politico rapporte par exemple le cas de Martin Seligman, un influent psychologue américain, âgé de 81 ans. Il s’avère que l’un de ses anciens étudiants, Yukun Zhao, a créé son double virtuel. Pour ce faire, il a introduit le contenu d’une quinzaine d’ouvrages de Seligman dans un logiciel d’IA de pointe. En deux mois, il a obtenu un chatbot pensant et s’exprimant comme lui.

Le programme, surnommé « Ask Martin », a été développé sans l’autorisation du psychologue (et sans même qu’il soit au courant). Zhao, aujourd’hui vice-directeur du Centre de recherche en psychologie positive de l’Université Tsinghua, en Chine, a déclaré avoir créé cette IA pour aider ses concitoyens à traverser une épidémie d’anxiété et de dépression.

De la même façon, Alex Furmansky, un entrepreneur technologique, a lui aussi créé son propre chatbot thérapeute, inspiré d’Esther Perel, une célèbre psychothérapeute belge. Pour ce faire, il a récupéré sur Internet l’ensemble des podcasts de la professionnelle. Il aurait utilisé ce bot pour se conseiller lui-même suite à un chagrin d’amour.

L’IA peut cependant avoir du mal à maintenir sur la durée l’identité qu’on lui a attribuée. Si l’interaction dure trop longtemps, la personnalité virtuelle peut devenir incohérente, surtout si elle est confrontée à des situations pour lesquelles elle n’a pas été explicitement entraînée.

Un manque d’intelligence émotionnelle

En effet, si l’IA peut imiter une personne, il y a tout de même des limites à ce qu’elle peut réellement reproduire en matière de profondeur et de complexité humaine. Et pour cause, une IA n’a pas de conscience ni de vécu. Elle ne ressent rien. Les réponses qu’elle fournit sont uniquement basées sur des corrélations et des modèles appris à partir de données spécifiques. Elles ne reposent pas sur une véritable compréhension ou une expérience personnelle.

Or, ce sont nos expériences de vie individuelles qui guident nos émotions. Celles-ci sont complexes, parfois contradictoires. Grâce à l’apprentissage profond, certaines IA sont aujourd’hui capables de déduire une émotion d’une expression faciale. Cependant, ces programmes sont entraînés à partir d’images « idéales ». Les portraits qui leur sont proposés sont généralement « joués » par les protagonistes, dans un contexte neutre. En outre, l’éventail des émotions est généralement limité, explique la neuropsychologue Audrey Masson dans The Conversation.

Dès qu’il s’agit d’analyser des visages dans des conditions plus naturelles, ces algorithmes de détection deviennent beaucoup moins performants. C’est essentiellement parce que l’être humain n’a pas une expression spécifique pour chaque émotion. Au contraire, il y a plusieurs expressions faciales possibles pour une même émotion et vice versa, une seule expression peut traduire plusieurs émotions. On peut pleurer de chagrin, mais aussi de rire ou de soulagement. On fronce les sourcils lorsque l’on est en colère, mais aussi par dégoût ou lorsque l’on est perplexe, que l’on réfléchit, etc.

Le contexte est dans ce cas déterminant. Un être humain va utiliser toutes les informations dont il dispose pour décoder les émotions de son interlocuteur. Il va tout d’abord examiner la personne elle-même : sa posture, son regard, l’intonation de sa voix, ses gestes, etc. Puis les informations liées à son environnement : le lieu, la situation dans laquelle elle se trouve, etc. Enfin, le contexte social compte également : la culture de l’interlocuteur, ce que l’on sait de lui, les autres personnes présentes, etc. Les IA sont aujourd’hui incapables d’une telle analyse instantanée.

En résumé, l’IA peut reproduire une personnalité de manière superficielle et convaincante, surtout pour des interactions bien spécifiques. Cependant, elle ne peut pas véritablement incarner la complexité émotionnelle humaine. Elle ne fait que suivre les directives fournies par ses créateurs ou les modèles de comportement appris à partir des données. Les personnalités générées par l’IA sont donc essentiellement des « illusions », capables de simuler de nombreux aspects de l’intelligence humaine, mais encore incapables de comprendre pleinement la façon dont les humains ressentent et expriment leurs émotions.

Laisser un commentaire