Les agents d’intelligence artificielle actuels, conçus pour exécuter des tâches spécifiques à notre place, sont sur le point de franchir une nouvelle étape. Imaginez une technologie capable de refléter votre personnalité, vos valeurs et vos préférences, capables de dialoguer en votre nom avec une fidélité remarquable. Une étude récemment publiée sur arXiv par une équipe de chercheurs de l’Université de Stanford et de Google DeepMind présente un tel agent, conçu par ces mêmes experts.
L’intelligence artificielle générative a connu un essor spectaculaire ces dernières années. Initialement limitée à la génération de texte, elle englobe désormais la création d’images, de sons, de lignes de code, de vidéos et même de jeux vidéo.
Des chercheurs de Stanford et Google DeepMind ont démontré que l’IA peut désormais simuler certains aspects de la personnalité humaine. Ils ont ainsi conçu des agents capables de reproduire les valeurs, préférences et traits de personnalité des individus à partir des données fournies par ces derniers, promettant des avancées notables pour l’IA en général.
Mais quel est l’intérêt de créer des répliques virtuelles d’êtres humains ? Les chercheurs envisagent plusieurs applications concrètes pour ces agents. Par exemple, ils pourraient être employés pour mener des études comportementales ou sociétales, là où l’implication de sujets humains réels serait trop coûteuse ou complexe à organiser. Ces agents pourraient également être utilisés pour des recherches sur des scénarios stressants ou conflictuels, permettant d’observer les réactions sans exposer directement des êtres humains à ces situations.
Des entretiens avec une IA
Pour cette recherche, les scientifiques de Stanford et Google ont constitué un échantillon diversifié de 1 052 individus, choisis pour refléter une variété de profils en matière d’âge, de sexe, d’ethnicité, de région géographique, de niveau d’éducation et d’idéologies politiques. Chaque participant a été invité à participer à un entretien en visioconférence de deux heures avec une « IA intervieweuse ». Le protocole de ces entretiens a été soigneusement conçu par des sociologues.
Les discussions ont exploré de nombreux aspects de la vie des participants : leur enfance, leur vie familiale, leur parcours éducatif, les événements marquants de leur existence, leurs opinions politiques, les valeurs qu’ils défendent, etc. Ces entretiens ont permis de mettre en lumière des éléments complexes et nuancés de la vie de ces individus, des détails qui auraient difficilement émergé dans le cadre de sondages classiques.
L’objectif principal de ces discussions était de recueillir suffisamment de données pour permettre la création de ce que les chercheurs appellent des « agents de simulation ». Les réponses des participants ont été rigoureusement transcrites par un modèle d’IA. Les transcriptions, comprenant en moyenne 6 491 mots par participant, ont ensuite été transmises aux agents afin qu’ils répondent comme le ferait l’individu représenté.
Jusqu’à 85 % de similitude dans les réponses
Pour évaluer l’efficacité des agents de simulation dans leur capacité à imiter les individus qu’ils représentent, l’équipe de recherche a mené une série d’essais. Ils ont utilisé une « enquête sociale générale », un outil standard permettant de recueillir des données sur divers aspects de la vie des individus. Cette enquête comprend des questions sur les caractéristiques démographiques (âge, sexe, origine ethnique, niveau d’éducation), ainsi que sur le bien-être et les comportements. L’équipe a également procédé à une évaluation des cinq grands traits de personnalité, appelés les « big five », comprenant : l’ouverture à l’expérience, la conscience, l’extraversion, l’amabilité et le névrosisme.
Les agents de simulation ont ensuite été soumis aux mêmes tests, et les résultats ont été comparés à ceux des humains. La similitude des réponses était d’environ 85 %. Toutefois, cette capacité de l’IA à refléter les personnalités suscite des préoccupations éthiques, notamment concernant les risques liés à son utilisation. En effet, les agents pourraient potentiellement être utilisés pour imiter des personnes sans leur consentement, en disant ou faisant des choses que les véritables individus n’auraient jamais autorisées.