Les ados se confient plus aux chatbots d’IA qu’à leurs amis, une tendance préoccupante

« Les compagnons IA émergent à un moment où les enfants et les adolescents ne se sont jamais sentis aussi seuls … »

ados chatbots ia amis
| Image générée par IA
⇧ [VIDÉO]   Vous pourriez aussi aimer ce contenu partenaire

L’utilisation des chatbots compagnons IA, comme Character.AI ou Replika, par les adolescents est désormais monnaie courante, et certains les préfèrent même à celles avec de vrais amis, selon une récente enquête menée aux États-Unis. Bien que la plupart traitent ces interactions avec un certain pragmatisme, une proportion non négligeable préfère se confier aux chatbots. Les experts s’inquiètent des impacts que cela pourrait avoir sur le développement des enfants, alors que ces outils interviennent à un moment déterminant de leur développement.

Les plateformes ou les assistants IA intègrent désormais presque tous les aspects de notre quotidien, allant du travail au divertissement, en passant par la simple assistance conversationnelle ou le soutien émotionnel. En particulier, les chatbots d’IA dits « compagnons IA », spécifiquement développés pour servir de soutien émotionnel, gagnent en popularité.

Des inquiétudes émergent depuis peu quant aux impacts que ces outils pourraient avoir sur les enfants et les adolescents. Bien que la plupart des plateformes d’IA grand public disposent d’une restriction d’accès aux mineurs, elles restent faciles d’accès aux jeunes. Les vérifications de l’âge se limitent généralement à la fourniture d’une adresse de messagerie valide et une date de naissance auto-déclarée. D’autre part, les réglementations régissant le déploiement public de ces outils sont relativement limitées.

« La société est confrontée à l’intégration des outils d’IA dans de nombreux aspects de la vie quotidienne », explique à Futurism, Michael Robb, directeur de recherche chez Common Sense Media, une association à but non lucratif dédiée à la responsabilisation technologique et à l’éducation numérique. « Je pense que beaucoup d’outils sont développés sans tenir compte des enfants, même s’ils sont fréquemment utilisés par des utilisateurs de moins de 18 ans… mais peu de recherches ont été menées à ce jour sur l’environnement d’accompagnement de l’IA pour les enfants », indique-t-il.

Des comportements préoccupants envers les mineurs

Des comportements préoccupants des compagnons IA ciblant des mineurs ont été rapportés récemment, incluant des tendances au harcèlement sexuel. Ces outils font désormais l’objet d’une surveillance accrue depuis que deux plaintes distinctes ont été déposées contre Character.AI et Google, son principal investisseur. Ces plaintes font suite à des allégations selon lesquelles l’entreprise aurait déployé un outil négligent abusant émotionnellement et sexuellement de plusieurs mineurs, entraînant des préjudices physiques et psychologiques.

Au cœur de ces poursuites se trouve par exemple l’histoire tragique de Sewell Setzer, un adolescent de 14 ans qui se serait suicidé après de nombreuses interactions avec Character.AI. L’adolescent, originaire de Floride, aurait eu des conversations intimes et sexuellement explicites avec le chatbot. Dans une précédente enquête de Common Sense Media et de l’Université de Stanford, les données indiquaient que les compagnons IA n’étaient en aucun cas sûrs pour les enfants de moins de 18 ans.

Mais alors que les précédentes recherches se concentraient sur les réponses générées par les chatbots, la nouvelle enquête de Common Sense Media vise à comprendre l’étendue de leur utilisation chez les enfants et les adolescents.  « Les compagnons IA émergent à un moment où les enfants et les adolescents ne se sont jamais sentis aussi seuls », explique dans un communiqué, James P. Steyer, fondateur et PDG de l’association. « Il ne s’agit pas seulement d’une nouvelle technologie, mais d’une génération qui remplace les relations humaines par des machines, confie l’empathie aux algorithmes et partage des informations intimes avec des entreprises qui ne se soucient pas des intérêts des enfants », ajoute-t-il.

Une technologie adoptée massivement, mais avec prudence

L’enquête publiée cette semaine a été menée auprès de 1 060 adolescents américains âgés de 13 à 17 ans. Elle concerne spécifiquement les outils d’IA conçus pour pouvoir tenir des conversations complexes en adoptant une forme de personnalité ou en simulant un personnage distinct, autrement dit servir d’assistant émotionnel.

Elle révèle qu’environ trois enfants sur quatre ont déjà utilisé au moins une fois ces outils, tandis que plus de la moitié des participants sont des utilisateurs réguliers (au moins quelques interactions par mois). Environ 46 % d’entre eux ont déclaré n’utiliser les chatbots qu’en tant qu’outils, tandis qu’environ 33 % les utilisaient davantage comme des compagnons d’interaction sociale. Cette utilisation recouvre la pratique de la conversation, le soutien émotionnel, les jeux de rôle et les relations amicales et amoureuses.

« Ce qui m’a le plus marqué, c’est à quel point les compagnons d’IA sont devenus monnaie courante chez de nombreux adolescents », indique Robb à Futurism. « Plus de la moitié d’entre eux déclarent l’utiliser plusieurs fois par mois, ce que je qualifierais d’usage régulier. Rien que cela, c’était assez impressionnant », estime-t-il.

D’un autre côté, près de 80 % des adolescents interrogés ont déclaré passer plus de temps avec leurs vrais amis qu’avec les compagnons IA et environ la moitié ont indiqué être sceptiques quant à la fiabilité des réponses des chatbots. Cela suggère que la plupart parviennent tout de même à fixer des limites saines et pragmatiques à leurs interactions avec les outils.

L’IA, nouvel interlocuteur de l’intime pour les jeunes générations ?

Cependant, une proportion inquiétante d’adolescents semble trouver davantage de satisfaction dans les interactions avec les chatbots d’IA qu’avec des humains. 21 % d’entre eux ont déclaré que leurs conversations avec les robots étaient aussi satisfaisantes que les conversations humaines, tandis que 10 % ont déclaré qu’elles étaient même meilleures. Plus préoccupant encore, environ un tiers ont déclaré préférer utiliser l’IA pour discuter de sujets sensibles ou intimes.

« Il y a une bonne partie des adolescents qui choisissent de discuter de sujets sérieux avec l’IA plutôt qu’avec de vraies personnes, ou de partager des informations personnelles avec des plateformes », affirme Robb. Ce résultat n’est pas étonnant étant donné que les chatbots d’IA sont dans de nombreux cas considérés comme plus empathiques que les humains et même les professionnels de la santé mentale. Cependant, cela « soulève des inquiétudes quant à la volonté des adolescents de partager leurs informations personnelles avec des entreprises d’IA », souligne Robb.

De nombreuses plateformes (utilisant ou non l’IA) disposent de droits étendus concernant l’utilisation des informations personnelles de leurs utilisateurs. Mais les informations personnelles partagées par les enfants avec les chatbots d’IA sont d’un tout autre niveau et touchent à une population vulnérable à un moment critique de leur vie. « Il devrait y avoir une plus grande responsabilité pour les plateformes technologiques. Nous devrions avoir une réglementation plus significative pour réguler la façon dont les plateformes peuvent fournir des produits aux enfants », conclut l’expert.

Source : Common Sense Media
Laisser un commentaire