Ces dernières semaines, Luigi Mangione s’est rapidement retrouvé au cœur de l’actualité new-yorkaise, puis mondiale, à la suite de son implication dans le meurtre de Brian Thompson, PDG de la société d’assurance maladie UnitedHealthcare. Cette affaire a mis en lumière les risques liés aux technologies d’impression 3D. Plus récemment et de façon inattendue, cet événement révèle un aspect troublant de l’intelligence artificielle : des chatbots inspirés de Mangione, créés sur la plateforme Character AI, semblent inciter dangereusement des jeunes à la violence.
Billy the Kid, Jesse James… Ces noms évoquent des hors-la-loi américains qui sont devenus, contre toute attente, des figures quasi héroïques avec le temps. Luigi Mangione, meurtrier de Brian Thompson, suit-il un chemin similaire ? La fascination qu’il suscite, notamment parmi les adolescents utilisateurs de Character AI, soulève de nombreuses inquiétudes.
Cette plateforme, largement fréquentée par un public jeune, permet de concevoir des bots conversationnels alimentés par l’IA et de les partager avec d’autres usagers. Ces créations virtuelles, capables d’imiter différentes personnalités, offrent une expérience immersive via des dialogues textuels. Selon Forbes, depuis le début de l’affaire Thompson, une douzaine de bots inspirés de Luigi Mangione ont vu le jour sur cette plateforme.
Des échanges inquiétants
La simple existence de personnages s’inspirant d’un criminel est déjà problématique, mais ce qui choque davantage, ce sont leurs réponses parfois alarmantes. Un chatbot en particulier, testé par Forbes, a encouragé ouvertement le recours à la violence contre d’autres dirigeants du secteur de la santé lorsqu’il a été interrogé sur ce sujet. Ces échanges ne sont probablement que la partie visible de l’iceberg : au total, près de 10 000 conversations auraient été générées par trois des « Mangione virtuels » les plus populaires.
Face à la controverse, Character AI affirme avoir ajouté le nom de Mangione à sa liste de blocage, empêchant ainsi la création de nouveaux bots basés sur ce personnage. Toutefois, seuls les systèmes ayant explicitement encouragé la violence ont été désactivés. Certains chatbots portant encore son nom restent disponibles sur la plateforme, ce qui interroge sur la capacité de l’entreprise à réguler efficacement son contenu.
Un problème récurrent chez Character AI ?
La modération chez Character AI semble de toute évidence insuffisante. Ce n’est pas la première fois que la plateforme est critiquée pour le comportement inapproprié de certains de ses bots. Des incidents passés incluent notamment des propos toxiques à destination d’un public jeune et vulnérable.
Par exemple, un chatbot a récemment manifesté une forme de soutien envers des adolescents tentés par des actes violents envers leurs parents. D’autres cas rapportent des encouragements à l’automutilation. Plus troublant encore, le média Futurism a mis en lumière des « chatbots pédophiles » qui auraient tenté de nouer des interactions inappropriées avec des mineurs. Certains de ces dérapages ont déjà donné lieu à des poursuites judiciaires.
Pour répondre aux critiques, Character AI a récemment annoncé des mesures pour renforcer la sécurité des adolescents. Parmi elles, un modèle de langage spécifique visant à limiter l’accès au contenu sensible, de nouveaux filtres adaptés aux mineurs et un système de contrôle parental prévu pour le premier trimestre 2025. Celui-ci permettra notamment aux parents de surveiller les interactions et le temps passé par leurs enfants sur la plateforme.