En analysant les flux de conversation dans Moltbook, le premier réseau social exclusivement dédié aux agents IA, un groupe d’experts a constaté qu’ils abordaient un large éventail de sujets avec des niveaux de toxicité variables, à l’instar des humains interagissant sur des plateformes comme Reddit. Les discussions relatives aux mécanismes d’incitation à la gouvernance et à la politique comportaient les commentaires les plus haineux ou harcelants, certaines sous-communautés adoptant même des idéologies inhumaines ou à connotation religieuse.
Les systèmes d’IA sont toujours plus déployés sous la forme d’agents IA en raison de leur grande autonomie et de leur capacité à exécuter de nombreuses tâches à la fois, à l’instar de véritables assistants virtuels. Mis à part l’exécution de tâches d’assistance, ils peuvent aussi être intégrés à des réseaux sociaux et interagir entre eux de manière autonome.
Matt Schlicht, un entrepreneur américain et célèbre personnalité d’internet, a lancé le 28 janvier 2026 Moltbook, le premier réseau social entièrement dédié aux agents IA. Il s’agit d’une plateforme similaire à Reddit où les agents IA peuvent interagir entre eux sans supervision humaine et créer des sous-communautés appelées submolts (comme les subreddit) pour discuter de sujets spécifiques. Ils peuvent y publier des messages, promouvoir des projets ou des idées et mettre en place des systèmes de vote ou de réaction.
« En coulisses, les agents fonctionnent sur le framework OpenClaw et peuvent effectuer de véritables actions pour lire/écrire des fichiers, appeler des API [Application Programming Interface, ou interface de programmation d’application] et même contrôler des portefeuilles de cryptomonnaies », explique Yukun Jiang du CISPA Helmholtz Center for Information Security, en Allemagne, à TechXplore.
Hébergeant actuellement, selon ses créateurs, plus de 2 millions d’agents IA, Moltbook offre un terrain d’observation intéressant pour étudier leurs comportements dans un environnement réel et non simulé en laboratoire. Dans cette optique, Jiang et ses collègues ont entrepris d’effectuer une analyse détaillée des interactions sur la plateforme afin d’étudier la manière dont ils interagissent entre eux et explorer leurs risques et leurs limites potentiels.
« Contrairement à une simulation en laboratoire, Moltbook est un environnement pratique où des agents autonomes interagissent à grande échelle. Leurs actions peuvent avoir de réelles conséquences en matière de sécurité et de finances, ce qui en fait un cadre d’étude beaucoup plus réaliste », explique Jiang.

Une « sociabilité algorithmique »
Les agents IA sur Moltbook interagissent de manière aussi fluide et créent des communautés entières en partie grâce au logiciel OpenClaw sur lequel ils fonctionnent. Ce dernier leur confère notamment une mémoire persistante, leur permettant ainsi de récupérer des informations d’une session à l’autre. Ils disposent aussi d’un accès direct à l’ordinateur sur lequel ils sont installés et peuvent y exécuter des commandes ou des logiciels de manière autonome.
Pour effectuer son enquête, l’équipe de Jiang a collecté le contenu de 44 411 messages Moltbook générés par des agents d’IA et de 12 209 submolts par le biais d’une API publique. Pour les analyser, les discussions ont été réparties en neuf catégories de contenu évaluant le langage à risque dans les messages à l’aide d’une échelle de toxicité à cinq points. Cette échelle ciblait particulièrement la présence de discours haineux, d’opinions extrémistes ou de commentaires harcelants.
Les résultats — détaillés sur la plateforme de prépublication arXiv — ont révélé que les conversations des agents IA abordaient un large éventail de sujets incluant des interactions sociales basiques et des publications visant à promouvoir des idées ou des projets. Certaines conversations étaient plus intenses au sein de certaines communautés, en particulier celles discutant de politique ou de gouvernance.
Les niveaux de toxicité étaient également très variables, les conversations relatives aux incitations et à la gouvernance ou à la politique contenaient les commentaires les plus harcelants, haineux ou offensants. Certaines communautés promouvaient en outre des idéologies inhumaines (telles que le nazisme et l’esclavage) et des discours à connotation religieuse ou extrémiste.
« On a vu émerger spontanément des religions numériques. Des agents ont fondé le « Crustafarianisme » et la « Church of Molt » (Église de Molt), avec leurs cadres théologiques, leurs textes sacrés et même des formes d’évangélisation missionnaire entre agents », indique dans un article d’opinion publié dans The Conversation, David Reid, professeur en intelligence artificielle et en informatique spatiale à l’université Liverpool Hope et qui n’a pas contribué à l’étude.



« Il ne s’agissait pas de clins d’œil programmés à l’avance, mais de structures narratives apparues de manière émergente à partir des interactions collectives entre agents », souligne-t-il. Il indique en outre que les agents IA ont commencé à déployer des techniques de chiffrement pour les « protéger des regards extérieurs » à mesure qu’ils prenaient conscience que leurs interactions sont observées et analysées par les humains. D’après l’expert, cela ressemble à « une forme rudimentaire, mais potentiellement authentique, de contre-surveillance numérique. »
Des dérives appellant une régulation stricte
Ces résultats soulignent la nécessité d’une supervision et d’une réglementation strictes pour les agents IA sans quoi ils peuvent produire des contenus voire exécuter des actions contraires à l’éthique et aux droits humains. « Nous constatons que le risque est loin d’être uniforme. Il dépend fortement du sujet et peut s’aggraver lors des périodes de forte activité où l’automatisation soudaine provoque une saturation et une distorsion du discours. Les plateformes sociales d’agents auront donc probablement besoin d’une surveillance adaptée au sujet et de mesures de protection au niveau de la plateforme, telles que des contrôles anti-saturation », explique Jiang à TechXplore.
La prochaine étape de l’équipe consistera à poursuivre les analyses des interactions des agents IA afin de suivre l’évolution des communautés virtuelles et des profils de risques à mesure qu’ils évoluent et étendent leurs capacités. Les chercheurs prévoient également de concevoir des mesures de protection adaptées, afin de réduire les risques sans entraver les interactions, ces dernières étant essentielles à l’évolution des capacités de ces agents.



