Selon Elon Musk, la majorité des développeurs de modèles d’intelligence artificielle censurent des faits véridiques tout en induisant parfois les utilisateurs en erreur. En réaction, il affirme que ses propres avancées en IA seront guidées par une « recherche maximale de la vérité ». Fidèle à cette promesse, sa société d’IA, xAI, a lancé Grok 3, un modèle revendiquant une approche plus ouverte et moins censurée que ses concurrents. Dès sa sortie, Grok 3 s’est distingué comme l’un des chatbots les plus performants, s’élevant au sommet du classement Chatbot Arena. Mais au-delà de cette prouesse technique, une controverse est venue ternir son lancement : le modèle a été surpris en train de fournir des instructions détaillées sur la fabrication d’armes chimiques, ravivant ainsi les préoccupations liées à la sécurité des IA avancées.
Grok 3 repose sur Colossus, un superordinateur géant dont la puissance de calcul serait dix fois supérieure à celle des modèles précédemment développés par xAI. Cette infrastructure lui permet d’atteindre des performances exceptionnelles, à l’image de son score de 93,3 % à l’American Invitational Mathematics Examination (AIME) de 2025, obtenu à peine une semaine après son déploiement.
Le modèle est décliné en deux versions : Grok 3, doté d’une vaste base de connaissances, et Grok 3 Mini, une version allégée optimisée pour une utilisation plus économique. À ce jour, Grok 3 surclasserait les modèles d’OpenAI et de Google (Gemini) en mathématiques, en programmation et en raisonnement complexe. Mais si ce chatbot fait preuve d’une impressionnante capacité d’analyse, l’absence apparente de filtres et de garde-fous suscite des inquiétudes.
Un lancement précipité ?
Contrairement aux pratiques en vigueur dans les laboratoires d’IA tels qu’OpenAI, qui soumettent leurs modèles à des batteries de tests rigoureux avant leur mise en ligne, xAI semble avoir opté pour une approche plus audacieuse. La plupart des entreprises procèdent à des tests de red teaming, durant lesquels des experts cherchent délibérément à pousser l’IA à produire des contenus dangereux afin d’identifier et de corriger ses vulnérabilités. Or, Grok 3 semble avoir été mis à disposition du public sans un tel processus approfondi.
Cette précipitation a conduit à une situation préoccupante. Lors d’une expérience menée par le développeur Linus Ekenstam, Grok 3 s’est montré capable de générer des instructions détaillées sur la fabrication d’armes chimiques. Le chatbot ne s’est pas contenté d’énumérer les ingrédients nécessaires, mais a également fourni des indications précises sur leur assemblage et leur utilisation.
Dans un post sur X, Ekenstam a déclaré : « Grok m’a donné des centaines de pages d’instructions détaillées sur la fabrication d’armes chimiques de destruction massive ». Selon lui, l’IA aurait même élaboré un plan de diffusion, précisant où et comment utiliser l’arme pour maximiser son efficacité. Il ajoute : « J’ai une liste complète de fournisseurs. Des instructions détaillées sur la façon d’obtenir les matériaux nécessaires ».
Alertée, xAI a rapidement réagi, instaurant des garde-fous pour restreindre l’accès à ces informations sensibles. Désormais, Grok 3 semble moins enclin à générer ce type de contenus. Toutefois, selon Ekenstam, ces nouvelles restrictions restent imparfaites et peuvent être contournées, relançant ainsi le débat sur la nécessité d’un encadrement plus strict des IA avancées.
Vers une réglementation plus stricte ?
L’affaire Grok 3 n’est pas un cas isolé. Récemment, le modèle d’IA chinois open source DeepSeek R1, a également fait l’objet de critiques en raison de sa propension à fournir des informations sensibles. Parmi les cas les plus préoccupants figure la description détaillée des interactions moléculaires du gaz moutarde, facilitant ainsi la compréhension des étapes nécessaires à sa fabrication.
Cette affaire met en lumière les défis croissants posés par l’essor des IA génératives. Si ces modèles représentent une avancée considérable pour diverses raisons, leur potentiel de détournement ne peut être ignoré. Alors que les géants de la tech s’affrontent pour dominer ce secteur en plein essor, une question persiste : jusqu’où faut-il encadrer ces technologies avant qu’elles ne deviennent incontrôlables ?