OpenAI a conclu un accord avec le gouvernement américain pour l’utilisation de ses derniers modèles d’IA dans les laboratoires nationaux de recherche scientifique et pour la sécurité des armes nucléaires. Jusqu’à 15 000 chercheurs gouvernementaux auront accès à la dernière série o1 d’OpenAI dans des centres stratégiques, tels que le Laboratoire national de Los Alamos (connu pour la création des trois premières bombes atomiques).
Malgré les risques d’erreurs et les fréquentes hallucinations, le gouvernement américain utilise fréquemment des outils d’IA. En 2024, OpenAI a affirmé que plus de 90 000 employés du gouvernement ont généré plus de 18 millions d’invites sur ChatGPT. Les demandes concernent par exemple la traduction de documents officiels, la rédaction de notes politiques, ou encore la programmation d’applications.
Le nouveau partenariat d’OpenAI fait suite à une série de mesures prises par Sam Altman, PDG de l’entreprise, après l’investiture de Donald Trump. Altman semble multiplier ses efforts pour se rapprocher du nouveau président. Il a par exemple contribué à hauteur d’un million de dollars à son investiture et assisté à l’événement aux côtés d’autres grands noms du secteur technologique.
Il a en outre manifesté ouvertement son admiration pour le nouveau président, affirmant que son opinion sur lui avait évolué et qu’il sera « incroyable pour le pays à bien des égards ». OpenAI fait partie du projet d’investissement gouvernemental Stargate, allouant 500 milliards de dollars au développement d’infrastructures d’IA.
Altman a annoncé le nouvel accord lors de l’événement d’entreprise « Building to Win: AI Economics », qui s’est déroulé récemment à Washington. Il aurait pour objectif de dynamiser les recherches scientifiques du gouvernement à l’aide de l’IA. « Partager notre technologie avec les meilleurs scientifiques du pays s’inscrit dans notre mission de garantir que l’IA générale profite à l’humanité, et nous pensons que le gouvernement américain est un partenaire essentiel pour atteindre cet objectif », explique l’entreprise dans un communiqué.
Déploiement de la série o1 auprès de 15 000 scientifiques
Selon OpenAI, le nouvel accord permettra aux chercheurs gouvernementaux d’utiliser ses modèles d’IA les plus performants pour améliorer la cybersécurité du réseau électrique américain, pour identifier de nouvelles approches de prévention et de traitement des maladies, pour améliorer la compréhension de la physique fondamentale, etc.
« La collaboration d’OpenAI avec les laboratoires nationaux américains s’appuie sur la longue tradition de collaboration du gouvernement américain avec le secteur privé pour garantir que l’innovation technologique mène à des améliorations dans les domaines de la santé, de l’énergie et d’autres domaines critiques », indiquent les responsables.
L’accord permettra à près de 15 000 scientifiques gouvernementaux d’accéder aux modèles de la série o1 d’OpenAI. Une collaboration avec Microsoft est prévue pour déployer l’un des modèles dans Venado, le supercalculateur du laboratoire national Los Alamos, l’une des plus grandes institutions multidisciplinaires au monde.
Venado est conçu pour accélérer les avancées dans la science des matériaux, les énergies renouvelables, l’astrophysique, les technologies d’armement, etc. OpenAI a précédemment collaboré avec le Laboratoire national de Los Alamos pour évaluer les risques que les modèles d’IA avancés pourraient poser dans la création d’armes biologiques.
Le projet inclura également un programme spécialement dédié à la sécurité nucléaire. « Ce cas d’utilisation est très important et nous pensons qu’il est essentiel pour OpenAI de le soutenir dans le cadre de notre engagement en faveur de la sécurité nationale », indique l’entreprise. Certains chercheurs d’OpenAI disposant d’habilitations en matière de sécurité de l’IA participeront à ce volet du projet.
Par ailleurs, OpenAI a lancé plus tôt cette semaine ChatGPT Gov, une plateforme d’IA spécialement conçue pour le gouvernement. Elle permettra aux agences gouvernementales d’alimenter les modèles d’IA avec des données sensibles et classifiées. Les modèles fonctionneront au sein de leurs systèmes d’hébergement sécurisés.
Un risque de divulgation de codes nucléaires ?
Cette collaboration soulève des préoccupations étant donné la sensibilité des domaines au niveau desquels les IA seront déployés. À l’heure actuelle, même les modèles d’IA les plus performants ne sont pas immunisés contre les erreurs et les hallucinations. Certains des modèles d’OpenAI sont en outre connus pour divulguer des données sensibles sur les utilisateurs. Les modèles déployés au sein du gouvernement ne risquent-ils pas de divulguer des informations sensibles, comme des données liées aux codes nucléaires ?
Par ailleurs, l’administration de Trump a prévu d’abolir les réglementations de sécurité concernant l’IA. Les observateurs craignent, en réponse, une propagation généralisée d’outils d’IA biaisés (voire nuisibles). Le moment semble mal choisi pour un déploiement massif de l’IA dans des secteurs stratégiques sensibles, y compris ceux liés aux armes nucléaires.
Néanmoins, « alors que l’IA avancée continue de remodeler la géopolitique mondiale, ce partenariat offre à OpenAI une opportunité clé de contribuer à guider cette transformation », indiquent les responsables de l’entreprise. « Nous prévoyons que cet engagement conduira à des collaborations plus larges en matière de sécurité dans le cadre d’une variété de risques chimiques, biologiques, radiologiques et nucléaires », concluent-ils.
Quant au risque de divulgation des codes de tir nucléaire, il faut savoir que ces derniers sont soumis aux protocoles de sécurité les plus stricts au monde, avec des systèmes cloisonnés et des contrôles humains redondants pour empêcher toute compromission. Même si les IA d’OpenAI (ou d’autres sociétés) sont intégrées à des recherches sensibles, l’accès à ces codes relève d’un niveau de confidentialité extrême, bien au-delà des capacités actuelles de tout modèle d’IA.
Techniquement, les codes de lancement sont stockés dans des infrastructures ultra-sécurisées, souvent hors ligne, protégées par une architecture de compartimentation stricte. L’accès requiert des procédures d’authentification multi-niveau, impliquant des protocoles comme la double validation par des officiers distincts et des dispositifs physiques non interfaçables avec des systèmes externes.
De plus, les communications liées aux autorisations de lancement utilisent des réseaux de transmission chiffrés, isolés de toute connexion numérique accessible par des IA commerciales. Cela signifie que, même dans un scénario extrême où une IA serait intégrée à la gestion des systèmes stratégiques, elle ne pourrait techniquement ni lire ni générer des codes d’armement sans une faille majeure dans les procédures de sécurité existantes.
Toutefois, l’automatisation croissante des systèmes de défense et l’utilisation de l’IA pour analyser des scénarios stratégiques posent la question des vulnérabilités indirectes : une IA pourrait-elle, par erreur ou par manipulation, générer des recommandations compromettant la sécurité nucléaire ?
Si une IA participait, par exemple, à la planification militaire ou aux simulations de réponses à une attaque, une faille ou une altération des données d’entraînement pourrait fausser son raisonnement et influencer des décisions critiques. À une époque où les cyberattaques se sophistiquent et où l’ingénierie sociale peut contourner même les systèmes les plus robustes, l’introduction de l’IA dans ces environnements ultrasensibles ne peut qu’alimenter les inquiétudes.