L’IA d’OpenAI intégrée à la sécurité des armes nucléaires américaines après un accord historique

Les modèles seront déployés au niveau de centres stratégiques, dont le laboratoire de Los Alamos.

openai conclut accord gouvernement americain utiliser ia securite armes nucleaires couv
| Trust My Science/OpenAI

OpenAI a conclu un accord avec le gouvernement américain pour l’utilisation de ses derniers modèles d’IA dans les laboratoires nationaux de recherche scientifique et pour la sécurité des armes nucléaires. Jusqu’à 15 000 chercheurs gouvernementaux auront accès à la dernière série o1 d’OpenAI dans des centres stratégiques, tels que le Laboratoire national de Los Alamos (connu pour la création des trois premières bombes atomiques).

Malgré les risques d’erreurs et les fréquentes hallucinations, le gouvernement américain utilise fréquemment des outils d’IA. En 2024, OpenAI a affirmé que plus de 90 000 employés du gouvernement ont généré plus de 18 millions d’invites sur ChatGPT. Les demandes concernent par exemple la traduction de documents officiels, la rédaction de notes politiques, ou encore la programmation d’applications.

Le nouveau partenariat d’OpenAI fait suite à une série de mesures prises par Sam Altman, PDG de l’entreprise, après l’investiture de Donald Trump. Altman semble multiplier ses efforts pour se rapprocher du nouveau président. Il a par exemple contribué à hauteur d’un million de dollars à son investiture et assisté à l’événement aux côtés d’autres grands noms du secteur technologique.

Il a en outre manifesté ouvertement son admiration pour le nouveau président, affirmant que son opinion sur lui avait évolué et qu’il sera « incroyable pour le pays à bien des égards ». OpenAI fait partie du projet d’investissement gouvernemental Stargate, allouant 500 milliards de dollars au développement d’infrastructures d’IA.

Altman a annoncé le nouvel accord lors de l’événement d’entreprise « Building to Win: AI Economics », qui s’est déroulé récemment à Washington. Il aurait pour objectif de dynamiser les recherches scientifiques du gouvernement à l’aide de l’IA. « Partager notre technologie avec les meilleurs scientifiques du pays s’inscrit dans notre mission de garantir que l’IA générale profite à l’humanité, et nous pensons que le gouvernement américain est un partenaire essentiel pour atteindre cet objectif », explique l’entreprise dans un communiqué.

Déploiement de la série o1 auprès de 15 000 scientifiques

Selon OpenAI, le nouvel accord permettra aux chercheurs gouvernementaux d’utiliser ses modèles d’IA les plus performants pour améliorer la cybersécurité du réseau électrique américain, pour identifier de nouvelles approches de prévention et de traitement des maladies, pour améliorer la compréhension de la physique fondamentale, etc.

« La collaboration d’OpenAI avec les laboratoires nationaux américains s’appuie sur la longue tradition de collaboration du gouvernement américain avec le secteur privé pour garantir que l’innovation technologique mène à des améliorations dans les domaines de la santé, de l’énergie et d’autres domaines critiques », indiquent les responsables.

L’accord permettra à près de 15 000 scientifiques gouvernementaux d’accéder aux modèles de la série o1 d’OpenAI. Une collaboration avec Microsoft est prévue pour déployer l’un des modèles dans Venado, le supercalculateur du laboratoire national Los Alamos, l’une des plus grandes institutions multidisciplinaires au monde.

Venado est conçu pour accélérer les avancées dans la science des matériaux, les énergies renouvelables, l’astrophysique, les technologies d’armement, etc. OpenAI a précédemment collaboré avec le Laboratoire national de Los Alamos pour évaluer les risques que les modèles d’IA avancés pourraient poser dans la création d’armes biologiques.

Le projet inclura également un programme spécialement dédié à la sécurité nucléaire. « Ce cas d’utilisation est très important et nous pensons qu’il est essentiel pour OpenAI de le soutenir dans le cadre de notre engagement en faveur de la sécurité nationale », indique l’entreprise. Certains chercheurs d’OpenAI disposant d’habilitations en matière de sécurité de l’IA participeront à ce volet du projet.

Par ailleurs, OpenAI a lancé plus tôt cette semaine ChatGPT Gov, une plateforme d’IA spécialement conçue pour le gouvernement. Elle permettra aux agences gouvernementales d’alimenter les modèles d’IA avec des données sensibles et classifiées. Les modèles fonctionneront au sein de leurs systèmes d’hébergement sécurisés.

Un risque de divulgation de codes nucléaires ?

Cette collaboration soulève des préoccupations étant donné la sensibilité des domaines au niveau desquels les IA seront déployés. À l’heure actuelle, même les modèles d’IA les plus performants ne sont pas immunisés contre les erreurs et les hallucinations. Certains des modèles d’OpenAI sont en outre connus pour divulguer des données sensibles sur les utilisateurs. Les modèles déployés au sein du gouvernement ne risquent-ils pas de divulguer des informations sensibles, comme des données liées aux codes nucléaires ?


Vous avez déjà un compte ? Connectez-vous pour accéder au contenu :
Activer le premium|Mot de passe oublié ?

Laisser un commentaire

Vous voulez éliminer les publicités tout en continuant de nous soutenir ?


Il suffit de s'abonner !


JE M'ABONNE