L’armée américaine teste une IA espion qui traque les menaces en temps réel

Des téraoctets de données de 180 pays analysées quotidiennement.

ia generative espion armee americaine
| Pixabay
⇧ [VIDÉO]   Vous pourriez aussi aimer ce contenu partenaire

L’unité de renseignement de la Marine américaine a expérimenté l’intelligence artificielle générative pour trier des renseignements étrangers et détecter d’éventuelles menaces visant les États-Unis, selon un rapport récent. Financé par le Pentagone, cet outil vise à analyser des téraoctets de données par jour et à en interpréter l’orientation politique. Certains observateurs demeurent toutefois sceptiques quant à la capacité de l’IA à identifier des signaux aussi subtils, redoutant des décisions fondées sur des analyses erronées.

L’armée américaine recourt à l’IA depuis plusieurs années dans le développement de technologies militaires, à l’image des drones autonomes ou des systèmes de vision assistée par ordinateur. Désormais, une nouvelle étape est franchie avec l’intégration de l’intelligence artificielle générative — un outil conversationnel — au sein même des opérations de terrain.

Cette IA générative vient épauler les services de renseignement, confrontés à des difficultés croissantes liées au volume exponentiel des données à traiter. Le gouvernement américain avait déjà coopéré avec la start-up Palantir dans une optique comparable : développer des outils d’intelligence artificielle capables de constituer une base de données pour les services de l’immigration et de détecter des informations relatives à l’immigration illégale.

Créée en 2019, la société Vannevar Labs propose aujourd’hui un appui similaire aux services de renseignement militaire. Ses grands modèles de langage permettent non seulement de collecter des données issues de divers sites d’opération, mais également de les trier et d’interagir avec les utilisateurs dans un cadre analytique.

L’an dernier, près de 2 500 militaires de la 15e unité d’expédition de la Marine américaine ont parcouru le Pacifique à bord de trois navires, menant des exercices conjoints au large de la Corée du Sud, des Philippines, de l’Inde et de l’Indonésie. Parallèlement, l’unité a testé pour la première fois des outils d’IA générative conçus par Vannevar Labs, dans le but de collecter, trier et signaler des renseignements pertinents, rapporte le MIT Technology Review.

Les officiers utilisaient ces outils pour analyser des renseignements issus de sources ouvertes : articles de presse, rapports, images ou vidéos non classifiées, en provenance des pays dans lesquels ils étaient déployés. D’après les opérateurs, ces nouvelles méthodes permettent d’effectuer leurs tâches de renseignement bien plus rapidement qu’auparavant, lorsqu’elles étaient traitées et analysées manuellement.

« Nous devons encore valider les sources », explique le capitaine Will Lowdon au *MIT Technology Review*. Mais les commandants de l’unité auraient soutenu l’usage de ces outils, « car ils sont beaucoup plus efficaces dans un contexte opérationnel en évolution rapide », affirme-t-il. Un contrat de 99 millions de dollars a été attribué à Vannevar Labs pour déployer ses outils auprès de l’ensemble du service de renseignement américain. L’entreprise rejoint ainsi Palantir, Anduril et Scale AI parmi les principaux bénéficiaires de la stratégie d’adoption de l’IA par l’armée américaine.

Des téraoctets de données issues de 180 pays analysées quotidiennement

Vannevar Labs s’appuie sur les grands modèles de langage existants pour la collecte de renseignements open source. Cela inclut l’analyse quotidienne de téraoctets de données en 80 langues différentes et provenant de 180 pays — certaines langues étant communes à plusieurs territoires, tandis que d’autres pays, moins présents numériquement, ne génèrent qu’un flux limité de données. Les modèles traduisent les informations, analysent les orientations politiques et détectent les menaces potentielles.

À cette fin, les outils scrutent les profils sur les réseaux sociaux et seraient capables de contourner les pare-feu afin d’accéder à des informations difficilement accessibles. Ils traitent également les données non disponibles en ligne, collectées par des agents humains sur le terrain, ainsi que les rapports émis par des capteurs détectant les ondes radio des embarcations maritimes illégales. Les résultats sont ensuite restitués par l’intermédiaire d’une interface de type chatbot, semblable à ChatGPT.

L’objectif est de fournir des informations utiles sur des sujets aussi divers que les chaînes d’approvisionnement internationales en fentanyl ou les stratégies de la Chine pour sécuriser les ressources en terres rares aux Philippines. « Notre véritable objectif en tant qu’entreprise est de collecter des données, de leur donner un sens et d’aider les États-Unis à prendre de bonnes décisions », résume Scott Philips, directeur technique de Vannevar Labs.

Selon le capitaine Lowdon et ses collègues, bien qu’il soit demandé de vérifier systématiquement les résultats produits par l’IA, aucune erreur majeure n’aurait été constatée. Toutefois, une difficulté récurrente — et classique des environnements numériques embarqués — subsiste : la connexion internet à bord des navires, souvent instable, ralentit considérablement le traitement, notamment des données visuelles.

L’expérimentation conduite en Asie du Pacifique s’inscrit dans le cadre d’un projet pilote visant à étendre plus largement l’utilisation de l’IA au sein des forces armées américaines. Le Pentagone a annoncé une enveloppe budgétaire de 100 millions de dollars à cet effet pour les deux années à venir. Outre Vannevar Labs, des collaborations sont en cours avec Microsoft et Palantir pour traiter également les données classifiées.

Un risque accru d’erreurs et de décisions erronées

Les observateurs soulignent toutefois que le recours à l’IA dans un domaine aussi sensible que les opérations militaires pourrait être prématuré, compte tenu du niveau actuel de maturité technologique. « Nous savons déjà que les LLM sont très imprécis, notamment dans le contexte d’applications critiques pour la sécurité qui requièrent de la précision », explique Heidy Khlaaf, scientifique en chef en IA à l’AI Now Institute.

Même si des opérateurs humains sont chargés de vérifier les résultats de l’IA, l’ampleur des données traitées rend cet exercice complexe. « Il serait impossible pour un humain d’analyser une telle quantité d’informations pour déterminer si les résultats de l’IA sont erronés », prévient l’experte. L’utilisation de cette technologie suscite des inquiétudes particulières dans l’analyse de sentiments ou d’orientations politiques — des champs où même l’interprétation humaine est sujette à subjectivité. Si l’IA détectait une hostilité envers l’armée américaine là où un analyste humain n’y verrait qu’une critique, les conséquences d’une telle méprise pourraient se révéler préjudiciables.

Laisser un commentaire

Vous voulez éliminer les publicités tout en continuant de nous soutenir ?


Il suffit de s'abonner !


JE M'ABONNE