Certains algorithmes d’aide à la décision, basés sur l’intelligence artificielle, sont devenus si avancés que l’Homme lui accorde désormais une certaine confiance même lorsqu’il s’agit de décider entre la vie et la mort… Un exemple vient d’être donné par l’armée américaine, qui pour la première fois a utilisé l’IA pour guider ses frappes aériennes, selon le secrétaire de l’armée de l’air Frank Kendall.
« L’US Air Force (USAF) a récemment déployé des algorithmes d’IA pour la première fois dans une chaîne de frappe opérationnelle », a déclaré Kendall lors de la conférence Air, Space & Cyber de l’Air Force Association, qui s’est tenue le 20 septembre à National Harbor, dans le Maryland. Il n’a cependant pas donné de détails sur le type de frappe ni sur la nature de l’opération.
Nous ne savons pas non plus s’il s’agit d’un algorithme déployé sur un drone ou sur un avion de combat avec pilote. Kendall a déclaré que cette utilisation représentait « le passage de l’expérimentation à une véritable capacité militaire ».
Des erreurs potentiellement mortelles
La chaîne de frappe est le processus consistant à recueillir des renseignements, à les analyser et à les évaluer, puis à diriger des armes pour éliminer une cible. L’IA a été intégrée au système DCGS (Distributed Common Ground System) de l’armée de l’air, qui combine des données provenant de diverses sources, dont les drones MQ-9 Reaper.
Le DCGS collecte et analyse plus de 1200 heures de vidéo par jour et l’USAF cherche à automatiser certaines parties de ce processus laborieux, par exemple avec la reconnaissance automatique des cibles. Les analystes humains peuvent également commettre des erreurs mortelles. Dans un cas récent, une voiture à Kaboul, en Afghanistan, censée être remplie d’explosifs, a été prise pour cible. Le véhicule était en fait chargé de conteneurs d’eau, et la frappe de drone qui en a résulté a tué dix personnes innocentes, dont sept enfants.
Avec le récent retrait des troupes américaines d’Afghanistan, le président Joe Biden a annoncé que les États-Unis s’appuieraient sur davantage d’opérations « over-the-horizon », dans lesquelles les frappes sont effectuées sans troupes sur le terrain pour confirmer les cibles.
Bien que la nouvelle IA ne puisse pas ordonner une frappe, le fait qu’elle identifie des cibles possibles à soumettre à l’approbation humaine représente une incursion importante dans le processus de prise de décision, et le manque de détails sur le système rend son évaluation difficile pour les experts.
IA pour la sélection des cibles : de nombreuses questions et de sérieux doutes
« À l’origine, la reconnaissance automatique des cibles visait à identifier et à suivre des cibles militaires bien définies », explique Jack McDonald, maître de conférences en études de la guerre au King’s College de Londres. « Nous ne savons pas quels types d’objets ou de modèles d’activité ces systèmes essaient maintenant de reconnaître ». Arthur Holland, de l’Institut des Nations unies pour la recherche sur le désarmement à Genève, en Suisse, affirme que, bien que prévue, l’utilisation de l’IA pour le ciblage soulève de sérieuses questions politiques.
« Comment tester de tels algorithmes et valider qu’ils sont suffisamment fiables pour être utilisés dans des missions de vie ou de mort ? », demande Holland. « Comment les opérateurs peuvent-ils savoir quand faire confiance au système d’IA et quand l’outrepasser ? Si une frappe erronée est lancée en partie sur la base des résultats d’un système d’IA erroné, cela affecte-t-il l’équilibre de la responsabilité humaine et de l’obligation de rendre des comptes ? ».
Selon Holland, il s’agit de questions délicates, mais urgentes. Si l’on a récemment beaucoup entendu parler d’un avenir possible où l’IA contrôlerait couramment des « robots tueurs », l’implication actuelle de l’IA dans des opérations militaires meurtrières est tout aussi importante.
Selon McDonald, le fait que la technologie finisse par devenir plus largement accessible, comme cela s’est produit avec les drones, est également une source de préoccupation. « Je suis beaucoup plus inquiet de savoir si ou quand ce type de technologie se retrouve entre les mains de milices et d’acteurs non étatiques », dit-il.