On avait déjà vu des intelligences artificielles gagner aux échecs… Visiblement, certaines sont aussi devenues compétentes sur des « terrains de jeu » bien moins inoffensifs. Des scientifiques chinois ont annoncé qu’un drone piloté par IA a détruit un appareil piloté à distance par un humain en un temps record.
L’information provient d’un article du South China Morning Post et s’est déjà répandue comme une traînée de poudre. Les chercheurs militaires chinois à l’origine de cette expérience travaillent sur des drones capables de mener des combats aériens non seulement sans pilote… mais aussi sans humain. Ces scientifiques ont ainsi affirmé que, pour la première fois, un avion de chasse drone piloté entièrement par une IA l’a emporté sur des pilotes humains dans un combat aérien réel à courte portée. Cette performance, ajoutent-ils, aurait été réalisée en un temps très court, puisqu’il a suffi de 90 secondes au drone pour détruire sa cible.
Le document de recherche qui décrit en détail l’expérience a été publié la semaine passée dans le Acta Aeronautica et Astronautica Sinica. L’équipe était menée par le professeur Huang Juntao, du Centre de recherche et de développement en aérodynamique de l’armée chinoise au Sichuan, en Chine. Si ce drone peut être aussi performant, c’est grâce à ses capacités de calcul. Celles-ci lui permettent d’analyser le déroulement d’une bataille et d’anticiper de façon précise son évolution, afin de prendre des initiatives pertinentes.
Un programme capable d’analyser et de combiner des données de terrain
Pour rappel, ce que l’on appelle « intelligence artificielle » peut souvent se résumer, à l’heure actuelle, à un programme d’apprentissage automatique. Le programme est alimenté par de très nombreuses données relatives au champ d’expertise auquel il est destiné. Il existe des intelligences artificielles dédiées à la génération d’images, de textes, de musiques, de voix, des IA qui servent d’adversaires dans des jeux, ou d’autres encore qui sont capables de générer du code informatique… Bref, de très nombreux domaines sont aujourd’hui concernés par l’IA. Dans ce cas précis, une certaine polyvalence était certainement nécessaire, car l’analyse d’un champ de bataille aérien nécessite de combiner de nombreuses informations : la localisation des adversaires et leurs mouvements, les obstacles, les conditions météorologiques…
Afin d’effectuer leur test dans des conditions optimales, les chercheurs ont utilisé deux drones presque identiques. La seule différence étant, évidemment, que l’un d’eux était piloté à distance par un humain tandis que l’autre avait embarqué une IA à son bord. Ils affirment que certaines améliorations restent à apporter. Toutefois, pour eux, cette bataille d’entraînement a bel et bien prouvé que la technologie de pilotage par IA était viable dans un véritable combat aérien. Ils clament même que des avions dotés de capacités de décision autonomes pourraient à terme surpasser complètement les humains, notamment en matière de vitesse de réaction.
L’armée chinoise n’est évidemment pas la seule à être intéressée par l’intégration de cette technologie dans son arsenal. Récemment, les États-Unis ont attribué pas moins de 78 milliards de dollars au projet AMASS (Autonomous Multi domain Adaptative Swarm of Swarms). L’idée est de déployer des milliers d’unités de drones, aériennes, terrestres et même sous-marines pour prendre le contrôle d’un territoire. On ne parle même plus ici d’essaims de drones, mais « d’essaim d’essaims », capables de mener des attaques coordonnées et automatisées.
Toutes ces avancées, appliquées à des drones pourvus d’armes, soulèvent des inquiétudes. Dans le cas d’AMASS, des opérateurs humains sont supposés superviser l’opération dans son ensemble. Même dans ce cas, les spécialistes émettent des doutes sur la possibilité de contrôle de cette arme : Zackary Kallenborn, chercheur affilié à la Division des armes et technologies non conventionnelles du Consortium national pour l’étude du terrorisme et des réponses au terrorisme (START), l’avait souligné à la presse. Selon lui, à l’échelle de milliers de drones, le contrôle humain sera plus compliqué, ce qui induit une fragilité. Dans le cas de drones conçus pour fonctionner entièrement sans opérateur humain, comme cela semble être le cas dans cette expérience, la question de la fiabilité et du risque lié aux IA pourrait être d’autant plus pertinente.