Ce projet est le fruit d’un partenariat entre le Département américain de la Défense et la société RealNetworks, basée à Seattle, spécialisée dans le multimédia et créatrice de la plateforme de reconnaissance faciale SAFR. Le contrat stipule que la technologie sera utilisée lors d’opérations spéciales et pour les missions de renseignement, de surveillance et de reconnaissance. Ainsi équipés, les drones autonomes seraient tout à fait capables de trouver (et potentiellement d’éliminer) n’importe quelle personne à grande distance, ce qui suscite certaines inquiétudes.
Il y a quelques semaines, l’US Air Force avait fait part de son intention d’utiliser la technologie de reconnaissance faciale pour accélérer et renforcer la sécurité des contrôles effectués à l’entrée de ses bases. Actuellement, les membres du personnel et les visiteurs se font prendre en photo, puis celle-ci est comparée à une pièce d’identité vérifiée au préalable ou à une base de photos de personnes autorisées. Pour accélérer la procédure, l’armée recherche des algorithmes capables à la fois de vérifier que le visage d’une personne correspond bien à l’identité qu’elle présente, et de comparer une image en direct à une large base de données de photos.
Aujourd’hui, c’est sur ses drones sans pilote que l’armée de l’air veut déployer la reconnaissance faciale — ce qui a évidemment des implications plus importantes. À savoir que la plateforme de reconnaissance faciale et d’analyse visuelle SAFR développée par RealNetworks avait déjà été sélectionnée en 2021 pour équiper certains véhicules terrestres sans pilote de l’US Air Force. En 2019, dans le cadre d’un contrat avec l’armée, la société avait reçu 1,9 million de dollars pour développer sa technologie de reconnaissance faciale en temps réel.
Un drone capable de reconnaître un visage à 1 km de distance
« Nous voyons cela comme une opportunité incroyable de démontrer comment l’IA est un multiplicateur de force et peut être utilisée pour réduire les risques pour les forces de sécurité et les intervenants d’urgence », avait déclaré en 2021 Eric Hess, chef de produit senior chez SAFR.
L’algorithme de reconnaissance faciale de SAFR possède la précision la plus élevée pour la vidéo en direct, telle que mesurée par le National Institute of Standards and Technology (NIST). Il a été formé sur un ensemble de données mondialement diversifié de visages réels, pris dans la nature (et non sur des images de passeport) ce qui lui confère cette très haute précision. « Avec SAFR, un regard suffit, quelle que soit la pose et l’éclairage », affirment ses concepteurs, qui garantissent une reconnaissance précise à 99,87% dans un environnement naturel.
L’algorithme serait capable de reconnaître un visage à un kilomètre de distance et jusqu’à un angle de vision de 45°. La société annonce une vitesse de reconnaissance de visage inférieure à 100 ms. On apprend également sur le site officiel du projet que le logiciel peut détecter et signaler des visages occultés (via un masque ou un couvre-chef) et est capable de mettre automatiquement à jour sa base d’images de référence vers des images de meilleure qualité.
Le système peut être déployé sur pratiquement n’importe quel appareil doté d’une caméra… y compris les véhicules aériens sans pilote de l’US Air Force. Cette innovation rendra les drones de défense beaucoup plus précis, mais elle soulève aussi quelques craintes. Le contrat qui lie les deux entités stipule en effet que l’intégration du logiciel dans la pile matérielle et logicielle des drones, doit permettre « de soutenir les informations exploitables pour les opérateurs humains à distance et d’ouvrir la possibilité d’une réponse autonome en temps réel par le robot ».
Ce dernier point évoquant « une réponse autonome » pose évidemment question et peut signifier pas mal de choses, y compris le fait de lancer une attaque contre quelqu’un.
Un usage qui nécessite « des niveaux appropriés de jugement humain »
La politique américaine sur les armes létales autonomes est claire : « Une approche fondée sur des principes de l’utilisation militaire de l’IA devrait inclure un examen minutieux des risques et des avantages, et elle devrait également minimiser les biais et les accidents involontaires. Les États devraient prendre des mesures appropriées pour assurer le développement, le déploiement et l’utilisation responsables de leurs capacités militaires d’IA, y compris celles permettant la mise en place de systèmes autonomes », précise le Bureau of Arms Control, Verification and Compliance dans sa déclaration.
S’ensuit une liste de directives qui devraient être mises en œuvre dans le développement, le déploiement et l’utilisation des capacités militaires d’intelligence artificielle, y compris celles impliquant des systèmes autonomes. Or, concernant l’utilisation proprement dite de ces dispositifs, il n’est nulle part mentionné un contrôle humain direct. Les directives évoquent uniquement « des niveaux appropriés de jugement humain », ainsi qu’un personnel « formé de manière à comprendre suffisamment les capacités et les limites » et « à pouvoir porter des jugements contextuels ».
Par conséquent, un drone autonome qui aurait identifié un individu à partir d’une liste de cibles et qui lancerait une attaque contre lui ne serait pas nécessairement considéré comme allant à l’encontre de ces directives — à supposer que ladite liste ait été établie par un humain et que l’action ait été autorisée. C’est là que la précision de l’engin doit être extrêmement élevée.
Les meilleurs algorithmes de reconnaissance faciale atteignent aujourd’hui un taux de faux positifs généralement inférieur à 0,5%. Si RealNetworks assure que son logiciel est capable de reconnaître un visage composé d’aussi peu que 50 pixels, il est néanmoins connu que les logiciels de reconnaissance faciale font preuve d’une moindre efficacité pour identifier les personnes de certaines ethnies. L’US Air Force n’a pas indiqué quand ces drones seront utilisés (ils le sont peut-être déjà !).