Alphabet, la société mère de Google, a récemment effectué un changement important dans sa charte éthique en supprimant certaines promesses faites il y a quelques années, notamment l’interdiction de l’usage de ses modèles d’intelligence artificielle à des fins militaires. Certains experts se disent inquiets.
En 2018, plus de 3 000 salariés de Google avaient protesté contre l’implication de l’entreprise dans le projet Maven, un programme de recherche sur les drones militaires mené par le Pentagone. Ils redoutaient que cette collaboration constitue un premier pas vers l’utilisation de l’IA à des fins létales.
Face à la pression interne, Google avait alors publié des principes encadrant le développement de l’intelligence artificielle. Le document précisait notamment que l’entreprise s’engageait à ne pas concevoir de technologies pouvant causer un préjudice global, sauf si leurs bénéfices surpassaient largement les risques ; d’armes ou de technologies susceptibles de blesser des personnes ainsi que de systèmes exploitant des données à des fins de surveillance.
Dans une mise à jour publiée le 4 janvier dernier, l’ensemble de cette section a disparu. Le document révisé met désormais l’accent sur la mise en place de tests rigoureux afin de minimiser les risques liés aux produits de l’entreprise.
Un contexte en mutation
Pour justifier cette évolution, Google avance que le cadre technologique a profondément changé depuis 2018. Dans un article signé par James Manyika, vice-président de la recherche et Demis Hassabis, PDG de DeepMind, les dirigeants expliquent que l’IA est passée « d’un sujet de recherche de niche en laboratoire à une technologie aussi omniprésente que les téléphones portables et l’internet lui-même ». Ils ne mentionnent toutefois pas explicitement la suppression des engagements précédents, préférant évoquer une simple mise à jour des principes directeurs.
Le groupe justifie également ces changements par la nécessité, pour les pays démocratiques, de conserver leur leadership technologique. « Nous pensons que les démocraties doivent être les chefs de file du développement de l’IA, guidées par des valeurs fondamentales telles que la liberté, l’égalité et le respect des droits de l’homme », affirment-ils, ajoutant que « les entreprises, les gouvernements et les organisations partageant ces valeurs doivent collaborer afin de créer une IA qui protège les individus, favorise la croissance mondiale et renforce la sécurité nationale ».
Un moyen de lever les restrictions ?
Certains observateurs voient dans cette modification une stratégie pour lever un frein à l’accès à un marché en pleine expansion. Dans un contexte géopolitique tendu, les budgets consacrés à la recherche et au développement de l’IA militaire sont en forte augmentation.
En 2023, Google avait déjà dû faire face à des contestations internes autour d’un projet de cloud et d’intelligence artificielle destiné aux gouvernements et à l’armée israélienne. Tandis que l’entreprise tentait d’apaiser ces tensions, ses principaux concurrents renforçaient leurs liens avec l’armée. Microsoft et Amazon, notamment, ont signé un contrat avec le Pentagone dans le cadre du projet « Joint Warfighter Cloud Capability », un cloud sécurisé destiné aux forces armées américaines.
Ce revirement intervient quelques jours après le retour officiel de Donald Trump à la présidence des États-Unis. Dès son investiture, le nouveau président a assoupli la réglementation en abrogeant un décret de son prédécesseur encadrant la sécurité de l’IA. Désormais, les grandes entreprises technologiques — dont plusieurs dirigeants se sont récemment rapprochés de Trump — ne sont plus tenues de publier les résultats de leurs tests lorsque leurs produits présentent des risques élevés pour la sécurité nationale ou la santé publique.