En effectuant une expérience sur deux grands modèles de langage populaires, des chercheurs ont montré qu’ils pouvaient s’auto-répliquer sans aucune intervention humaine. Cette étape pourrait représenter un seuil critique où l’IA pourrait devenir plus difficile à contrôler, alertent les experts. L’équipe appelle à la collaboration internationale pour une meilleure évaluation des risques et l’élaboration de stratégies de sécurité plus sérieuses.
La question de savoir si une technologie de pointe peut s’auto-répliquer a été évoquée pour la première fois dans les années 1940. La capacité d’auto-réplication est souvent considérée comme l’étape critique à partir de laquelle une technologie peut potentiellement devenir incontrôlable. Toutefois, la technologie numérique de pointe de l’époque n’était pas encore suffisamment avancée pour soulever des préoccupations en matière de sécurité.
En 2017, face à son essor fulgurant, des milliers d’universitaires et de grands noms de l’industrie de l’IA ont adhéré aux principes d’Asilomar mettant en garde contre la capacité d’auto-réplication et d’auto-amélioration de la technologie. Cela pourrait conduire à des IA autonomes surpassant l’intelligence humaine, rendant ces dernières potentiellement incontrôlables. Parmi ces personnalités figurent par exemple Stephen Hawking, Max Tegmark et Elon Musk.
« Une fois que l’auto-réplication est possible, une chaîne de réplication réussie peut finalement conduire à une espèce d’IA hors du contrôle de l’homme », expliquent les chercheurs de l’Université de Fudan, en Chine, dans une nouvelle étude en prépublication sur la plateforme arXiv.