Cette dernière décennie a été marquée par d’incroyables avancées pour les technologies basées sur l’intelligence artificielle (IA). Elles sont notamment aujourd’hui si avancées qu’elles peuvent être utilisées dans une grande diversité de domaines tels que la médecine, l’art, la gestion de la sécurité, le management, etc. Cependant, certains évènements démontrent que les IA, en tant que systèmes purement basés sur la logique, peuvent parfois prendre des décisions qui ne correspondent pas forcément à nos valeurs morales. Dans le cadre d’une étude préliminaire portant sur une enquête sur les risques liés à l’IA, 36% des experts estiment que l’humanité pourrait être dépassée par cette technologie au cours de ce siècle, avec un risque non négligeable de catastrophe nucléaire mondiale. De plus, en vue de la vitesse d’évolution des IA, l’ampleur de ces risques pourrait être sous-estimée.
Grâce aux algorithmes d’apprentissage automatique, les IA sont capables d’apprendre en assimilant d’énormes quantités d’informations, et sont aujourd’hui utilisées dans de nombreux domaines. Une IA peut faire en quelques semaines des travaux qui nécessiteraient beaucoup plus de temps à des experts humains. Elle peut par exemple détecter plus de 100 types de tumeurs à un niveau de fiabilité supérieur à celui d’un expert bénéficiant de plusieurs années d’expérience. Les systèmes d’IA peuvent également appuyer la gestion des risques et catastrophes, en évaluant par exemple les probabilités d’effondrement d’un pont, et sauver ainsi des milliers de vies en améliorant les mesures de prévention.
Les modèles d’IA à grand langage sont même capables d’intégrer des domaines que l’on pensait auparavant uniquement réservés à l’homme, notamment l’art, via la création d’images sur demande. Leur capacité de prise de décisions rationnelles et logiques leur a même permis d’être placées à des postes décisionnels majeurs, comme celui de PDG d’une grande société.
Les experts de la nouvelle étude, prépubliée sur arXiv, estiment cependant que l’utilisation militaire de l’IA présenterait un danger. Les prises de décision uniquement basées sur la logique pourraient notamment comporter des risques pour l’humanité, car elles ne prendraient pas forcément en compte nos valeurs morales et sociétales. Quelle décision prendrait une IA censée protéger la planète et qui serait aux commandes d’armes nucléaires ou bactériologiques mortelles ? Le risque pourrait être conséquent pour l’homme si un tel scénario venait à se produire, car un système X pourrait penser à moment donné que l’homme est un facteur à éradiquer pour sauver la Terre.
Avec un scénario moins extrême, l’automatisation par IA pourrait entrainer des changements sociétaux majeurs, notamment en matière de révolution industrielle. Des millions de personnes risqueraient de se retrouver sans emploi, à l’instar de la période d’automatisation des industries, où des milliers d’ouvriers se sont retrouvés au chômage.
Une enquête incluant 327 chercheurs
La nouvelle étude, menée par des chercheurs du Centre universitaire de science des données de New York, a recensé les opinions de 327 chercheurs, qui ont tous été auteurs de recherches sur l’IA dans le traitement du langage naturel. L’enquête a révélé que 36% de ces experts pensaient qu’une catastrophe de niveau nucléaire impliquant les IA serait possible au cours de ce siècle.
La crainte de ce scénario catastrophe serait encore plus accentuée dans les réponses spécifiques des experts féminins qui ont participé à l’enquête, ainsi que dans celles des participants appartenant à des groupes minoritaires spécifiques. 46% des femmes et 53% du groupe minoritaire jugeaient l’évènement possible. Par ailleurs, les experts interrogés auraient encore été plus pessimistes quant à notre capacité de gestion d’une future technologie potentiellement dangereuse.
De plus, 57% des scientifiques participant à l’enquête estiment que les grands modèles d’IA pourraient un jour dépasser les capacités intellectuelles de l’homme, et 73% pensent que l’automatisation du travail via l’IA engendrera de profonds changements sociaux. Les auteurs de l’enquête sont davantage préoccupés par les risques directs liés à l’IA plutôt que par une guerre nucléaire totale qui en résulterait. Il faut également garder à l’esprit que ces avis n’incluaient que quelques centaines de chercheurs, et les chiffres pourraient être sous-estimés.