Après la récente alerte des experts sur le « risque d’extinction » de l’humanité à cause de l’intelligence artificielle (IA), Joshua Bengio a exprimé des propos ressemblant à des regrets par rapport à la technologie. Considéré comme l’un des « pères » de l’IA, le célèbre informaticien a déclaré qu’il aurait dû prioriser la sécurité avant l’utilité, s’il avait pu anticiper à quelle vitesse elle a évolué.
À l’heure actuelle, l’IA parvient à effectuer des tâches toujours plus complexes, dont de nombreuses que seul l’humain pouvait effectuer il y a seulement quelques années. La technologie est d’une telle polyvalence qu’elle s’applique aujourd’hui à presque tous les domaines. Cette intégration suscite inévitablement des questions sur l’éthique et la sécurité.
Bengio rejoint ainsi Geoffrey Hinton, également pionnier de l’IA et ancien employé de Google, dans ses avis quant aux dangers que pourrait représenter la technologie pour l’humanité. Avant de quitter l’entreprise, Hinton a déclaré que l’on se situe aujourd’hui à une époque charnière quant aux avancées de l’IA.
De nombreux experts du domaine, des journalistes, des décideurs et le grand public expriment leurs inquiétudes dans une lettre ouverte du Center of IA Safety. Il s’agit globalement d’une pétition visant à ouvrir une discussion à l’international pour une proposition de moratoire visant les entreprises oeuvrant dans le domaine. Elle vise également à révéler au monde le nombre croissant de personnalités publiques et d’experts considérant très sérieusement les dangers liés à l’IA.
Selon la pétition : « l’atténuation du risque d’extinction par l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire ». Hinton et Bengio font partie des signataires parmi de grandes personnalités telles que Bill Gates et les PDG d’OpenAI et de DeepMind. De son côté, l’Union européenne projette de bientôt établir une législation sur l’IA, impliquant des codes de conduite pour les entreprises et les personnes qui l’utiliseront dans les prochaines années.
Des risques à court et long terme
Bengio s’inquiète particulièrement de la capacité de calcul avancé de l’IA, qui pourrait être utilisée à des fins militaires ou terroristes. Elle pourrait par exemple aider des acteurs mal intentionnés à développer des armes chimiques mortelles. « S’il est facile de programmer ces systèmes d’IA pour leur demander de faire quelque chose de très mauvais, cela pourrait être très dangereux. S’ils sont plus intelligents que nous, alors il nous est difficile d’arrêter ces systèmes ou de prévenir les dommages », s’inquiète l’informaticien. Elle pourrait aussi alimenter les régimes oppressifs, en entravant des droits humains fondamentaux tels que la liberté individuelle.
L’expert a admis que ces préoccupations l’affectaient personnellement, le développement des premiers systèmes d’IA étant l’exploit de sa vie. Sa confusion est palpable, les longues années de travail dont les retombées lui ont conféré beaucoup de fierté et un sentiment d’identité, semblent aujourd’hui se retourner contre lui. « C’est un défi, émotionnellement parlant, pour les personnes du secteur. On pourrait dire que je me sens perdu », a-t-il exprimé.
Mise à part sa contribution à la course aux armements, l’IA inonde déjà internet de désinformation, un risque que les experts considèrent comme étant immédiat ou à court terme. L’inaccessibilité aux informations véridiques pourrait déstabiliser la société et impacter négativement la prise de décision collective. À ces risques s’ajoutent les impacts économiques et les crises sociales que la technologie pourrait engendrer, de nombreuses entreprises l’adoptant déjà pour travailler à la place des salariés et occuper même des postes de hauts responsables ! Une dépendance des humains à l’IA serait également à prévoir, surtout si ces systèmes se perfectionnent au point de nous surpasser dans la majorité des tâches administratives.
Toutefois, le risque d’extinction de l’humanité ne serait qu’une menace à long terme selon certains experts dans le domaine. Il s’agirait même d’une inquiétude exagérée selon Yan Lecun, considéré comme l’un des trois principaux pionniers de la technologie. Contrairement à ses deux confrères, il n’a pas signé la lettre de pétition de moratoire pour le contrôle de l’IA. Pour l’heure, les autorités devraient se concentrer sur les risques plus imminents, qui seraient plus concrets selon Sasha Luccioni, chercheuse pour la société spécialisée dans l’IA Huggingface. « Nous devrions nous concentrer sur cela plutôt que sur le risque hypothétique que l’IA détruise l’humanité », estime-t-elle.
Des problèmes réversibles ?
Malgré ses inquiétudes, Bengio estime que les problèmes liés à l’IA sont réversibles, en la contrôlant de manière responsable. Pour ce faire, il suggère que toutes les entreprises concevant de puissants dispositifs à base d’IA devraient être enregistrées par les autorités et auditées. Ce processus est appliqué à la construction automobile ou à l’aviation ainsi qu’à l’industrie pharmaceutique, avec des protocoles de sécurité très stricts. Cette technologie devrait selon lui bénéficier de la même vigilance. Une certification en matière d’éthique serait également utile, car les entités actives dans le domaine n’en possèdent généralement pas, selon l’expert.
Restant tout de même optimiste, Bengio pense « qu’il n’est jamais trop tard pour s’améliorer ». En bénéficiant d’un meilleur contrôle, l’IA pourrait impacter positivement de nombreux secteurs, en aidant par exemple à la conception de médicaments, de nouveaux matériaux, et de façon plus visible encore, les personnes paralysées à bouger ou à marcher à nouveau.