Il y a quelques jours, Ilya Sutskever, cofondateur et directeur scientifique d’OpenAI, déclarait sur son compte Twitter que les grands réseaux neuronaux d’aujourd’hui pourraient être « légèrement conscients ». Une hypothèse inhabituelle, voire extravagante, pour un chercheur en intelligence artificielle, qui n’a pas manqué d’attiser la colère d’autres experts en IA. Ces derniers déplorent en effet que de telles affirmations, inexactes selon eux, ne font que nuire à la réputation de l’apprentissage automatique. Tamay Besiroglu, chercheur au MIT, rejoint le débat et se range du côté de Sutskever.
Lorsque Ilya Sutskever a donné son point de vue sur le sujet le 10 février dernier, il ne s’attendait peut-être pas à ce qu’il suscite autant de réactions. « Chaque fois que de tels commentaires spéculatifs sont diffusés, il faut des mois d’efforts pour ramener la conversation sur les opportunités et les menaces plus réalistes posées par l’IA », a déclaré Toby Walsh, chercheur en IA à l’Université de Nouvelle-Galles du Sud, à Sydney.
Le socio-technologue Jürgen Geuter a quant à lui considéré ces propos comme « un argumentaire de vente visant à revendiquer des capacités technologiques magiques pour une start-up qui exploite des statistiques très simples » ; d’autres y ont vu une simple occasion de faire le buzz.
Mais pour Tamay Besiroglu, l’idée n’est pas si farfelue. S’il ne dit pas clairement qu’une IA quasi consciente existe déjà, il estime que la question ne doit pas être négligée. « Voir autant de personnalités de l’apprentissage automatique ridiculiser cette idée est décevant », a-t-il twitté le 12 février. Il ajoute que ce type de comportement remet en question la capacité de ces experts à s’attaquer aux questions « étranges et importantes » auxquelles ils seront sans aucun doute confrontés au cours des prochaines décennies.
La technologie la plus importante de l’histoire de la planète
La plupart des spécialistes en IA estiment que malgré les énormes progrès réalisés jusqu’à présent dans ce domaine, nous sommes actuellement très loin de créer une intelligence générale artificielle (IGA) — soit une IA capable de penser de manière créative, de continuer à apprendre par elle-même et de développer un semblant de conscience, à l’instar d’un cerveau humain. Mais pour Sutskever, nous sommes assez près du but. « Vous allez voir des systèmes beaucoup plus intelligents dans 10 ou 15 ans, et je pense qu’il est très probable que ces systèmes auront un impact complètement astronomique sur la société », déclarait-il il y a un an.
Selon lui, ce type d’intelligence résoudra tous les problèmes que nous connaissons aujourd’hui (emploi, maladies, pauvreté) tout en créant de nouveaux problèmes ; l’expert évoque notamment les fake news, les cyberattaques et les armes létales autonomes. « Pouvez-vous imaginer ce que vous pourriez faire si, chaque jour, vous pourriez réaliser l’équivalent de trois ans de travail ? » interroge-t-il pour souligner à quel point l’IGA rendra les humains quasiment obsolètes. Il prédit que les toutes premières IGA seront essentiellement de très grands centres de données, remplis de processeurs de réseaux neuronaux spécialisés travaillant en parallèle. « Même les toutes premières IGA seront beaucoup plus performantes que les humains. Les humains ne seront plus économiquement utiles pour presque toutes les tâches », explique-t-il.
Sutskever estime enfin que « l’intelligence artificielle va être, sans aucun doute, la technologie la plus importante de l’histoire de la planète, et de loin », devançant l’électricité, le nucléaire et l’Internet réunis. Quant à savoir si cette IA sera (ou est déjà) dotée d’une conscience, reste à définir clairement ce qu’englobe ce terme. Tamay Besiroglu estime pour sa part qu’il n’est pas possible de distinguer les modèles « non conscients » des modèles « légèrement conscients ».
Une IA qui se soucierait davantage d’elle-même que des humains ?
Le principal risque posé par une IA consciente est — comme pour toutes les technologies — qu’elle soit utilisée à mauvais escient, autrement dit, qu’elle soit néfaste aux humains. Elle pourrait potentiellement prendre des initiatives sans se soucier des conséquences sur l’humanité. Du point de vue de Sutskever, l’IGA pourrait traiter les humains un peu à la manière dont nous nous comportons avec les animaux : l’Homme ne veut (généralement) pas nuire volontairement aux animaux ou les blesser, mais s’ils se trouvent sur son chemin alors qu’il souhaite construire de nouvelles routes ou de nouveaux projets immobiliers, il fera peu de cas de leur présence… « C’est le type de relation qui existera entre nous et les IGA », pense-t-il.
« Il est important de programmer [les IGA] correctement. Je pense que si cela n’est pas fait, alors la nature de l’évolution de la sélection naturelle favorisera ces systèmes, donnant la priorité à leur propre survie avant tout », avertit le spécialiste. Ce qui l’inquiète en particulier c’est que le phénomène de « course à l’IGA » pourrait entraîner une certaine négligence de la part des concepteurs, qui oublieront peut-être de faire en sorte que leur intelligence artificielle se préoccupe davantage des humains que d’elle-même. « Compte tenu de ce genre de préoccupations, il sera important que l’IGA soit, d’une manière ou d’une autre, construite en coopération avec plusieurs pays », conclut-il.
Car les dérapages pourraient être catastrophiques. OpenAI a elle-même récemment fait les frais d’une utilisation malsaine de son algorithme de génération de texte, GPT-3. Utilisé à l’origine pour créer un jeu de rôle type Donjons et Dragons, où l’aventure évolue selon les choix du joueur, l’outil a été exploité par certains joueurs pour créer des scénarios impliquant des abus sexuels sur mineurs. Depuis, OpenAI a reconfiguré son algorithme pour éviter ce genre de dérives.
Impossible de déterminer si nous disposons (ou disposerons) d’une IA consciente, mais dans cette éventualité, les experts s’accordent à dire qu’il faut dès à présent se pencher sur les conséquences d’une telle technologie. « L’IA est un outil. C’est un outil puissant, et cet outil puissant pourrait être utilisé pour de bonnes ou de mauvaises choses. Notre mission est de nous assurer que cela est utilisé pour les bonnes choses, que la plupart des avantages en sont extraits et que la plupart des risques sont compris et atténués », a déclaré à Futurism Irakli Beridze, chef du centre d’intelligence artificielle et de robotique à l’UNICRI (Institut interrégional de recherche des Nations unies sur la criminalité et la justice).