En matière d’intelligence artificielle (IA), le Graal tant recherché par les scientifiques est l’Intelligence Artificielle Générale (IAG), une IA capable d’égaler ou de surpasser l’intelligence humaine dans tous les domaines. C’est un objectif de recherche central pour l’équipe de Google DeepMind — société pionnière dans l’intelligence artificielle — qui vient de publier une étude visant à définir un cadre classifiant les capacités et comportements des modèles d’IAG. Par ailleurs, dans ce cadre, les chercheurs ont évalué le « niveau d’IAG » des systèmes existants, dont GPT-4, Bard et Lama 2.
Les définitions de l’IAG varient, mais il est pour le moment accepté qu’il s’agit d’un système intelligent hypothétique capable d’apprendre et d’exécuter toute tâche intellectuelle réalisable par l’être humain ou par les animaux. Cette définition est sujette à variation, rien que selon les experts qui la convoitent. OpenAI (derrière ChatGPT) par exemple, également leader du domaine, voit l’IAG comme un ensemble de systèmes « hautement autonomes surpassant les humains dans la majorité du travail à valeur économique ». Il faudra bien se mettre d’accord cependant, surtout lorsque l’on sait que le cofondateur même de DeepMind estime que l’IAG pourrait faire son apparition à l’horizon 2030.
« Atteindre le niveau d’intelligence humaine est un objectif implicite ou explicite pour beaucoup dans notre domaine », confirme Shane Legg, chercheur en IA chez DeepMind, qui a introduit le terme IAG il y a 20 ans. Dans une interview accordée au MIT Review, Legg précise : « Je vois tant de débats où les gens semblent utiliser le terme pour désigner différentes choses, et cela mène à toutes sortes de confusions. Maintenant que l’IAG devient un sujet si important, nous devons préciser ce que nous entendons ».
Récemment, Legg et ses collègues ont publié une étude visant à définir un cadre classifiant les capacités et comportements des modèles d’IAG, dans le but d’établir un langage commun aux chercheurs pour mesurer les progrès, comparer les approches et évaluer les risques. Les résultats ont été publiés sur le serveur de préimpression arXiv.
Des « niveaux d’IAG » pour classifier et mesurer les progrès
L’approche adoptée par DeepMind dans son étude s’oriente vers une perspective innovante en matière d’IAG. Au cœur de cette vision réside l’idée que son évaluation doit se concentrer davantage sur les capacités concrètes du système plutôt que sur le processus sous-jacent de « pensée » ou de « compréhension ». Cette distinction serait la clé, car elle écarte l’assomption selon laquelle l’IAG doit nécessairement impliquer des attributs humains tels que la conscience ou la sentience — la capacité d’éprouver subjectivement, d’avoir des expériences vécues.
En mettant l’accent sur les fonctionnalités et les résultats obtenus par un système d’IA, DeepMind propose un cadre de référence plus pragmatique pour mesurer les progrès vers l’IAG. Cette approche permet de contourner les débats philosophiques sur ce que signifie « penser » ou « comprendre » pour une machine. Elle offre ainsi un moyen plus objectif et mesurable d’évaluer les avancées dans ce domaine.
Dans l’univers complexe de l’intelligence artificielle générale (IAG), l’aptitude à s’adapter et à apprendre de nouvelles tâches est primordiale. Les experts du domaine insistent sur la nécessité pour ces systèmes d’interagir avec les humains, sollicitant des éclaircissements ou de l’aide lorsque cela est nécessaire pour accomplir une tâche spécifique. Cette interaction humain-machine est vue comme un élément essentiel pour l’évolution et l’amélioration continue des capacités de l’IAG.
Par ailleurs, l’équipe de recherche de DeepMind souligne l’importance de se concentrer sur le potentiel intrinsèque d’un système d’IAG, plutôt que sur son déploiement effectif dans des environnements réels. Cette approche permet d’évaluer l’intelligence artificielle selon ses capacités et non en fonction de son application pratique. En effet, « exiger le déploiement comme une condition pour mesurer l’IAG introduit des obstacles non techniques, comme les considérations légales et sociales, en plus des potentielles préoccupations éthiques et de sécurité », expliquent-ils. Cette perspective reconnaît que le déploiement de l’IAG peut être entravé par divers facteurs externes qui n’ont pas de lien direct avec ses capacités techniques. Ces facteurs incluent des considérations légales, sociales, éthiques et de sécurité, qui sont toutes des composantes clés dans le domaine de l’intelligence artificielle, mais qui peuvent freiner ou détourner l’évaluation de ses véritables capacités.
Dans le cadre de l’étude, l’équipe a compilé une liste de seuils d’intelligence allant du « Niveau 0, pas d’IAG » au « Niveau 5, surhumain ». Entre ces deux extrêmes, les catégories « Émergent », « Compétent », « Expert » et « Virtuose » sont proposées pour catégoriser les progrès réalisés. Dans une expérience, trois systèmes existants ont atteint le seuil permettant de les désigner comme IAG. Ces trois modèles de texte génératif (ChatGPT, Bard de Google et Lama 2 de Meta) ont atteint seulement le niveau 1 (Émergent). Aucun autre programme d’IA actuel ne répond aux critères fixés pour l’IAG, selon les résultats.
L’évolution de la définition de l’intelligence artificielle générale (IAG) est un sujet en perpétuelle mutation, illustrant bien la dynamique et la complexité de ce champ de recherche. Meredith Ringel Morris, scientifique principale chez Google DeepMind pour l’interaction homme-IA, souligne cet aspect en affirmant : « Au fur et à mesure que nous acquérons plus de connaissances sur ces processus sous-jacents, il peut être important de réexaminer notre définition de l’IAG ». Cette déclaration met en lumière le fait que notre compréhension de l’IAG évolue parallèlement à nos avancées technologiques et théoriques.
L’équipe de recherche reconnaît également une caractéristique fondamentale de l’IAG : son potentiel illimité en matière de tâches réalisables. « Il est impossible d’énumérer l’ensemble des tâches réalisables par une intelligence suffisamment générale », concèdent les chercheurs. Cette observation reflète la nature intrinsèquement adaptable et polyvalente de l’IAG. En effet, contrairement aux intelligences artificielles spécialisées, l’IAG est conçue pour s’adapter et fonctionner dans un large éventail de contextes et de situations, sans se limiter à un ensemble prédéfini de tâches ou de fonctions. Cette capacité à s’étendre au-delà des frontières traditionnelles de l’IA spécialisée est ce qui rend l’IAG particulièrement fascinante et, en même temps, un défi majeur pour les chercheurs dans ce domaine.