Des chercheurs multidisciplinaires proposent de tenter d’intégrer des éléments de sagesse à l’IA afin d’améliorer sa transparence, sa coopération avec les valeurs humaines et sa sûreté. Cela consisterait notamment à intégrer des notions spécifiques telles que l’humilité intellectuelle et l’adaptation au contexte, des concepts que les grands modèles de langage actuels, malgré leurs performances, peinent encore à maîtriser.
Les performances des grands modèles de langage ont progressé à grande vitesse au cours des dernières années, si bien qu’ils excellent désormais dans l’exécution de tâches spécifiques telles que la création d’images et de contenus en ligne, l’analyse de données, ou encore peuvent contribuer au diagnostic médical, etc. Ils sont même devenus plus polyvalents en disposant de capacités « agentiques » et peuvent faire office de véritables assistants virtuels en maîtrisant par exemple des logiciels de niveau expert ou en planifiant des voyages.
Cependant, malgré leurs performances, les IA peinent encore à gérer des problèmes complexes car elles ne disposent pas pour le moment des capacités cognitives de haut niveau nécessaires à la gestion de l’incertitude. Elles ne possèdent pas les compétences nécessaires à la prise de décisions éclairées, telles que le jugement, l’étalonnage et la coopération. En d’autres termes, elles peuvent être très efficaces pour l’exécution d’une tâche bien définie, mais ne sont pas aptes à prendre des décisions éclairées en cas d’imprévus.
Cet écart entre intelligence et capacité de jugement serait à l’origine des préoccupations actuelles en matière de sécurité et de fiabilité de la technologie. « L’intelligence artificielle progresse chaque jour, mais elle est dépourvue d’une compétence humaine essentielle : la sagesse », explique Samuel Johnson, professeur de psychologie à l’Université de Waterloo, au Canada. « La sagesse ne se limite pas aux connaissances ou à l’intelligence. Elle englobe les aptitudes mentales nécessaires pour faire face aux défis de la vie, comme prendre des décisions difficiles ou gérer des situations sociales imprévisibles », souligne-t-il.
Dans une étude publiée le 26 février dans la revue Trends in Cognitive Sciences, Johnson et ses collègues de l’Université de Montréal, des Instituts Max Planck, de l’Institut de Santa Fe, de l’Université Stanford, de l’Université de Warwick et de Google DeepMind proposent une stratégie qui permettrait d’enseigner la sagesse à l’IA. Cela permettrait de rendre la technologie plus sûre et plus apte à gérer des environnements imprévisibles.
Un apprentissage basé sur la métacognition
L’approche proposée par les chercheurs consiste à enseigner la métacognition à l’IA. De manière simple, la métacognition est un processus mental consistant à « penser à ses propres pensées ». Autrement dit, il s’agit d’un processus introspectif permettant de juger ou d’évaluer ses propres pensées afin de mieux planifier ses décisions.
« La sagesse aide les humains à résoudre des problèmes insolubles grâce à des stratégies au niveau de l’objet (pour gérer les problèmes) et à des stratégies métacognitives (pour gérer les stratégies au niveau de l’objet) », écrivent les chercheurs dans leur étude. « Grâce à des stratégies métacognitives améliorées, une intelligence artificielle plus sage serait plus robuste face aux nouveaux environnements, explicable pour les utilisateurs, coopérative dans la poursuite d’objectifs communs et capable d’éviter les échecs, qu’ils soient prosaïques ou catastrophiques. »
Le concept de métacognition améliorée proposé dans l’étude consiste à la décomposer en plusieurs notions, notamment la capacité à reconnaître les limites de ses connaissances (humilité intellectuelle), à s’adapter aux différents contextes, à prendre en compte de multiples points de vue (y compris ceux d’autrui) et à rester flexible quant à l’évolution possible des situations.
« La sagesse semblait trop philosophique, trop anthropocentrique pour être formalisée pour les machines », explique Igor Grossmann, professeur de psychologie à Waterloo et co-auteur de l’étude. « Mais en la décomposant en stratégies spécifiques telles que l’humilité intellectuelle, la recherche de perspectives et l’adaptation au contexte, nous pouvons créer une feuille de route concrète pour construire une IA qui ne se contente pas de calculer, mais qui raisonne avec sagesse. »
L’équipe affirme que cette stratégie permettrait à l’IA de travailler de manière plus coopérative et surtout d’aligner ses objectifs sur ceux des utilisateurs humains. Les experts comparent les IA actuelles à des enfants prodiges qui ne disposeraient pas de la sagesse nécessaire pour utiliser leur intelligence à bon escient.
« Même si la personne la plus intelligente au monde était un enfant en bas âge, nous ne lui confierions pas les codes nucléaires », a déclaré Johnson. « L’IA ressemble de plus en plus à un enfant prodige, qui a encore besoin d’une bonne dose de sagesse de la part de ses parents humains », conclut l’expert.


