Notre manière de penser et notre capacité à établir un langage sensé découlent de la « compositionnalité systématique », soit la capacité à comprendre et à produire de nouvelles combinaisons à partir de composants connus. Une nouvelle étude révèle que les réseaux de neurones soutenant l’intelligence artificielle (IA) peuvent acquérir cette compétence par le biais d’une technique de formation appelée méta-apprentissage pour la compositionnalité. En d’autres termes, par le biais de cette technique, l’IA pourrait désormais « penser » de façon plus similaire aux humains.
La compositionnalité systématique nous permet d’apprendre systématiquement et spontanément de nouveaux concepts en en combinant d’autres. Par exemple, une fois qu’un enfant apprend comment sauter et reculer, il peut comprendre comment sauter en arrière en combinant les deux composants. Depuis les années 1980, la question quant à savoir si les réseaux de neurones artificiels peuvent acquérir cette capacité est sujette à débats. Si certains experts soutiennent qu’ils ne constituent pas un modèle cognitif suffisamment pertinent pour ce type de compétence (modèle de Fodor et Pylyshyn), d’autres suggèrent le contraire.
Les modèles contredisant celui de Fodor et Pylyshyn suggèrent que bien que la compositionnalité humaine soit importante, sa systématicité (ou rationalité) n’est peut-être pas aussi stricte et aussi élevée qu’on le pense. D’autre part, la systématicité des réseaux de neurones pourrait être augmentée en améliorant leur architecture.
Dans leur nouvelle étude parue dans la revue Nature, des chercheurs de l’Université de New York et de Pompeu Fabra à Barcelone suggèrent que les réseaux de neurones artificiels peuvent réaliser une généralisation systématique de type humaine par le biais du méta-apprentissage pour la compositionnalité (MLC). Il s’agit notamment d’une procédure d’optimisation visant à stimuler la systématicité à l’aide de séries de tâches de composition.
Des performances surpassant celles des humains
Afin de confirmer leur hypothèse, les chercheurs de la nouvelle étude ont comparé la capacité de 7 modèles d’IA à former un langage correct à partir d’une suite de plusieurs mots, à celle de 30 volontaires humains. L’expérience consistait à utiliser des mots inventés et associés à un symbole de sortie coloré : « dax » pour le rouge, « wif » pour le vert et « lug » pour le bleu.
Ensuite, 3 autres mots (« fep », « bicklet » et « kiki ») ont été créés pour correspondre à une fonction bien définie qui accepte des arguments. C’est-à-dire que ces fonctions déterminent l’ordre dans lequel les couleurs apparaissent (sorties). Par exemple, « fep » prend la couleur qui le précède comme argument et doit répéter 3 fois sa sortie, donc « dax fep » = rouge-rouge-rouge. La fonction « bicklet » permet à la fois de prendre la couleur précédente et la suivante comme arguments et d’alterner la séquence de sortie, donc « wif blicket dax » = vert-rouge-vert. Enfin, « kiki » prend les séquences précédentes et suivantes et inverse l’ordre des sorties : « dax kiki lug » = bleu-rouge.
L’apprentissage s’est déroulé en 4 étapes, les 3 premières ayant servi à apprendre aux participants les fonctions individuelles à partir de deux démonstrations pour chacune. La dernière consistait à apprendre à interpréter des instructions complexes combinant plusieurs fonctions. Au cours des phases de test de compétence, il était demandé aux participants de produire les résultats de nouvelles suites d’instructions. Des exemples étaient à chaque fois présentés à l’écran de sorte que les résultats ne puissent être limités par d’éventuels problèmes de mémorisation. De leur côté, les modèles d’IA ont été entraînés à appliquer différents ensembles de règles aux mots nouvellement appris par le biais de la technique MLC.
Les résultats ont révélé que les participants humains produisaient des sorties correctes dans 80% des cas. Les erreurs les plus fréquemment observées étaient par exemple l’association d’un mot à une couleur au lieu d’une fonction. Les réseaux neuronaux formés par MLC ont soit égalé, soit dépassé cette performance. Et, lorsque les chercheurs ont ajouté les erreurs couramment commises par les humains dans le processus de formation des IA, celles-ci ont commencé à reproduire les mêmes types d’erreurs.
Dans une autre expérience, les chercheurs ont comparé leurs modèles d’IA formés par MLC à ceux d’OpenAI. Il s’est avéré que ces derniers ne parvenaient pas à atteindre les performances des humains et des modèles MLC. « Nous avons constaté que contrairement aux modèles symboliques probabilistes parfaitement systématiques mais rigides et aux réseaux neuronaux parfaitement flexibles mais non systématiques, seuls les modèles MLC atteignent à la fois la systématicité et la flexibilité nécessaires à une généralisation de type humain », expliquent les chercheurs dans leur article. Par ailleurs, les réseaux MLC pouvaient accomplir des tâches supplémentaires, telles que l’interprétation d’instructions et du sens des phrases.
Toutefois, d’autres experts estiment que la capacité du nouveau modèle proposé est encore limitée en matière de généralisation. C’est-à-dire qu’il peut fonctionner uniquement sur les types de phrases sur lesquelles il a été formé, mais ne pourrait se généraliser pour en apprendre de nouvelles. Néanmoins, le MLC constitue déjà une importante avancée dans ce sens.