Grands modèles de langage : un fonctionnement proche du cerveau humain ?

grands modeles langage pourraient fonctionner meme maniere cerveau traitement langage couv
| Pixabay
⇧ [VIDÉO]   Vous pourriez aussi aimer ce contenu partenaire

Le cerveau active des mécanismes complexes pour traiter le langage, de la compréhension des mots et des phrases à la production de réponses cohérentes. Et si les grands modèles de langage (LLMs) imitaient certains aspects du fonctionnement du cerveau humain dans ce processus ? Il se pourrait bien que ce soit le cas, d’après une nouvelle étude.

Grâce aux avancées dans les technologies d’apprentissage automatique, qui ont permis une meilleure compréhension du langage naturel, les grands modèles de langage actuels génèrent des réponses de plus en plus fluides et cohérentes. Leur performance est parfois si impressionnante que certains utilisateurs en oublient presque qu’ils interagissent avec une machine. Outre cette capacité indéniable des IA génératives, il se pourrait également que cette prouesse soit liée à des similitudes potentielles entre le fonctionnement des LLM et celui du cerveau humain.

Ces ressemblances avaient déjà été mises en évidence par des études antérieures, mais celles-ci étaient limitées au modèle GPT-2 ou GPT-3. La recherche sur les modèles plus récents reste encore peu développée. C’est précisément ce que des chercheurs de l’Université de Columbia et des Feinstein Institutes for Medical Research Northwell Health ont entrepris de combler. Leur nouvelle étude explore la manière dont les grands modèles actuels pourraient imiter les processus neuronaux humains dans le traitement du langage. Les résultats ont été publiés dans la revue Nature Machine Intelligence.

Une étude sur des humains et 12 modèles de langage récents

Pour mener leur recherche, les scientifiques ont comparé les principes de fonctionnement des grands modèles de langage à ceux du cerveau humain. Ils ont examiné 12 modèles récents, développés avec des structures similaires et un nombre de paramètres presque identique (entre eux). Ces intelligences artificielles ont été soumises à un même texte, permettant aux chercheurs d’extraire les « embeddings », des représentations vectorielles de mots ou de phrases qu’elles génèrent. Ces embeddings traduisent la manière dont l’IA comprend et traite le texte à différents niveaux de son architecture.

En parallèle, des expériences ont été conduites sur des patients subissant des interventions neurochirurgicales, équipés d’électrodes implantées dans leur cerveau. Les chercheurs leur ont fait écouter un discours — identique au texte soumis aux modèles — afin d’observer leur activité cérébrale. En croisant ces données avec les embeddings produits par les IA, ils ont tenté de prédire les réponses neuronales humaines. Une forte proximité entre les prédictions et les réponses réelles pourrait indiquer des similitudes de traitement.

Une méthode de traitement du langage similaire

Les résultats ont révélé une correspondance croissante avec les réponses neuronales à mesure que la puissance des modèles augmentait. « Nous avons constaté qu’au fur et à mesure que les LLM deviennent plus puissants, leurs embeddings deviennent plus similaires aux réponses neuronales du cerveau au langage », a déclaré Gavin Mischler, auteur principal de l’étude, au média TechXplore. « Il semble que les systèmes naturels et artificiels convergent vers une méthode similaire de traitement du langage », a-t-il ajouté.

Ces travaux pourraient non seulement améliorer la compréhension des grands modèles de langage et leur conception, mais également offrir des perspectives inédites sur les mécanismes du cerveau humain, l’un des systèmes les plus complexes et mystérieux de la science.

Source : Nature Machine Intelligence
Laisser un commentaire
  1. Jean-Jacques alias JL³IA+G : Intéressante lecture avec un embeddings/plongement lexical parmi d’autre mode hérité et/ou acquis/exercés pour somme donnant un empan de 8 au sens science cognitive etc court extrait d’article TMS …Bref, la rengaine est aux animaux ce que le langage est aux humains. Ce qui sépare absolument les deux univers de la communication orale, c’est le sens, que seule l’espèce Homo a réussi à élaborer dans son esprit au cours de son évolution. Une telle évidence est parfaitement illustrée par la réponse que le psychologue Jean-François Le Ny (2005) apporte à sa question fondamentale : « À quoi sert le langage, sinon à produire du sens ? ». Le sens est donc ce qui a transformé l’instinct animal de la communication en faculté de langage. En définitive, on peut affirmer que l’homme est un primate qui a perdu sa rengaine… en fait je ressens qu’il y a une extrapolation sur l’analyse, car en dehors de la sémantique/lexical structure linguistique pour science il a a toujours la prosodie aussi qui donne beaucoup d’information également etc pour donner encore plus de sens a ce vaste sujet de la communication humaine et ou animale et/ou autres ^^ parmi tant de mode possible aussi en dehors du verbal et/ou écrit… fascinante études…mais selon mon feeling tous les langages au sens sémantique science sont insuffisant… d’où l’intérêt et ou la naissance de la science conlanging aussi une sorte d’intuition/prédiction naturelle d’un langage extra-terrestre beaucoup plus élaboré a contrario du primaire « naif » que les nôtres sous-tendu toutes les langues sans exception etc…merci pour cette petit révision et ou d’état de conscience plus étendu et pour ma part d’autant plus renforcée 🙂

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Vous voulez éliminer les publicités tout en continuant de nous soutenir ?


Il suffit de s'abonner !


JE M'ABONNE