Un homme surnommé « Pancho » ayant subi un accident vasculaire cérébral (AVC) et qui ne pensait pas pouvoir reparler un jour, peut à nouveau s’exprimer en deux langues (l’anglais et l’espagnol) grâce à un implant cérébral révolutionnaire. Le patient, tétraplégique, n’a pas perdu ses fonctions cérébrales de langage et a pu ainsi conserver une petite partie du contrôle de son appareil vocal, rendant l’interprétation multilingue de l’implant cérébral envisageable.
Derrière cette prouesse technologique et médicale se trouvent une équipe de neurochirurgiens et des spécialistes en intelligence artificielle de l’Université de Californie. Les résultats de leur étude et expérience ont été publiés le 20 mai dernier dans la revue Nature Biomedical Engineering.
Cette avancée, en plus d’aider potentiellement un grand nombre de patients dans le même cas, devrait permettre de mieux comprendre comment le cerveau humain traite le langage et pourrait même déboucher sur des dispositifs capables de restituer entièrement la parole aux personnes qui ne sont pas en mesure de communiquer verbalement. « Cette nouvelle étude est une contribution importante au domaine émergent des neuroprothèses de restauration de la parole », déclare à Nature Sergey Stavisky, neuroscientifique de l’Université de Californie et qui n’a pas participé à l’étude.
L’implant cérébral, la pièce manquante pour restituer la parole
Tout a commencé lorsque Pancho, lorsqu’il avait environ 30 ans, s’est associé au neurochirurgien Edward Chang dans le but d’étudier les effets sur le long terme de l’accident vasculaire cérébral sur son cerveau. Dans cette étude (publiée en 2021), Chang et son équipe ont implanté une interface cerveau-ordinateur (qui contient 128 électrodes) au niveau de la zone du cortex responsable du traitement du langage. Par la suite, les données recueillies par l’interface ont été transformées en mots lisibles sur un écran.
L’équipe a alors mis au point un système d’IA capable de déchiffrer les mots que Pancho souhaitait émettre en temps réel. Sous la direction d’Alexander Silva, le système a été formé par apprentissage automatique. Pour ce faire, les chercheurs, en collaborant avec le patient, ont commencé par intégrer 50 mots espagnols, 51 mots anglais ainsi que 3 mots avec une prononciation identique dans les deux langues. Progressivement, ils ont enrichi le vocabulaire de l’interface.
Au cours de cette formation du système, le patient voyait les mots un par un sur un écran et devait essayer de les prononcer. Ensuite, pour le premier mot d’une phrase, le système choisit le module (espagnol ou anglais) qui correspond au schéma neuronal et évalue sa probabilité de correspondance. Par exemple, le module anglais peut choisir le mot « she » comme premier mot le plus probable d’une phrase et évaluer, par la suite, sa probabilité de correspondance à 70 %. Le module espagnol quant à lui, peut par exemple choisir le mot « estar » et évaluer sa correspondance à 40 %. Ainsi, à partir de là, les deux modules tentent de construire une phrase.
En plus de se baser sur la correspondance du schéma neuronal, les deux modules prennent aussi en compte la probabilité que le second mot choisi suive le premier. C’est ainsi que Pancho a finalement pu avoir des conversations claires avec l’équipe de recherche. « Après avoir produit une de ces phrases pour la première fois, nous avons souri pendant quelques minutes », raconte Silva.
Des résultats surprenants et prometteurs
Les résultats de l’étude ont également permis aux scientifiques de découvrir des aspects inattendus du traitement des langues dans le cerveau. En effet, certaines expériences antérieures (qui utilisaient des appareils non invasifs) ont suggéré que les différentes langues activaient des zones spécifiques du cerveau. En revanche, dans le cas de Pancho, les auteurs ont découvert que lorsque le patient s’exprimait, que ce soit en espagnol ou en anglais, une activité était détectée dans une même zone du cerveau.
Les réponses neurologiques de Pancho lors des tests ne semblaient pas non plus différer de celles des enfants bilingues, et ce même s’il avait une trentaine d’années lorsqu’il a appris l’anglais. Compte tenu de l’ensemble des résultats, Silva suggère que les différentes langues partagent certaines caractéristiques neurologiques. Il en a ainsi conclu que le système pourrait en quelque sorte être généralisé et aider ainsi d’autres personnes.
Même si l’étude n’a porté que sur un seul participant et qu’il reste encore du travail à faire, « il y a tout lieu de penser que cette stratégie fonctionnera avec une plus grande précision à l’avenir lorsqu’elle sera combinée à d’autres avancées récentes », déclare Stavisky.
De son côté, Kenji Kansaku, neurophysiologiste à l’Université médicale Dokkyo de Mibu (au Japon), suggère qu’en plus d’ajouter des participants, la prochaine étape devrait porter sur l’étude de langues « aux propriétés articulatoires très différentes » de l’anglais, comme le mandarin ou le japonais. Silva précise qu’il se penche déjà sur cette question, ainsi que sur le « code switching » (le passage d’une langue à l’autre au cours d’une même phrase). « Idéalement, nous aimerions donner aux gens la possibilité de communiquer de la manière la plus naturelle possible », conclut-il.