Le domaine de la robotique est en plein essor ces dernières années, avec notamment le développement de prothèses robotisées, des plus simples — imprimées en 3D — aux plus avancées, contrôlées par les signaux cérébraux. Bien que pour le moment de tels modèles soient surtout expérimentaux, leur disponibilité semble pourtant relativement proche, comme nous le prouve une équipe de chercheurs du laboratoire de physique appliquée de l’Université Johns Hopkins et Robert Chmielewski, un quadriplégique qui a testé leur nouveau dispositif prothétique à la pointe de la technologie.
Robert « Buz » Chmielewski est quadriplégique depuis plus de 30 ans, suite à un accident survenu à son adolescence. Aujourd’hui, les mouvements qu’il est capable d’effectuer avec ses mains sont de faible amplitude, et sa sensation de toucher est également presque absente. Mais le mois dernier, il a réussi à manipuler deux bras prothétiques avec son cerveau, pour couper et mettre en bouche un aliment. Son accomplissement marque un grand pas vers la restauration des fonctions et de l’autonomie des patients atteints d’une maladie ou d’une blessure entrainant la perte partielle ou totale de l’usage des membres supérieurs et du torse.
« C’est plutôt cool », a déclaré calmement Chmielewski, dont le sentiment d’accomplissement était indéniable après avoir utilisé sa simple pensée pour ordonner aux membres robotisés de couper et de lui donner un morceau de gâteau. « Je voulais être capable d’en faire plus ». Il y a près de deux ans, Chmielewski a subi une opération du cerveau ayant duré dix heures à l’hôpital Johns Hopkins de Baltimore, dans le cadre d’un essai clinique mené à l’origine par l’Agence des projets de recherche avancée de la Défense, et mettant à profit les membres prothétiques avancés développés par le laboratoire de physique appliquée (APL) de Johns Hopkins. Le but était de permettre aux participants de contrôler des appareils d’assistance et de bénéficier d’une perception de stimuli physiques (sensation de toucher) en utilisant des signaux neurologiques du cerveau.
Pour cela, les chirurgiens ont implanté six réseaux d’électrodes des deux côtés du cerveau avec lesquels, en quelques mois seulement, Chmielewski a été capable pour la première fois de contrôler simultanément deux des membres prothétiques grâce à une interface cerveau-machine développée par l’APL. Les chercheurs ont été impressionnés par ses progrès au cours de la première année d’essais et ont voulu repousser encore les limites de ce qui pouvait être accompli.
Une intelligence artificielle couplée à une interface cerveau-machine
Grâce à une subvention de recherche interne de l’APL, l’équipe a lancé un axe de recherche parallèle, appelé « Smart Prosthetics », afin de développer des stratégies permettant d’assurer un contrôle avancé du robot et un retour d’information sensoriel des deux mains en même temps grâce à la stimulation neurale. Cette équipe comprenait Francesco Tenore, David Handelman, Andrew Badger, Matthew Fifer et Luke Osborn de l’APL, ainsi que Tessy Thomas, Robert Nickl, Nathan Crone, Gabriela Cantarero et Pablo Celnik de l’école de médecine.
Ils ont entrepris de développer un système en boucle fermée qui fusionne l’intelligence artificielle, la robotique et une interface cerveau-machine. Dans le cas de Chmielewski se servant lui-même un dessert, le système lui a permis de contrôler les mouvements nécessaires pour couper la nourriture avec une fourchette et un couteau et se nourrir lui-même.
« Notre but ultime est de rendre des activités telles que manger, faciles à accomplir, en faisant faire une partie du travail par le robot et en laissant l’utilisateur, dans ce cas Buz, responsable des détails : quel aliment manger, où le couper, quelle doit être la taille du morceau coupé », a expliqué Handelman, un roboticien de l’APL spécialisé dans les applications homme-machine. « En combinant les signaux de l’interface cerveau-ordinateur avec la robotique et l’intelligence artificielle, nous permettons à l’humain de se concentrer sur les parties de la tâche qui comptent le plus ».
Tenore, un neuroscientifique de l’APL et chercheur principal du projet Smart Prosthetics, explique que les prochaines étapes de cet effort comprennent non seulement l’augmentation du nombre et des types d’activités de la vie quotidienne que Buz peut démontrer avec cette forme de collaboration homme-machine, mais aussi de lui fournir un feedback sensoriel supplémentaire lorsqu’il accomplit des tâches, afin qu’il n’ait pas à se fier à sa vision uniquement pour se guider.
« L’idée est qu’il vivrait cela de la même manière que les personnes non blessées peuvent « sentir » comment elles nouent leurs lacets, par exemple, sans avoir à regarder ce qu’elles font », déclare Tenore. « Des handicaps comme le sien enlèvent à une personne son indépendance », en particulier sa capacité à se nourrir par elle-même. « Beaucoup de gens prennent cela pour acquis », ajoute-t-il. « Pouvoir le faire de manière indépendante tout en étant capable d’interagir avec sa famille change la donne ».
Dans cette vidéo, Chmielewski utilise les bras robotiques simultanément pour couper et mettre en bouche un aliment :