Une machine peut-elle développer une conscience ? Et si oui, comment pourrions-nous le savoir ?

machines conscience
| Pixabay

Certains spécialistes pensent que oui ; d’autres estiment au contraire que cela est impossible. Mais tout dépend en réalité de ce que l’on entend par le terme « conscience ». La notion de conscience englobe plusieurs concepts philosophiques et est de ce fait particulièrement complexe à définir. Si le sentiment subjectif de conscience est une illusion créée par des processus cérébraux, alors les machines capables de reproduire de tels processus seraient tout aussi conscientes que nous le sommes. Mais comment en être certain ?

Daniel C. Dennett, directeur du Centre des études cognitives et professeur de philosophie à l’Université Tufts, est un spécialiste du sujet. En 1996, il a notamment collaboré avec une équipe du MIT pour développer un robot intelligent, éventuellement doté d’une conscience. Il est également l’auteur de plusieurs centaines d’articles scientifiques traitant des différents aspects de l’esprit.

Dennett estime qu’un test de Turing, dans lequel une machine doit convaincre un interrogateur humain qu’elle est consciente, devrait, s’il est mené « avec la vigueur, l’agressivité et l’intelligence appropriées », être suffisant. Mais d’autres experts, tels que Michael Graziano , professeur de psychologie et de neurosciences à l’Institut de neurosciences de Princeton, propose une approche plus directe, en analysant la façon dont la machine traite les informations.

Examiner comment la machine traite le fait de penser d’être consciente

La conscience ne se limite pas à la capacité de s’identifier soi-même comme un individu distinct des autres. Plusieurs recherches ont mis en évidence divers processus liés à la conscience, tels que la perception, la prise de décision, l’apprentissage, le raisonnement ou le langage. On distingue cinq théories principales décrivant la conscience, chacune ayant ses propres partisans :

  • un espace de travail neuronal global : les informations extérieures entrant dans le cerveau rivalisent pour attirer l’attention dans le cortex et le thalamus. Lorsqu’un signal est plus fort que les signaux d’autres informations, il est diffusé à travers le cerveau dans l’espace de travail global ; ce signal est alors enregistré consciemment.
  • un schéma d’attention : le cerveau a évolué pour contenir un modèle de la façon dont il se représente lui-même, comme un miroir autoréfléchissant. La conscience ne serait alors qu’un mirage créé par un traitement neuronal sophistiqué.
  • un traitement prédictif : le cerveau est une machine prédictive, ce qui signifie qu’une grande partie de notre expérience consciente et de notre individualité est basée sur ce que nous attendons, et non sur ce qui existe.
  • une information intégrée : la conscience ne se limite pas au cerveau, mais survient dans tout système en raison de la façon dont l’information se déplace entre ses sous-systèmes. Le degré d’intégration de cette information est défini par une valeur appelée « phi ». Selon cette théorie, tout système avec un phi supérieur à zéro est conscient.
  • une réduction objective orchestrée : des éléments structurels microscopiques dans le cerveau, appelés microtubules, peuvent exister sous forme de superposition de tous les états possibles. Ce système quantique s’effondre en un seul état lorsque la masse des microtubules qu’il contient dépasse un certain seuil et cet effondrement crée la conscience.
À LIRE AUSSI :
Pour la première fois, l'activité cérébrale d'un patient paralysé a été convertie en texte

Les recherches de Graziano se concentrent sur la base cérébrale de la conscience. Le cerveau humain parvient à la conclusion qu’il a une expérience interne et subjective des choses, une expérience qui est non physique et inexplicable. Comment un cerveau arrive-t-il à ce genre d’autodescription ? Quel est l’avantage adaptatif de ce style d’autodescription ? Quels systèmes dans le cerveau calculent cette information ? Voilà tout autant de questions auxquelles tentent de répondre le professeur et son équipe.

Son hypothèse de schéma d’attention considère la conscience comme le modèle simplifié du cerveau de son propre fonctionnement. Graziano pense ainsi qu’il est possible de construire une machine qui possède un modèle autoréfléchissant similaire. « Si nous pouvons la construire de manière à ce que nous [puissions] voir dans ses entrailles, alors nous saurons qu’il s’agit d’une machine qui a une riche description d’elle-même », explique-t-il. Partant du principe que la machine pense et croit avoir une conscience, il serait alors possible de le vérifier en examinant comment elle traite ces informations.

Pour ce spécialiste, la conscience pourrait apparaître dans n’importe quelle machine, qu’elle soit purement logicielle ou faite de matière, biologique ou autre. Une hypothèse qu’Anil Seth, professeur de neurosciences cognitives et computationnelles à l’Université du Sussex et co-directeur du Sackler Center for Consciousness, ne soutient pas complètement. Il souligne en effet que l’on ne sait toujours pas si la conscience est indépendante ou non du substrat. Ainsi, pour lui, déterminer si une machine est consciente ou non revient à déterminer si elle possède des analogues de structures cérébrales connues pour être essentielles à la conscience chez l’homme, et déterminer de quoi sont faites ces structures.

À LIRE AUSSI :
Une IA repère les politiciens belges trop distraits par leur smartphone

Une « substance non matérielle » que les machines ne posséderont jamais

Dans le cadre de la théorie de l’information intégrée de la conscience, il peut être plus simple d’identifier la conscience d’une machine : en effet, il suffit en principe de s’assurer que phi est supérieur à zéro. Mais en pratique, le calcul de phi est insoluble en matière de calcul (sauf pour le plus simple des systèmes). Ainsi, même si une machine était conçue pour intégrer des informations, nous n’aurions pas la capacité de dire si elle est consciente ou non.

Vous voulez éliminer toutes les pubs du site tout en continuant de nous soutenir ?

C'est simple, il suffit de s'abonner !


J'EN PROFITE

20% de rabais pour les 1000 premiers !
Code : 0pub20

Phil Maguire, de l’Université Maynooth, en Irlande, est plus catégorique : pour lui, les machines ne peuvent simplement pas être conscientes. Il souligne en effet que par définition, les systèmes intégrés ne peuvent pas être compris en observant leurs différentes parties. Or, les machines sont constituées de composants qui peuvent être analysés indépendamment ; par conséquent, ce sont des systèmes désintégrés. Et les systèmes désintégrés peuvent être compris sans recourir à l’interprétation de la conscience.

Ce point de vue est d’ailleurs partagé par Selmer Bringsjord, directeur du Rensselaer Artificial Intelligence and Reasoning et spécialiste des fondements logico-mathématiques et philosophiques de l’intelligence artificielle. Il est notamment l’auteur de l’ouvrage What Robots Can & Can’t Be, qui s’intéresse au développement de machines se comportant comme des humains. Pour lui, les machines ne pourront jamais être dotées d’une conscience tout simplement parce qu’elles sont dénuées de cette sorte de substance non matérielle sur laquelle repose notre propre sentiment subjectif d’être conscient. Les machines ne pourront jamais posséder cette essence particulière, donc ne seront jamais conscientes comme nous le sommes.

À LIRE AUSSI :
DeepMind : son IA pourrait prédire la structure de toutes les protéines connues

Les machines deviendront sans aucun doute de plus en plus intelligentes ; elles sont déjà capables de calculer, de raisonner, d’analyser et de prédire des événements, à une vitesse qui dépasse très largement les capacités humaines. Dotées d’une conscience, les machines interpréteraient plus efficacement leur environnement, ce qui permettrait d’améliorer encore leurs décisions. Mais l’intelligence et la conscience sont deux concepts complètement différents et la capacité des machines à éprouver le sentiment d’exister fait aujourd’hui encore toujours débat.

Laisser un commentaire
  1. Je suis surpris que ces analyses n’incluent pas (ou très peu) de réflexion sur le rôle des sens dans la construction et la maintenance d’une conscience de soi : le flux d’informations en temps réel (vue, ouïe, etc.) dont notre cerveau est abreuvé alimente notre conscience, maintenue en veille lorsque nous ne « pensons à rien » (ce qui arrive plus souvent qu’on ne le croit). Et que dire d’une conscience qui serait déconnectée – sensoriellement parlant – de tout son environnement, incluant la perception d’elle-même (nos sens nous informent aussi sur nous : ils nous mettent en scène dans le monde) ? Vous imaginez-vous ainsi isolés de tout, comme enfermés dans un caisson fermé, noir et silencieux, sans même la sensation du toucher pour vous signifiez que vous avez un corps ? Le désespoir vous mènerait très vite à la folie.
    Bref, je suis un peu déçu que ce point – le rôle essentiel des sens dans l’existence même d’une forme de conscience – ne soit pas considéré.

  2. Bon commentaire de Christian Mézières.
    J’ajoute ceci : on sait qu’avec des implants, on peut se rajouter de nouveaux « sens », par exemple, le magnétisme. Je ne sais plus quel transhumaniste s’était implanté des aimants dans la main et son cerveau avait finit par l’intégrer comme un nouveau sens.
    Du coup, on peut imaginer remplacer petit à petit les sens par des capteurs artificiels. Est-ce que la conscience dépends d’un « substrat » et est-il organique ? je ne sais pas, mais le rôle des sens me semble important.
    Je rajoute qu’on ne deviendrait pas forcément fou en étant privé de sens, car, la raison elle même peut être vue comme un sens particulier. Il existe des états dans le cerveau ou l’on est conscience, mais sans aucune pensée, on « flotte » dans le néant, indéfiniment, c’est tout.

  3. Les machines, initialement, se programment et parmi les programmes, on peut leur apprendre à déduire, en fonction des algorithmes bien pensés, et surtout de la part de bonnes personnes, qui ont une éthique irréprochable. La conscience se base sur différents paramètres, et en fonction de la diversité de ces paramètres, la prise de conscience et son exhaustivité, on peut avoir bonne ou mauvaise conscience.

  4. Pour ma part je crois que la conscience est une dérivation de la complexité du corps strictement matériel que chacun de nous constitue et que fabriquer une machine d’une comparable complexité sera toujours au-delà de nos moyens.
    Là où il y a un corps en parfait état il y a une conscience. Il n’existe pas le moindre indice d’une conscience en l’absence d’un corps.
    Daniel C. Dennett est un philosophe ce n’est pas un scientifique.

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.