Avant de pouvoir aborder la question en titre, il faut savoir répondre à « qu’est-ce que la conscience ? ». La définition de la conscience se veut large et imprécise, car aujourd’hui encore, nous ne pouvons la cerner et la comprendre suffisamment. De ce fait, la réponse à la question principale peut également varier au sein de la communauté scientifique, et cette dernière dépend souvent du domaine de recherche de l’interlocuteur. Les machines pourront-elles un jour être conscientes, du moins selon ce que nous savons globalement de la conscience et de l’évolution des technologies ?
Une autre question critique vient également se greffer à ce problème : si un jour nous parvenons à créer une machine consciente, comment saurons-nous qu’il s’agit vraiment de conscience et non d’un artefact ? Autrement dit, comment distinguer la conscience réelle d’une imitation informatisée de la conscience ?
Selon certains chercheurs, la sensation subjective de conscience, c’est en quelques sortes une « illusion » perceptive créée par des processus cérébraux complexes. Si un quelconque système informatique intelligent reproduit l’ensemble de ces processus, alors il serait considéré comme conscient. Mais comment le saurions-nous ?
Discerner la vraie conscience de son imitation
Daniel Dennett, de l’université Tufts (Massachusetts), pense qu’un test de Turing, dans lequel une machine doit convaincre un interrogateur humain qu’elle est consciente, devrait suffire s’il est réalisé « avec la vigueur, l’agressivité et l’intelligence appropriées ». Michael Graziano, de l’université de Princeton, pense quant à lui que nous pourrions adopter une approche plus directe. Son hypothèse, qu’il nomme « schéma d’attention », considère la conscience comme un modèle simplifié du cerveau, de son propre fonctionnement — une représentation de la façon dont il se représente les choses, le monde qui l’entoure.
Graziano pense qu’il est possible de concevoir une machine qui possède un modèle d’autoréflexion similaire. « Si nous parvenons à la construire de telle sorte que nous puissions voir dans ses entrailles, nous saurons qu’il s’agit d’une machine qui a une riche description de soi », explique-t-il. « Ce serait une machine qui pense et croit avoir une conscience. Et ces éléments sont confirmables car nous pouvons comprendre, en principe, comment la machine traite l’information ». Selon Graziano, la conscience pourrait apparaître dans n’importe quelle machine, qu’elle soit purement logicielle, biologique, ou autre.
Pourtant, Anil Seth, de l’université du Sussex au Royaume-Uni, n’en est pas convaincu. « Je pense que l’on ignore encore si la conscience est indépendante du substrat », déclare-t-il. Selon lui, déterminer si une machine est consciente nécessite de porter un jugement éclairé sur la base, par exemple, des analogues des structures cérébrales dont nous savons qu’elles sont importantes pour la conscience chez l’Homme, et de ce dont elle est faite (les organoïdes cérébraux, par exemple, sont constitués de matériel biologique).
Identifier la conscience dans une machine peut être plus simple si l’on souscrit à la théorie de l’information intégrée (« integrated information theory », ou IIT) de la conscience, proposée initialement par Giulio Tononi et adoptée par plusieurs autres neurobiologistes. En principe, il s’agit simplement de s’assurer que « phi », une quantité indiquant le degré d’intégration de l’information au sein d’un système, est supérieur à zéro. En pratique, le calcul de phi est impossible à réaliser pour tout autre système que le plus simple des systèmes… Ainsi, même si une machine était conçue pour intégrer des informations, nous serions loin de pouvoir déterminer si elle est consciente.
Des circuits désintégrés
Phil Maguire, de la National University of Ireland, à Maynooth, va plus loin. Il note que, par définition, les systèmes intégrés ne peuvent pas être compris en regardant leurs différentes parties. « Les machines sont constituées de composants qui peuvent être analysés indépendamment », explique-t-il. « Elles sont désintégrées. Les systèmes désintégrés peuvent être compris sans recourir à l’interprétation de la conscience ». En d’autres termes, selon Maguire, les machines ne peuvent pas être conscientes.
Selmer Bringsjord, de l’Institut polytechnique Rensselaer de Troy, dans l’État de New York, est d’accord avec cette idée, mais pour des raisons différentes. Il pense que notre sentiment subjectif de conscience est le résultat d’une sorte de substance non matérielle, et que celle-ci est cruciale pour certains de nos comportements intelligents. Selon lui, les machines ne pourront jamais posséder cette essence et ne seront donc jamais conscientes ou intelligentes comme nous le sommes.