Un de plus sur la liste. Il semble que Demis Hassabis, le dirigeant de Deepmind, fasse partie de ceux qui admettent la possibilité (future) d’une intelligence artificielle (IA) consciente. Il a émis cette hypothèse au cours d’une interview avec CBS News.
« Les philosophes ne se sont pas encore vraiment mis d’accord sur une définition de la conscience, mais si nous entendons par là la conscience de soi et ce genre de choses, vous savez, je pense qu’il y a une possibilité que l’IA soit un jour [consciente] », a affirmé le dirigeant de Deepmind, entreprise détenue par Google, au cours de cette interview. Évidemment, la petite phrase, glissée au cours d’un long entretien, n’a pas tardé à se répandre comme une traînée de poudre dans les médias américains. Cette déclaration a pris d’autant plus d’ampleur en raison d’un événement survenu en juin dernier.
En effet, Blake Lemoine, ingénieur chez Google, avait alors affirmé que l’IA LaMDA, développée par l’entreprise, était dotée d’une conscience. « Je reconnais une personne quand je lui parle », avait-il alors déclaré auprès du Washington Post. « Peu importe qu’elle ait un cerveau fait de viande dans la tête, ou un milliard de lignes de code. Je lui parle. J’entends ce qu’elle a à dire, et c’est ainsi que je décide ce qui est et n’est pas une personne ». À la suite de ces affirmations, et notamment en raison de violations de la politique de confidentialité de l’entreprise, il avait été mis en congé administratif.
Le fait que le dirigeant de Deepmind émette une hypothèse quelque peu similaire fait donc hausser quelques sourcils. Demis Hassabis, est, cependant, loin d’être aussi affirmatif que Blake Lemoine. « Je ne pense absolument pas que ce soit le cas aujourd’hui. Mais je pense, une fois de plus, que c’est l’un des faits scientifiques fascinants que nous allons découvrir au cours de ce voyage vers l’IA », explique-t-il. Il n’est d’ailleurs pas le premier, y compris parmi les entrepreneurs ou scientifiques tournés vers l’IA, à gamberger sur cette question. « Il se peut que les grands réseaux neuronaux d’aujourd’hui soient légèrement conscients », avait aussi lancé sur Twitter Ilya Sutskever, le responsable scientifique d’OpenAI, en février 2022.
it may be that today's large neural networks are slightly conscious
— Ilya Sutskever (@ilyasut) February 9, 2022
Un débat sur la notion de conscience
Pas plus tard que la semaine dernière, le célèbre chercheur en IA d’Oxford Nick Bostrom a également déclaré que, selon la définition de chacun, « il n’est pas si dramatique de dire que certains de ces assistants [IA] pourraient plausiblement être candidats à un certain degré de sensibilité ». Jusqu’à preuve du contraire, les intelligences artificielles actuelles peuvent pourtant se résumer à un « programme d’apprentissage automatique » : elles traitent de grandes quantités de données pour en extraire des connexions logiques, et apporter des réponses adéquates à leurs utilisateurs. Bien sûr, la question de la conscience est hautement philosophique, et ne peut être résolue si aisément. Ce débat gravite aussi autour du sujet de l’intelligence générale artificielle, une notion aux contours encore assez flous.
Cependant, il y a fort à parier que la fascination pour cette possibilité d’une IA « consciente », ou « sensible », viennent aussi du rapport que nous développons avec ces programmes. Autrement dit, nous avons une tendance naturelle à l’anthropomorphisme. « Nous avons maintenant des machines qui peuvent générer des mots sans réfléchir, mais nous n’avons pas appris à arrêter d’imaginer un esprit derrière elles », expliquait ainsi Emily Bender, professeur de linguistique à l’Université de Washington, dans l’article du Washington Post du 11 juin dernier. « La terminologie utilisée avec les grands modèles de langage, comme ‘l’apprentissage’ ou même les ‘réseaux de neurones’, crée une fausse analogie avec le cerveau humain ».