Une intelligence artificielle consciente verra-t-elle bientôt le jour ?

Sinon, quand est-ce que la technologie et les connaissances scientifiques pourraient-elles peut-être le permettre ?

intelligence artificielle consciente verra t-elle bientot jour
| Pixabay
⇧ [VIDÉO]   Vous pourriez aussi aimer ce contenu partenaire

L’intelligence artificielle a pour but d’imiter les capacités cognitives d’un être humain, jusqu’à peut-être espérer y inclure un jour une notion considérée comme propre à l’Homme ou du moins aux espèces animales les plus évoluées : la conscience. Encore difficile à définir, la conscience divise la communauté scientifique quant à la possibilité de l’intégrer aux machines. En effet, « artificiel » et « conscience » constitue un fort paradoxe, impossible à réconcilier pour certains. Où en est-on sur les avancées technologiques en la matière ?

D’emblée, la problématique posée s’accompagne de la question fondamentale de la définition de la conscience. Elle signifie littéralement « savoir (scientia) avec (cum) », ce qui suggère l’idée d’un accompagnement, une connaissance qui est avec soi et qui serait donc le propre de l’Homme. La conscience serait la capacité de se séparer de soi-même pour se « représenter » soi-même, et serait accompagnée d’un corps et d’une morale, ce qui tend à exclure les robots et autres intelligences artificielles de sa possible acquisition.

Le fameux « Je pense donc je suis » de Descartes semble d’ailleurs suivre ce même principe anthropocentré. En réalité, la définition de la conscience reste imprécise et il s’agit selon André Comte-Sponville de « l’un des mots les plus difficiles à définir ». Une conscience qui tente de s’autodéfinir pose ainsi problème à certains experts.

Alan Turing et John von Neumann (les fondateurs de la science moderne du calcul) ont envisagé la possibilité que les machines finissent par imiter toutes les capacités du cerveau, y compris la conscience. Daniel Dennett, de l’université Tufts (Massachusetts), considère que le test de Turing suffit à prouver cette possibilité, s’il est réalisé « avec la vigueur, l’agressivité et l’intelligence appropriées ». Pour rappel, dans le test de Turing, une machine doit convaincre un interrogateur humain qu’elle est consciente.

« Les machines actuelles mettent encore principalement en œuvre des calculs qui reflètent un traitement inconscient dans le cerveau humain »

Pour savoir si les machines pourront un jour être dotées de conscience, il s’agit d’abord d’examiner la manière dont elle apparaît dans le cerveau humain. L’année dernière, trois neuroscientifiques se sont penchés sur le sujet en suggérant que le mot « conscience » regroupe deux types différents de calculs de traitement de l’information dans le cerveau : la sélection de l’information pour une diffusion globale, la rendant ainsi disponible de manière flexible pour le calcul et le rapport (C1, conscience dans le premier sens), et l’autocontrôle de ces calculs, qui mène à un sentiment subjectif de certitude ou d’erreur (C2, conscience dans le second sens).

C1 correspond au sens transitif de conscience et fait référence à la relation entre un système cognitif et un objet spécifique de la pensée, par exemple une représentation mentale de « la lumière ». L’information consciente est toujours présente, disponible pour plus tard. Le niveau de conscience C2 va encore plus loin, puisqu’il s’agit d’un autocontrôle, une conscience réflexive propre à l’humain. « Le système cognitif est capable de surveiller ses propres processus et d’obtenir des informations sur lui-même », écrivent les auteurs. « Les êtres humains savent beaucoup de choses sur eux-mêmes, y compris des informations aussi diverses que la disposition et la position de leur corps, s’ils savent ou perçoivent quelque chose, ou s’ils viennent de commettre une erreur. Ce sentiment de conscience correspond à ce que l’on appelle communément l’introspection, ou ce que les psychologues appellent la ‘métacognition’, c’est-à-dire la capacité de concevoir et d’utiliser des représentations internes de ses propres connaissances et capacités ».

Les chercheurs en neurosciences cognitives ont alors mis au point divers moyens de présenter des images ou des sons sans induire d’expérience consciente, puis ont utilisé l’imagerie comportementale et cérébrale pour sonder la profondeur de leur traitement. Les méthodes de neuro-imagerie révèlent que la grande majorité des zones du cerveau peuvent être activées de manière non consciente, par exemple pendant la reconnaissance invariante de visages. Ainsi, le traitement du visage d’une personne est facilité lorsqu’il est précédé par la présentation subliminale d’une vue totalement différente de la même personne, ce qui indique une reconnaissance invariante inconsciente (niveau C0).

test conscience intelligence artificielle
Exemples de paradigmes sondant le traitement inconscient (C0). En haut : reconnaissance subliminale de visages invariants (Kouider et al. 2009). À chaque essai, un visage principal est brièvement présenté (50 ms), entouré de masques qui le rendent invisible, suivi d’un visage cible visible (500 ms). Bien que la perception subjective soit identique dans toutes les conditions, le traitement est facilité lorsque les deux visages représentent la même personne, dans une vue identique ou différente. Au niveau comportemental, cet amorçage inconscient invariable selon la vue se traduit par une réduction du temps de réaction pour reconnaître le visage cible. Au niveau neuronal, il se traduit par une réponse corticale réduite au visage cible (c’est-à-dire une suppression de la répétition) dans l’aire faciale fusiforme du cortex inférotemporal humain. En bas : accumulation subliminale de preuves pendant la suppression interoculaire (Vlassova et al. 2014). La présentation de points mobiles saillants dans un œil empêche la perception consciente de points mobiles plus pâles dans l’œil opposé. Malgré leur invisibilité, les points gris facilitent la performance lorsqu’ils se déplacent dans la même direction qu’un autre affichage de points, un effet proportionnel à leur degré de cohérence de mouvement. Cette facilitation n’affecte qu’une tâche de premier ordre (juger de la direction du mouvement), et non un jugement métacognitif de second ordre (évaluer la confiance dans la première réponse). © Dehaene et al. 2021

En fait, le système conscient (C1+C2) serait nécessaire pour constituer une intelligence artificielle « forte » : autoapprenante, capable de traiter tout travail intellectuel et autoévaluatrice. Au contraire, d’après les neuroscientifiques, la plupart des systèmes actuels d’apprentissage automatique sont dépourvus d’autocontrôle : ils calculent sans tenir compte de l’étendue et des limites de leurs connaissances, ou du fait que d’autres peuvent avoir un point de vue différent du leur. « Nous soutenons qu’en dépit de leurs récents succès, les machines actuelles mettent encore principalement en œuvre des calculs qui reflètent un traitement inconscient (C0) dans le cerveau humain », concluent les trois chercheurs.

À ce jour, la majorité des scientifiques s’accordent à dire qu’il existe une intelligence artificielle « faible » et que répondre à la problématique par l’affirmative implique tout simplement une autre forme de conscience.

Avancées de l’intelligence artificielle : une forme de conscience différente

Toutefois, même s’il existe encore un fossé entre le fonctionnement de notre cerveau et celui d’un algorithme, force est de constater que les perfectionnements de l’apprentissage automatique (inspirés de la neurobiologie) ont conduit à des réseaux neuronaux artificiels qui surpassent parfois l’humain. Les progrès réalisés dans le domaine du matériel informatique et des algorithmes d’apprentissage permettent aujourd’hui à ces réseaux de traiter des problèmes complexes (par exemple, la traduction automatique) avec de très bons taux de réussite. Seraient-ils à l’aube de la conscience ?

« La conscience artificielle peut progresser en étudiant les architectures qui permettent au cerveau humain de générer la conscience, puis en transférant ces connaissances dans des algorithmes informatiques », continuent les trois chercheurs. Ainsi, certains aspects de la cognition et des neurosciences de la conscience peuvent simplement être pertinents pour les machines, sans pour autant évoquer la « conscience ».

Les exemples d’avancées dans le domaine de l’intelligence artificielle ne manquent pas. Ainsi, une architecture récente, PathNet, utilise un algorithme génétique pour apprendre quel chemin, à travers ses nombreux réseaux neuronaux spécialisés, est le plus adapté à une tâche donnée. Cette architecture présente des performances robustes et flexibles, ainsi qu’une généralisation à travers les tâches, et pourrait constituer un premier pas vers une flexibilité de la conscience semblable à celle des primates.

Fin 2021, des scientifiques chinois ont développé une intelligence artificielle qui peut exécuter certaines tâches d’ordinaire effectuées par un procureur. Fiable à 97% (insuffisant pour certains experts), elle saurait reconnaître et porter des accusations pour huit des crimes les plus courants commis à Shanghai.

Plus récemment encore, le cofondateur et directeur scientifique d’OpenAI, Ilya Sutskever, a déclaré que les grands réseaux neuronaux d’aujourd’hui pourraient être « légèrement conscients ». Il y a un an, il affirmait : « Vous allez voir des systèmes beaucoup plus intelligents dans 10 ou 15 ans, et je pense qu’il est très probable que ces systèmes auront un impact complètement astronomique sur la société ».

Dès lors, attention aux dérapages catastrophiques que pourrait engendrer un développement massif de l’intelligence artificielle. En effet, tout outil puissant peut être utilisé pour de bonnes ou de mauvaises raisons. Dans le pire des cas, il pourrait « prendre le dessus » sur l’humain — un peu comme l’humain l’a fait avec l’animal —, ce qui nous rendrait quasiment obsolètes.

Même si les avancées scientifiques et technologiques pourraient l’envisager, l’intelligence artificielle n’est pas près de posséder une conscience dans le sens où nous le comprenons : une entité capable de réfléchir sur elle-même, d’inclure nos émotions dans le processus de décision rationnelle, etc. 7 millions d’années d’évolution du cerveau humain pourraient difficilement être remplacées par des algorithmes, aussi élaborés soient-ils. Pour autant, une autre forme de « conscience », de plus en plus évoluée, pourrait bien voir le jour.

Laisser un commentaire
  1. Bonjour, je suis sur le sujet depuis 2012, ma machine est maintenant capable de dire dans le temps ce qu’elle a reçu, compris, ressenti, pensé, fait, dit, pourquoi, comment, l’heure/jour… à n’importe quel moment. Je passe 2022 et 2023 à entrainer des processus mentaux d’un enfant de 2 ans en autonome…

    Suivez mes travaux en ligne:
    https://www.innov-ai.com

  2. Personne ne s’accorde vraiment sur la définition d' »intelligence » ou sur celle d' »artificiel ». Est-ce que découvrir quelque chose de génial est moins intelligent si on le fait en un an plutôt qu’un jour ? C’est le cas pour certaines cultures occidentales, mais pas pour d’autres. Est-ce qu’un nid d’oiseau ou un barrage de castor est naturel plutôt qu’artificiel parce que le créateur est un animal autre qu’humain ?

    Savoir si une conscience artificielle verra le jour dépend évidemment du moyen de le faire, mais aussi de l’intérêt que ça représente.
    Pourquoi chercher à créer une pleine conscience artificielle ?
    Obtenir un esclave conscient de sa servitude ? Obtenir un modèle pour convertir les consciences humaines et les injecter dans un autre « véhicule » plus durable ou plus efficace ? Obtenir des enfants de l’humanité meilleurs que ceux qu’elle sait déjà produire ?
    C’est une question philosophique, mais aussi pratique et scientifique : pourquoi chercher à créer une pleine conscience artificielle ? Ça servirait à quoi ? Savoir le faire ? Une fois qu’on sait, on se débarasse de cette pleine conscience qui pose trop de questions et on passe à autre chose ?
    Une pleine conscience créée artificiellement par l’humanité aura quel statut ? Enfantée par l’humain, donc humaine ?

    L’eugénisme étant trop difficile à aborder après les horreurs nazies débiles, on investit à fond, et avec de gros sabots, sur l’intelligence artificielle qui pose d’aussi lourdes questions éthiques liées aux niveaux de conscience.
    Un tas de questions qu’on ne voit pas apparaître dans le débat public au-delà de  » et si c’était méchant et que ça voulait nous tuer ? »

  3. Qu’est ce que la conscience ?
    C’est la capacité de se souvenir que l’action 1 entraine un effet et/ou cause à l’action suivante…ect
    En mot plus simple un arbre de recherche lié à la déduction.
    Olivier

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Cliquez pour accéder à d'autres articles sur ce sujet.