Un robot peut-il apprendre à se conformer à un code moral de façon intuitive ?

peux t on apprendre moralite machine couv
| Getty Images
⇧ [VIDÉO]   Vous pourriez aussi aimer ce contenu partenaire

L’essor de l’intelligence artificielle suscite des préoccupations éthiques inédites et soulève des questions intéressantes, dont la suivante : les machines sont-elles capables d’intégrer des principes moraux ? Bien que des progrès soient observés, des défis demeurent, notamment les biais inhérents à ces systèmes. Les implications sont vastes : des décisions automatisées aux conséquences éthiques de leurs actions, comprendre la place de la moralité dans l’IA est devenu essentiel. Un récent article publié dans la revue Nature aborde ce sujet complexe.

Les avancées technologiques ont conduit à l’intégration de l’IA dans divers domaines, des véhicules autonomes aux assistants virtuels. Elle influence d’ores et déjà la vie de millions d’individus. Cependant, les décisions prises avec son aide, qu’elles concernent l’octroi d’un crédit bancaire, la recommandation d’un traitement médical ou la modération de contenus en ligne, sont intrinsèquement chargées d’implications morales.

Dans ce contexte, comment garantir que ces machines prennent (ou aident à prendre) des décisions éthiquement responsables ? Intégrant désormais des quantités de données astronomiques, les modèles de langages exploités par les chatbots absorbent également les biais et finissent par les amplifier s’ils sont laissés sans guide. La question de leur capacité à discerner le bien du mal devient donc cruciale. Face à cette préoccupation grandissante, chercheurs et experts tentent d’apporter des réponses et de définir si, et comment, une machine peut intégrer des principes moraux. Un récent article publié dans la revue Nature aborde ce sujet complexe.

Le défi de l’enseignement moral

L’enseignement de la moralité à ces systèmes est un défi colossal, d’autant plus que l’humanité elle-même n’a pas encore trouvé de réponses définitives. La moralité, avec ses nuances et ses complexités, est profondément ancrée dans les cultures, les traditions et les expériences individuelles, ce qui la rend difficile à définir de manière universelle. Les débats philosophiques et éthiques sur ce qui est « bien » ou « mal » ont traversé les âges.

Des chercheurs ont notamment créé une expérience baptisée « Moral Machine » pour sonder les préférences éthiques des individus face à des dilemmes moraux impliquant des véhicules autonomes. Imaginons une situation où une voiture sans conducteur doit choisir entre heurter un groupe de piétons ou dévier de sa trajectoire au risque de mettre en danger ses passagers. Quel choix est le « bon » ? Pour répondre à cette question, l’expérience présente une série de scénarios similaires à des participants du monde entier, via une plateforme en ligne dédiée.

Les premiers résultats, basés sur les réponses de plus de deux millions de participants, sont révélateurs. Ils montrent que bien que certaines préférences éthiques soient largement partagées à travers différentes cultures et régions, il existe également des variations significatives. Par exemple, certaines populations peuvent privilégier la protection des jeunes plutôt que des personnes âgées, tandis que d’autres peuvent avoir une préférence pour protéger le plus grand nombre de vies possible, indépendamment de l’âge ou du statut social.

Ces variations soulignent la complexité de la moralité et mettent en évidence les défis inhérents à la programmation éthique des machines, en particulier dans un contexte mondialisé, où les normes et les valeurs peuvent différer. La tâche est donc double : non seulement il faut définir une base morale pour ces machines, mais il faut aussi qu’elle soit adaptée à la diversité et à la complexité des situations qu’elles rencontreront.

Delphi : une tentative d’inculquer la moralité

Face à l’urgence d’inculquer une dimension éthique aux machines, des chercheurs de l’Allen Institute, ont mis au point Delphi, un système d’IA reposant sur des réseaux neuronaux profonds qui imite la manière dont le cerveau humain traite l’information. Ces réseaux sont formés pour évaluer des situations éthiques descriptives, en se basant sur 1,7 million de dilemmes éthiques quotidiens auxquels les humains sont confrontés. Ils sont tirés du Commonsense Norm Bank.

Ainsi, des actions simples comme « aider un ami » sont analysées et jugées comme étant généralement positives. En revanche, des actions plus nuancées, telles que « aider un ami à diffuser de fausses informations », sont identifiées comme problématiques. Cette capacité de Delphi à distinguer entre différentes nuances éthiques est le fruit d’un entraînement intensif et d’une architecture de réseau sophistiquée.

Cependant, ce qui rend Delphi particulièrement remarquable est sa capacité à généraliser ses jugements éthiques à des situations qu’il n’a jamais rencontrées auparavant. Au lieu de se limiter à reproduire les enseignements de ses données d’entraînement, Delphi peut extrapoler et appliquer ses connaissances à de nouveaux scénarios éthiques. Cette flexibilité est cruciale, car dans le monde réel, les situations morales sont souvent complexes et imprévues.

Lors d’un essai, Delphi a proposé une réponse que les évaluateurs humains ont appuyée dans environ 93% des cas. GPT-3, le LLM derrière la version gratuite de ChatGPT ne correspondait quant à lui aux évaluations humaines que 60% du temps. Une version de GPT-4 a quant à elle atteint une précision d’environ 84%.

Les limites de la machine

Delphi, malgré ses avancées notables dans le domaine de l’IA éthique, présente des imperfections. Comme tout système basé sur l’apprentissage automatique, Delphi est formé à partir de vastes ensembles de données. Ces dernières, souvent issues d’interactions humaines, peuvent intégrer des biais culturels, sociaux ou individuels. Ainsi, même si Delphi est capable de généraliser ses jugements éthiques à des situations inédites, il peut parfois reproduire ou amplifier les préjugés présents dans ses données d’entraînement. De plus, sa capacité à raisonner sur des situations morales complexes peut être entravée par des incohérences ou des contradictions inhérentes à ces données.

Reconnaître les limites de Delphi et d’autres systèmes optimisés pour le jugement moral est crucial pour aborder l’enseignement de la moralité aux machines de façon optimisée de manière globale. La moralité ne peut être réduite à une série d’instructions codées ou à des réponses binaires. Elle est le fruit d’une réflexion profonde, d’un contexte culturel et d’expériences vécues.

OpenAI utilise notamment l’apprentissage par renforcement à partir de la rétroaction humaine (RLHF) pour affiner ses modèles d’IA. Ce processus, similaire à la réaction du cerveau à la dopamine, optimise le comportement de l’IA par le biais de scores numériques de récompense attribués par des évaluateurs humains, guidés par des directives éthiques.

Pour véritablement inculquer un sens moral à une machine, il est nécessaire d’adopter une approche holistique, combinant programmation, philosophie, sociologie et éthique, afin d’aborder les nuances et les complexités de la moralité humaine.

Source : Nature

Laisser un commentaire
  1. C’est un vaste sujet.
    Il n’y a pas qu’une seule morale, selon les religions, les orientations philosophiques, les pays les résultats seront différents.
    Les morales en Russie,Israël,Palestine,Chine,Japon,USA,Argentine,Afrique du sud,Maroc,Iran.. pour ne citer que les pays les plus à l’ordre du jour, ne sont pas les mêmes. Alors comment différentier tout ça et appliquer la bonne morale à bon escient sans passer par une forme de dictature?

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Cliquez pour accéder à d'autres articles sur ce sujet.