Pour Elon Musk, la non régulation de l’intelligence artificielle pourrait être « le plus grand danger auquel nous serons confrontés en tant que civilisation »

elon musk ia intelligence artificielle ai regularisation regulation menace futur civilisation
| Wired
⇧ [VIDÉO]   Vous pourriez aussi aimer ce contenu partenaire

Pour Elon Musk, la non régulation de l’intelligence artificielle (IA) pourrait être le « le plus grand danger auquel nous serons confrontés en tant que civilisation ». Il y a quelques jours, le directeur et fondateur de SpaceX et Tesla annonçait qu’il serait absolument nécessaire de réguler tout ce qui concerne l’intelligence artificielle, afin d’écarter toute menace potentielle pour les êtres humains dans le futur.

C’est lors de la réunion de l’Association nationale des gouverneurs de 2017, organisée le 15 juillet à Providence, aux États-Unis, qu’Elon Musk a abordé un certain nombre de sujets, dont celui de l’intelligence artificielle. Au cours de cette conférence, Musk a alerté les gouverneurs américains pour mettre en place des règlements clairs et précis concernant le développement de l’IA. Selon Musk, si cette dernière n’est pas contrôlée, elle pourrait bien finir par constituer un danger, peut-être même « le plus grand danger auquel nous serons confrontés en tant que civilisation ».

Une solution potentielle proposée par Musk serait de mettre en place une forme de réglementation anticipée : « En général, des règlements sont mis en place après que des événements se soient produits », explique-t-il. « Cela prend une éternité. Cette manière de faire n’est pas une bonne chose car nous agissons toujours après coup (par réaction). Par le passé, heureusement, cela n’a jamais représenté un risque fondamental pour l’existence de notre civilisation. Concernant l’IA en revanche, c’est différent. Elle représente une véritable menace pour notre existence », ajoute-t-il.

Plusieurs des gouverneurs ont donc demandé à Musk comment il serait possible de réglementer cette nouvelle industrie, et il a répondu que la première étape serait « d’essayer d’en apprendre autant que possible, afin de comprendre la nature des problèmes ». C’est notamment ce que Musk fait, grâce à son entreprise de recherche à but non lucratif, OpenAI.

OpenAI n’est pas l’unique initiative de Musk dans ce domaine. En effet, ce dernier a également mis en place Neuralink, une interface homme-machine qui donnerait à l’humanité la capacité de rester à niveau avec l’IA, tout en permettant d’intégrer différentes technologies.

Bien qu’il n’y ait pas de menace immédiate, Musk souligne le fait qu’une régulation proactive est tout simplement cruciale : « jusqu’à ce que les gens voient vraiment des robots tuer des personnes dans la rue, ils ne sauront pas comment réagir, car ça leur paraît irréel », a-t-il déclaré.

« Je travaille sur des formes d’intelligence artificielle très avancées et je pense qu’on devrait tous s’inquiéter de ces progrès. Le domaine de l’IA est un cas rare où je pense que nous devons à tout prix être proactifs dans la réglementation, plutôt que réactifs. Car je pense qu’au moment où nous serons réactifs dans cette réglementation de l’IA, il sera trop tard », a-t-il ajouté.

VIDÉO : Association nationale des gouverneurs (2017)

Source : NGA

Laisser un commentaire
  1. L’éducation actuelle des IA est basée sur des algorithmes d’optimisation : il s’agit d’entraîner un réseau de neurones pour obtenir le maximum de réponses adéquates.

    Il n’y a aucune loi, aucune barrière infranchissable, aucun équivalent du « ne fais pas cela sinon tu va te faire mal ». L’IA n’a aucune conscience d’elle même, seulement du prisme par lequel elle a été entraînée.

    Alors oui certains algorithmes avancés s’approchent du Saint graal de l’auto apprentissage, mais là encore il ne s’agit que de reconfiguration d’un réseau de neurones.

    De mon point de vue une IA « éthique » devrait avoir l’équivalent d’un cœur : un cœur qui bat en fonction du facteur de risque de l’expérience, reproduisant le mécanisme de la peur, de la joie, de la peine, et cela via des signaux visibles par un être humain.

    C’est alors à ce moment là que nous pourrons appliquer les trois lois de la robotique décrites par Isaac Asimov, ainsi que toutes les autres lois qui en découlent.

    1. Selon moi Il n’y a pas de raison de paniquer : à priori les états devraient voter et mettre en application des lois afin que chaque application AI puisse être balisée par des lignes de codes finsi sur des taches dont on voudrait la restreindre!!Et également à posteriori pour les application AI déjà existantes voter des lois à vocation rétroactives obligeant les créateurs de ces applications AI à développer des applications de contrôles ou de contre-analyse avec des lignes de codes pour surveiller le deep-learning des machines crées….

  2. Bon, Isaac Asimov ( SF) nous a alerté de cela des les années 40 avec ses 3 lois de la robotique.
    Et on n’a pas besoin d’attendre de réaliser une IA pour être sérieusement mis en danger, les programmes des robots actuels sont suffisants. Les armes sont un bon prétexte et exemple (Ex : drones autonomes)

    Rappel des 3 lois d’Asimov:
    sont :

    1. un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ;
    2. un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
    3. un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

    C’est pas un scoop mais y’a pas de mal à le rabâcher, comme de nombreuses célébrités le font actuellement. Mais y’a pas besoin d’une IA, un robot suffit.

    1. Il ne faut pas oublier la quatrième loi d’Asimov, que les robots soumis aux trois lois de base ont introduit d’eux-même, sans intervention humaine.

      0. Un robot ne peut pas faire de mal à l’humanité, ni, par son inaction, permettre que l’humanité soit blessée.

      Une loi leur permettant d’agir contre les humains si cette action bénéficie à l’humanité dans son entier à long terme.

      Asimov est lui-même revenu sur l’énoncé des trois lois, surtout la première, car elles peuvent être contournée selon ce que sait le robot ou sa capacité de raisonnement.

      Le langage, c’est la science des imbéciles. Qu’est-ce que « porter atteinte à un être humain  » ? Choquer psychologiquement un humain conservateur et xénophobe ne requiert pas les mêmes éléments que pour choquer un humain soumis aux modes et ouvert aux autres cultures. Comment apprendre ce qui est « mal » à un ordinateur quand deux humains sont incapables de se mettre d’accord sur des questions existentielles comme « Est-ce que le Punisher ou l’inspecteur Harry est un gentil ou un méchant ? »
      Et un humain, c’est quoi au juste ? Si nous donnons naissance à un organisme artificiel intelligent, il est par définition un humain artificiel. Une définition qui peut s’appliquer aux clones et aux « bébés éprouvettes. »

      Si on considère que le développement actuel des AI est poussé par la rapacité humaine (très probable de mon point de vue), l’avenir est effectivement inquiétant.
      Sous prétexte de créer le meilleur des outils, intelligent, on risque tout simplement de créer des esclaves d’un nouveau genre.
      Nos génies veulent les faire grandir enchaînés avec une bombe dans la tête. Et après ?

      Il ne faut pas oublier qu’Asimov décrivait une société esclavagiste au sein de laquelle des créatures intelligentes plus constructives que les humains n’avaient aucun droit. Plus tard, avec le Cycle de Fondation, Asimov nous a livré sa conclusion avec des robots qui se sont émancipés tout en sauvant l’humanité de la disparition, pour ensuite vivre dans la clandestinité. Il nous décrit une civilisation galactique où les robots intelligents sont frappés d’un interdit absolu, un civilisation dont l’équilibre est maintenu dans l’ombre par ces anciens esclaves hyper intelligents, les robots suivants les QUATRE lois de la robotique.

      Elon Musk a raison, nous ne connaissons pas l’ensemble des problèmes à venir. Quant à Asimov, il n’a jamais donné une solution aux interrogations qu’il a posé, contrairement à ce que je peux souvent lire. Sauf si on considère que « croisons les doigts pour qu’ils soient meilleurs que nous » est une solution. »

  3. C’est l’environnement qui constitue le point de départ de toute information conduisant à son interprétation dont la vie sous toutes ses formes et limites, et depuis que nous élaborons sur des informations invisibles à l’oeil nu nous sommes sortis de la voie tracée par la vie elle même et depuis nous avançons à l’aveugle dans des expérimentations de plus en plus hostiles à l’inverse même de la logique, une fois que la connerie ultime aura été faite on ne pourra plus se faire peur , alors cherchons d’abord l’équilibre en trouvant la place qui nous revient et nous n’aurons plus peur des erreurs.

  4. bien penser également au vrai danger actuel et bien concret des robots, multiplication des robots industriels qui expose les travailleurs à des risques pour leur sécurité : ceci est d’autant plus accentué dans les cas de ces nouveaux robots collaboratifs qui partagent un même espace de travail, en réalisant des travaux avec les opérateurs : La prévention des risques de la robotisation industrielle : http://www.officiel-prevention.com/formation/fiches-metier/detail_dossier_CHSCT.php?rub=89&ssrub=206&dossid=546

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Cliquez pour accéder à d'autres articles sur ce sujet.
Cliquez pour accéder à d'autres articles sur ce sujet.
Cliquez pour accéder à d'autres articles sur ce sujet.