Lancement d’une IA sans limites conversationnelles ni mesures de sécurité

freedomgpt intelligence artificielle conversationnelle sans limites couv
Le symbole choisi par la start-up pour son nouveau chatbot ; la statue de la liberté. | Illustration issue de "Liberty Bots", une création originale par Jonathan Paiano pour Trust My Science (licence accessible ici)

Un ChatGPT sans limites éthiques imposées… vous n’en rêviez peut-être pas, mais une nouvelle entreprise du secteur l’a tout de même fait. Elle a développé une intelligence artificielle (IA) conversationnelle qui a pour but d’interagir librement avec ses utilisateurs, sans tabous ni limites d’aucune sorte.

Récemment, de nombreuses limites ont été imposées à ChatGPT, l’intelligence artificielle conversationnelle du moment. Objectif : l’empêcher de tenir des propos racistes, offensants, ou dangereux. En effet, cette IA est plus exactement un programme d’apprentissage automatique. Pour le faire fonctionner, on l’a « nourri » avec une énorme quantité de données : en l’occurrence, des questions, des réponses, des textes de toutes sortes, pour qu’il puisse développer des liens logiques entre ces données, et devenir capable de créer ses propres réponses. Les données sur lesquelles ce programme a été entraîné sont humaines, et héritent donc de tous nos biais. De plus, les IA développées jusqu’à maintenant ont souvent fini, au cours de leur développement, par « devenir » fortement discriminatoires.

C’est pour toutes ces raisons que les chercheurs à l’œuvre sur le développement de ChatGPT ont travaillé à la mise en place de garde-fous. Ainsi, il n’est plus possible de lui demander de rédiger des discours à la gloire d’Hitler, ou comment fabriquer une bombe. Elle a également été entraînée pour limiter ses biais, et des sécurités sont en place pour détecter et annuler une réponse qui serait malgré tout raciste, sexiste, ou discriminatoire de quelque façon que ce soit. Les propos pornographiques sont également exclus.

Or, ces limitations ne plaisent pas à tout le monde. « Interagir avec un grand modèle de langage devrait être comme interagir avec votre propre cerveau ou un ami proche »,

Vous êtes déjà abonné ? Connectez-vous pour accéder à l'article :
Activer le premium|Mot de passe oublié ?

Laisser un commentaire
  1. Concernant la phrase de fin, on peut trouver facilement ces informations avec d’autres moyens.
    Ouvrir les vannes est le seul moyen pour savoir si l’IA est où non un danger. Il a bien fallu que quelqu’un mette son doigt sur une flamme pour savoir que le feu ça brûle.

  2. C’est hallucinant quand même !!! On sait, on entrevoit que ces IA sont des hérésies pour l’humanité, et bien non…. on continue de scier la branche sur laquelle on est assis !!!!
    Au lieu de brider, d’interdire tout simplement ces trucs (comme le fait l’Italie par ex), non, y’a un mec qui s’est dit « eh les gars, j’ai une super idée. On va faire un gpt sans aucunes limites… » sachant pertinemment qu’il en ressortira le pire du pire !!!
    Mais bon dieu, l’homme est il devenu aussi stupide, égocentrique, égoïste, cupide, arrogant… qu’il ne voit pas plus loin que le bout de son nez, qu’il nous conduit à la catastrophe !!!!
    Et si encore le plus grand nombre s’insurgeait et taper du poing sur la table pour dire stop…. Mais non, au contraire, tout le monde crie au génie, trouve ce nouveau joujou extra !!!! Affligeant, dramatique….
    L’homme méritera son dessein : l’extinction…
    Comme disait Corbin : l’homme est capable du meilleur comme du pire, mais c’est vraiment dans le pire qu’il est le meilleur…. Ça se vérifie une fois de plus….
    Cette société est en perdition constante….

  3. Il faut des règles, une éthique. Et que chacun assume ses responsabiltés,ses droits et ses devoirs. Mème avec une IA et des new techs. Ainsi on peut juger chaque act ou cyberact…

  4. C’est fou, l’emp
    ortement des commentaires… L’IA (je trouve que le terme d’intelligence est excessif dans ce cas puisqu’elle raisonne peu et se contente d’accéder à une foule d’informations qu’elle réorganise pour donner des réponses. C’est moins bien qu’un cerveau humain qui peut quasiment apprendre à partir de rien)
    L’IA ne devra jamais devenir décisionnelle. Elle doit rester consultative.
    Il faudra toujours regarder qui détient l’IA car cela pourra influencer ses réponses.
    Pour moi, rédiger un texte à la gloire d’Hitler n’est qu’un exercice, comme un texte rédigé à la gloire de Ghandi.
    Si celui qui le lit est trop con pour savoir qui est Hitler et ce qu’il a fait –ignore que George Soros et Klaus Schwab font pire actuellement via les Young Global Leaders ou les ONG– alors ce con ne mérite pas l’IA.

    Selon moi pour un utilisateur lambda, l’IA, c’est un peu comme d’essayer de faire rouler une voiture de rallye quand on n’en a jamais conduit. On est incapable de le faire.

    Certains agissent comme des pourfendeurs de l’IA qu’ils préfèrent woke parce que ça les rassure… (IA que je ne viens pas ici défendre) alors que le problème est l’humanité dite « évoluée » qui s’est déjà laissée corrompre par la sphère médiatique qui lui a fait croire qu’elle est intelligente.

    L’humanité est sa propre hérésie et l’exécution du sens commun a été minutieusement planifiée par « l’élite » des psychopathes qui sont, tout comme l’IA, dénués de sentiments.

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Cliquez pour accéder à d'autres articles sur ce sujet.