Les intelligences artificielles se développent-elles trop vite ? C’est l’avis de nombreux scientifiques et spécialistes du milieu de l’intelligence artificielle, qui ont signé une lettre ouverte à ce sujet. Celle-ci plaide pour une pause de six mois dans le développement des IA d’un niveau supérieur à celui de ChatGPT-4.
« Nous appelons tous les laboratoires d’IA à suspendre immédiatement pendant au moins 6 mois la formation des systèmes d’IA plus puissants que GPT-4 », peut-on lire en introduction de la lettre, publiée sur le site de la fondation Future of life. Celle-ci a été signée par 1377 personnes, à l’heure où nous écrivons cet article, incluant des professeurs d’université, d’instituts tels que le Massachusetts Institute of Technology (MIT), des chercheurs de Deepmind (entreprise spécialisée en IA appartenant à Google)… Des directeurs d’entreprises mondialement connues sont également entrés dans la danse : Jaan Tallinn, cofondateur de Skype, Evan Sharp, cofondateur de Pinterest, Emad Mostaque, dirigeant de Stability AI ou encore Elon Musk, dirigeant de SpaceX, Tesla et Twitter…
Leur crainte commune : que les IA viennent bouleverser le fonctionnement de notre société sans que nous y soyons suffisamment préparés : « Les systèmes d’IA dotés d’une intelligence compétitive avec celle des humains peuvent présenter des risques profonds pour la société et l’humanité, comme le montrent des recherches approfondies et comme le reconnaissent les plus grands laboratoires d’IA », peut-on ainsi lire dès le début de la lettre. Les signataires suggèrent donc que « l’IA avancée pourrait représenter un changement profond dans l’histoire de la vie sur Terre, et devrait être planifiée et gérée avec le soin et les ressources nécessaires ».
Or, pour eux, c’est encore loin d’être le cas. « Ce niveau de planification et de gestion n’existe pas », assènent-ils. Pourtant, « ces derniers mois, les laboratoires d’IA se sont lancés dans une course incontrôlée pour développer et déployer des esprits numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable », soulignent-ils. Il est vrai que ces derniers mois ont vu certains programmes d’apprentissage automatique prendre leur essor d’une façon plutôt impressionnante.
Des IA capables d’égaler nos talents : et après ?
Ce n’est pas par hasard que les auteurs de la lettre donnent en exemple à ne pas dépasser : ChatGPT-4. Depuis quelques mois, la version précédente de cette IA fait beaucoup parler d’elle pour ses capacités à écrire des articles, passer des examens, ou encore écrire du code informatique. Avec l’arrivée de sa dernière mise à jour, les choses se sont encore accélérées. « Dans toutes ces tâches, les performances de GPT-4 sont étonnamment proches de celles d’un être humain et dépassent souvent largement les modèles antérieurs tels que GPT-3 », affirmait dans un rapport une équipe de scientifiques spécialisée en IA travaillant pour Microsoft.
Malgré tout, les IA telles que ChatGPT commettent encore régulièrement des erreurs, ou avancent avec aplomb de fausses informations. Toutes ces données amènent les signataires de la lettre à s’interroger : « Devons-nous laisser les machines inonder nos canaux d’information de propagande et de contrevérités ? Devons-nous automatiser toutes les tâches, y compris celles qui sont épanouissantes ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? », va même jusqu’à demander la lettre.
La pause de six mois serait donc une façon de prendre du recul sur la situation et « d’élaborer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement de l’IA avancée, rigoureusement contrôlés et supervisés par des experts externes indépendants ». L’idée serait à la fois de s’assurer de la fiabilité des IA, mais aussi de prendre le temps de mettre en place des politiques et des systèmes de gouvernance adaptés au développement de cette technologie. Les signataires incitent les États à contraindre légalement les laboratoires de développement d’IA dans le cas où ce mouvement ne se lancerait pas spontanément. « Ces décisions ne doivent pas être déléguées à des dirigeants techniques qui n’ont jamais été élus », posent-ils.