L’intelligence artificielle a connu des progrès fulgurants ces dernières années et se développe actuellement à une vitesse qui préoccupe les experts du secteur. Les IA génératives (Dall-E, MidJourney, ChatGPT, Bard, etc.) peuvent désormais être utilisées couramment par le grand public. Elles peuvent malheureusement être exploitées à mauvais escient. En outre, les spécialistes craignent que ces IA ne surpassent les humains au point de menacer leur existence. Dans une déclaration, qui ressemble davantage à un avertissement, des dizaines de chercheurs en IA appellent aujourd’hui à redoubler de vigilance.
« L’atténuation du risque d’extinction lié à l’IA devrait être une priorité mondiale, au même titre que d’autres risques sociétaux tels que les pandémies et les guerres nucléaires », telle est la déclaration signée par des dizaines de chercheurs en intelligence artificielle et autres personnalités du secteur issus du monde entier. Sam Altman, le PDG d’OpenAI, et Demis Hassabis, PDG de Google DeepMind, comptent parmi les premiers signataires — alors que leurs sociétés respectives sont à l’origine d’IA parmi les plus performantes à ce jour, ChatGPT et Bard.
Geoffrey Hinton, un chercheur canadien dont les travaux sur les réseaux de neurones artificiels et le deep learning constituent les fondements de l’IA, est le premier signataire de la liste. Il a récemment annoncé sa démission de Google, pour pouvoir « s’exprimer librement sur les risques de l’IA ». Lors d’un entretien accordé à CBS News, il a en effet exprimé des inquiétudes par rapport à l’utilisation abusive de ces algorithmes par des acteurs malveillants, au chômage technologique et au risque existentiel de l’« intelligence artificielle générale » — une IA capable d’effectuer ou d’apprendre pratiquement n’importe quelle tâche cognitive propre aux humains.
« Si cette technologie tourne mal, elle peut tourner très mal »
Comme indiqué sur la page des signataires, il existe en effet « un large éventail de risques importants et urgents liés à l’IA ». Dan Hendrycks, chercheur américain en apprentissage automatique et directeur du Center for AI Safety — une organisation à but non lucratif qui vise à réduire les risques sociétaux liés à l’intelligence artificielle — évoque non seulement le risque d’extinction de l’humanité, mais aussi les biais systémiques, la désinformation, l’utilisation malveillante, les cyberattaques et la militarisation. Il serait imprudent, selon lui, d’ignorer ces risques, qui doivent tous être traités au plus vite.
« Malgré son importance, la sécurité de l’IA reste remarquablement négligée, dépassée par le rythme rapide du développement de l’IA. Actuellement, la société est mal préparée à gérer les risques liés à l’IA », peut-on lire sur le site du Centre. Hendrycks a évidemment apposé sa signature et relayé l’avertissement via son compte Twitter. « Il existe de nombreuses façons dont le développement de l’IA pourrait mal tourner », souligne-t-il. Dans un article de préimpression, disponible sur arXiv, il détaille comment la sélection naturelle peut favoriser les IA par rapport aux humains.
« En analysant l’environnement qui façonne l’évolution des IA, nous soutenons que les agents d’IA les plus performants auront probablement des traits indésirables. Les pressions concurrentielles entre les entreprises et les militaires donneront naissance à des agents d’IA qui automatiseront les rôles humains, tromperont les autres et gagneront en puissance. Si ces agents ont une intelligence qui dépasse celle des humains, l’humanité pourrait perdre le contrôle de son avenir », écrit-il. Sam Altman partage complètement ce point de vue, rappelant récemment au Congrès américain que « si cette technologie tourne mal, elle peut tourner très mal ».
Le but de cette déclaration est de montrer que les experts de l’IA sont tous conscients des menaces de cette technologie et que celles-ci doivent être prises au sérieux, notamment en prenant les mesures réglementaires qui s’imposent. D’autant plus que l’IA se développe à une vitesse soutenue ! Il existe aujourd’hui des dizaines d’algorithmes capables de générer automatiquement du code, du texte, des images et des voix — soit tout autant de manières de désinformer, manipuler et tromper les individus.
Des modèles intelligents dont le fonctionnement reste flou
Mais comme le souligne Connor Leahy, PDG de Conjecture — une société londonienne qui vise à rendre les modèles d’apprentissage automatique plus sûrs et contrôlables —, l’aspect le plus préoccupant demeure le manque de compréhension de la manière dont les nouveaux modèles et applications d’IA fonctionnent réellement. « Ce sont des réseaux de neurones à boîte noire. Qui sait ce qu’ils contiennent ? Nous ne savons pas ce qu’ils pensent et nous ne savons pas comment ils fonctionnent », confie-t-il à Sifted.
« Je pense que ce qui me choque, ce n’est pas que nous en sachions si peu, c’est que [le grand public] ne sache pas que nous en savons si peu. C’est comme si nous essayions de faire de la biologie avant de savoir ce qu’est une cellule », a-t-il déclaré à ABC News.
Tous les signataires de la récente déclaration ont contribué d’une façon ou d’une autre à faire de l’IA l’une des innovations technologiques les plus importantes de l’histoire. Mais les progrès récents sont tels que les créateurs de ces modèles eux-mêmes sont dépassés. « La quantité de capacités qui ont été découvertes au cours de l’année ou des deux dernières années a surpris les personnes qui construisaient [ces IA], et a dépassé toutes nos attentes », souligne Tom Gruber, le co-fondateur de Siri.
En particulier, la vitesse à laquelle ChatGPT a été adopté soulève des inquiétudes. Son usage dans les milieux scolaires et professionnels suscite de nouveaux risques, voire menace des emplois. Quant aux « fausses » images, et aux reproductions de voix de vraies personnes, elles sont déjà utilisées pour faire courir des fake news ou escroquer les gens.
Gruber et d’autres acteurs de l’IA conseillent d’arrêter les tests de ces modèles intelligents sur le public jusqu’à ce qu’un cadre soit mis en place pour réglementer leur usage, éviter les dérives et faire en sorte que cette technologie soit sûre et bénéfique aux humains. Reste à déterminer quelles réglementations sont nécessaires. « Nous aurons besoin d’une coordination mondiale pour atténuer ces menaces. Il y a encore beaucoup de travail à faire. Néanmoins, le fait que d’éminents experts en IA d’autres pays reconnaissent ces risques est un signe prometteur », conclut Hendrycks.