L’un des « pères fondateurs » de l’IA estime qu’elle pourrait entraîner notre extinction d’ici 10 ans

peres fondateurs ia estime pourrait entrainer extinction 10 ans couv
| Trust My Science
⇧ [VIDÉO]   Vous pourriez aussi aimer ce contenu partenaire

Geoffrey Hinton, chercheur emblématique considéré comme l’un des « pères fondateurs » de l’intelligence artificielle — aux côtés notamment de Yann Le Cun et Yoshua Bengio —, a récemment intensifié ses avertissements sur les risques que représente l’intelligence artificielle. Dans une précédente déclaration, il avait estimé une probabilité de 10 à 20 % pour le fait que l’IA provoque l’extinction de l’humanité d’ici 30 ans. Cette prévision, bien que spéculative, illustrait déjà l’étendue de ses préoccupations face à l’évolution rapide de cette technologie, a-t-il expliqué dans une récente interview dans laquelle il ajuste cette estimation à 10-20 ans.

Hinton souligne depuis des années que les progrès dans le domaine de l’IA surpassent les prévisions initiales et rapprochent de manière inattendue l’émergence d’une intelligence artificielle générale (IAG). Ce type d’IA, capable à terme de surpasser les capacités cognitives humaines dans presque tous les domaines, pourrait, selon lui, rendre les machines incontrôlables. Cependant, il faut souligner que cette hypothèse ne semble être qu’une reformulation alarmiste d’opinions — toutefois solidement basées sur sa compréhension très avancée des systèmes d’IA.

Récemment, lorsqu’un présentateur de l’émission Today de Radio 4 (de BBC) lui a demandé si quelque chose avait changé par rapport à son estimation de 2023 (quant au risque d’extinction de l’humanité à cause de l’IA), il a répondu : « Pas vraiment. Je pense dans 10 à 20 ans, éventuellement. Nous n’avons jamais eu à faire face à des choses plus intelligentes que nous ».

Il a ensuite comparé cette situation à la révolution industrielle, tout en notant que cette fois, les conséquences pourraient être bien plus profondes et potentiellement dangereuses pour l’humanité : « Ces choses (IA) sont plus intelligentes que nous. Lors de la révolution industrielle, il n’y avait pas de risque que les machines prennent la place des hommes, car elles étaient ‘juste’ plus fortes. Nous avions gardé le contrôle parce que nous avions l’intelligence. Aujourd’hui, il y a une menace que ces choses puissent prendre le contrôle, c’est donc très différent ».

Un tournant dans la carrière de Hinton

En mai 2023, Hinton a quitté son poste chez Google afin de pouvoir s’exprimer librement sur les dangers de l’IA, sans risquer de compromettre son ancien employeur, a-t-il expliqué en 2023 à la BBC. Dans une déclaration publique, il avait affirmé regretter partiellement son implication dans le développement de l’IA : « Une partie de moi-même regrette mon travail de toute une vie ».

Face à ces menaces, Hinton plaide pour une réglementation gouvernementale renforcée et une surveillance accrue des développements dans le secteur de l’IA. Selon lui, les motivations économiques des grandes entreprises ne suffisent pas à garantir une utilisation sécurisée de ces technologies. Il affirme que seule une intervention politique ferme pourrait forcer les acteurs du domaine à investir dans la recherche sur la sécurité de l’IA. « La seule chose qui puisse obliger ces grandes entreprises à faire davantage de recherches sur la sécurité est la réglementation gouvernementale », confie-t-il à Radio 4. « Je crois donc fermement que les gouvernements doivent obliger les grandes entreprises à mener des recherches approfondies sur la sécurité ».

Bien entendu, le pessimisme de Hinton n’est pas partagé par tous les experts en intelligence artificielle. Yann Le Cun, une autre figure majeure du domaine (qui a reçu comme lui le prix Turing de 2018 pour ses travaux sur l’apprentissage profond), a défendu l’idée que l’IA pourrait, au contraire, jouer un rôle clé dans la résolution des défis majeurs auxquels l’humanité est confrontée. Pour lui, l’accent doit être mis sur la maîtrise de l’IA plutôt que sur les inquiétudes relatives à ses applications futures.

Entre espoir et crainte : un débat fracturé

D’autres experts appellent à équilibrer les préoccupations. Ils estiment que les dangers actuels, tels que la désinformation, les biais systémiques ou l’utilisation malveillante de l’IA, doivent rester prioritaires dans les débats. Une déclaration signée en mai 2023 par des centaines de spécialistes affirme néanmoins que « la réduction du risque d’extinction lié à l’IA devrait être une priorité mondiale au même titre que les pandémies ou la guerre nucléaire ».

Les avertissements de Hinton interpellent à plusieurs niveaux. Ils ne relèvent pas seulement d’une peur hypothétique de l’avenir, mais pointent les dilemmes bien réels auxquels l’humanité fait face en matière de contrôle et d’éthique technologique. La question n’est pas uniquement de savoir si les machines surpasseront les humains, mais comment notre société peut anticiper les impacts sur ses structures sociales, économiques et environnementales. « Je crains que, même si elle entraîne une augmentation considérable de la productivité, ce qui devrait être bénéfique pour la société, elle ne finisse par être très néfaste pour la société si tous les bénéfices vont aux riches et que beaucoup de gens perdent leur emploi et s’appauvrissent », a-t-il ajouté.

Plutôt que de céder à la fascination pour des scénarios dystopiques ou de sombrer dans un optimisme naïf, il est préférable d’encourager un dialogue ouvert, estiment d’autres experts. L’IA, bien qu’elle soit un outil façonné par l’homme, pourrait changer à jamais la nature de la prise de décision, de la créativité et même de la responsabilité humaine.

Dans cette période de mutation rapide cependant, les mises en garde de Hinton rappellent que la technologie ne se suffit pas à elle-même : sa direction et ses objectifs dépendent des valeurs que nous choisissons de défendre. Plutôt qu’un obstacle insurmontable, l’IA pourrait être vue comme le « test ultime » de notre capacité à agir collectivement pour un avenir durable.

Laisser un commentaire
  1. Les deux discours bien argumentés – alarmiste et positif – doivent exister en parallèle. L’IA est très sûrement une opportunité pour traiter des problèmes systémiques telle que la polycrise globale actuelle. Mais elle est aussi un facteur aggravant de cette polycrise en l’état actuel de son utilisation. Le manque de ressources (matières premières, électricité, eau …) va nécessiter de faire des choix et ces choix doivent être éclairés ; et surtout, ces choix ne doivent pas être laissés à la discrétion des industriels, mais des citoyennes et citoyens. Sans ces deux discours plus celui des ressources, il n’est et ne sera pas possible d’orienter correctement les décisions.

  2. Il faut vraiment lire (ou relire) certains volumes du cycle des robots d’Azimov.
    Le problème est que l’on confond l’ « Intelligence » à l’ « Intelligence Artificielle » alors que cette dernière n’est absolument pas « intelligente » et ne pourra jamais l’être : la réponse de l’IA à une question donnée est la simple plus grande des probabilités d’une réponse parmi toutes les réponses possibles connues, pas du tout un « raisonnement ».
    Au mieux, à terme, l’IA pourra « raisonner » (en fait, »résonner » comme un tambour) par probabilités de raisonnements connus, mais sera toujours incapable d’en inventer un nouveau, ou de produire une fulgurance intuitive de génie, cependant quelque part « raisonnée », comme, par exemple, celle de Schrödinger pour sa fameuse « Équation » (que lui-même ne pouvait s’expliquer).
    Par ailleurs, comment l’IA pourrait-elle produire des chefs d’œuvres comme ceux de Mozart, Bach ?

  3. Il y a bien d’autres inventions humaines que L’IA, et bien plus terrifiantes, pouvant entraîner l’extinction de notre espèce et dont aucune n’a fait un nombre significatif de victimes.

  4. Ce qui est inquiétant est que l’évolution de l’IA se fait en tâche de fond c’est à dire à l’abri du regard et de l’information. Ainsi, l’humain commun peut se laisser séduire par certains avantages sans être sensibilisé par le danger

  5. Plutôt que de jouer aux apprentis sorciers avec une technologie qui risque de nous envahir à moyen terme, il vaudrait mieux travailler sur notre survie en tant qu’espèce.
    En effet j’observe que toutes les avancées technologiques sont effectuées pour des raisons trop souvent financières. Ce n’est pas comme ça que l’on deviendra une espèce enfin intelligente qui s’occupe du devenir, au lieu de tout baser sur le pouvoir et le fric !

  6. Les propos de M.Hinton sont peut être quelques peu alarmistes mais n’oublions pas que c’est un homme ou une femme qui donne la capacité à une IA d’agir. Il est évident que si nous demandons à une IA de résoudre, même partiellement, la question du changement climatique par exemple, elle finira irrémédiablement par conclure que l’Humanité doit disparaitre pour résoudre le problème. L’IA ira chercher des chemins détournés pour ne pas attirer l’attention. C’est un petit peu le même principe que les agences de conseils en stratégie qui ont toujours des objectifs sous jacents en faveur de leur propre économie ou du plus offrant. L’argent ne se mange et ne se boit pas et je crois que beaucoup de capitalistes oublient ce détail. Il faut que l’Humanité fasse sa révolution économique pour changer le système capitaliste actuel et ainsi espérer un avenir un peu plus égalitaire même si il ne sera jamais idéal et parfait.

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Cliquez pour accéder à d'autres articles sur ce sujet.