Geoffrey Hinton, chercheur emblématique considéré comme l’un des « pères fondateurs » de l’intelligence artificielle — aux côtés notamment de Yann Le Cun et Yoshua Bengio —, a récemment intensifié ses avertissements sur les risques que représente l’intelligence artificielle. Dans une précédente déclaration, il avait estimé une probabilité de 10 à 20 % pour le fait que l’IA provoque l’extinction de l’humanité d’ici 30 ans. Cette prévision, bien que spéculative, illustrait déjà l’étendue de ses préoccupations face à l’évolution rapide de cette technologie, a-t-il expliqué dans une récente interview dans laquelle il ajuste cette estimation à 10-20 ans.
Hinton souligne depuis des années que les progrès dans le domaine de l’IA surpassent les prévisions initiales et rapprochent de manière inattendue l’émergence d’une intelligence artificielle générale (IAG). Ce type d’IA, capable à terme de surpasser les capacités cognitives humaines dans presque tous les domaines, pourrait, selon lui, rendre les machines incontrôlables. Cependant, il faut souligner que cette hypothèse ne semble être qu’une reformulation alarmiste d’opinions — toutefois solidement basées sur sa compréhension très avancée des systèmes d’IA.
Récemment, lorsqu’un présentateur de l’émission Today de Radio 4 (de BBC) lui a demandé si quelque chose avait changé par rapport à son estimation de 2023 (quant au risque d’extinction de l’humanité à cause de l’IA), il a répondu : « Pas vraiment. Je pense dans 10 à 20 ans, éventuellement. Nous n’avons jamais eu à faire face à des choses plus intelligentes que nous ».
Il a ensuite comparé cette situation à la révolution industrielle, tout en notant que cette fois, les conséquences pourraient être bien plus profondes et potentiellement dangereuses pour l’humanité : « Ces choses (IA) sont plus intelligentes que nous. Lors de la révolution industrielle, il n’y avait pas de risque que les machines prennent la place des hommes, car elles étaient ‘juste’ plus fortes. Nous avions gardé le contrôle parce que nous avions l’intelligence. Aujourd’hui, il y a une menace que ces choses puissent prendre le contrôle, c’est donc très différent ».
Un tournant dans la carrière de Hinton
En mai 2023, Hinton a quitté son poste chez Google afin de pouvoir s’exprimer librement sur les dangers de l’IA, sans risquer de compromettre son ancien employeur, a-t-il expliqué en 2023 à la BBC. Dans une déclaration publique, il avait affirmé regretter partiellement son implication dans le développement de l’IA : « Une partie de moi-même regrette mon travail de toute une vie ».
Face à ces menaces, Hinton plaide pour une réglementation gouvernementale renforcée et une surveillance accrue des développements dans le secteur de l’IA. Selon lui, les motivations économiques des grandes entreprises ne suffisent pas à garantir une utilisation sécurisée de ces technologies. Il affirme que seule une intervention politique ferme pourrait forcer les acteurs du domaine à investir dans la recherche sur la sécurité de l’IA. « La seule chose qui puisse obliger ces grandes entreprises à faire davantage de recherches sur la sécurité est la réglementation gouvernementale », confie-t-il à Radio 4. « Je crois donc fermement que les gouvernements doivent obliger les grandes entreprises à mener des recherches approfondies sur la sécurité ».
Bien entendu, le pessimisme de Hinton n’est pas partagé par tous les experts en intelligence artificielle. Yann Le Cun, une autre figure majeure du domaine (qui a reçu comme lui le prix Turing de 2018 pour ses travaux sur l’apprentissage profond), a défendu l’idée que l’IA pourrait, au contraire, jouer un rôle clé dans la résolution des défis majeurs auxquels l’humanité est confrontée. Pour lui, l’accent doit être mis sur la maîtrise de l’IA plutôt que sur les inquiétudes relatives à ses applications futures.
Entre espoir et crainte : un débat fracturé
D’autres experts appellent à équilibrer les préoccupations. Ils estiment que les dangers actuels, tels que la désinformation, les biais systémiques ou l’utilisation malveillante de l’IA, doivent rester prioritaires dans les débats. Une déclaration signée en mai 2023 par des centaines de spécialistes affirme néanmoins que « la réduction du risque d’extinction lié à l’IA devrait être une priorité mondiale au même titre que les pandémies ou la guerre nucléaire ».
Les avertissements de Hinton interpellent à plusieurs niveaux. Ils ne relèvent pas seulement d’une peur hypothétique de l’avenir, mais pointent les dilemmes bien réels auxquels l’humanité fait face en matière de contrôle et d’éthique technologique. La question n’est pas uniquement de savoir si les machines surpasseront les humains, mais comment notre société peut anticiper les impacts sur ses structures sociales, économiques et environnementales. « Je crains que, même si elle entraîne une augmentation considérable de la productivité, ce qui devrait être bénéfique pour la société, elle ne finisse par être très néfaste pour la société si tous les bénéfices vont aux riches et que beaucoup de gens perdent leur emploi et s’appauvrissent », a-t-il ajouté.
Plutôt que de céder à la fascination pour des scénarios dystopiques ou de sombrer dans un optimisme naïf, il est préférable d’encourager un dialogue ouvert, estiment d’autres experts. L’IA, bien qu’elle soit un outil façonné par l’homme, pourrait changer à jamais la nature de la prise de décision, de la créativité et même de la responsabilité humaine.
Dans cette période de mutation rapide cependant, les mises en garde de Hinton rappellent que la technologie ne se suffit pas à elle-même : sa direction et ses objectifs dépendent des valeurs que nous choisissons de défendre. Plutôt qu’un obstacle insurmontable, l’IA pourrait être vue comme le « test ultime » de notre capacité à agir collectivement pour un avenir durable.