Et si l’IAG n’arrivait jamais ? Les experts brisent le mythe de la toute-puissance informatique

L'intelligence artificielle générale ne serait-elle qu'un fantasme technologique coûtant des milliards ?

mythe iag puissance calcul enquete experts couv
| Trust My Science
⇧ [VIDÉO]   Vous pourriez aussi aimer ce contenu partenaire

Ces dernières années, les géants de l’intelligence artificielle ont concentré leurs efforts, tête baissée, sur l’augmentation de la puissance de calcul dans l’espoir d’atteindre l’intelligence artificielle générale (IAG), une forme d’IA hypothétique censée égaler ou surpasser les capacités cognitives humaines. En 2023, Shane Legg, cofondateur de Google DeepMind, estimait à 50 % la probabilité que l’IAG émerge d’ici 2028. OpenAI, de son côté, paraissait s’en rapprocher avec son modèle o1. Cependant, une enquête récente vient nuancer cet optimisme. De nombreux chercheurs considèrent désormais qu’une simple augmentation des capacités computationnelles ne suffira probablement pas à faire advenir l’IAG.

Une enquête menée par l’Association for the Advancement of Artificial Intelligence (AAAI) auprès de 475 chercheurs en IA dresse un constat largement partagé : une large majorité d’entre eux se montrent sceptiques quant à la possibilité de parvenir à une IAG en se contentant d’amplifier les modèles actuels. Selon les résultats de l’enquête, 76 % des experts interrogés estiment que cette voie relève de l’improbable.

Stuart Russell, professeur d’informatique à l’Université de Berkeley et contributeur au rapport, confie au New Scientist : « Les investissements massifs dans la mise à l’échelle, sans efforts équivalents pour comprendre les mécanismes sous-jacents, m’ont toujours semblé mal orientés ». « Il y a environ un an, tout le monde s’est rendu compte que les bénéfices classiques liés à la mise à l’échelle avaient atteint un plateau », ajoute-t-il.

Les chiffres confirment l’ampleur des investissements : selon TechCrunch, plus de 56 milliards de dollars de capital-risque ont été injectés en 2024 dans l’IA générative, en grande partie pour construire les centres de données indispensables à ces modèles. Début 2024, le président Donald Trump annonçait à son tour un projet d’ampleur, Stargate, doté de 500 milliards de dollars.

La consommation énergétique des modèles d’IA constitue une autre problématique majeure. Leur fonctionnement nécessite des ressources colossales, et cette demande ne cesse de croître.

L’amélioration de l’IA : un équilibre fragile

La thèse selon laquelle l’IA pourrait progresser uniquement grâce à l’augmentation de la puissance de calcul suscite désormais des réserves croissantes. L’émergence de DeepSeek, l’IA d’une start-up chinoise capable de rivaliser avec les modèles occidentaux pour un coût bien moindre, en est une illustration.

En novembre dernier, des rapports ont fait état des conclusions des équipes d’OpenAI : la nouvelle version de leur modèle de langage GPT ne montrait que peu, voire pas, d’améliorations significatives par rapport aux précédentes. Un mois plus tard, Sundar Pichai, PDG de Google, déclarait que les « gains faciles » dans le domaine de l’IA étaient désormais « derrière nous », tout en affirmant que le secteur disposait encore de marges de progression substantielles.

En février, Satya Nadella, PDG de Microsoft, dressait un constat en demi-teinte sur l’état de l’IAG. Malgré les investissements massifs engagés, l’IA n’a pas encore, selon lui, démontré de véritable valeur ajoutée ni d’impact économique notable. Microsoft prévoit néanmoins de consacrer 80 milliards de dollars à l’infrastructure de l’IA en 2025.

Changement de priorités parmi les chercheurs

L’enquête de l’AAAI met également en lumière une évolution dans les priorités des chercheurs. Ils sont désormais 77 % à placer au cœur de leurs préoccupations l’analyse des risques et des bénéfices associés à l’IA, reléguant au second plan la quête de l’intelligence artificielle générale, qui ne mobilise plus que 23 % d’entre eux.

Un consensus éthique émerge : 82 % des chercheurs interrogés se prononcent en faveur d’un encadrement étatique en cas d’émergence de l’IAG, afin d’en limiter les risques globaux. Seuls 30 % estiment qu’il faudrait interrompre les recherches ; la majorité plaide pour la mise en place de garde-fous techniques robustes.

Dans cette optique, de nouvelles approches se dessinent, visant à rendre l’intelligence artificielle plus efficiente sans recourir systématiquement à l’escalade de moyens. OpenAI teste par exemple le « calcul au moment des tests », une méthode qui permet à l’IA de consacrer davantage de temps à la réflexion avant de formuler une réponse, et qui aurait permis d’obtenir des gains comparables à ceux issus d’un effort massif de mise à l’échelle. Mais pour Arvind Narayanan, informaticien à Princeton, cette méthode ne saurait être considérée comme une « solution miracle ».

Laisser un commentaire

Vous voulez éliminer les publicités tout en continuant de nous soutenir ?


Il suffit de s'abonner !


JE M'ABONNE