L’essor fulgurant des intelligences artificielles génératives a déjà restructuré de nombreux secteurs, mais cette innovation technologique n’est pas sans conséquences directes. En effet, la consommation énergétique de ces systèmes est si élevée qu’elle met déjà à rude épreuve les réseaux électriques mondiaux, et le problème ne cesse de s’aggraver.
Les centres de données, où sont hébergés et entraînés les modèles d’intelligence artificielle, sont extrêmement énergivores. En 2024, la demande énergétique des centres de données représente environ 0,5 % de la consommation électrique mondiale, et cette part est en constante augmentation, selon le Columbia Energy Policy. Les modèles d’IA générative, en particulier, nécessitent des quantités massives d’énergie pour le calcul et le stockage des données, ainsi que des millions de litres d’eau pour le refroidissement.
Une requête ChatGPT consomme 10 fois plus d’énergie qu’une recherche Google
Pour illustrer l’ampleur de cette consommation, une seule requête ChatGPT consomme environ 2,9 watts-heures d’électricité, comparé à une recherche Google qui en utilise 0,3 watt-heure. Cette disparité souligne l’intensité énergétique des applications d’IA générative.
Un groupe d’experts avertit que la demande énergétique liée à l’IA pourrait tripler d’ici 2030, atteignant 8 % de la consommation totale d’électricité aux États-Unis, contre 3 % en 2022. « Les conversations avec les entreprises technologiques montrent qu’elles restent confiantes dans la réduction de l’intensité énergétique, mais qu’elles le sont moins dans la réalisation des prévisions d’émissions absolues en raison de l’augmentation de la demande », expliquent les analystes de Goldman Sachs.
Les conséquences environnementales de cette consommation énergétique sont également préoccupantes. L’utilisation accrue des combustibles fossiles pour répondre à la demande énergétique de l’IA pourrait retarder la transition vers des sources d’énergie renouvelable et augmenter les émissions de gaz à effet de serre. Selon Sasha Luccioni, chercheuse chez Hugging Face, interviewée par BBC : « L’IA générative est un gouffre énergétique ».
À la recherche de solutions…
Pour atténuer ces impacts, plusieurs solutions sont envisagées. Par exemple, le développement de modèles d’IA plus petits et plus efficaces pourrait réduire la consommation énergétique. De plus, l’utilisation de centres de données partagés et de ressources de cloud computing pourrait centraliser les tâches computationnelles et diminuer l’énergie nécessaire. Par exemple, le Lincoln Laboratory Supercomputing Center (LLSC) du MIT développe des techniques pour aider les centres de données à réduire leur consommation d’énergie. Cependant, ces solutions nécessitent une volonté politique et des investissements significatifs pour être mises en œuvre à grande échelle.
De son côté Nvidia, développe des processeurs graphiques (GPU) — pièces maîtresses des serveurs dédiés à l’IA — beaucoup moins énergivores que les GPU standard ou d’ancienne génération, ce qui pourrait contribuer à faire diminuer la consommation énergétique sur le moyen/long terme.
L’avenir de l’IA et de sa consommation énergétique dépendra également de notre capacité à innover dans l’efficacité énergétique et les sources renouvelables. Selon un rapport de l’Agence internationale de l’énergie, la demande en électricité des centres de données pourrait déjà doubler d’ici 2026. Bill Gates, dans une entrevue avec l’Observer, souligne l’importance de développer des technologies vertes pour compenser cette augmentation.
Il est évident que l’IA générative offre des opportunités non négligeables (bien que parfois tirées par les cheveux), mais elle pose également des défis techniques de taille, et la consommation énergétique n’en est qu’un exemple. En effet, il ne faut pas oublier l’impact environnemental d’une telle consommation, sans compter les bouleversements dans le monde du travail et la pression psychologique que cela peut parfois imposer. Il serait donc plus réfléchi de trouver d’abord un équilibre entre innovation/transition technologique et durabilité énergétique, avant de se lancer massivement dans l’IA.