Aujourd’hui, l’influence de l’IA générative est telle que les entreprises et institutions médiatiques commencent à l’adopter en masse sans grande retenue, menaçant ainsi plusieurs domaines et secteurs d’emploi. D’ailleurs, très récemment, CNN a annoncé la suppression de 100 postes dans le cadre de sa transition vers l’IA. D’un autre côté, les outils d’IA pilotés par des LLM sont en train de saturer l’expérience utilisateur numérique. L’inconvénient majeur de cette utilisation généralisée de l’IA générative réside dans les ressources informatiques considérables requises pour faire fonctionner l’ensemble des systèmes. Cette situation marque le début d’une ère d’hyperconsommation technologique aux impacts environnementaux inquiétants.
Cette nouvelle ère est marquée par la prolifération d’un nouveau paradigme informatique nécessitant des quantités substantielles d’électricité et d’eau. D’après Sajjad Moazeni, chercheur en génie informatique à l’Université de Washington, « les algorithmes nécessaires à tout modèle d’IA générative sont fondamentalement distincts des services traditionnels comme la recherche Google ou la messagerie électronique ». Il explique notamment que les services de base sont très modestes en ce qui concerne la quantité d’informations qui doivent transiter entre les processeurs. En d’autres termes, ces services sont exploités avec un échange minimal de données. En revanche, Moazeni estime que les applications d’IA générative nécessitent 100 à 1 000 fois plus de ressources informatiques.
Des experts ont prédit l’année dernière une forte augmentation de la demande énergétique dans les centres de données désormais majoritairement dédiées à l’IA. Parmi eux, Ami Badani, directrice marketing d’ARM Holdings. Elle avance que l’IA pourrait engloutir un quart de l’électricité produite aux États-Unis d’ici 2030 si le système n’évolue pas positivement en matière de consommation d’énergie. Des chiffres qui arrivent un peu tardivement à l’oreille de Google. En effet, il aura fallu attendre longtemps avant que le géant de la tech ne publie une mise à jour majeure de ses chiffres et cesse de se proclamer neutre en carbone. D’ailleurs, d’après le rapport environnemental annuel de l’entreprise, Google a vu augmenter ses émissions carbone de 48 % en 2023 par rapport à 2019. Microsoft et Amazon sont confrontés au même problème.
Selon Corina Standiford, porte-parole de Google, même si la consommation totale d’énergie de l’entreprise a doublé entre 2019 et 2023, « il ne serait pas juste d’affirmer que la consommation d’énergie de Google a grimpé en flèche pendant la course à l’IA ». « Réduire les émissions de nos fournisseurs est extrêmement difficile, ce qui représente 75 % de notre empreinte », a-t-elle ajouté. Parmi ces fournisseurs figurent les fabricants de serveurs, d’équipements de réseau et d’autres infrastructures techniques pour les centres de données. En effet, des processus très énergivores sont impliqués dans la fabrication de composants informatiques nécessaires aux modèles d’IA.
De son côté, Junchen Jiang, chercheur en programmes réseau à l’Université de Washington, explique que « l’empreinte carbone et la consommation d’énergie sont linéaires par rapport à la quantité de calculs effectués, car fondamentalement, ces centres de données sont alimentés proportionnellement à la quantité de calculs qu’ils réalisent ». Ainsi, plus le modèle d’IA est grand, plus les calculs sont fréquents et lourds, et les modèles d’IA d’avant-garde sont gigantesques en matière de paramètres.
Selon Moezani, ces centres de données risquent de submerger les réseaux électriques avec leurs besoins énergétiques. « Dans le monde entier, les fermes de serveurs qui forment et exploitent les modèles d’IA peuvent entrer en concurrence avec les résidents et les entreprises locales pour l’alimentation en électricité, ce qui pourrait entraîner des pannes d’électricité », a-t-il déclaré.
Une consommation excessive de plusieurs millions de litres d’eau
L’exploitation d’énergie des centres de données pour former et faire tourner les modèles d’IA générative n’est que la partie visible de l’iceberg. Sous « l’eau », en effet, se cache une consommation colossale de millions de litres d’eau pour chaque grand centre de données. « L’eau disponible pour les gens est très limitée. Il ne s’agit que d’eau douce de surface et d’eau souterraine. Ces centres de données ne font qu’évaporer de l’eau dans l’air », explique Shaolei Ren, chercheur en IA à l’UC Riverside.
Pour leur défense, les entreprises qui exploitent des centres de données géants estiment que leur impact sur l’environnement local est similaire à celui des particuliers. Cependant, c’est loin d’être le cas. « Les impacts sont différents de ceux des utilisateurs résidentiels. Lorsque nous nous approvisionnons en eau auprès du service public et que nous la rejetons immédiatement dans les égouts, nous ne faisons que prélever de l’eau, nous n’en consommons pas », explique Ren. En revanche, toujours selon Ren, « un centre de données prend l’eau de ce service public et l’évapore dans le ciel, dans l’atmosphère ». Il a ajouté que l’eau consommée par les centres de données peut rester dans l’atmosphère pendant près d’un an, avant de retomber sur Terre.
Vers l’élaboration d’une solution alternative ?
Les entreprises technologiques voient désormais en l’IA un élément essentiel de l’innovation plutôt qu’un fléau pour l’environnement. Et face à la situation actuelle, les chercheurs et les développeurs étudient des approches inventives pour réduire l’énergie nécessaire à la création et au maintien d’outils d’IA.
L’une des solutions alternatives qu’ils proposent s’appuie sur l’élaboration de puces plus efficaces. En même temps, certains chercheurs sont en train d’expérimenter des modèles d’IA plus petits et plus efficaces, qui nécessitent ainsi beaucoup moins de calculs. Quoi qu’il en soit, il restera encore à déterminer si ces solutions seront viables ou pas, ce qui n’est pas gagné d’avance étant donné le taux d’erreur et d’hallucinations rencontré par des modèles beaucoup plus grands.