L'intelligence artificielle consomme trop d'eau : comment contrôler sa soif ?

Selon une étude, poser entre 10 et 30 questions à ChatGPT (GPT-3) consomme l'équivalent d'une petite bouteille d'eau. Cette eau sert à refroidir les serveurs, qui surchauffent lors des calculs gigantesques qu'ils doivent réaliser pour entraîner et faire fonctionner les grands modèles comme ChatGPT. Des technologies promettent un usage plus raisonnable de cette ressource en réutilisant l'eau pour chauffer des bâtiments, par exemple. Mais le sujet reste moins bien adressé que celui de la consommation électrique de la technologie.
Si la consommation en électricité des IA commence à être un sujet bien pris en compte, leur consommation en eau l'est en effet nettement moins. (image d'illustration)
Si la consommation en électricité des IA commence à être un sujet bien pris en compte, leur consommation en eau l'est en effet nettement moins. (image d'illustration) (Crédits : Générée par IA avec Dall-E 2)

Sur le plateau de Saclay (Essonne), le supercalculateur Jean Zay entraîne de grands modèles de langage pour la recherche et les startups de l'IA. Ces programmes d'intelligence artificielle, popularisés avec ChatGPT, sont nourris avec un très grand nombre de données pour produire du texte ou des images à partir d'une simple instruction. Ces calculs nécessitent une grande consommation d'énergie, et créent des îlots de chaleur. Pour éviter la surchauffe, les serveurs de Jean Zay sont refroidis grâce à un réseau d'eau à température ambiante. L'eau circule directement à proximité des composants. Une fois passée par le calculateur, l'eau montée en température sert à chauffer 1.000 logements du plateau de Saclay.

Cette technologie dite de « Direct Water Cooling » a été développée par Eviden, filiale du fleuron du numérique tricolore Atos, par ailleurs en grande difficulté financière. Cette technique, l'entreprise l'élabore depuis une quinzaine d'années pour les supercalculateurs « classiques » qui font de la simulation numérique. Elle vient de mettre sur le marché une technique de DLC adaptée à l'intelligence artificielle (car l'architecture des serveurs n'est pas la même), intégrée à sa nouvelle gamme de serveurs BullSequana AI. « L'autre intérêt de notre technologie de Direct Liquid Cooling, c'est que nous utilisons de l'eau à température ambiante (30-36 degrés contre 12 degrés pour les précédentes), précise Cédric Bourrasset, responsable de l'informatique quantique et de l'IA chez Eviden. Cela évite de devoir refroidir l'eau pour la mettre dans le calculateur. Ce qui n'est énergétiquement pas efficace. »

Cette approche permet de réduire significativement les coûts énergétiques associés au traitement des données et d'éviter le gaspillage d'eau. Une pratique encore loin d'être généralisée parmi tous les data centers et supercalculateurs, qui supportent les lourdes charges de calcul des modèles d'intelligence artificielle. Pour réguler la température à l'intérieur des data centers, il est possible d'utiliser soit l'air, soit l'eau. Toutefois, la majorité des systèmes qui utilisent de l'eau ne la font pas circuler directement à travers les serveurs ; au lieu de cela, elle est évaporée pour dissiper la chaleur. C'est le principe des tours de refroidissement ou du refroidissement évaporatif, techniques répandues mais consommatrices d'eau.

Lire aussi« Investir dans l'intelligence artificielle, c'est investir dans la croissance » (Anne Bouverot et Philippe Aghion)

Alléger la facture électrique en consommant plus d'eau

Paradoxalement, le refroidissement par eau est une technique qui permet généralement de faire baisser la consommation électrique (par rapport au refroidissement par air), et qui est donc plutôt mise en avant par les entreprises du secteur. « Utiliser de l'eau permet de faire baisser la principale métrique d'évaluation environnementale du data center, le PUE (power use efficiency), qui ne se base que sur l'électricité », précise Clément Marquet, coordinateur du groupe de travail Politiques environnementales du numérique au Centre national de la recherche scientifique (CNRS). « Il n'existe pas aujourd'hui d'harmonisation sur une métrique telle que le WUE (water use efficiency), donc il est très difficile d'avoir des informations fiables et comparables sur la consommation d'eau d'une entreprise à l'autre », ajoute-t-il.

Si la consommation en électricité des IA commence à être un sujet bien pris en compte, leur consommation en eau l'est en effet nettement moins. L'empreinte hydrique est très rarement mentionnée dans les fiches descriptives qui détaillent les performances des modèles, contrairement à l'empreinte carbone, constate une étude américaine de 2023. Les chercheurs appellent d'ailleurs à une plus grande transparence sur ce sujet. Cette même étude baptisée « Making AI less thirsty (faire en sorte que l'IA ait moins soif » estime, que l'explosion de la demande mondiale en matière d'IA pourrait amener les centres de données à absorber environ 4 à 6,5 milliards de mètres cubes d'eau douce d'ici à 2027. C'est 4 à 6 fois plus que ce que prélève le Danemark, comparent les chercheurs. Ils estiment qu'une session avec ChatGPT (GPT-3) consomme 500 ml d'eau, soit l'équivalent d'une petite bouteille.

Lire aussiL'IA, ennemie ou alliée de la lutte contre le réchauffement climatique ?

Les GAFAM veulent être « water positive »

Dans leurs rapports environnementaux, les entreprises de la tech font état d'une utilisation en eau croissante. 21 milliards de litres d'eau pour Google, en progression de 21 % par rapport à 2021. Chez Microsoft, elle a augmenté d'un tiers en 2022. Et la courbe devrait continuer d'exploser. Puisque pour accompagner l'essor de l'IA générative, Microsoft, Google, Meta et Amazon ont toutes annoncé vouloir dépenser plusieurs dizaines de milliards de dollars, en partie pour construire de nouveaux data centers, qu'il faudra bien refroidir. Satya Nadella, PDG de Microsoft, indiquait déjà en 2021 vouloir en construire 50 à 100 par an.

Pour tenter de contrebalancer cette consommation en eau grandissante, toutes ont annoncé vouloir être « water positive » d'ici 2030. C'est-à-dire qu'elles s'engagent à réapprovisionner plus d'eau qu'elles n'en consomment. Cela passe par le financement d'ONG qui travaillent sur l'élimination d'espèces végétales envahissantes qui accaparent l'eau, la capture d'eaux pluviales pour reconstituer les aquifères souterrains épuisés ou encore le reboisement des zones détruites par les incendies de forêt. Meta a par exemple investi dans une dizaine de projets de restauration dans des zones où le stress hydrique est élevé et où la firme possède des centres de données.

Réutiliser les eaux usées ou immerger les serveurs

Les Big Tech tentent également d'optimiser la consommation d'eau de leurs data centers. Google utilise par exemple des eaux usées dans son centre de données de Douglas, en Géorgie, depuis plusieurs années. Microsoft fait de même dans l'État de Washington, à Amsterdam et à Dublin. L'entreprise teste également des systèmes de refroidissement sans eau, par exemple en plongeant les serveurs informatiques dans un liquide qui fait bouillir la chaleur qu'ils génèrent, ou en immergeant les centres de données dans l'océan pour libérer la chaleur dans l'eau de mer.

Meta se targue de tester un nouveau système permettant de mieux contrôler l'humidité des centres de données testés à Los Lunas (Nouveau-Mexique), qui aurait permis de réduire la consommation d'eau de 40 %. L'entreprise avance que de manière générale, ces serveurs consomment 80 % d'eau en moins que la moyenne.

Mais pour Cédric Bourrasset, il ne fait aucun doute que les techniques de refroidissement directe par eau (sur lesquelles Atos s'est positionné) sont l'avenir de l'IA. « Les futures générations de GPU (processeur graphique), dont la finesse de gravure se réduit et dont la densité énergétique augmente, ne pourront plus être placées dans des data centers refroidis avec de l'air. Ils ne seront pas en mesure d'évacuer suffisamment la chaleur. C'est techniquement impossible. » Nvidia s'intéresse également de près à cette solution. Un signal fort pour Cédric Bourrasset.

« La technologie Blackwell de Nvidia vient stimuler l'adoption du refroidissement liquide dans les centres de données. Pour l'heure cantonnée aux clusters d'IA les plus avancés, car coûteuse et nécessitant une maintenance plus complexe, cette méthode devrait devenir la norme dans tous les centres de données à un horizon de dix ans », expliquait à La Tribune Alex McMullan, directeur technique monde de Pure Storage, spécialiste américain du stockage informatique,

Le système développé par Eviden pourrait être appliqué ailleurs qu'à Jean Zay, notamment dans les secteurs de la santé, la finance... « C'est intéressant pour des entreprises qui utilisent au moins 500 ou 1000 GPU, qui ont des grands modèles à entraîner, beaucoup de cas d'usages. » Eviden dit être en discussion avec certaines entreprises. Ce passage au DLC leur permettrait de faire baisser les coûts énergétiques d'environ 20 à 30 % selon les projets, notamment car le refroidissement liquide permet de réduire considérablement la taille des data centers. Le problème reste que cette technologie nécessite une configuration de data center différente, voire potentiellement la construction de nouveaux centres.

Une utilisation plus raisonnée des grands modèles de langage

Au-delà de techniques plus efficaces, l'autre solution pour faire baisser la consommation en eau (et en électricité) de l'IA est de bien réfléchir en amont à l'intérêt du déploiement de cette technologie très énergivore. Si pour Cédric Bourrasset l'efficacité des LLM (grands modèles de langage) en entreprise n'est plus à prouver (tout le monde n'est pas de cet avis), il estime que chaque cas d'usage doit être bien réfléchi en amont pour éviter de déployer de très grands modèles là où ce n'est pas nécessaire.

« Au regard des enjeux climatiques, la préoccupation aujourd'hui devrait davantage tenir à la croissance absolue de la consommation de ressources par le secteur qu'aux gains d'efficacité relatifs », remarque Clément Marquet.

Aux États-Unis, des villes craignent d'être asséchées par les IA

L'installation de data centers provoquent généralement des conflits avec la population locale, en particulier lorsque ces derniers sont installés dans des zones de stress hydrique. Ce qui est régulièrement le cas aux Etats-Unis. Une étude de Environmental Research Papers rapporte que 20% de l'eau utilisée directement par les serveurs dans les centres de données du pays est prélevée dans des régions où les ressources en eau sont déjà modérément ou fortement sollicitées. La presse américaine fait de plus en plus couramment état d'histoires de villes, dont l'approvisionnement en eau menace d'être vampirisé par l'intelligence artificielle. C'est le cas de The Dalles dans l'Oregon, où vivent 16 000 habitants. Le centre de données de Google représente 29 % de la consommation d'eau totale de la ville. The Atlantic illustre cette absurdité en détaillant la cas de Goodyear (Arizona). Microsoft y a installé deux data centers et prévoit la construction d'un troisième. Ces derniers sont en partie utilisés pour entraîner les modèles d'OpenAI selon les sources du média. Ils consomment 56 millions gallions d'eau par an, soit l'équivalent de ce que consomment 670 familles de cette ville. Pas de quoi assoiffer les habitants, mais la prolifération de ces centres de données dans une région où les ressources en eau sont assez limitées pose question. Phoenix, la capitale de l'Etat, a connu sa plus grande période de sécheresse en 2023, avec 55 jours consécutifs au-dessus des 43 degrés.

Sujets les + lus

|

Sujets les + commentés

Commentaires 11
à écrit le 05/05/2024 à 22:20
Signaler
L’IA c’est la nouvelle bulle créée par ceux qui veulent nous faire croire que ce sera la révolution de demain. Au mieux un nouvel outil, au pire une nouvelle source d’aliénation humaine. Faut il rappeler qu’autrefois on a construit des cathéd...

à écrit le 05/05/2024 à 8:43
Signaler
" "Mais le sujet reste moins bien adressé que..." Voilà qui ne veut rien dire. Alors quel était le but de cette phrase?

à écrit le 05/05/2024 à 1:35
Signaler
Petits joueurs, le solaire ça s'est du sérieux ! Une usine de fabrication de wafers de 6 pouces qui produit 40 000 wafers par mois, consomme de 7,57 à 11,35 millions de litres d'eau par mois ! Qui dit mieux

à écrit le 04/05/2024 à 19:53
Signaler
Bonjour, bon moi je participe a l'effort générale, je bois de la bière, cela économise l'eau... D'ailleurs je ne pose plus de questions non plus ... Souvent les réponses ne me satisfait nullement... Bon , après se constat de banalité, nous devons c...

à écrit le 04/05/2024 à 13:31
Signaler
"le sujet reste moins bien adressé..". Le verbe "adresser" a déjà beaucoup de sens, de constructions et d'usages différents. Faut-il en rajouter un autre, fut-ce sous l'influence peu amicale de l'anglais? On n'adresse pas un sujet (pas plus qu'une qu...

à écrit le 04/05/2024 à 7:58
Signaler
"Selon une étude, poser entre 10 et 30 questions à ChatGPT (GPT-3) consomme l'équivalent d'une petite bouteille d'eau." Pendant ce temps l'agro-industrie gaspille elle une piscine olympique, olympique parce que ce sont eux les champions !

à écrit le 03/05/2024 à 22:34
Signaler
Ah, la fameuse question de la consommation d'eau, car tout le monde sait qu'une fois chauffée pour refroidir les serveurs, l'eau se désintègre et de ce fait sort à tout jamais du cycle de l'eau.

le 04/05/2024 à 8:32
Signaler
"l'eau se désintègre" Diantre ! Au passage je te rappelle quand même que "Rien ne se perd, rien ne se crée tout se transformer" Antoine Lavoisier :-)

le 04/05/2024 à 8:56
Signaler
Elle s'évapore dans l'atmosphère ou se désintègre (en quoi ? Protons, électrons, neutrons séparés) ? Si on fait H2 + O2 quand on refroidit un serveur, miracle, ça fait de l'électrolyse 'gratuite', fini les grosses installations pour produire à fort c...

le 04/05/2024 à 9:50
Signaler
Bah oui george benêt ! Il y a une quantité finie de flux d'eau, si une part croissante est détournée pour l'IA elle n'est pas disponible pour autre chose...

le 04/05/2024 à 18:00
Signaler
On a bien compris l'idée t'inquiètes pas mais l'eau ne se désintègre définitivement pas, c'est pas grave de se planter, parfois ça m'arrive à moi aussi de vouloir faire du spectaculaire et une sortie de route en même temps... :-)

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.