l'IA générative, ça pompe énormément

Microsoft a créé à Des Moines dans l'Iowa un datacenter dédié à l'IA notamment pour l'entraînement des LLM d'OpenAI, particulièrement gourmand en eau. (Crédit Photo : Microsoft)

Microsoft a créé à Des Moines dans l'Iowa un datacenter dédié à l'IA notamment pour l'entraînement des LLM d'OpenAI, particulièrement gourmand en eau. (Crédit Photo : Microsoft)

Pour faire fonctionner les IA génératives comme ChatGPT ou Bard, Google ou Microsoft consomment beaucoup de ressources CPU et GPU, refroidies à l'eau. Cette augmentation commence à inquiéter les villes où les datacenters sont installés.

Si l'engouement autour de l'IA générative continue, son empreinte écologique commence à poser des questions, en particulier sur la consommation d'eau. Les rapports environnementaux de Microsoft et Google (très actifs sur l'IA générative) montrent une forte augmentation de l'usage des ressources hydriques pour le refroidissement de leurs datacenters.

Dans son rapport, Microsoft a indiqué que la consommation d'eau des centres de données a progressé de 34% entre 2021 et 2022. La firme a englouti plus de 6,4 milliards de litres d'eau en 2022, soit l'équivalent de 2 500 piscines olympiques. Google n'est pas en reste avec une hausse de 20% de sa consommation d'eau au cours de la même période. La raison de cette accroissement est liée à la montée en puissance des workload sur l'IA générative, selon Shaolein Ren, chercheur à l'Université de Californie à Riverside. L'expert a travaillé par exemple sur GPT-3 (première version du LLM motorisant ChatGPT) qui a absorbé plus de 320 000 litres d'eau pour sa formation. « La plupart des gens ne sont pas conscients de l'utilisation des ressources sous-jacentes à ChatGPT », précise l'universitaire. Les traitements et calculs intensifs liés à l'IA génératives reposent sur des clusters d'accélérateurs GPU, principalement fournis par Nvidia. Le H100 consomme par exemple 700 watt. 

Des inquiétudes commencent à apparaître

Les collectivités locales où sont implantées ces datacenters commencent à s'inquiéter de cette surconsommation d'eau. C'est le cas de Des Moines dans l'Iowa qui a été choisi par Microsoft pour accueillir un datacenter dédié à la formation des LLM d'OpenAI (avec 10 000 accélérateurs H100). En juillet 2022, à la fin de l'entraînement de GPT, Microsoft avait pompé 34,5 millions de litres d'eau, selon le fournisseur West Des Moines Water Works. Cela représente 6% des capacités hydriques de la ville. La municipalité a prévenu Microsoft qu'elle n'envisagerait pas de futurs projets de datacenters si la firme n'était pas capable  de « démontrer et mettre en oeuvre une technologie permettant de réduire considérablement les pics de consommation d'eau par rapport aux niveaux actuels ». Cette histoire n'est pas sans rappeler celle des Pays-Bas qui ont découvert en septembre 2022 que Microsoft avait utilisé 84 millions de litres d'eau pour ses datacenters, alors qu'initialement la société avait estimé sa consommation entre 12 et 20 millions de litres.

Pour répondre à ces inquiétudes, les fournisseurs s'engagent à réduire leur empreinte carbone et hydrique. Microsoft évoque le terme « water positive » d'ici 2030 sans en préciser exactement la définition, ni les moyens pour y arriver. De son côté, Thomas Kurian, CEO de Google Cloud interrogé lors de la récente conférence Next table sur l'optimisation des performances des workload IA , «quand nous disons que nous pouvons exécuter une formation de modèle deux fois plus rapidement et mieux que d'autres entreprises du secteur, cela signifie que vous avez besoin de la moitié de la quantité d'énergie pour entraîner le modèle ». Il évoque aussi les apports de ces modèles sur les datacenters de Google Cloud, « Toute la thermodynamique, la puissance, le refroidissement par air, le refroidissement par eau, le flux d'air - nous utilisons nos modèles pour gérer cela ».

s'abonner
aux newsletters

suivez-nous

Publicité

Derniers Dossiers

Publicité