
Selon l'Electric Power Research Institute (EPRI), chaque question à ChatGPT consommerait environ 2,9 kWh d'électricité, soit près de dix fois plus que les 0,3 wh nécessaires pour une recherche standard sur Google. (Crédit Freepix)
Selon l'Electric Power Research Institute (EPRI), chaque question à ChatGPT consommerait environ 2,9 kWh d'électricité, soit près de dix fois plus que les 0,3 wh nécessaires pour une recherche standard sur Google. (Crédit Freepix)
iLes dossiers sont réservés aux membres
CONNEXIONInscrivez-vous à Distributique et bénéficiez gratuitement des services suivants :
La gestion thermique est devenue un défi majeur dans l'univers des centres de données. Avec des composants atteignant des niveaux de performance sans précédent, notamment les CPU Intel Xeon et AMD Epyc ou les GPU Blackwell de Nvidia, les méthodes traditionnelles de refroidissement ne suffisent plus. HPE, grâce à ses avancées techniques dans les serveurs ProLiant, répond à cette problématique avec des solutions de refroidissement liquide à la pointe de l'innovation. Gerald Kleyn, vice-président et directeur général des solutions HPC chez HPE, nous a résumé lors de Discover 2024, à Barcelone en décembre dernier, l'impact de ces avancées : « Nos systèmes permettent une réduction de 30 % de la consommation énergétique globale tout en optimisant les performances de calcul. »
Une architecture pensée pour le refroidissement liquide intégral
Les derniers serveurs ProLiant se distinguent par leur architecture spécifiquement conçue pour un refroidissement 100 % liquide. Contrairement aux solutions hybrides (qui associent refroidissement liquide pour les processeurs et refroidissement par air pour le reste des composants), HPE mise sur une approche systémique. Chaque élément critique - CPU, GPU, interconnexions, unités de distribution électrique - est refroidi par des systèmes dédiés, sans recours à des ventilateurs internes. Cette innovation repose sur des plaques froides (cold plates) placées directement sur les composants. Elles permettent de capturer efficacement la chaleur produite par les derniers CPU Intel Xeon et AMD Epyc, ainsi que les GPU Nvidia, notamment ceux basés sur l'architecture Blackwell. En optimisant l'extraction thermique à la source, HPE parvient à maintenir des températures stables même lors de charges de travail extrêmes. « Cette technologie permet de repousser les limites des composants tout en réduisant considérablement les besoins en énergie pour le refroidissement », explique Gerald Kleyn.
Les dernières générations de puces, comme les AMD Epyc et les Intel Xeon Sapphire Rapids, sont connues pour leurs performances, mais aussi pour leur densité thermique. Avec jusqu'à 192 coeurs et des consommations atteignant 500 W par processeur, ces composants exigent une gestion thermique particulièrement performante. Les ProLiant intègrent une solution unique : des plaques froides multi-niveaux qui répartissent uniformément le liquide de refroidissement sur les zones les plus chaudes des processeurs. Cette technologie garantit une dissipation homogène de la chaleur, augmentant la fiabilité et la durée de vie des composants. De plus, ces systèmes sont compatibles avec des configurations de très haute densité, comme les serveurs pouvant accueillir jusqu'à huit accélérateurs Nvidia dans un seul châssis.
Des innovations exclusives pour les GPU Nvidia
Les GPU Nvidia, notamment ceux de la gamme Blackwell et Hopper, sont au coeur des charges de travail en intelligence artificielle et en calcul haute performance (HPC). Ces accélérateurs, capables de consommer jusqu'à 700 W par unité, représentent un défi thermique majeur. HPE a conçu une architecture de refroidissement qui ne se limite pas aux processeurs graphiques eux-mêmes, mais englobe également les convertisseurs de tension et les interconnexions associées. Le système de refroidissement liquide des ProLiant utilise des canaux directs pour dissiper la chaleur des GPU, mais également des composants périphériques tels que des transceivers et des cartes mères spécialement désignées. « Nos solutions permettent une gestion thermique intégrale des GPU, évitant les points chauds et réduisant les besoins en maintenance », précise Gerald Kleyn. Cette approche permet également de maximiser l'efficacité énergétique en minimisant les pertes dues à la conversion de puissance.
« Les modèles de prochaine génération nécessitent une architecture efficace et durable pour gérer les énormes volumes de données et de calcul », explique Gerald Kleyn de HPE. (Crédit S.L.)
Une innovation technologique au service des supercalculateurs et de l'IA
Les innovations de HPE dans le domaine du refroidissement liquide se traduisent par des performances impressionnantes. L'entreprise équipe les trois supercalculateurs les plus rapides au monde, dont le célèbre Frontier, capable de traiter 1,1 exaflop (1 milliard de milliards d'opérations par seconde). Ces machines, utilisées pour des applications allant de la recherche climatique à l'exploration spatiale, tirent parti des systèmes de refroidissement avancés pour fonctionner de manière optimale. Les innovations en refroidissement liquide de HPE ne se limitent pas à améliorer les performances des composants. Elles répondent également à des enjeux environnementaux majeurs. Grâce à ces systèmes, les serveurs ProLiant enregistrent une réduction de 90 % de la consommation énergétique liée au refroidissement, contribuant ainsi à une baisse de 30 % de la consommation globale, selon le dirigeant. Outre cet impact énergétique, les solutions de HPE permettent de réduire l'empreinte au sol des centres de données. La densité accrue des composants, rendue possible par le refroidissement liquide, libère de l'espace, facilitant l'intégration de nouvelles infrastructures dans des environnements contraints. HPE ne compte pas s'arrêter là. L'entreprise travaille déjà sur des solutions encore plus performantes pour accompagner les évolutions des CPU et GPU de nouvelle génération. Des développements dans les technologies de mémoire à haut débit et des interconnexions ultra-rapides sont en cours pour anticiper les besoins futurs. Gerald Kleyn se projette : « La montée en puissance des composants et des charges de travail nécessitera des innovations continues dans la gestion thermique ».
Serge Leblal
Sommaire du dossier :
Suivez-nous