Place au refroidissement liquide direct qui se passe de ventilateurs, un élément toujours coûteux

Pour répondre aux besoins des dernières puces d’AMD, Intel et Nvidia, la dernière architecture de HPE pour les racks et les serveurs s’affranchit des ventilateurs. Place au refroidissement liquide !

Nouveau portefeuille d’infrastructures HPC et AI. Celui-ci comprend les solutions HPE Cray Supercomputing EX ainsi que deux systèmes optimisés pour l’apprentissage des grands modèles de langage (LLM), le traitement du langage naturel (NLP) et les modèles multimodaux.

Parmi ces solutions, mentionnons le HPE Cray Supercomputing EX4252 Gen 2 Compute Blade capable de fournir jusqu’à 98 304 cœurs dans une seule armoire. Cette lame de calcul offre un puissant système à une unité de rack, grâce à huit processeurs AMD EPYC de 5e génération, permettant un calcul haute densité dans un même espace. Le HPE Cray Supercomputing EX154n Accelerator Blade est capable, lui, d’accueillir 224 GPU NVIDIA Blackwell dans une seule armoire. Cette lame accélère les charges de travail de supercalculateur. Equipée du NVIDIA GB200 Grace Blackwell NVL4 Supership, chaque Accelerator Blade contient quatre GPU Blackwell connectés par NVIDIA NVLink et unifiés avec deux CPU NVIDIA Grace via NVIDIA NVLink-C2C.

Finis les ventilateurs !

Cette montée en puissance n’est en rien une surprise. D’ici à 2028, on estime que la croissance des charges de travail liées à l’IA nécessitera environ 20 gigawatts d’énergie dans les centres de données. Le refroidissement devient donc critique. En optant pour un refroidissement liquide, HPE estime pouvoir réduire de 50 % l’espace requis dans les centres de données et de 37 % la puissance de refroidissement nécessaire par lame de serveur.

La conception présentée par HPE est basée sur un système de refroidissement liquide direct qui se passe de ventilateurs, un élément toujours coûteux. Le refroidissement par liquide s’effectue de trois manières : des refroidisseurs ou des réfrigérants qui refroidissent les tuyaux à mesure que le liquide chaud les traverse ; des ventilateurs qui soufflent sur le tuyau, sans produire d’air froid, ce qui consomme moins d’énergie, mais ne refroidit pas l’eau autant que les refroidisseurs ; et la simple dissipation de la chaleur qui permet au liquide de se refroidir naturellement à mesure qu’il se déplace le long du tuyau.

La seconde méthode est assez courante. Le liquide chaud qui circule dans les tuyaux en s’éloignant de l’unité centrale peut être refroidi de manière adéquate en combinant la dissipation naturelle de la chaleur et le maintien des tuyaux au frais grâce à des ventilateurs, un peu comme le fonctionnement des radiateurs de voiture. Sauf qu’il faut un nombre impressionnant de ventilateurs qui consomment beaucoup d’énergie et occupent beaucoup de place.

CDU – Coolant Distribution Unit

La dernière architecture de HPE ne fait pas appel à des ventilateurs : le système de refroidissement repose sur 8 éléments qui couvrent divers composants du serveur comme la lame de serveur, le fabric de réseau et l’unité de distribution du liquide de refroidissement ( CDU – Coolant Distribution Unit ). La conception n’est pas nouvelle, puisque cela fait un certain temps que HPE l’utilise dans ses superordinateurs Cray EX.

« Les fournisseurs de services et les pays qui investissent dans des initiatives souveraines d’IA se tournent de plus en plus vers le calcul haute performance comme épine dorsale essentielle permettant une formation d’IA à grande échelle qui accélère la découverte et l’innovation, commente Trish Damkroger, Senior VP & Chief Product Officer of the HPC & AI Organization, HPE. Nos clients se tournent vers nous pour accélérer le déploiement de leur système d’IA afin de réaliser de la valeur plus rapidement et plus efficacement. »