Une puce Intel Xeon à 144 coeurs pour contrer les AMD Epyc

Sierra Forest marque un changement pour Intel qui divise sa gamme de produits pour centres de données en deux branches, le E-Core et le P-Core (Performance Core). (Crédit Intel)

Sierra Forest marque un changement pour Intel qui divise sa gamme de produits pour centres de données en deux branches, le E-Core et le P-Core (Performance Core). (Crédit Intel)

Le Xeon Sierra Forest sera le premier processeur pour serveur chez Intel à exclusivement utiliser des coeurs basse consommation pour réduire l'empreinte énergétique du serveur.

Pour rattraper son concurrent AMD, Intel a annoncé un processeur Xeon doté de 144 coeurs, conçu pour exécuter les charges de travail basiques dans les centres de données, tout en montrant plus économe en énergie que les précédentes puces serveur du fondeur. Reposant sur la plateforme Sierra Forest, ce processeur Xeon fait partie de la gamme Intel E-Core (Efficiency Core) qui renonce à des fonctions avancées telles que l'AVX-512, qui nécessitent des coeurs plus puissants. Rappelons qu'AVX-512 (Advanced Vector Extensions 512) est "un ensemble d'instructions qui peuvent accélérer les performances pour des charges de travail et des utilisations telles que les simulations scientifiques, l'analyse financière, l'intelligence artificielle (IA)/apprentissage profond, la modélisation et l'analyse 3D, le traitement d'image et d'audio/vidéo, la cryptographie et la compression de données". 

Sierra Forest marque un changement pour Intel qui divise sa gamme de produits pour centres de données en deux branches, le E-Core et le P-Core (Performance Core), conception traditionnelle des Xeon pour centres de données qui utilise des coeurs à haute performance. Ce n'est pas la première fois d'Intel tente de mettre en avant des puces basse consommation sur un serveur ; le fondeur avait déjà tenté de convaincre les entreprises avec des puces Atom - développées à l'origine pour les terminaux mobiles - installées sur des serveurs comme la série Moonshot de HPE

Plus de coeurs, moins de sockets  Les 144 coeurs de Sierra Forest répondent à la conviction du fondeur de Santa Clara que les revenus des CPU x86 suivront les tendances des coeurs plus étroitement que les tendances des sockets dans les années à venir, a déclaré Sandra Rivera, vice-présidente exécutive et directrice générale du groupe des centres de données et de l'IA chez Intel, lors d'un point d'information pour les investisseurs spécialisés dans les centres de données et l'IA. Elle a déclaré qu'Intel voyait une opportunité de marché de plus de 110 milliards de dollars pour son activité de silicium pour les centres de données et l'IA d'ici à 2027. 

D'une certaine manière, Sierra Forest n'est pas sans rappeler les stratégies d'Ampere avec ses processeurs Altra et d'AMD avec sa gamme Bergamo, avec de nombreux petits coeurs efficaces pour des charges de travail plus simples. Comme Ampere, Intel vise le cloud dans lequel de nombreuses machines virtuelles effectuent des tâches non intensives comme l'exécution de conteneurs. 

Sierra Forest commercialisé début 2024 Intel a également annoncé le successeur de Sierra Forest, Clearwater Forest. L'entreprise n'a pas donné d'autres détails que la date de sortie en 2025 et l'utilisation du processus 18A pour construire la puce. Il s'agira de la première puce Xeon ainsi gravée en 1,8 nanomètre. Cela indique qu'Intel est sur la bonne voie pour respecter la feuille de route établie par le PDG Pat Gelsinger en 2021. 

Xeon Emerald Rapids et Granite Rapids attendus Le dernier Xeon d'Intel, Sapphire Rapids, est sorti en janvier et son successeur, Emerald Rapids, est annoncé pour le quatrième trimestre 2023. Il offrira des performances améliorées, une meilleure efficacité énergétique et davantage de coeurs que le Sapphire Rapids, avec lequel il sera compatible pour la partie socket. Cela signifie une validation plus rapide par les partenaires OEM qui fabriquent des serveurs, puisqu'ils peuvent utiliser les cartes mères actuelles. Après cela, Intel rendra Granite Rapids disponible en 2024. Au cours du point financier, Mme Rivera a fait la démonstration d'un serveur bi-sockets utilisant une pré-version de Granite Rapids, avec une incroyable bande passante mémoire (1,5 TB/s avec de la DDR5). À titre de comparaison, la super puce Grace de Nvidia affiche un débit de 960 Go/s et la génération Genoa du processeur AMD Epyc plafonne à 920 Go/s.

La démonstration a présenté pour la première fois un type de mémoire développé par Intel avec SK Hynix, la DRAM DDR5-8800 Multiplexer Combined Rank (MCR). Taillée pour la bande passante, cette dernière est beaucoup plus rapide que la DRAM traditionnelle. La MCR démarre à 8000 mégatransferts (MT) par seconde, soit bien plus que les 6400 MT/s de la DDR5 et les 3200 MT/s de la DDR4. Intel a également évoqué ses accélérateurs non-x86, tels que les FPGA, les GPU, les IPU et autres circuits spécifiques : 15 FPGA Agilex/Stratix sont attendus en 2023, le plus grand nombre jamais atteint en une seule année. La firme n'a toutefois pas donné de détails sur la façon dont les FPGA seraient positionnés sur le marché.

Intel vient contrer CUDA L'un des principaux avantages de Nvidia est son langage de programmation GPU pour le calcul intensif (IA et simulation) baptisé CUDA, qui permet aux développeurs de programmer directement sur le GPU plutôt que de passer par des bibliothèques. Hormis le recours à GPUFort pour AMD et OpenCL pour Intel, les deux principaux concurrents de Nvidia n'ont pas avancé d'alternative crédible à Cuda jusqu'à présent, mais il semble que le fondeur de Santa Clara travaille sur une approche similaire. 

Lors de la réunion d'information, Greg Lavender, Chief Technology Officer et directeur général du groupe logiciel et technologie avancée d'Intel, a exposé sa vision du logiciel pour l'entreprise. "Une de mes priorités est de conduire une approche holistique et de bout en bout des logiciels d'IA chez Intel. Nous disposons aujourd'hui du matériel hétérogène accéléré pour répondre aux besoins des clients. La clé pour débloquer cette valeur dans le matériel est de passer à l'échelle grâce au logiciel", a-t-il déclaré.

Pour parvenir à la "démocratisation de l'IA", Intel développe un écosystème logiciel d'IA ouvert, a-t-il déclaré, permettant des optimisations logicielles en amont des cadres d'IA tels que PyTorch et TensorFlow et des cadres d'apprentissage automatique pour promouvoir la programmabilité, la portabilité et l'adoption par l'écosystème. En mai 2022, le fondeur a publié une boîte à outils open source appelée Cyclomatic pour aider les développeurs à migrer plus facilement leur code de CUDA vers ses plateformes Data Parallel C++ for Intel. Selon M. Lavender, l'outil est généralement capable de migrer automatiquement 90 % du code source CUDA vers le code source C++, ce qui laisse très peu de choses à régler manuellement par les programmeurs. 

s'abonner
aux newsletters

suivez-nous

Publicité

Derniers Dossiers

Publicité