Cisco a dévoilé le serveur UCS C885A M8 pour le HPC (IA) et des pods pour simplifier les déploiements d'infrastructures d'IA.
Cisco commercialise un serveur rack UCS exploitant l'architecture HGX de Nvidia et a introduit des piles d'infrastructure plug-and-play adaptées à des cas d'usage spécifiques de l'IA.
Selon Cisco, son dernier serveur UCS (Unified Computing System) et les modèles préconfigurés facilitent la mise en oeuvre par les entreprises d'une infrastructure capable de gérer les ensembles de données massives et les algorithmes complexes pour l'entraînement de modèles et les charges de travail de l'IA. Côté serveur, Cisco a complété sa famille UCS par un modèle UCS C885A M8. Reposant sur l'architecture HGX de Nvidia, ce serveur rack 8U peut fournir les capacités de calcul accéléré nécessaires aux charges de travail d'IA, en particulier l'entraînement des grands modèles de langage (LLM), le réglage fin des modèles, l'inférence des grands modèles de langage et la génération augmentée de récupération (Retrieval-Augmented Generation, RAG). Ce système UCS C885A M8 intègre la technologie résultant du partenariat étendu entre Cisco et Nvidia annoncé en début d'année. Les deux fournisseurs proposent des logiciels et du matériel intégrés aux clients qui souhaitent mettre en place une infrastructure d'intelligence artificielle. Dans le cadre de cette annonce, les entreprises ont déclaré que les GPU H100 et H200 de Nvidia seraient disponibles dans les serveurs rack et lame M7 UCS actuels de Cisco, y compris Cisco UCS X-Series et UCS X-Series Direct, pour prendre en charge l'IA et les charges de travail à forte intensité de données dans le centre de données et à la périphérie.
De plus, les deux entreprises proposent un package AI clé en main appelé cluster Cisco Nexus HyperFabric AI, qui comprend un commutateur de la série Cisco 6000 pour une implémentation Leaf-Spine prenant en charge des fabrics Ethernet 400G et 800G, des GPU, des DPU Nvidia BlueField-3, ainsi que des conceptions de référence AI. L'UCS C885A M8 peut être configuré avec jusqu'à 8 accélérateurs Nvidia H100 et H200 ou AMD MI300X OAM pour accélérer les performances en calcul ainsi qu'avec des DPU BlueField-3 pour accélérer l'envoie de données vers un cluster de serveurs équipés de GPU. Selon Nvidia, HGX comprend un certain nombre d'options de mise en réseau, avec des vitesses pouvant atteindre les 400 Go, utilisant soit la plateforme InfiniBand Quantum-2, soit la solution EthernetSpectrum-X. Le serveur est géré par Cisco Intersight, un package livré en SaaS qui peut gérer divers systèmes, des conteneurs Kubernetes aux applications, des serveurs et environnements hyperconvergés à partir d'un lieu unique.
Un switch Nexus pour accompagner les serveurs UCS
L'équipementier pense que les clients combineront ces serveurs avec son commutateur Nexus 9364E-SG2 annoncé récemment. Le boîtier d'agrégation 800G haute densité supporte des vitesses de port de 400 à 200 et 100 Gbps et inclut la prise en charge des connexions de réseau optique à haut débit Open System Form Factor Plus (OSPF) et Quad Small Form Factor Pluggable Double Density (QSPF-DD). « Pour entraîner les modèles GenAI, les grappes de ces puissants serveurs travaillent souvent à l'unisson, générant un immense flux de données qui nécessite une structure de réseau capable de gérer une bande passante élevée avec une latence minimale. C'est là que le commutateur Nexus 9364E-SG2 a tout son intérêt », ont écrit dans un billet de blog Jeremy Foster, le vice-président senior et directeur général de Cisco Compute, et Kevin Wollenweber, le vice-président senior et directeur général de Cisco Networking, Data Center and Provider Connectivity. « Son agrégation 800G haute densité assure un flux de données fluide entre les serveurs, tandis que la gestion avancée de la congestion et la taille importante des tampons minimisent les chutes de paquets, et maintient ainsi une latence faible et des performances d'entraînement élevées. Le Nexus 9364E-SG2 sert de pierre angulaire à une infrastructure réseau hautement évolutive, permettant aux clusters d'IA de s'étendre de manière transparente à mesure que les besoins de l'entreprise augmentent », ont indiqué messieurs Foster et Wollenweber.
Des pods IA chez Cisco
Outre ce matériel, l'équipementier a présenté les AI Pods, des ensembles d'infrastructures préconfigurées, validées et optimisées que les clients peuvent brancher sur leur centre de données ou leurs environnements edge en fonction de leurs besoins. « Les pods sont basés sur les principes de conception du Cisco Validated Design, lesquels offrent aux clients des designs de réseau pré-testées et validées qui servent de schéma directeur pour construire des infrastructures de réseau fiables, évolutives et sécurisées », a rappelé Cisco. Les pods incluent Nvidia AI Enterprise, qui propose des modèles pré-entraînés et des outils de développement pour l'IA prête à la production, et gérés par Cisco Intersight. « Les ensembles d'infrastructure pré-dimensionnés et pré-validés évitent les aléas liés au déploiement de l'inférence en périphérie, des clusters à grande échelle et d'autres solutions d'inférence de l'IA, et d'autres cas d'usage sont prévus pour les prochains mois », ont déclaré MM Foster et Wollenweber. « Notre objectif est de permettre aux clients de déployer en toute confiance des AI Pods avec une prévisibilité sur les performances, l'évolutivité, les coûts et les résultats, tout en réduisant le temps nécessaire à l'inférence prête à la production avec une pile complète d'infrastructures, de logiciels et d'ensembles d'outils d'IA. »
Selon Jeremy Foster et Kevin Wollenweber, les annonces actuelles sur l'IA sont motivées par le désir de répondre aux exigences globales des entreprises en matière d'infrastructure pour prendre en charge le cycle de vie de l'IA, depuis la construction et l'entraînement de modèles sophistiqués jusqu'à l'utilisation généralisée pour l'inférence. « De nombreux DSI et leaders technologiques avec lesquels nous nous entretenons aujourd'hui le reconnaissent. La plupart d'entre eux déclarent en effet que leurs entreprises prévoient d'adopter pleinement la GenAI au cours des deux prochaines années. Pourtant, selon l'indice de préparation à l'IA de Cisco, seulement 14 % des entreprises estiment aujourd'hui que leurs infrastructures sont prêtes pour l'IA. De plus, 85 % des projets d'IA échouent ou sont interrompus une fois qu'ils ont commencé », ont affirmé MM Foster et Wollenweber. « La principale raison tient à une barrière à l'entrée élevée. Une entreprise peut être amenée à revoir complètement son infrastructure pour répondre aux exigences des cas d'usage spécifiques de l'IA, à créer les ensembles de compétences nécessaires pour développer et soutenir l'IA, et à faire face aux coûts supplémentaires et à la complexité de la sécurisation et de la gestion de ces nouvelles charges de travail. » L'UCS C885A M8 est disponible à la commande dès maintenant pour une livraison d'ici la fin de l'année. Les AI Pods pourront être commandés à partir du mois de novembre 2024.
Suivez-nous