L'offre Greenlake de HPE s'élargit avec des solutions pour l'IA et les LLM

« L'IA sera la technologie la plus distruptive de toute la vie », a lancé Antonio Neri, CEO de HPE lors de la conférence de lancement Discover 2023 à Las Vegas ce 20 juin. (crédit : HPE)

« L'IA sera la technologie la plus distruptive de toute la vie », a lancé Antonio Neri, CEO de HPE lors de la conférence de lancement Discover 2023 à Las Vegas ce 20 juin. (crédit : HPE)

A l'occasion de sa conférence Discover 2023 à Las vegas, HPE a annoncé l'extension de son offre de facturation de services cloud à la demande Greenlake pour l'intelligence artificielle et les LLM. Des systèmes Cray XD à base d'accélérateurs H100 Nvidia serviront aux entreprises pour tirer parti de Luminous, un modèle de langage étendu pré-entrainé conçu par la start-up allemande Aleph Alpha.

La consommation des ressources informatiques à la demande monte en puissance, d'autant que l'appétit des entreprises est grand pour les projets IA s'appuyant sur des modèles de langage étendu (LLM). HPE l'a bien compris et profite de sa dernière conférence Discover à Las Vegas (du 20 au 22 juin) pour étendre son portefeuille de services cloud consommés et facturés à la demande GreenLake avec une offre spécifiquement orientée IA et LLM. « Avec l'introduction de HPE GreenLake pour les grands modèles de langage, les entreprises peuvent former, régler et déployer en privé l'IA à grande échelle en utilisant une plateforme de supercalculateur durable qui combine le logiciel d'IA de HPE et les supercalculateurs leaders du marché », a expliqué le fournisseur américain.

GreenLake pour les grands modèles de langage fonctionnera sur les supercalculateurs Cray XD du fournisseur (anciennement Apollo) embarquant des accélérateurs H100 de Nvidia. Lors de sa conférence GTC de septembre 2022, ce dernier avait annoncé que les modèles de langage étendu constitueraient l'un des cas d'utilisation de l'IA les plus importants pour son dernier accélérateur GPU. En misant dessus pour ses derniers services, la firme texane ne créé donc pas vraiment la surprise sur ce point-là. Côté logiciels, HPE pousse un environnement de programmation spécifique et intégré pour optimiser les applications HPC et IA avec un ensemble complet d'outils en développement, portage, débogage et paramétrage de code.

Un LLM pré-entrainé qui gère le Français

« En outre, la plateforme de supercalculateur prend en charge le logiciel AI/ML de HPE qui comprend le Machine Learning Development Environment pour former rapidement des modèles à grande échelle, et le  Machine Learning Data Management Software pour intégrer, suivre et auditer les données avec des capacités d'IA reproductibles pour générer des modèles fiables et précis », poursuit le fournisseur. GreenLake pour LLM comprendra l'accès à Luminous, un modèle linguistique pré-entraîné de la start-up allemande Aleph Alpha proposé en plusieurs langues, dont l'anglais, le français, l'allemand, l'italien et l'espagnol. Ce modèle de langage étendu apporte la capacité aux entreprises d'exploiter leurs propres données à grande échelle, d'entraîner et d'affiner un modèle personnalisé, afin d'obtenir des informations en temps réel et personnalisées. Contrairement à ChatGPT, cette technologie s'adresse davantage au BtB qu'au grand public et a déjà été utilisée par plusieurs entreprises dans les secteurs de la santé et des services financiers, ainsi que dans le domaine juridique a déclaré HPE.

Holger Mueller, analyste chez Constellation Research, a fait savoir que HPE entre dans un domaine de plus en plus encombré, avec de nombreux fournisseurs d'infrastructure qui rivalisent pour alimenter la nouvelle génération de charges de travail d'IA générative, tout en faisant remarquer que le fournisseur avait bel et bien une carte à jouer. « HPE a vraiment un atout dans sa manche avec ses supercalculateurs Cray, qui ont l'architecture parfaite pour traiter les charges de travail LLM [...] HPE est également ouvert à la collaboration avec de multiples partenaires d'IA, à commencer par Aleph Alpha. Elle pourrait séduire en particulier les clients européens soucieux de la sécurité des données, qui peuvent utiliser GreenLake pour de l'entrainement dans le cloud puis effectuer l'inférence sur site, créant ainsi davantage de workloads pour les serveurs ProLiant des entreprises ». Une perspective sans doute intéressante mais à quel prix ? Pour l'instant, le fournisseur n'a apporté aucune précision sur ce sujet, se contentant d'avancer que son offre éviterait aux entreprises d'acheter et de gérer un supercalculateur ce qui est « généralement coûteux, complexe et nécessitant une expertise spécifique ».

Une disponibilité en Europe pas avant 2024

La dernière offre de HPE fonctionnera dans des installations de colocation, à commencer par l'opérateur de datacenters canadien QScale avec lequel un partenariat avait été signé le mois dernier. Ce dernier propose des installations sur son campus Q01, qui a notamment pour caractéristique d'être alimenté par 142 mégawatts d'énergie renouvelable. La commercialisation débutera fin 2023 aux Etats-Unis et en 2024 pour l'Europe.

HPE a indiqué que GreenLake pour LLM constitue la première salve d'une série d'offres devant répondre à des traitements IA destinés à d'autres secteurs pour servir d'autres types de besoins verticaux. Andy Thurai, analyste chez Constellation Research, a expliqué que cette offre apparait selon lui unique sur le marché par rapport à d'autres fournisseurs de cloud. « Construire des plateformes spécifiques à un domaine dans ces industries spécifiques peut apporter de la valeur, ce qui est difficile à faire avec les cloud publics », précise Andy Thurai. D'ores et déjà, HPE envisage des débouchés complémentaires pour d'autres applications en modélisation climatique, soins de santé et sciences de la vie, services financiers, ou encore fabrication et transport...



s'abonner
aux newsletters

suivez-nous

Publicité

Derniers Dossiers

Publicité