Les limitations de performance à l'échelle peuvent poser problème pour le stockage IA, en particulier pour les solutions NAS scale-out , explqiue David Yu, directeur marketing HPE Storage. 5crédit HPE)
Les derniers systèmes de stockage de HPE et Pure Storage sont destinés aux charges de travail à haute performance, et notamment les traitements liés à l'IA.
Hewlett Packard Enterprise et Pure Storage ont tous deux présenté des produits et services de stockage pour les charges de travail à haute performance, simulation et IA notamment. HPE a ajouté à son offre GreenLake for File Storage une baie de stockage flash à haute densité pour les charges de travail d'IA et les data lakes à grande échelle. Ce produit, qui met à niveau la baie Alletra Storage MP introduite l'an dernier, offre, selon HPE, quatre fois la capacité et deux fois la performance du système par unité de rack de la génération précédente. Le fournisseur indique également que cette baie a une densité de performances et une capacité jusqu'à 2,3 fois supérieures à celles des offres concurrentes. Fidèle à son nom, la gamme HPE GreenLake for File Storage travaille en mode fichiers. Une ligne de produits distincte pour le stockage en mode bloc, appelée GreenLake for Block Storage, a été lancée le mois dernier.
GreenLake for File Storage vise à aider les entreprises à faire évoluer les performances et la capacité de manière indépendante. « Les limitations de performance à l'échelle peuvent poser problème pour le stockage IA, en particulier pour les solutions NAS scale-out », a déclaré David Yu, chef de produit senior et directeur marketing HPE Storage, dans un billet de blog sur la plateforme. Ces solutions peuvent faire évoluer la capacité, mais elles ne peuvent pas faire évoluer les performances de manière linéaire pour correspondre à cette capacité. « L'idée est de fournir des performances soutenues à toutes les étapes de l'IA, de l'agrégation à la préparation des données, à l'entraînement et au réglage, jusqu'à l'inférence des données », a écrit M. Yu. Grâce à son architecture modulaire désagrégée et partagée, la baie est capable d'effectuer une mise à l'échelle indépendante des performances et de la capacité.
Davantage d'options de gestion en libre-service chez Pure Storage
Quant à Pure Storage, l'entreprise a dévoilé des fonctionnalités en libre-service pour sa plate-forme de gestion de stockage Pure1 et son mode souscription Evergreen, ainsi que des changements dans son programme de partenariat. Déjà, Pure a mis à jour la technologie de mise à niveau ActiveCluster de son système d'exploitation Purity. Les mises à niveau autonomes en libre-service de l'environnement d'exploitation maintiendront les différents baies en phase avec les dernières mises à niveau du système d'exploitation. Pure Storage a aussi mis à jour et rationalisé ses capacités de détection des anomalies liées aux ransomwares. En cas d'anomalie, Pure1 recommande désormais des instantanés à partir desquels les clients peuvent restaurer leurs données affectées, localement ou à distance, au lieu d'avoir à examiner manuellement le catalogue d'instantanés. Par ailleurs, Pure a aussi livré une mise à jour DRaaS 1.1 pour son offre de reprise après sinistre en tant que service (Disaster Recovery as-a-Service, DRaaS) lancée récemment, laquelle permet aux clients de déployer la reprise après sinistre dans leur centre de données en 15 minutes ou moins. Les entreprises qui utilisent des machines virtuelles dans un environnement VMware peuvent à présent s'appuyer sur Pure1 pour déployer un environnement en libre-service pour la reprise après sinistre dans le cloud AWS. Pure Storage a également lancé une fonction Auto-Enroll qui inscrit automatiquement les machines virtuelles dans un centre de données et accroît ainsi la protection.
Encore négligé, le stockage est un élément essentiel de l'IA, en particulier de l'IA générative. Les grands modèles de langage sont construits à partir de données, et de données non structurées qui plus est. Les entreprises puisent des téraoctets de données dans des data lakes, qui toutes doivent être traitées avant de commencer la formation et l'inférence. Et si, dans la course à l'IA, les GPU captent toute l'attention, le stockage est tout aussi important.
Suivez-nous