Les CEO de Nvidia et VMware, Jen-Hsun Huang et Raghu Raghuram, réunis au dernier VMware Explore pour mettre en avant leur partenariat autour de l'IA générative. (Crédit VMware)
La plateforme d'IA privée développée avec Nvidia qui permet aux entreprises d'exécuter des applications d'IA générative sur leurs données propriétaires au sein de l'infrastructure de cloud hybride de VMware fait partie des nouveautés.
Si quelques annonces faites la semaine dernière lors de la conférence VMware Explore à Las Vegas concernent le cloud, c'est surtout l'IA qui a tenu le haut du pavé, comme c'est le cas pour presque toutes les entreprises technologiques ces derniers temps. Les fournisseurs se sont empressés de doter leurs plateformes de capacités d'IA générative, et VMware ne fait pas exception. Pour l'instant, les principales fonctionnalités d'IA annoncées lors de la conférence, à savoir VMware Private AI Foundation et Intelligent Assist, ne seront pas disponibles avant plusieurs mois. VMware Private AI Foundation, en développement conjoint avec Nvidia, permettra aux entreprises de personnaliser les modèles et d'exécuter des applications d'IA générative sur leur propre infrastructure. Intelligent Assist est un ensemble de solutions génératives basées sur l'IA et formées sur les données propriétaires de VMware pour automatiser les tâches IT.
Par contre, l'outil SafeCoder est déjà disponible. Lancée avec la collaboration de Hugging Face, la solution commerciale est construite autour d'un grand modèle de langage open source que les entreprises peuvent affiner sur leurs propres bases de code et exécuter dans leurs propres environnements sécurisés. VMware utilise SafeCoder en interne et publie une architecture de référence avec des exemples de code pour les clients qui souhaitent exploiter SafeCoder sur l'infrastructure VMware. « Cela fait plusieurs mois que le modèle SafeCoder a été déployé dans notre propre datacenter », a déclaré Chris Wolf, vice-président de VMware AI Labs, lors de tables rondes organisées mardi et mercredi dernier sur le sujet. « Ce modèle spécialement adapté au développement de logiciels est basé sur 15 milliards de paramètres », a-t-il ajouté. L'éditeur a complété la formation du modèle en l'entrainant sur une partie de sa propre base de code. « Nous avons cherché à identifier les meilleurs ingénieurs logiciels de l'entreprise, et nous avons ajusté le modèle en fonction de leurs livraisons », a souligné M. Wolf. Comme il s'agissait d'un modèle plus petit et spécialisé, la mise au point n'a pris que quatre heures. « La solution que nous avons proposée à nos ingénieurs logiciels a obtenu un taux d'acceptation de 93 % de la part de nos développeurs de logiciels. Cela signifie qu'ils ont apprécié la solution et qu'ils continuent à l'utiliser parce qu'elle les rend plus productifs », a précisé M. Wolf.
Fournir une plateforme sûre pour l'IA générative
VMware a également publié une architecture de référence pour sa propre pile d'IA. « Le développement de logiciels est propice à l'IA générative », a déclaré, mardi, le CEO de VMware, Raghu Raghuram, lors d'une table ronde sur l'IA. « De plus en plus d'entreprises sont soumises à des contraintes de développement, et cela peut les aider à être plus productives. De plus, les IA de codage peuvent être entrainées sur un ensemble de données de formation relativement homogène et contraint », a-t-il indiqué. « Dans la plupart des entreprises, il s'agit d'une source de données unique ». Mais VMware ne prévoit pas de se lancer dans la création de modèles d'IA générative. « Nous fournirons l'infrastructure », a signalé M. Raghuram. « Nous pouvons profiter de cette énorme opportunité pour faire ce que nous faisons le mieux : fournir une plateforme sur site, dans Azure, dans AWS, ou ailleurs, pour que les entreprises construisent et exécutent leur IA générative », a encore déclaré le CEO.
Intelligent Assist en primeur pour Tanzu, Workspace ONE et NSX+
Quelques clients privilégiés vont bénéficier d'un accès anticipé à Intelligent Assist. Cette solution alimentée par l'IA générative vise à simplifier et à automatiser tous les aspects de l'IT d'entreprise, y compris la mise en réseau. Intelligent Assist s'appuie sur VMware Private AI. La plateforme d'applications cloud Tanzu (Kubernetes) fait partie des produits de VMware qui auront accès à Intelligent Assist. La solution permettra aux utilisateurs de demander et d'affiner de manière conversationnelle les modifications à apporter à l'infrastructure cloud de leur entreprise. Selon Mike Wookey, vice-président et directeur technique de VMware pour la gestion du cloud, grâce à Tanzu Intelligent Assist, les utilisateurs pourront poser des questions et décider des actions à entreprendre. Intelligent Assist contrôlera aussi l'interface utilisateur des produits Tanzu, en orientant les utilisateurs vers les vues correctes pour analyser ou prendre des mesures. « Dans le cas présent, l'IA générative provient des services Azure AI, qui verront l'invite et le schéma, mais pas les données privées du client », a précisé M. Wookey. « Pour la documentation, nous utilisons un autre modèle privé formé sur la documentation Tanzu et générons un résumé spécifique », a-t-il encore déclaré. « C'est une technologie de pointe à deux points de vue : d'une part, nous générons un code d'exécution déterministe à partir d'un langage naturel, nous le vérifions et nous l'utilisons pour générer des réponses pour les clients ; d'autre part, nous utilisons une approche multi-modèle, en veillant à ce que les données du client ne soient jamais exposées au LLM public, tout en tirant parti des vastes connaissances et de la précision du LLM public ». Intelligent Assist sera disponible « dans le courant de l'année », a déclaré un porte-parole de VMware.
En plus de Tanzu, Workspace ONE with Intelligent Assist permettra aux utilisateurs de créer des scripts à l'aide d'invites en langage naturel. La plateforme réseau NSX+ de VMware bénéficie également de l'aide d'Intelligent Assist. Actuellement en avant-première technique, NSX+ with Intelligent Assist permettra aux analystes de sécurité de déterminer rapidement et avec plus de précision la pertinence des résultats de sécurité et de remédier aux menaces. VMware a aussi fait des annonces sur les IA classiques, celles qui utilisent des approches traditionnelles d'apprentissage machine plutôt que de l'IA générative. Par exemple, VMware a annoncé des intégrations d'IA pour sa plateforme Anywhere Workplace qui optimisent automatiquement l'expérience des employés, favorisent de nouveaux cas d'usage dans la gestion des vulnérabilités et simplifient la gestion du cycle de vie des applications. VMware s'est également associé à Domino Data Lab pour fournir une plateforme unifiée d'analyse, de science des données et d'infrastructure optimisée, validée et prise en charge, spécialement conçue pour les déploiements d'IA et de ML dans le secteur des services financiers. Enfin, VMware vSphere, vSAN 8 et Tanzu sont désormais optimisés avec la suite logicielle AI d'Intel pour tirer parti des accélérateurs AI intégrés sur les derniers processeurs Intel Xeon Scalable de 4e génération.
Pour une IA responsable
Dans l'ensemble, cette année, plus de deux douzaines de sessions ont été consacrées à l'IA lors de l'événement VMware Explore, y compris un panel sur l'IA responsable, axé sur le rôle que devraient jouer les humains. « C'est une bonne chose de se préoccuper des limites de la technologie », a déclaré Meredith Broussard, professeur de journalisme à l'université de New York, directrice de recherche à la NYU Alliance for Public Interest Technology et auteur de plusieurs ouvrages sur l'IA et ses biais. Celle-ci a mis en garde contre le risque d'obtenir des résultats biaisés quand les modèles d'IA sont entraînés sur des données biaisées. Malheureusement, il est parfois difficile de savoir sur quelles données un modèle a été formé. « Pour la plupart des modèles disponibles aujourd'hui, les sources de données sont considérées comme propriétaires », a expliqué M. Wolf de VMware. « Il est difficile de comprendre d'où vient le biais si l'on ne peut pas voir les données. Nos ingénieurs ont travaillé avec certains de ces modèles par le passé et, en très peu de temps, il est possible de pousser le modèle vers des choses très contraires à l'éthique », a-t-il ajouté.
Ce dernier a aussi expliqué que VMware cherchait à orienter le secteur vers des modèles plus légers et spécialisés, plus faciles à former, plus précis et même avec une plus faible l'empreinte carbone. « Il est possible de contrôler les données et d'avoir une connaissance totale des données utilisées pour former le modèle », a déclaré M. Wolf. « C'est pour cette raison et d'autres que VMware n'a pas voulu utiliser ChatGPT », a-t-il ajouté. « Nous ne voulions pas des intégrations avec ChatGPT parce qu'elles risquaient d'enfreindre les règles de confidentialité et de conformité imposées par nos clients », a-t-il déclaré. « Nous voulons comprendre les sources de données qui entrent dans le modèle, nous voulons savoir si le modèle est biaisé. Nous voulons aider nos clients à comprendre l'exactitude de l'IA et à expliquer les résultats de l'IA. Nous sommes très attentifs, en interne comme en externe, à la manière dont nous abordons l'IA ».
Suivez-nous