Stéphane Antona, responsable marketing chez VMware Europe

Stéphane Antona, responsable marketing chez VMware Europe, explique les tenants technologiques de la virtualisation et les limitations de ses usages. Distributique : Qu'est-ce qui explique l'engouement de la virtualisation sur serveurs x86 depuis quelques années ? Stéphane Antona : La virtualisation, qui permet de disposer de plusieurs serveurs virtuels sur un seul serveur physique, n'a pas attendu les micro-ordinateurs, puisqu'elle existe depuis les années 1960 sur les gros systèmes sous Unix. L'environnement micro, lui, ne s'y prête bien que depuis le début de cette décennie. Avant, les utilisateurs achetaient un ordinateur avec un applicatif sans se soucier du fait qu'une partie seulement de la puissance de celui-ci ne serait utilisée. Les services informatiques se sont donc retrouvés avec de très nombreux serveurs x86, certes performants mais sous-utilisés et difficiles à administrer, au moment où leurs directions leur demandaient de réaliser des économies en améliorant l'efficacité de l'outil informatique. Un serveur n'étant souvent employés en moyenne qu'à 10 % de ses capacités, une bonne source de gains de productivité serait donc d'utiliser les 90 % restants. Les solutions de virtualisation répondent à ce challenge, tout en contribuant à simplifier la gestion du parc. Mieux, associée à une stratégie de consolidation de serveurs, la virtualisation règle d'éventuels problèmes de limitation de place, de climatisation et d'alimentation électrique dans les salles informatiques. Distributique : Par quels moyens ? Stéphane Antona : Les outils de virtualisation permettent de créer plusieurs serveurs virtuels sur un seul et même matériel, sous forme d'enveloppes isolées les unes des autres et contenant le système d'exploitation et les applications. Le logiciel répartit les ressources matérielles disponibles en fonction des besoins de chaque serveur virtuel. Ainsi, le matériel n'est plus utilisé à 10 % de ses capacités, mais bel et bien à 70 % ou plus. Mieux, si un serveur virtuel demande davantage de ressources que celles disponibles sur un serveur physique donné, le logiciel de virtualisation se chargera de lui allouer dynamiquement des ressources disponibles sur un autre serveur physique. Attention toutefois : il n'est pas encore possible de cumuler grid (ensemble de calcul virtuel composé de plusieurs serveurs physiques) et virtualisation. Une telle architecture est encore compliquée à mettre en oeuvre et irait au-delà des besoins actuels du marché, même si on peut parfaitement à terme envisager une fusion des deux technologies. Distributique : La virtualisation semblerait donc être une solution miracle pour optimiser le taux d'utilisation d'un centre de serveurs ? Stéphane Antona : Oui et non. Il faut en effet garder à l'esprit que tous les serveurs ne sont pas des candidats parfaits à la virtualisation. Pour constater un gain significatif, il faut que le taux moyen d'utilisation du serveur se situe à un niveau relativement faible (aux alentours de 20 %) et que celui-ci ne fasse pas appel à des pilotes - et donc à des matériels - spécifiques. Afin d'aider les utilisateurs, nous disposons d'outils d'audit qui leur permettent de déterminer lesquels de leurs serveurs gagneront à être virtualisés. Distributique : On associe souvent émulation et virtualisation. Est-ce justifié ? Stéphane Antona : Les concepts peuvent paraître proches, puisque dans les deux cas, on peut considérer que l'utilisateur dispose d'environnements informatiques virtuels. Cependant, il y a une grosse différence : schématiquement, en matière d'émulation, les instructions du processeur émulé sont transformées en instructions du processeur accueillant la machine d'émulation. Cette traduction, qui fait perdre en performances, n'existe habituellement pas dans les outils de virtualisation, même si on peut parfaitement envisager de coupler un outil d'émulation à un outil de virtualisation. Distributique : Quelles sont les évolutions prévues des technologies de virtualisation ? Stéphane Antona : D'un point de vue logiciel tout d'abord sont mis au point des « hyperviseurs ». Il s'agit de couches logicielles qui permettent à un matériel destiné à accueillir des serveurs virtuels de se passer de système d'exploitation et donc de gagner en performances au niveau de chaque enveloppe. Mais c'est au niveau de l'évolution des infrastructures matérielles que la virtualisation a le plus à gagner dans les prochains mois et années. Les processeurs 64 bits, supportés à ce jour au niveau expérimental, font passer la barrière de la RAM accessible par chaque serveur virtuel de 3,6 à 16 Go ! Les processeurs DualCore, également supportés au niveau expérimental, devraient permettre des gains sensibles en termes de performances. Enfin, Intel a annoncé l'implémentation d'instructions spécifiques à la virtualisation sur certains de ses processeurs pour serveurs. Tout cela devrait permettre aux serveurs virtuels d'être toujours plus efficaces, et donc aux utilisateurs de leur trouver de nouvelles utilisations.

s'abonner
aux newsletters

suivez-nous

Publicité

Derniers Dossiers

Publicité