Virtualisation : un outil pour réduire les coûts et simplifier la gestion applicative
En octobre 2008, le Gartner Group publiait son étude très attendue des 10 technologies les plus stratégiques pour 2009 (« Top 10 Strategic Technologie for 2009 ») dans laquelle la virtualisation figurait en tête de liste.
PublicitéLargement présente dans la presse spécialisée, comme dans la presse grand public (la cohabitation de Windows et Léopard sur les nouveaux portables Mac), la virtualisation peut rapidement devenir un concept fourre-tout devant lequel les décideurs sont mal préparés. Quels sont les enjeux de la virtualisation des serveurs et des clients pour une entreprise et quelles en sont ses limites actuelles ? Qu'est-ce que la virtualisation ? La virtualisation consiste pour un système informatique à s'affranchir, autant que faire se peut, des contraintes matérielles (compatibilité, portabilité, mutualisation). Elle permet par exemple de faire fonctionner sur une seule machine plusieurs systèmes d'exploitation et/ou applications séparément les uns des autres comme s'ils fonctionnaient sur des machines physiques distinctes. Les avantages sont multiples pour les services informatiques : la diminution des coûts d'infrastructures tout en respectant l'architecture du système d'information existant. Les serveurs physiques sont transformés en autant serveurs virtuels qui seront installés sur un nombre réduit de gros serveurs physiques. IBM a illustré avec humour cette idée dans une campagne publicitaire où un de leur produit trônait seul dans une grande salle blanche déserte pendant qu'un ingénieur hurlait au vol de ses serveurs. Le deuxième avantage le plus évident est la souplesse du système d'information. Soulagé des contraintes matérielles, il peut s'adapter et répondre rapidement à la demande du business. Qu'il s'agisse d'un déménagement, d'un renouvellement des infrastructures ou encore de la demande de puissance de calcul ou d'espace de stockage, la virtualisation apparaît comme le sésame à tous ces projets toujours coûteux pour les entreprises. Si ces deux avantages ne sont pas contradictoires, ils sont mis plus ou moins en avant selon que l'entreprise souhaite mettre en oeuvre la virtualisation des serveurs ou la virtualisation des clients. La virtualisation des serveurs met l'accent sur la mutualisation des infrastructures des centres de données et des serveurs d'applications. La virtualisation des clients se présente comme un gain de souplesse dans le déploiement et l'administration de parc de station de travail. Quels sont les enjeux de la virtualisation des clients par rapport à la virtualisation des serveurs ? La virtualisation des serveurs permet à la fois une diminution du nombre des serveurs physiques à administrer mais également une consolidation du système d'information. Cette dernière se traduit par un regroupement cohérent des applications et/ou des données afin de mieux répartir les charges réseaux, les ressources de calcul ou les couches de services applicatives (présentation, métiers, données). En ce sens, elle répond aux problématiques transverses de haute disponibilité et de sécurité chères aux directeurs informatiques. Finalement, la virtualisation des serveurs est un projet qui conduit l'entreprise à s'interroger sur l'architecture de son système d'information, sur sa capacité à répondre de la manière la plus logique et la plus efficace possible à ses objectifs stratégiques. La virtualisation des clients permet d'installer le système d'exploitation et les applications d'une station de travail dans une machine virtuelle indépendante du matériel. Il est transparent pour l'utilisateur à qui on met à disposition un client léger (Wyse, HP, Nec, etc.) ou un logiciel spécifique pour exécuter la machine virtuelle (Microsoft Virtual pc, VmWare, Redhat, etc.). On a souvent reproché à la virtualisation des clients le montant important des coûts cachés tels que le coût de la migration des machines physiques en machines virtuelles, la mise à jour du réseau pour supporter la charge entre les clients et les serveurs d'images et/ou de donnée. Or si c'est coûts restent non négligeables, ils sont à mettre en regard des coûts inévitables d'un parc non virtualisé : coût de non activité des utilisateurs pendant la maintenance de leur poste, coût d'évolution des matériels pour suivre les exigences des systèmes d'exploitation et des applications, coût des logiciels de patch et protection des stations de travail. Le débit des réseaux d'entreprise allant en augmentant pour répondre à de nouvelles fonctionnalités comme la voix sur IP et la visioconférence, les pré-requis d'un parc virtualisé semblent de moins en moins contraignants. Enfin, à la différence de la virtualisation des serveurs qui impacte les processus de production, la virtualisation des clients ne change rien aux habitudes de travail des utilisateurs finaux. Or l'expérience montre qu'il est toujours plus facile de mettre en oeuvre un changement technologique qu'un changement des habitudes de travail. La virtualisation des clients est un projet qui présente de nombreux avantages par rapport à la virtualisation des serveurs. D'une part parce qu'il est transparent pour les utilisateurs, d'autre part parce que les coûts de gestion de parc ne peuvent pas être immobilisés contrairement à l'investissement nécessaire en serveur de données et d'application. Il appartient aux DSI, d'identifier qui des serveurs de production (Back Office) ou du parc de stations de travail porte la plus grande valeur ajoutée pour son entreprise et de choisir le projet de virtualisation adéquat. Quelles sont les limites actuelles de la virtualisation ? La virtualisation est-elle la solution magique qui permettra aux DSI de retrouver/redonner la cohérence de systèmes d'information toujours plus complexes ? Evidemment, la réponse doit être nuancée par les limites actuelles de la virtualisation : le problème de la déduplication et l'absence de standard. Si la virtualisation permet une plus grande souplesse dans la gestion des espaces de stockage et des applications de traitement, elle ne doit pas être confondue avec une réduction de la complexité du patrimoine applicatif de l'entreprise (SI spaghetti, hétérogénéité des technologies, redondances des référentiels). Elle peut même s'avérer un handicap supplémentaire si sa mise en oeuvre n'est pas accompagnée par des projets de supervision et de sauvegarde adaptés. En effet, la diminution des équipements entraine une augmentation de leur criticité en cas de panne. La politique de sauvegarde doit alors prendre en compte l'accroissement des volumes hébergés par machine et l'impact, à la hausse, de leur indisponibilité. Dans le cas contraire, une panne matérielle peut rapidement devenir critique et la procédure de restauration plus coûteuse pour l'ensemble des applications virtualisées que pour un serveur « mono-applicatif » identifié. Il faut ajouter à ce constat, le risque d'opacité pour les administrateurs systèmes et applicatifs. La concentration des applications sur une même machine ne permet pas de faire l'économie de consoles de management. A ce titre, on soulignera que malgré les initiatives du Distributed Management Task Force (DTMF) qui en octobre 2008 réunissait Microsoft, Vmware et Citrix autour d'une table, il n'existe toujours pas à ce jour de standard pour la technologie de virtualisation qui permettrait l'émergence de console de management «universelle ». Pendant que les éditeurs chantent les avantages spécifiques de leurs solutions respectives, les entreprises qui cèdent à leurs appels encourent le risque de voir se multiplier les solutions de virtualisation dans leur SI et ajouter un niveau supplémentaire de complexité. La virtualisation peut être un outil puissant pour la réduction des coûts d'infrastructure et la simplification des processus de gestion des applications. Pour être efficace, elle doit être accompagnée d'un politique de sauvegarde et d'outils de management. Elle doit également s'inscrire dans une réflexion sur l'architecture du Système d'Information, ce qui passe par une consolidation et la recherche de standards technologiques pour l'entreprise.
Article rédigé par
William Porret, Directeur associé et co-créateur d'Enora Consulting
Tout au long de son parcours professionnel, William Porret s'est spécialisé dans l'organisation de projets, tout d'abord chez Delphi Automotive Systems et Danone France avant de rejoindre les cabinets de conseil R&B Partners, Victoria Consulting et Brainsoft. Il intervient aujourd'hui dans la direction des projets, de la sensibilisation en interne à l'assistance à la mise en place d'une solution en passant par l'accompagnement et la coordination. Avec dix années d'expérience, William Porret aime particulièrement relever les défis les plus audacieux.
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire