Centre de données : le vert par le virtuel
Changer de matériel pour réduire la consommation ne suffit pas, la virtualisation devrait s'imposer.
PublicitéDe tous les équipements placés sous l'autorité du directeur des systèmes d'information, le centre de données est l'un des plus gourmands en énergie. En général, l'efficacité de ces serveurs ne dépasse guère 15%. Et pour chaque watt utilisé par un serveur, un watt va à la climatisation et un autre à l'éclairage, au transformateur électrique et aux composants du réseau. Multipliez par mille serveurs - ce qui de nos jours ne fait même pas un grand centre de données - et la consommation électrique approche 2,5 mégawatts ! Le problème n'est pas seulement d'ordre écologique. En 2008, les capacités en alimentation électrique et en climatisation de 50% des centres de données actuels seront insuffisantes (Source : Gartner). Dès 2009, pour 70% d'entre eux, les coûts énergétiques seront le deuxième poste de dépenses derrière la main-d'oeuvre. Déjà, ces coûts peuvent tourner autour de 10 millions d'euros par an pour un centre de données moyen, dont 65% pour la climatisation et les alimentations sans interruption (UPS), 17,5% pour les serveurs, 8,75% pour le stockage ; et autant pour de nombreux périphériques sous-utilisés. Vertueuse virtualisation Pour réduire la consommation d'électricité et les émissions de carbone des centres de données, les entreprises peuvent adopter une démarche tactique en choisissant des équipements (serveurs, stockage, climatiseur, etc.) plus performants. C'est bien, mais ce n'est pas assez. Il existe un moyen plus efficace : adopter une démarche architecturale en considérant la totalité des ressources et en les virtualisant. Ce mode de fonctionnement permet d'utiliser au mieux les ressources et ainsi de réduire le nombre des appareils en réseau. Au niveau des serveurs, la virtualisation permet de faire tourner des applications et systèmes d'exploitation multiples sur des machines précédemment utilisées pour des applications uniques. Les entreprises libèrent ainsi des capacités sous-employées. La réduction du nombre de serveurs peut atteindre 75%, avec un gain correspondant d'espace, d'énergie et de climatisation. La virtualisation aide aussi à réduire le nombre d'équipements associés à chaque serveur (pare-feu, répartiteurs de charge, détecteurs d'intrusion, etc.) en leur substituant des équipements virtuels configurés sur des modules de service, eux-mêmes embarqués dans les commutateurs du réseau. Enfin, la virtualisation peut améliorer l'utilisation des réseaux locaux de stockage (SAN). Ceux-ci étaient naguère attachés à des groupes d'applications distincts, et à chaque SAN correspondaient plusieurs serveurs. Il pouvait arriver qu'un SAN soit totalement chargé tandis qu'un autre se trouvait sous-utilisé. Virtualisation des réseaux de stockage Des commutateurs et un routage inter-SAN virtuels permettent désormais de mettre en commun les SAN moyennant un travail de configuration logicielle. L'utilisation des disques est ainsi accrue d'environ 70% à 80%. Le nombre de disques nécessaires baisse en proportion, comme les besoins d'espace, d'électricité et de climatisation. L'architecture gagne en souplesse, si bien qu'un système virtualisé peut remplacer un grand nombre de commutateurs SAN de première génération. Les disques sont alors mieux utilisés et la consommation électrique baisse. Elle peut même se trouver divisée par trois. Avec des innovations comme le WAAS (Wide Area Application Services), la virtualisation peut s'étendre aux sites distants en consolidant leurs équipements sous-utilisés dans un centre de données virtualisé super-efficace. Grâce à cette démarche architecturale les économies sont telles que le délai habituel de retour sur investissement ne dépasse pas six mois environ. On constate également une augmentation de l'efficacité des serveurs d'environ 15% à 70%, jusqu'à 85% de réduction des besoins en énergie des appareils en réseau, et une meilleure utilisation des ressources de stockage, jusqu'à 70% environ, au lieu de 30% habituellement. Une fois le centre de données virtualisé et sous contrôle, l'entreprise peut continuer l'optimisation de ses ressources à travers l'automatisation. Un orchestrateur provisionne à la demande les serveurs et les ressources nécessaires à leur mise en ligne (unité de disque, ressources réseau, pare-feu, équilibreur de charge,...). La consommation électrique est alors directement liée à la charge applicative réelle et les ressources non utilisées sont automatiquement mises hors tension. Paru dans CIO n°36
Article rédigé par
Olivier Seznec, Directeur de la stratégie technologique, Cisco France
Présent chez Cisco Systems depuis 1998, l'expérience d'Olivier Seznec a accompagné le déploiement des technologies de l'information et des réseaux informatiques auprès des grandes entreprises et des opérateurs lors des quinze dernières années. Il est notamment intervenu sur des designs de réseaux multi protocoles, sur des infrastructures LAN et WAN et sur les stratégies d'évolution et de migration de ces réseaux, notamment sur le sujet du MPLS, de la Communication sur IP et de la convergence des applications sur les infrastructures multiservices. Il intervient actuellement sur les domaines en pleine mutation: évolution du bâtiment connecté, transformation de la santé, évolution des réseaux, etc.
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire