Technologies

L'énergie, un enjeu économique et écologique pour les datacenters

L'énergie, un enjeu économique et écologique pour les datacenters
Le cloud computing, ce « gaspilleur économe » des ressources énergétiques.
Retrouvez cet article dans le CIO FOCUS n°107 !
COP 21 : enjeux économiques et écologiques de la consommation énergétique

COP 21 : enjeux économiques et écologiques de la consommation énergétique

L'énergie consommée par les datacenters est un sujet récurrent du Green-IT. Avec le COP 21, le sujet revient à la mode. Et il ne s'agit pas seulement de sauver la planète. A l'heure des restrictions budgétaires, économiser l'énergie (ou mieux la valoriser) est un enjeu majeur. Economiser sur le...

Découvrir

Aucun des tweets, « likes » ou simples clics n'existeraient sans que de l'énergie ne soit gaspillée. Après une large prise de conscience ces dernières années, les mastodontes de l'industrie des datacenters ont fait de nombreux efforts pour réduire leur empreinte carbone. Pour la communication, certes, mais aussi pour la facture énergétique du client.

PublicitéLe web, aussi « brumeux » soit-il, n'est pas indolore pour l'environnement. Les chiffres sont impressionnants. La note de l'empreinte annuelle, en 2015, par internaute s'élève à 346 kWh d'énergie consommée (essentiellement de l'électricité), soit la consommation électrique de 10 haïtiens en un an, selon le site spécialisé greenit.fr. C'est aussi 203 kg de gaz à effet de serre (émissions annuelles d'un afghan), 2924 litres d'eau par internaute à l'année ou 8,7 milliards de mètres cubes d'eau à l'échelle mondiale (3 milliards d'internautes) soit la consommation annuelle de 160 millions de français. Vous en voulez encore ? L'empreinte annuelle au niveau mondial consommerait 1037 Twh d'énergie, soit la production de 40 centrales nucléaires.

En plus des infrastructures pharaoniques nécessaires au stockage de cette déferlante de données, celles qui les traitent prolifèrent. Ce monde de données massives ne serait d'aucune utilité si l'on ne pouvait pas en extraire de la valeur. Là encore, les chiffres affolent : 156 milliards de dollars ont été générées par l'exploitation des données personnelles dans le monde en 2012, selon l'institut américain Data Driven Marketing. Un chiffre qui, d'après le cabinet de conseil McKinsey, serait porté à 600 milliards de dollars par an si les entreprises exploitaient toutes les données dont elles disposent.

La bibliothèque de Babel existe

En 2013 déjà, James Gleick, auteur d'un blog sur le site de la New York Review of books, faisait une analogie entre Twitter et le rêve des compagnies de télégraphe des années 1850. « Les compagnies de télégraphe anglaises et américaines ont dû vite abandonner l'idée, qu'elles pourraient (et devraient) archiver chaque message qui passait par leurs câbles. Des millions de télégrammes à l'abri du feu dans des coffres forts ».
« Ne pourrait-on, au 21e siècle, tirer profit de la correspondance conservée de tout un peuple ? » se demandait pour sa part Andrew Wynter, médecin et vulgarisateur scientifique célèbre, en 1854.
Ce qui fut autrefois un rêve de savant fou est devenu réalité. Le corpus de Twitter, cette bibliothèque de Babel, est aujourd'hui, l'un des exemples, illustrant la capacité phénoménale des machines dont nous disposons. Elles dépassent l'entendement de nos aïeux : chacun des 300 milliards de tweets qui ont été envoyés depuis le 21 mars 2006, jour où @jack a lancé le célèbre « just setting up my twttr » sont sauvegardés, analysés et classés. « Bien sûr, la chance que même le meilleur tweet soit lu un jour par des yeux humains est proche de zéro », commente le journaliste Xavier de la Porte.

Le refroidissement, premier des défis

Publicité Dur de garder la tête froide avec tout ça. Et c'est pourtant tout le défi : « en multipliant leur puissance de stockage et de calcul, les machines dégagent de plus en plus de chaleur. Le refroidissement des salles est devenu l'enjeu principal », commente Mokrane Lamari, responsable avant-vente d'Equinix.

Pour assurer une gestion du froid optimal, 5000 capteurs ont ainsi été installés dans le datacenter de l'hébergeur américain à Pantin. « Le comportement des serveurs est analysé par une équipe composée de 4 personnes toute la journée, c'est la majeure partie de leur travail ».
Le cycle du froid est maintenu grâce à l'aménagement confiné des baies. « Le froid sort d'un faux plancher d'un mètre à 16° pour alimenter la face des baies. Ensuite, la chaleur est dégagée de l'autre côté et ressort à 25° ». Mokrane Lamari explique que, si, ce système a beau paraître évident aujourd'hui, il n'a pourtant pas toujours été d'usage.

Les fabricants s'attellent à proposer des machines supportant de mieux en mieux la chaleur. Mokrane Lamari, ne serait d'ailleurs pas étonné de voir des serveurs capables de supporter des températures élevées faire leur apparition d'ici peu.
En attendant, le principe du « freecooling » permet de réduire la facture énergétique de 25% à 35% selon les années. Son principe est bien connu des DSI : refroidir un bâtiment en utilisant la différence de température entre l'air extérieur et l'air intérieur.
« A Paris, nous avons au moins la chance de passer sous la barre des 15° durant 5 mois de l'année ». Cette technique a toutefois ses limites : si l'air extérieur est trop chaud, ce sont des climatiseurs qui doivent tourner à plein régime pour maintenir la fraîcheur du site de 16 000 m2 qui abrite 150 000 serveurs.

La solution du stockage par logiciel

Des acteurs comme Scality ou HGST, division de Western Digital, se sont fait un nom sur le marché du stockage en mode objet. Cette méthode de stockage induit l'absence d'arborescence et donc de répertoire. La récupération d'un fichier - ou d'un « objet » - se fait grâce à l'utilisation des métadonnées associées.
Nicolas Frapard directeur des ventes EMEA chez HGST explique, en outre, que ce traitement fragmente les données et les distribue sur plusieurs sites. Cela permet de réduire de deux fois la consommation énergétique.
Au delà de cette première méthode, HGST cherche à réduire le coût énergétique par terabit de 44% de ses disques Helion. Comment ? En remplaçant l'air par de l'hélium à l'intérieur de ses équipements. « L'hélium a la particularité d'être sept fois moins lourd que l'air, de ce fait le disque a besoin de beaucoup moins d'énergie pour faire ses 7200 tours par minute. Mais on a aussi plus d'espace pour fournir plus de plateaux puisqu'il y a moins de frictions. Le tout se maintient à une température inférieure à 5°, les besoins en refroidissement sont donc bien moindres et permettent de fournir, à terme, des équipements moins énergivores [NDLR : passant de 7 W à 5 W par disque] », assure Nicolas Frapard.

Le sésame, c'est le logiciel

« Il y a tellement de couches entre la virtualisation et les frameworks que les développeurs ne connaissent plus leurs machines et ne cherchent pas à optimiser le code », dénonçait Édouard Ly, directeur marketing et communication chez Oxalide, lors d'une réunion du CPI-B2B (Club de la presse informatique B2B) le 21 octobre 2015 à Paris. « Seulement 35% des ressources du datacenter sont réellement utilisées à un instant T », lançait Pascal Lecoq, directeur des services Datacenter chez HP France, lors de cette même réunion. Ce chiffre accablant est un camouflet pour la virtualisation.
Par conséquent, au lieu d'ajouter un serveur dès que le besoin s'en fait sentir, Oxalide cherche plutôt à optimiser l'efficience du parc disponible par le logiciel. Une logique économique qui revient à exploiter moins de puissance pour fournir un service équivalent.
Tout l'inverse de ce qui est souvent appliqué, notamment pour réduire le PUE (Power Usage Effectiveness).

La bagarre des normes

Cet indicateur d'efficacité énergétique compare l'énergie totale consommée avec celle utilisée réellement par les matériels informatiques et celle d'autres éléments, comme les systèmes de refroidissement et l'éclairage, notamment. Ce calcul produit un ratio : plus il est proche de 1, plus le datacenter sera considéré comme « éco-responsable ». Ce chiffre est devenu le baromètre de l'industrie, suite à un accord promu en 2010 par GreenGrid (le consortium à son origine) et signé par les États-Unis, le Japon et l'Union Européenne. Mais il est souvent décrié, puisqu'il permet d'afficher des notes flatteuses en simulant la pleine charge. Soyons clairs : si le datacenter consomme trop d'énergie par rapport à la puissance de stockage et de calcul dont il dispose, il n'a qu'à augmenter cette dernière pour être « efficient » et ainsi gonfler sa note.
Pour y remédier, le CRIP (Club des Responsables d'Infrastructure et de Production) et la CTO Alliance ont travaillé, l'an dernier, sur sur un indicateur du nom de DCEM (Data Centre Energy Management), comme le soulignait nos confrères du Monde Informatique. Avec l'ambition claire de suppléer son homologue américain, l'indicateur DCEM intègre des éléments supplémentaires au PUE, comme l'efficacité de traitement ou la réutilisation de l'énergie. L'idée est d'encourager les plus anciens qui font des efforts pour améliorer leur bilan énergétique, et non de les raser pour repartir de zéro. Ce qui arrangerait certains fabricants.

D'une manière générale, il y a peu ou pas de textes qui encadrent les datacenters. Si ce n'est le « Code de Conduite européen » qui vise à réduire de 20% les émissions de CO2 d'ici 2020. Ce code est un programme d'envergure mondiale reposant sur les contributions de fournisseurs, d'experts industriels, de chercheurs et d'opérateurs, rapporte le site ecoinfo du CNRS. Dans les faits, les opérateurs sont simplement invités à suivre les recommandations des best practices, comme preuve de leur engagement. Elles sont inspirées des standards définis par l'ASHRAE (American Society of Heating, Refrigerating and Air-Conditioning Engineers).

Aide-toi, le cloud t'aidera

Mot valise et répété jusqu'à épuisement, le Green IT parvient encore à nous surprendre par des innovations qu'il frappe de son sceau. Par exemple : de l'électricité consommée pour refroidir les datacenters et pour chauffer des logements, d'une pierre deux coups. C'est l'idée de Paul Benoit, fondateur de Qarnot Computing dont la technologie a été présentée dans le dossier Le cloud computing n'a pas fini de vous surprendre ! de CIO.Focus 68. En d'autres termes, la start-up parisienne a imaginé délocaliser les serveurs pour les dissimuler dans un radiateur high-tech, appelé le Q.Rad, dont la prochaine version sera présentée lors de la prochaine édition du CES à Las Vegas. « Il emportera l'idée de la maison intelligente, en fournissant des informations sur la qualité de l'air présent autour de lui », raconte avec enthousiasme son créateur. Mais ce qui le réjouit le plus, c'est la capacité de « réduire de 75% l'empreinte carbone en faisant circuler la data plutôt que l'énergie ». Toute la force de son concept, c'est la mutualisation. Pour l'instant, la start-up a distribué gratuitement 350 radiateurs-datacenter.
Sur le plan plus technique, Paul Benoît explique que les données traitées ne font que passer, elles circulent sur le réseau et sont chiffrées de bout en bout. Le concept aurait déjà séduit des clients de taille comme la BNP Paribas, qui lui sous-traite le calcul des analyses de risque. Dans la même idée, la start-up Defab fait tomber l'eau chaude du cloud. En d'autres termes, elle convertit la chaleur générée par les serveurs en eau chaude. Cette dernière est fournie aux collectivités locales, grâce à des ballons d'eau chaude thermodynamiques.

Un maillage de mini-datacenters

Cette transformation est rendue possible grâce à dispositif gagnant-gagnant. Les clients louent de la puissance de calcul à Defab, qui hébergent ses machines dans les établissements des collectivités qui ont besoin d'être chauffés. Ainsi, la piscine municipale devient un datacenter. A moindre échelle, bien sur, mais dégageant assez de chaleur pour la transformer.
L'initiative a déjà sédui la mairie de Paris qui l'utilise pour un établissement scolaire. Benjamin Laplane, co-créateur de Defab explique que le bâtiment bénéficie ainsi d'eau chaude gratuite : « les économies réalisées remboursent la facture d'électricité liée au système ». Enfin, plus le maillage sera important et répartie un peu partout sur le territoire, plus les services seront sécurisés. « Les données ne font que transiter sur ces serveurs et circulent sur tout le réseau dont nous disposons. Elles sont ensuite stockées sur les serveurs d'Outscale avec qui nous travaillons », précise Benjamin Laplane.

En pleine révolution industrielle

Dans le documentaire qu'elle a coécrit « Internet, la pollution cachée », la journaliste Coline Tison s'est notamment intéressée au discours de l'économiste Jérémy Rifkin, auteur de l'essai intitulé « The Third Industrial Revolution : how lateral power is transforming Energy, the Economy, and the World ». Pour l'américain, notre modèle actuel arrive à bout de souffle et attend sa troisième révolution industrielle. Elle déboucherait sur une société où chaque foyer disposerait d'un datacenter chez lui, gérant cette masse de données toujours exponentielle, pour assurer une production plus intelligente et décentralisée. « J'ai eu la chance de le rencontrer pour notre documentaire, il est galvanisant et inspire déjà des communes françaises comme celle de Montdidier en Picardie », explique Coline Tison.
A l'image des deux premières révolutions industrielles, avec la machine à vapeur et l'imprimerie, au XIXe siècle puis l'électricité et le moteur à combustion au XXe siècle, la troisième révolution industrielle doit émerger naturellement de la « jonction de la communication par Internet et des énergies renouvelables », explique Jérémy Rifkin. Un monde où l'énergie sera mutualisée donc, comme l'information.

Si sa vision résonne avec la remise en question du système économique actuel, une autre théorie dresse un tableau différent de l'avenir. On l'appelle la théorie de l'effet rebond ou du paradoxe de Jevons, tirant son nom de l'économiste anglais éponyme. Pour faire simple, elle revient à dire que l'optimisation de l'énergie nous fait consommer plus. Le progrès technique induit un changement de comportement qui crée de nouveaux besoins et favorise la concentration des ressources. Et c'est ce vers quoi nous semblons plutôt tendre. Après tout, la terre déteste le vide alors pourquoi pas le cloud ?

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis