Blog

Green Datacenter

L’exploitation intensive des ressources carbonées a considérablement augmenté l’effet de serre ces 50 dernières années, engendrant  ainsi un déséquilibre  climatique global. C’est dans ce contexte que la notion de l’informatique éco­responsable (ou Green IT en anglais) a émergé. La peignerie des sources primaires d’énergie non renouvelables s’est matérialisée lors de l’explosion du prix du pétrole en 1991 puis en 2008 et 2011. L’augmentation continue du coût de l’électricité – générée à plus de 60 % dans le monde à partir de sources primaires carbonées -  est progressivement devenue un sujet sensible.

Le système d’information représente le nouveau système nerveux des entreprises. Au centre du système d’information, le Datacenter concentre les données et les traitements informatiques critiques. Cette tendance est renforcée depuis le début du 21ème siècle par l’émergence des architectures applicatives web. Ne considérant que les besoins en espace de stockage et en puissance de calcul qui ne cessent de croître, la consommation électrique des Datacenters a plus que doublé dans le monde rien qu’entre 2000 et 2005.

En effet, pour éviter de construire de nouveaux Datacenters, les entreprises ont eu recours à la densification de leur puissance informatique. Cette densification s’est traduite par une augmentation très importante de la consommation électrique des Datacenters qui est passée de 300 watts/m² au début des années 2000 à plus de 1 500 watts/m² aujourd’hui. Des problèmes techniques en tout genre font surface : surchauffe et problèmes de dissipation de la chaleur, manque d’espace pour ajouter de nouveaux éléments, tension sur l’approvisionnement en électricité,... si bien que l’essentiel de la consommation électrique des salles existantes est perdue en raison d’une conception inadaptée aux besoins actuels.

Concevoir de nouveaux Datacenters plus sobres est la solution qui a été adopté afin de palier à l’émergence des contraintes techniques, économiques et environnementales liées à la consommation d’énergie des Datacenters, quand l’amélioration de l’efficience énergétique de leurs installations existantes s’avère plus couteuse et fastidieuse.

Le Datacenter idéal se doit d’être plus efficient, c’est­à­dire faire plus en consommant moins.

 

Devenir Green Datacenter, quelles actions pour le DCM

Afin de mieux cerner le sujet de l’efficacité et la réduction de l’empreinte de carbone du Datacenter, plusieurs aspects sont à aborder :

§  Mesures, indicateurs et bonnes pratiques

La première étape incontournable pour réduire l’empreinte écologique d’un Datacenter est de choisir des métriques techniques, économiques et d’environnement pertinents. La seconde étape consiste à s’imprégner des bonnes pratiques à tous les niveaux du Datacenter : infrastructure informatique, infrastructure de l’environnement physique, du bâtiment et l’exploitation.

Parmi les indicateurs les plus répondus :

-          PUE Power Usage Effectiveness : le PUE compare la consommation électrique des équipements IT avec la facture électrique totale du Datacenter. L’optimum tend vers 1. Plus le niveau de disponibilité du Datacenter est élevé et plus le PUE augmente, du fait de la redondance des équipements et des circuits électriques et de refroidissement. La mesure précise du PUE est indispensable pour cibler les contributeurs majeurs et mener les actions nécessaires à l’amélioration de l’efficacité énergétique du Datacenter, quel que soit son niveau de disponibilité. Outre la comparaison des Datacenters entre eux, cet indicateur aide à déterminer si des améliorations d’efficacité énergétique sont nécessaires.

-          CUE Carbon Usage Effectiveness : qui rapporte les émissions de CO2 du Datacenter à sa consommation électrique. L’optimum est atteint quand l’indicateur est le plus faible possible, c’est­à­dire présentant le moins d’émissions de gaz à effet de serre possible. Le CUE ne prend pas en compte l’énergie grise. Il se concentre uniquement sur l’énergie dépensée lors de l’utilisation du Datacenter. À l’instar du CUE, le WUE (Water Usage Effectiveness) mesure l’efficience du Datacenter en matière de consommation d’eau.

-          ERE (Energy Reuse Effectiveness) donne une idée du niveau de réutilisation de la chaleur produite par le Datacenter. Il compare l’énergie totale consommée par le Datacenter à la dissipation thermique réutilisée pour chauffer d’autres locaux ou produire de l’électricité. L’optimum tend vers 1. En corollaire, on définit l’ERF (Energy Reuse Factor) comme le rapport entre l’énergie réutilisée et l’énergie totale.

 

§  Choisir des matériels éco-responsables

Une démarche d’achat éco­responsable garantit l’efficience énergétique de l’équipement, évite l’utilisation de matières dangereuses ou nuisibles à l’environnement que ce soit au niveau de la construction du matériel ou de son emballage, maximisant ainsi les capacités de recyclage des équipements, et augmentant la durée de vie des équipements, et limitant les émissions nocives liées à l’utilisation des équipements. Pour faciliter la sélection des équipements, de nombreux éco­labels existent : Energy Star, 80Plus et EPEAT en sont des exemples.

§  Piloter le fonctionnement électrique

Plusieurs solutions sont aujourd’hui mises en œuvre pour optimiser l’utilisation et le rendement des matériels installés dans les Datacenter et adapter le rendement de ces équipements aux besoins des métiers. Lorsque des serveurs sont peu ou sous utilisés pendant certaines périodes, il peut s’avérer intéressant de mettre en place une solution de Power Management permettant d’arrêter et mettre hors tension le serveur et le redémarrer automatiquement selon des critères basés sur  la demande et utilisation des ressources ou d’autres évènements spécifiques.

 

§  Optimiser la couche logicielle : consolidation et virtualisation

Des recherches montrent qu’en consolidant les infrastructures informatiques physiques, les entreprises peuvent réduire de 50 à 70% leurs factures énergétiques. Cependant, ceci suppose souvent un remplacement des serveurs existants par des équipements plus puissants. La consolidation des serveurs physiques permet :

-          D’augmenter la capacité physique du Datacenter en libérant de l’espace par la densification des bais serveurs,

-          Dajuster linfrastructure en temps réel en déplaçant des applications en fonction des risques d’infrastructure,

-          Daugmenter le taux dutilisation des serveurs dont la charge moyenne avant consolidation est inférieure à 10% pour les serveurs Intel et de l’ordre de 10 à 20% pour les serveurs Unix,

-          La gestion des points chauds et variation dynamiques de charges.

Avec des taux de virtualisation de l’ordre de 1:10 à 1:15, il est possible de réduire de façon drastique la consommation énergétique d’un Datacenter. Cependant il faut impérativement veiller à la gestion de l’urbanisation de la salle puisque la mise en place de ces systèmes implique souvent une réorganisation de l’espace. La consolidation impose également de mettre en place des zones selon la densité énergétique des baies avec un refroidissement associé adapté. Ce zonage réduit les coûts, renforce la sécurité, accroît la flexibilité et augmente l’efficacité énergétique.

 

La virtualisation peut se faire à deux niveaux :

-          Virtualisation de stockage,

-          Virtualisation de serveurs.

§  Réduire la consommation électrique liée au refroidissement

Quelques bonnes pratiques permettent de réduire les besoins en refroidissement :

-          Mettre en place des allées chaudes et froides,

-          Créer des allées homogènes en alignant les racks et uniformisant leur positionnement,

-          Isoler les allées chaudes et les allées froides à laide de matériels adéquat positionnés dans les emplacements vides des racks et ajouter des panneaux ou rideaux souples afin de créer un confinement  d’air froid et le séparer de l’air chaud,

-          Amener le froid au plus près des points chauds. De nouvelles baies réfrigérées permettent d’optimiser l’efficacité du refroidissement et de supprimer les points chauds dans le Datacenter.

-          Augmenter sensiblement la température de la salle sans qu’elle dépasse les limites autorisées

 

 

 

§  Free-cooling

Cette technique consiste à utiliser l’air extérieur pour refroidir directement la salle. Elle suppose que la température de l’air extérieur est inférieure à la température interne et que les conditions d’humidité (hygrométrie) externes sont compatibles avec celles que l’on souhaite maintenir en interne. Le free­cooling peut réduire significativement la consommation totale du conditionnement d’air. Son potentiel dépend cependant de nombreux paramètres : températures et hygrométrie externe, débit d’air, puissance des équipements, et dans une moindre mesure des caractéristiques des salles et du bâtiment, sauf si la puissance des équipements est relativement faible.

§  Varier les plages climatiques

 

Les premières propositions du groupe EE de l’ETSI sont de calquer les plages climatiques des équipements IT sur celles relatives aux équipements télécoms. Une expérimentation, réalisée afin d’analyser les effets de l’élargissement des plages climatiques, a montré un gain sensible – jusqu’à 20% d’économie pour 2°C et 20 % d’humidité relative – sans affecter le bon fonctionnement des équipements. Pour pouvoir jouer sur ces paramètres, les équipements doivent être regroupés dans des salles dédiées par gamme climatique acceptable. Les tests peuvent être réalisés en regroupant d’abord les équipements les plus robustes et en laissant dériver les conditions climatiques. 

©2019 UPVALIS. All Rights Reserved.

Please publish modules in offcanvas position.