MENU
THEMES

PARTAGER CETTE PAGE SUR LES réseaux sociaux:

Consommation électrique des data centers

Publié le: 01/08/2008  |  Par: Guideinformatique  

2 chiffres nous interpellent :
- dans un data center, les serveurs coûtent désormais moins cher que la salle qui les abrite,
- dans les pays développés, la consommation énergétique des data centers dépasse largement 1% de la consommation globale.
Or, la tendance n'est pas franchement à la baisse du coût de l'énergie.
Petit tour d'horizon.

Vers la haute densité

La demande de puissance de calcul augmente en permanence. C'est dû aussi bien aux nouveaux besoins (TelCo, généralisation de la BI, accès Internet...), qu'à la croissance des systèmes existants (plus de données, plus de calculs en temps réel...). Jusqu'alors, l'accroissement de la puissance a été obtenu moyennant un accroissement parallèle des dépenses énergétiques.
Dans le même temps, le prix de plus en plus élevé des m2 et le besoin de rassembler les ressources dans des infrastructures de plus en plus sécurisées ont conduit à augmenter, non pas les surfaces occupées par les machines, mais leur densité.
La densité et la puissance des machines se sont tellement accrues qu'il est désormais presque impossible de remplir des baies en totalité tant il est difficile de les alimenter en énergie et de les refroidir efficacement.

Le prix de l'énergie

L'augmentation des tarifs de l'énergie rend de plus en plus prégnante la nécessité de limiter, voire de réduire la dépense en électricité. D'autant que l'envolée des consommations s'accompagne de l'augmentation du budget infrastructure (sécurité électrique et climatisation).
Le coût des serveurs est désormais inférieur à celui de l'infrastructure qui les héberge. Et le différentiel ne fera que croître d'après l'étude IDC/APC.  

HP fait la même constatation dans son étude, avec un coût de l'énergie qui grimpe et un coût d'infrastructure qui s'envole. 

De fait, la priorité budgétaire hardware ne porte plus sur les serveurs, mais sur leur environnement. Or le coût de cet environnement découle des consommations en énergie qui atteignent désormais des sommets.

Consommation électrique d'un data center

Prenons un data center moyen de 300 m2 comprenant 80 baies et 2000 serveurs d'une puissance totale d'1MW.
En 10 ans, il aura englouti :

  • 66 T de cuivre,
  • 15 T de plastique,
  • 33 T d'aluminium,
  • 152 T d'acier

...mais surtout :

  • 227 millions de litres d'eau
  • 177 millions de kWh.
Un problème de sécurité de la production

Désormais les serveurs sont fiables, maintenables à chaud, sauvegardés, redondés... De même, les logiciels doivent se conformer à des bonnes pratiques de qualité de développement (comme CMMI) et des bonnes pratiques de mise en oeuvre (ITIL). En dehors du facteur humain, les anomalies dans la fourniture d'énergie deviennent les principales causes de pannes ou d'interruption de la production IT. 

L'infrastructure du data center doit faire face à 3 impératifs :

  • fournir une énergie électrique de qualité en quantité,
  • supporter les brusques pics de charge,
  • disposer de moyens de secours suffisant pour pallier l'arrêt d'un des mastodontes des chaînes d'alimentation ou de refroidissement.

Dans plusieurs arrêts de production emblématiques on a pu mettre nettement en évidence la responsabilité du système d'alimentation. Limiter la consommation en énergie est donc aussi l'un des paramètres de la sécurité des systèmes d'information.

Qui consomme quoi ?

C'est désormais moins de la moitié de la dépense énergétique qui est disponible pour les données (calcul, stockage, transmission). 30 % dans l'étude d'APC, guère plus dans les autres estimations basées sur des infrastructures plus optimisées ou moins gourmandes. 

Suivant un vieux principe de physique, la quantité énorme d'énergie engloutie (y compris dans les serveurs) sera transformée en chaleur qu'il faudra évacuer. Seule l'énergie absorbée par les échangeurs externes n'a pas besoin d'être évacuée du bâtiment (33%).

Comment économiser ?

On s'est beaucoup focalisé sur la performance et le prix des serveurs, le type de processeurs, la taille de la mémoire, la nature des disques... Il est temps d'avoir les mêmes exigences avec l'infrastructure.
Chaque maillon de la chaîne peut être remplacé par des solutions plus performantes :

  • contrairement à un onduleur individuel qui n'intervient qu'en cas de défaillance électrique, les UPS sont traversés par la totalité du courant qu'ils sécurisent.
    Les nouveaux onduleurs permettent une réduction de 70 % des pertes de rendement par rapport aux anciens modèles. Egalement, la diminution de la chaleur dégagée diminue leur besoin en refroidissement,
  • les CRACmodernes savent adapter leur fonctionnement à la charge de la salle (inutile de fabriquer beaucoup de froid quand la salle ne le réclame pas),
  • les systèmes de refroidissement modulaires placés entre les baies et non plus aux extrémités de la salle, permettent une adaptation de la puissance réfrigérante et diminuent les pertes dans la salle (voir la fiche "Refroidissement haute performance").

Des économies potentielles se cachent à toutes les étapes de la décision et sur tous les types de système.
De fait les différents acteurs proposent maintenant prestations et matériels de plus en plus intégrés. 

Vers une approche globale

La concentration et les rachats ne concernent pas seulement les grands éditeurs d'application. Désormais le monde de l'infrastructure est dominé par des groupes qui ont eu à coeur de pouvoir proposer une offre de bout en bout, du conseil à la fourniture de tous les systèmes nécessaires à l'hébergement.
Ces nouvelles offres présentent un grand nombre de facettes combinables pour aboutir à un data center fiable et économique :

  • le conseil et l'ingénierie dans la conception des salles,
  • un choix de serveurs et d'équipements réseau moins gourmands,
  • des racks intelligents, climatisables de façon modulaire et alimentés de manière performante et auditable,
  • des équipements d'alimentation et de climatisation optimisés,
  • des systèmes de contrôle des paramètres de salle évolués.

Dans cette étude, nous avons survolé 2 offres importantes :

  • APC-MGE avec InfraStruXure,
  • HP avec Dynamic Smart Cooling
Architecture et urbanisme

En plein hiver, les échangeurs des data centers balancent dans le ciel suffisamment de calories pour chauffer plusieurs immeubles. Architectes et ingénieurs réfléchissent à des solutions plus rationnelles :

  • d'abord, on peut mieux utiliser l'air extérieur lorsqu'il faut froid dehors (pourquoi fabriquer de l'air froid quand on en a autant à disposition gratuitement ?). C'est le free-cooling,
  • ensuite, on peut réutiliser les calories produites, soit dans la production d'énergie (via une mini centrale), soit pour chauffer des habitations.
La boucle de la dépense en énergie

Lorsqu'on aura le sentiment d'avoir correctement optimisé les différents systèmes d'alimentation et de refroidissement, il faudra à nouveau se tourner vers les applications et les serveurs :

  • 1. les chaînes applicatives sont-elles suffisamment optimisées ? Ne calculent-elles pas parfois dans le vide ?
  • 2. n'oublions pas la virtualisation, dont l'un des intérêts est d'optimiser la puissance machine. La machine Wintel classique ne passe-t-elle pas une bonne partie de son temps à dormir ?
  • 3. voilà plusieurs années que les fabricants de semi-conducteurs nous promettent une puissance au watt accrue (autrement dit plus de calcul sans augmentation de la consommation).
    Il est temps de choisir des serveurs dont les processeurs, les mémoires, les disques, les alimentations sont plus économes en énergie. Quelques dizaines de watts économisés pour chacun des 2000 serveurs d'un data center, le tout multiplié par le ratio de consommation de l'infrastructure (au moins un facteur 2, répétons-le), le montant de l'économie annuelle sur la facture d'électricité mérite la réflexion.

 
Document réalisé avec l'aide de Baptiste Le Hetet Chef Produit serveur chez HP et Luis Lopes, Consultant Datacenter chez APC.

Réagir à cet article