• #Consommation énergétique
  • #Datacenter
  • #diagnostic
  • #energie

Retour d’expérience : audit de Data Center, au-delà de la réduction des consommations

Aujourd’hui, les datacenters sont responsables de 1,5% de la consommation énergétique mondiale ainsi que de 2% des émissions carbone. Une réalité qui n’a de cesse de croître, le nombre de données stockées étant en pleine expansion. Toute entreprise qui possède un Data Center peut observer ce phénomène à son échelle. Les données s’accumulent, le stockage augmente et la facture électrique s’alourdie. Comment, alors, réduire ses consommations, tout en garantissant une bonne expérience client et la sécurité de ses données ?

Nous vous parlions dans un précédent retour d’expérience du diagnostic énergétique et environnemental de GreenFlex, appelé le Diag IT. Si le diagnostic et la mise en place de « bonnes pratiques » d’utilisation sur un parc bureautique ont un impact certain, l’audit et la mise en place d’actions correctives sur un Data Center sont sans nul doute plus qu’avantageux. Au-delà même de la réduction de la consommation énergétique, ce diagnostic fera respecter les termes du contrat à votre hébergeur et vous prémunira des surcharges d’équipements.

Vous avez dit audit de Data Center ?

L’audit de Data Center, ou le diagnostic de centre de données, consiste à évaluer théoriquement, puis sur le terrain, les capacités thermo-aérauliques d’une salle de serveur, afin d’en déceler les anomalies. Les préconisations avancées à sa suite peuvent permettre d’économiser jusqu’à 40% de la consommation énergétique.

 Energie Datacenter EcoGuide

Mais concrètement, en quoi cela consiste ?

Dans un premier temps, les données théoriques transmises par le client sont utilisées afin de modéliser le parc de serveurs. Ces données théoriques sont souvent issues d’un DCIM (Data Center Infrastructure Management). Elles sont exportées sous Excel, puis importées dans un logiciel de simulation dédiée aux Data Centers de type 6sigma. Ces mêmes données sont ensuite collectées sur le terrain, afin d’avoir une première comparaison. Les températures sont relevées à la sonde, les débits d’air sont mesurés au bolomètre et des caméras infrarouges sont utilisées pour la thermographie.

Suivi consommation Datacenter EcoGuide

De nombreux paramètres peuvent, en effet, influencer la consommation d’une salle de serveur. Ce sont donc sur ces éléments que vont porter les actions correctrices. Il peut s’agir entre autres de :

  • La répartition des armoires de serveurs, de leur rack ou absence de rack, de l’existence de cache ou non,
  • La répartition des armoires de climatisation,
  • La présence d’onduleur, de switch au sein des baies,
  • L’orientation des baies,
  • L’emplacement des dalles de soufflage,
  • La densité de câblage dans le faux plancher.

L’audit peut également porter sur la partie production de froid et utilisation de free-chilling (climatisation naturelle vecteur eau) de ces salles. Au-delà des problématiques techniques, l’analyse et les recommandations considèrent les contraintes réglementaires présentes et à venir comme la F-gas.

La collecte des données terrain permet, de ce fait, en plus d’établir un inventaire détaillé de la salle de stockage (emplacement de chacun des équipements, consommation propre etc.), de modéliser les différents effets de chaleur et d’air en vue d’observer leurs dysfonctionnements.

Une fois ces problématiques identifiées, des actions correctrices peuvent être modélisées afin d’envisager les évolutions avantageuses correspondant aux contraintes client.

Température datacenter EcoGuide

Un exemple ?

L’un des clients de GreenFlex du secteur de l’assurance souhaitait optimiser la consommation énergétique de son Data Center. Son parc était composé de 180 baies et de 900 serveurs. GreenFlex et ses équipes ont répondu présents.

Suite à la modélisation des données théoriques puis réelles, plusieurs éléments ont été observés :

  • L’absence de cloisonnement complet entre les allées occasionnait des surchauffes,
  • Le brassage d’air limité créait une stagnation de l’air froid,
  • Le gradient de température dans les baies était très élevé.

En résumé, 20% de la consommation énergétique de la salle était dédiée aux accessoires, or certains ne fonctionnaient pas correctement.

En effet, des zones de sous-refroidissement et à l’inverse des zones de surchauffe avaient été identifiées. Les zones de surchauffe étaient les plus problématiques. D’après les préconisations de l’ASHRAE, l’American Society of Heating, Refrigerating and Air Conditioning Engineers, les équipements devaient être maintenus dans des températures optimales allant de 18°C à 27°C. Au-delà de 35°C, un réel risque était pris. Chez ce client, les surchauffes avaient été analysées comme provenant du mélange de l’air des allées chaudes et froides en raison de l’absence de cache. L’air chaud se mélangeait à l’air froid avant que celui-ci ne traverse les baies, occasionnant leur surchauffe.

Au niveau du sous-refroidissement, l’absence de brassage dans certaines allées provoquait une stagnation de l’air froid qui ne remplissait pas alors son rôle de système de refroidissement des équipements. Une perte d’énergie donc également sur cet aspect.

Enfin, le gradient de température au sein d’une même baie avoisinait les 5°C. Un risque donc, là encore, concernant les équipements.

Face à ces problématiques, deux propositions d’amélioration ont été avancées :

  • Cantonnement des allées froides (vertical/plafond) et mise en place des caches au sein des baies afin d’éviter les surchauffes et variations de température
  • Remise en route des armoires de climatisation arrêtées afin de répartir l’air froid

Ces solutions relativement simples, pour ce qui est de la mise en place des caches et de la remise en marche des armoires de climatisation, permettaient au client de diminuer fortement ses surchauffes de serveurs. La mise en place, plus coûteuse, de cantonnement vertical des allées, les réduisait drastiquement.

Cette mission aura apporté au client une vision claire des consommations et problématiques de son parc de serveur. Il possède désormais les clés pour l’optimiser. Après avoir mis en place les actions correctrices recommandées, ce client a souhaité poursuivre avec GreenFlex afin de réaliser un audit de contrôle quelques mois plus tard.

Quand le réaliser ?

Un audit de Data Center peut être réalisé en tant que reporting, qu’il soit ponctuel ou récurrent. Il peut également être effectué en prévision ou en constat d’un renouvellement. En général, le diagnostic de salle serveurs est suivi d’un plan d’action.

L’audit de Data Center est une prestation relativement récente dans son principe, mais peu dans sa nature. De tout temps, des solutions d’optimisation des installations électriques complexes ont existé. Le Data Center étant l’une des nouvelles problématiques énergétiques de ce siècle, il était naturel que GreenFlex cherche à en diminuer les impacts.

L’Equipe EcoGuide