Consommation élevée, nécessité d’un approvisionnement sécurisé, impact sur l’environnement : la maîtrise de l’énergie représente un enjeu majeur pour les datacenters.
En Europe, 2 % de l’énergie produite est directement consommée par les datacenters. C’est le constat de Green Data Net, un consortium d’entreprises privées et d’organisations comme le CEA ou l’Ecole polytechnique fédérale de Lausanne, qui planche sur l’optimisation de la consommation énergétique des datacenters en milieu urbain. Et, rien qu’en 2013, les « centres de données » présents sur le territoire américain ont avalé 91 milliards de kilowatt-heures, selon une estimation du Natural Resource Defense Council (NRDC). « C’est suffisamment d’électricité pour alimenter tous les foyers de New York, deux fois », précise le NRDC. Un chiffre qui n’est d’ailleurs pas près de diminuer : l’organisation évalue à 140 milliards de kilowatt-heures d’ici à 2020 la consommation énergétique des datacenters aux Etats-Unis…
Il faut dire que ces ogres énergivores ont un besoin crucial d’électricité. Elle sert bien
Selon lui, la haute densité électrique constitue « une vraie réponse face aux besoins d’efficience énergétique, d’excellence opérationnelle et de baisse des coûts ». L’idée ? Concentrer le plus de puissance électrique par mètre carré et bénéficier d’effets d’échelle. Il s’agit d’optimiser au maximum l’utilisation de la surface au sol et des infrastructures afin de les adapter à l’utilisation. La haute densité électrique implique cependant, outre un savoir-faire opérationnel, une concentration des serveurs dans des zones hyperconnectées, comme le sont les capitales économiques en particulier. C’est pourquoi avec ses 1 500 clients, sa société se focalise sur le marché des « villes mondes ». Et c’est pour prendre une position de hub européen majeur avec une continuité d’accès vers l’Afrique et l’Asie, permise par l’arrivée d’une nouvelle technologie de câbles sous-marin, qu’Interxion installe actuellement son 38e datacenter à Marseille (Bouches-du-Rhône). Pour autant, les datacenters locaux peuvent aussi répondre à un enjeu de dynamisation des territoires. Et leur dimensionnement au plus juste des besoins est une bonne pratique à mettre en place. Cela permet notamment d’éviter les sous-utilisations, qui reviennent à utiliser de l’énergie « pour rien ». Dans son rapport, le NRDC met d’ailleurs en évidence que 20 à 30 % des datacenters étaient sous-exploités aux Etats-Unis. Une marge de progression à ne pas négliger.
Améliorer l’attractivité des territoires
Autre piste : le suivi et l’adaptation en temps réel du fonctionnement des serveurs. « La consommation de nos clients n’est pas constante », insiste Fabrice Coquio. L’utilisation de certaines applications diminue vers 18-19 heures quand les gens quittent les bureaux, tandis que d’autres plates-formes, comme la vidéo à la demande par exemple, sont tout à coup plus sollicitées. « Il est nécessaire d’avoir des moyens de contrôle et de pilotage efficients », martèle le président d’Interxion France. Le spécialiste des services du numérique Steria travaille main dans la main avec Cisco à l’application de la technologie Energywise aux Datacenters.
« Tous les serveurs Cisco sont monitorés par Energywise », prévient Abdelkrim Berkous, architecte réseau chez Steria. L’objectif ? Repérer quelles applications sont portées par quels serveurs, identifier ceux qui peuvent être éteints, sur quelles plages horaires, etc. « Energywise va diminuer la consommation des datacenters sur les applications qui sont sous-utilisées, c’est un moyen d’optimiser les coûts d’énergie sans créer d’impact opérationnel », développe l’architecte réseau. En octobre, cette technologie était testée sur un datacenter au Royaume-Uni.
Au-delà de l’optimisation de la consommation d’électricité par les serveurs, l’autre facteur à examiner de près est la climatisation. Le système Free cooling EcoBreeze de Schneider Electric par exemple, est une solution modulaire par échangeur de chaleur air-air ou par évaporation indirecte, conçue pour s’adapter aux conditions climatiques locales. L’air intérieur est amené vers l’extérieur où se trouve l’échangeur thermique. « On refroidit en soufflant sur l’échangeur et tout ça en circuit fermé », explique Damien Giroud, directeur Solutions Datacenters du groupe en France. Les environnements ne sont donc pas mélangés de sorte qu’aucune pollution ou poussière n’est apportée dans la salle des serveurs. Installé sur le datacenter du Grand Besançon (Neo Center), ce système devrait permettre d’atteindre un PUE (Power Usage Effectivness) de 1,1 sur la partie froide (contre 1,8 en moyenne), avec des réductions des coûts de maintenance et des coûts énergétiques d’environ 30 % sur l’exploitation de l’infrastructure. De son côté, l’entreprise rhônalpine DCforData peut se vanter d’avoir un PUE de 1,5 en utilisant une solution de couloir froid (cold corridor), consistant à créer la zone froide la plus étroite possible. « Nous avons fait ce choix-là, car c’est une solution industrielle éprouvée, assure Nicolas Pitance, fondateur de la société. La sécurité passe avant la notion d’optimisation énergétique. »
Le fonctionnement sans faille des serveurs et la fiabilité de l’approvisionnement en électricité sont des éléments indispensables. « Une minute d’interruption totale d’alimentation des serveurs coûte en moyenne 4 000 euros, soit l’équivalent d’un serveur neuf », rappelle Emmanuel Bour, le directeur de développement de Rentaload. Cette entreprise de location de bancs de charge a développé un produit spécifique aux datacenters, qui vient se brancher directement dans les baies. « On peut ainsi simuler les serveurs le plus précisément possible », relate-t-il, et s’assurer que tout est correctement dimensionné. Selon lui, seul un tiers des nouveaux datacenters sont testés chaque année, alors que ce type de vérification permettrait de réduire de 75 % les risques de panne. Rentaload travaille actuellement au développement de bancs de charge munis de capteurs et connectés en Wi-Fi. Un prototype opérationnel devrait être disponible au 1er trimestre 2015.
Un champ d’innovations
Pour assurer leur continuité de service en cas de panne, la plupart des datacenters sont équipés de groupes électrogènes. « Nous avons développé des systèmes de commande-contrôle avec redondance quel que soit le problème rencontré, qui permettent à nos centrales de prendre la place du réseau de distribution dans les 10 secondes », assure Xavier Manceau, le directeur du réseau commercial France de SDMO. Cette réactivité sert à installer des onduleurs de moindre autonomie, et ainsi à réduire en conséquence la quantité d’énergie nécessaire à leur charge.
A cette problématique de consommation d’énergie s’ajoute celle de l’impact environnemental des datacenters. Là encore, les projets se multiplient à travers le monde pour expérimenter diverses solutions visant à le diminuer. L’exploitation d’énergies renouvelables, le développement des smart grid, le stockage de l’énergie dans d’anciennes batteries de véhicules électriques, l’utilisation de nappe phréatique ou d’eau de mer pour leur refroidissement (lire notre reportage en Norvège), n’en sont que quelques exemples. Les acteurs du numérique disposent encore d’un extraordinaire champ d’innovations possibles devant eux.