Une révolution énergétique discrète se déroule entre les racks, à l’abri des regards. L’élévation de température dans les datacenters et les salles informatiques a ouvert les portes au freecooling.

La consommation de données est exponentielle. Ainsi l’énergie nécessaire au fonctionnement des datacenters pourrait être multipliée par 10 dans la décennie à venir et, d’ici 2030, représentait près d’un cinquième de la demande électrique mondiale. Or, ce raz-demarée de datas cache une gigantesque vague de froid. A chaque recherche internet, à chaque mail envoyé, nous produisons des frigories. La part de l’énergie nécessaire au rafraîchissement dans la consommation totale d’une salle informatique ou d’un data center, qui nécessite d’être refroidi en permanence, représente en moyenne pas moins de 35 % à 40 % de sa consommation totale. Et cette proportion grimpe dès lors que l’exploitation de l’installation dérive.

Les commandements de l’Ashrae Or, il n’existe pas d’équivalent de la RT du bâtiment dans le monde informatique. Le rafraîchissement des données n’est pour l’heure encadré par aucune réglementation. Pour trouver des repères, il faut, comme souvent dans le génie climatique, regarder outre-Atlantique du côté de l’Ashrae. Le temple américain du génie climatique édite un guide dit TC 9,9 établi en échangeant avec des géants de l’exploitation de serveurs comme IBM. « Il y a quelques années, l’Ashrae recommandait de souffler de l’air autour de 20 °C. Aujourd’hui, il indique que l’air entrant dans le serveur peut monter jusqu’à 27 °C, voire au-delà de 30 °C sur un certain laps de temps limité en n’impactant nullement le fonctionnement des serveurs », souligne François Salomon, directeur cooling France chez Schneider. Cette évolution des températures d’entrée ouvre les champs des possibles. Dans l’obscurité des data center, à l’abri des regards, se déroule actuellement une révolution énergétique. Le fait de souffler un air beaucoup plus chaud met à portée de main un gisement d’économies d’énergie gigantesque. « Le fait de fournir un air autour de 25 °C plutôt que 20 °C à l’aspiration du datacenter permet d’augmenter considérablement la température de l’eau de la boucle d’eau froide qui refroidit le datacenter et donc de réduire considérablement la taille des groupes d’eau glacée », note François Salomon. En effet, la combinaison de la montée en température de l’air soufflé et de l’accroissement des surfaces d’échanges des armoires de climatisation informatiques – comparable à des CTA verticales avec batterie à eau offrant un pincement air/eau de 3 °C -, permet de se contenter de produire de l’eau comprise entre 15 °C et 20 °C au lieu de 10 °C. Ce qui fait dire à François Salomon, qu’aujourd’hui dans l’univers IT, il serait plus juste de parler de groupes d’eau tiède plutôt que de groupes d’eau glacée.

L’erreur est humaine Mais la vraie vie est souvent bien éloignée d’un référentiel Ashrae et n’est pas qu’une affaire de machines. C’est avant tout une histoire d’hommes. « Les collaborateurs des services informatiques ont tendance à humaniser leurs serveurs. Ils se disent : “ j’ai chaud alors mon serveur a trop chaud ” », explique Sébastien Cousin qui dirige avec son frère l’entreprise d’hébergement nordiste CIV. « Résultat : il est encore souvent possible de mettre du champagne au frais entre les racks ! C’est une aberration car j’ai des processeurs qui fonctionnent à une température de 45 °C. Il faut intégrer l’idée qu’un Datacenter est dédié à créer les conditions propices au bon fonctionnement de machines et non d’humains. Un aciériste n’essaie pas de maintenir la température de son usine à 21 °C ». Pour comprendre la difficulté pour les acteurs informatiques de s’approprier l’actuelle élévation des températures, il faut remonter en arrière. Ces derniers ont pour beaucoup connu des salles informatiques rafraîchies comme des bureaux. « Il n’y a seulement que quelques années que les racks des serveurs ont commencé à être organisés de manière à séparer physiquement l’air froid aspiré et l’air chaud repris. Avant cela, la température des salles informatiques était la plupart du temps réglée, non pas sur la température d’aspiration, mais sur une température de reprise à 25 °C, ce qui signifie que l’air était soufflé entre 16 °C et 18 °C, avec un effet de flux important ! Ainsi les responsables informatique ont pris l’habitude d’avoir froid dans une salle informatique et pensent qu’il y a un problème quand ce n’est pas le cas », constate également le directeur cooling France de Schneider.

Evangéliser le freecooling Une fois que le responsable informatique accepte de retirer son pull pour aller inspecter ses racks, s’ouvre alors les portes d’un immense réservoir d’économies. La température extérieure en France se situant en moyenne autour de 15 °C, le climat hexagonal se révèle parfait pour la pratique du freecooling. « Nous vivons une inversion dans la conception des installations. Alors que le freecooling était hier vu comme la cerise sur le gâteau, aujourd’hui on dimensionne les systèmes de manière à faire du freecooling 80 % du temps, le compresseur n’est plus qu’un appoint », souligne François Salomon. Sébastien Cousin le constate sur son datacenter lillois de 3 000 m². « A partir du mois de novembre nous démarrons une saison de 5 mois de pur freecooling (Voir P46) ». Pourtant tous les nouveaux projets de datacenter n’intègrent pas encore « la maximisation du freecooling ». Y-a-t-il une barrière économique à l’entrée ? « En aval, vous augmentez la taille des armoires de climatisation de manière à disposer d’une plus grande surface d’échange, mais en amont vous divisez par deux la puissance du groupe d’eau glacée ; donc il n’y a même pas globalement de surinvestissement pour une solution qui maximise le freecooling », explique François Salomon. Une fois encore, le frein ici n’est ni technologique, ni économique, mais humain. « Les gros acteurs du Facility Management se voient souvent contraints de maintenir une température de 21 °C et passent ainsi à côté du freecooling. Et bien que les services généraux s’intéressent, eux, de plus près à la facture d’électricité, ce ne sont pas des thermiciens », constate Sébastien Cousin. « Nous avons donc un travail d’évangélisation à mener pour démocratiser le freecooling ».

Prêcher le freeheating Mais le freecooling n’est pas l’unique voie de rédemption énergétique des datcenters. Le freeheating commence également à être exploré. Autrement dit, plutôt que d’envoyer des frigories, expulser les calories. Sachant qu’1 kW électrique consommé génère 1 kW thermique cela apparait comme une évidence. Mais associer informatique et génie climatique n’est pas si aisé. « On parle beaucoup de récupération de chaleur mais on en fait peu », remarque François Salomon. Pour ce dernier, les freins sont nombreux. « Tout d’abord un datacenter se remplit au fil du temps et il est donc difficile de s’assurer de sa production thermique. De plus, l’acheminement de cette chaleur fatale est compliqué et nécessite d’être pensé en amont, de manière à tirer les tubes et installer les sous-stations nécessaires. Et pour finir, l’exploitant d’un datacenter est, par prudence, peu enclin à connecter son réseau informatique à un réseau de chaleur », explique l’ingénieur de Schneider. Néanmoins, des projets où la data se met au service du chauffage émergent. C’est le cas de l’hôpital de Mercy à Metz (Voir P46) et de la piscine de la Butte-aux-Cailles à Paris qui se chauffent grâce à la chaleur fatale d’un data center situé en sous-sol. La chaleur dégagée par les 100 serveurs installés en sous-sol servira à faire monter en température le bassin intérieur. Si les calories dégagées par les calculs informatiques ne suffisent pas à offrir aux nageurs une eau à 28 °C, le reste du besoin en chaleur nécessaire sera fourni par le réseau de chaleur auquel est déjà reliée la piscine. En Norvège, le promoteur Miris envisage d’aller plus loin sur cette voie et de placer le data center au coeur de ses programmes. Baptisé The Spark, le premier projet qu’il mène dans la ville de Os enverra de l’eau chauffée par la chaleur fatale du data center vers la piscine (à 28 °C), ensuite les habitations (à 20 °C) puis les équipements sportifs (à 15 °C). Alors refroidie, elle retournera vers le centre de stockage de données pour le rafraichir. Les datacenters pourraient bien demain débarquer au coeur des villes de manière à devenir leurs « coeurs thermiques ».