Datacenter magazine n°08

Page 1


Janvier - Février - Mars 2025 - numéro 8

Dossier

Rosenberger OSI

Très haute densité dans le datacenter

Eaton

Le paradoxe des datacenters

DCmag

LʼIA par les chiffres

Vous lisez le nouveau numéro de Datacenter Magazine, le numéro 8, qui adopte son rythme de croisière, trimestriel. Et évolue vers un format mieux maîtrisé : lʼactualité au site web DCmag.fr et à sa newsletter (déjà plus de 7 000 abonnés) ; les dossiers et les expertises à Datacenter Magazine ; et le top de la personnalisation avec les vidéos (chaîne Vidéo DCmag). Ce numéro 8 est donc une étape encore imparfaite vers un média plus riche, qui répond mieux encore à vos attentes.

• Dans ce numéro, au-delà de nos tendances et experts, nous vous proposons une approche originale, par les chiffres, des infrastructures dʼIntelligence Artificielle. Et nous re-diffusons notre dossier réalisé à lʼoccasion des Assises de la Chaleur Fatale, un événement DCmag In Situ qui sʼest tenu en décembre dernier.

• Notre prochain événement, la Journée du datacenter, se tiendra le 22 mai. La Journée est un acte de sensibilisation et dʼacceptabilité du data center, de découverte des métiers, et prendra cette année les couleurs de lʼIA, pour aboutir à un dossier “Infrastructure des data centers dʼIA” qui sera diffusé dans notre prochain numéro, Datacenter Magazine numéro 9, en juin prochain.

Yves GRANDMONTAGNE

Rédacteur en chef de Datacenter Magazine yves@datacenter-magazine.fr

Directeur de Publication

Journaliste

Co-créateur HBT / DCmag

sebastien@datacenter-magazine.fr

+33 6 16 22 53 47

Datacenter Magazine n°8

Janvier - Février Mars 2025

Prix au numéro : 25 €

4 numéros par an - Impression PDF

Une publication Human, Business & Technology (HBT)

Rédacteur en chef

Journaliste

Co-createur HBT / DCmag

yves@datacenter-magazine.fr

+33 6 51 80 02 87

CPPAP 1123 X 95016 - ISSN 3039-7170

Directeur de publication

Sébastien GRANDMONTAGNE

sebastien@datacenter-magazine.fr

Edité par HBT, 5 rue Charles Maillier, 28100 DREUX

Sebastien Grandmontagne
Yves Grandmontagne

DOSSIER

Les tendances des datacenters en 2025 selon DCmag

Yves Grandmontagne

Rédacteur en chef

DCmag

Alors que le secteur des datacenters traverse une période de transformation majeure, quʼelle soit technologique, économique ou écologique, et qui va en sʼintensifiant, voici selon notre vision et sans ordre de classement, les tendances clés dʼune année 2025 cruciale pour lʼindustrie et qui redéfiniront son futur.

L’influence croissante des hyperscalers

Les hyperscalers continuent de dominer le marché grâce à leurs énormes investissements, emportés par les clouds dʼAWS, Microsoft et Google, et accélérés par lʼIntelligence Artificielle.

• En 2025 : les hyperscalers représenteront 70 % des dépenses en infrastructures (Synergy Research Group).

L’expansion des campus de datacenters

Sous lʼinfluence des hyperscalers et des colocateurs qui les servent, les investissements se font massifs dans des grands campus de datacenters, souvent à proximité de sources dʼénergie renouvelable (éolien, solaire et/ou nucléaire selon les régions), pour répondre aux besoins colossaux en matière de volumes de données, de calcul intensif, et de consommation énergétique.

L’essor des infrastructures d’IA Avec lʼexplosion de lʼIA générative, les datacenters adaptent leurs infrastructures pour répondre à des besoins spécifiques afin dʼaccélérer des applications allant des analyses prédictives à la vision par ordinateur.

• En 2025 : 60 % des datacenters investiront dans des processeurs IA spécialisés comme les GPU (Gartner).

Des systèmes de refroidissement durables et avancés

Le refroidissement demeure un défi majeur dans le datacenter. Des technologies telles que le refroidissement liquide direct (DLC) et les solutions dʼimmersion gagnent en popularité, permettant de gérer efficacement la chaleur générée par des serveurs à haute densité et de réduire la consommation énergétique.

La réutilisation innovante de la chaleur

La valorisation de la chaleur produite par les datacenters, la chaleur fatale, est devenue un domaine dʼexploration, notamment via des concepts tels que le « data center bio-circulaire », contribuant ainsi à une économie circulaire et à la réduction de lʼempreinte carbone.

Les infrastructures réseaux et cross-connect en expansion

Les réseaux cross-connect deviennent essentiels pour réduire la latence et permettre une connectivité fluide multicloud et entre clusters dʼIA.

• En 2025 : le marché du cross-connect atteindra 8 milliards de dollars (MarketsandMarkets), la croissance de la demande en services est de 20 % (Equinix).

Le edge : l’avantage de la proximité

Les datacenters edge vont enfin se généraliser, répondant aux besoins croissants en latence faible et en traitement local, comme les infrastructures 5G publiques et privées, la smart-city et les micro-infrastructures dʼIA. Ces micro-datacenters compléteront également les grands centres hyperscale en rapprochant les données des utilisateurs, mais

aussi en offrant des alternatives de taille certes réduite mais disponibles aux hubs tiers 1 ou 2 saturés.

• En 2025, le marché du edge atteindra 87 milliards de dollars (ABI Research).

L’augmentation de la consommation énergétique

Lʼessor de lʼIA ‒ ces applications, notamment des génératives comme ChatGP, peuvent consommer jusquʼà dix fois plus dʼénergie que les services traditionnels -, mais aussi lʼexplosion des projets de datacenters dédiés au stockage des données, entraînent une hausse significative de la consommation dʼénergie des datacenters. Les opérateurs sont à la recherche de solutions innovantes pour alimenter leurs infrastructures tout en réduisant leur empreinte carbone.

• En 2022, les datacenters et les cryptomonnaies ont consommé environ 460 TWh dans le monde, soit environ 2 % de la demande mondiale dʼélectricité. En 2026, cette consommation devrait dépasser les 1 000 TWh.

Le production d’énergie et l’intégration au grid

Pour sʼassurer leur autonomie énergétique et réduire leur dépendance aux énergéticiens traditionnels, les grands campus de datacenters vont produire et/ou stocker eux même leur énergie, notamment via lʼutilisation de petits réacteurs nucléaires modulaires (SMR) ou de systèmes de stockage dʼénergie à haute capacité, tout en sʼintégrant aux réseaux locaux (grid) afin de redistribuer le surplus énergétique et de stabiliser les réseaux élec-

triques. Lʼobjectif est également de réduire leur impact environnemental en investissant dans des solutions énergétiques durables.

• En 2025 : 50 % des nouveaux datacenters produiront une partie de leur énergie sur site (Uptime Institute).

IA et automatisation au cœur de la gestion

Les solutions dʼIA et dʼautomatisation permettent dʼoptimiser les opérations, de réduire les coûts et dʼaméliorer la réactivité. LʼIA et lʼapprentissage automatique révolutionnent la gestion des datacenters, permettant une maintenance prédictive, une optimisation énergétique et une automatisation accrue des opérations, améliorant ainsi lʼefficacité globale.

• En 2025 : 65 % des tâches administratives des datacenters seront automatisées (Gartner).

Les jumeaux numériques pour l’optimisation

Les projets de simulation numérique, ou jumeaux numériques, permettent de modéliser le comportement des datacenters. Ces outils, associés aux DCIM, offrent des solutions pour maintenir à jour et virtualiser lʼinventaire des équipements, réduire la consommation dʼénergie et optimiser les performances des systèmes de refroidissement et dʼalimentation.

La diversification des modèles de financement

Les modèles à la demande, notamment les services « pay-asyou-go », gagnent en popularité face aux coûts croissants de construction. Pour y répondre, cette dernière se concentre sur

la modularité.

• En 2025 : le marché des datacenters modulaires atteindra 40 milliards de dollars (Grand View Research).

La

consolidation du marché et des acteurs

La concentration du marché sʼaccélère, les grands acteurs absorbant les plus petits pour optimiser leurs ressources, leurs gammes (pour les équipementiers) et étendre leur présence. Cette consolidation permet une meilleure répartition des coûts fixes et des capacités techniques accrues.

• CBRE rapporte une augmentation de 20 % des fusions et acquisitions dans le secteur entre 2023 et 2025.

Renforcer

sécurité et conformité

Entre la sensibilité de leurs clients, lʼaugmentation des cybermenaces et celle des menaces physiques, les datacenters investissent dans des mesures de sûreté et de cybersécurité avancées, et sʼadaptent aux réglementations en constante évolution pour protéger les données sensibles et assurer la confiance des utilisateurs. La sûreté appartient au quotidien des datacenters, la cybersécurité devient enfin

transverse, et les dirigeants ont majoritairement compris non plus le besoin mais la nécessité dʼinvestir dans ce domaine.

Les évolutions réglementaires : un cadre plus strict

Les gouvernements et organisations internationales imposent des règles plus strictes en matière dʼémissions carbone, de consommation énergétique et de sécurité des données. Les certifications telles que ISO 50001 deviennent des standards industriels.

• En 2025 : la directive européenne REPowerEU exige que 90 % des nouveaux data centers soient neutres en carbone.

Le recrutement de compétences

La pénurie de talents dans des domaines stratégiques comme la gestion énergétique, les frigoristes, les urbanistes, la cybersécurité, ou encore lʼIA reste un défi majeur.

• En 2025 : 55 % des opérateurs signalent des difficultés à recruter des profils qualifiés (Uptime Institute).

L’informatique quantique : pas encore

Certes, les progrès sont phénoménaux et les usages sont en

approche, et lʼannée 2025 devrait être celle du franchissement dʼun grand pas, celui de la réduction drastique des marges dʼerreurs. Mais il est trop tôt pour que le quantique devienne accessible et se généralise. A suivre cependant, pour comprendre et se préparer, et peut-être commencer à se former sur lʼavenir de lʼinformatique.

L’implosion de la bulle n’est pas pour tout de suite

Les grands investisseurs et fonds dʼinvestissement se sont emparés du secteur des datacenters, un domaine ʻfoncierʼ encore ouvert là où les autres domaines immobiliers (retail et bureaux) sʼeffondrent. Mais la précipitation vers ce marché ne risque-t-elle pas de créer une bulle ? Celle-ci existe autour de lʼIA, et principalement de Nvidia, mais les grands donneurs dʼordres sur la construction, les géants du cloud, en ont sous le pied. Le risque est réel, si la bulle IA implose lʼimpact sur les datacenters sera forte, mais pas pour tout de suite. La question est : les acteurs du cloud et de lʼIA pourront-ils continuer de courir en tête afin de laisser la bulle progresser mais dans leur dos ?

L’énergie, grandeur écologique de la ré-industrialisation

Grégoire Bignier

architecte DPLG, enseignant-chercheur à lʼENSAPVS et à lʼENPC

Il faut lever un paradoxe, celui qui consiste à penser à une corrélation directe entre frugalité énergétique et écologie. Nous voulons montrer que ce lien dépend de la façon dʼutiliser lʼénergie et notamment par le biais du centre de données numériques.

Aujourdʼhui, pour lʼarchitecte que nous sommes, le bâtiment est imaginé comme une machine à dégrader des flux pour assurer les aménités quʼon attend de lui, généralement, le confort et la sécurité. Ces flux proviennent principalement, par le biais dʼopérateurs économiques, de la biosphère pour sʼen retourner à elle à un niveau de moindre qualité, voire franchement pollué. Ainsi, le modèle est linéaire dans la mesure où ce qui vient dʼamont et part en aval nʼest hélas pas le plus souvent le problème de lʼarchitecte. Ce modèle linéaire a été bien décrit sous lʼappellation imagée de the end-of-pipe

par lʼingénieur Suren Erkman dans son ouvrage Vers une écologie industrielle.

Opportunément, on pense dʼemblée à un autre modèle, celui de lʼéconomie circulaire qui se visualise grâce à ses

boucles dʼéchanges, énergétiques notamment. De cette façon, les espaces composant un bâtiment, un groupe de bâtiments ou des aires dʼun territoire peuvent être pensés comme des entités échangeant entre elles toute sorte de flux,

le bâtiment dans une économie linéaire

de matière ou dʼinformation. La « circularité » du modèle vient de lʼarticulation de ces boucles dʼéchanges entre elles qui, selon la théorie de lʼécologie industrielle, se suralimentent par une addition nette aux stocks. En revanche, toute sortie incontrôlée du système est considérée comme une pollution (quand elle se déverse dans son environnement) ou une charge (quand elle est un surplus non valorisé).

modélisation d’une écologie ndustrielle

Dans cette optique et sachant que les centre de données sont de gros consommateurs dʼénergie, comment peuvent-ils sʼinscrire dans ce schéma ? Il est maintenant admis quʼun modèle économique prometteur consiste à imaginer un cluster de bâtiments sur la base dʼune énergie fatale, celle qui serait fatalement perdue si lʼon ne la réutilisait pas. On sait que les surplus thermiques dʼun centre de données peuvent alimenter un bâtiment adjacent, demandeur de cette source énergétique inespérée. Mieux, afin de préserver la valeur du foncier, ce petit morceau dʼéconomie circulaire peut atteindre un optimum à partir dʼune éco-caverne enterrée abritant un centre de données. Pour une économie circulaire en 3D !

Ainsi peut-on imaginer une organisation écologiquement optimisée sur la base dʼune « peau énergétique » (les anglo-saxons appelleraient cela une energetical skin comme ils le font pour qualifier de digital skin lʼunivers numérique que nous sommes en train de bâtir). Peau faite de boucles dʼéchanges formant le tissu dʼune ré-industrialisation ̶ on pense immédiatement à lʼEurope, continent qui tente de concilier simultanément nécessités économiques et exigences

une économie circulaire en 3D

écologiques. Ainsi, loin dʼêtre considérés comme des éléments étrangers à un univers écologique, les centres de données numériques peuvent participer à la construction dʼun territoire économe et beaucoup plus propre que la première industrialisation.

un tissu industriel et urbain formant sa propre infrastructure

Toutefois, si lʼon veut prétendre à une approche écologique de la question, il faut tenir compte de la géographie physique impactée par la pré-

sence dʼun tel modèle. Ce dernier ne peut pas se concevoir à partir dʼune feuille blanche qui ignorerait les réalités terrestres du monde vivant. Aussi, le modèle doit-il « se courber » selon la présence dʼune ligne de crête, dʼun littoral ou dʼun chemin de transhumance en sʼadaptant finement à leurs spécificités. À partir dʼun modèle générique, le territoire peut ainsi se penser à lʼaide de morphologies bien différentes selon les situations dans lesquelles elles sʼimplantent. Ces grands corps peuvent également, selon les principes évoqués précédemment, échanger entre eux pour former un monde adapté aux exigences de la transition écologique, plus respectueuse de la planète.

compatibilité des enjeux économiques et écologiques

De cette manière, lʼénergie qui fait fonctionner massivement le monde numérique deviendrait le fer de lance dʼune nouvelle pensée de lʼespace urbain et territorial dans laquelle le centre de données numériques a toute sa place, voire sa nécessité. Ainsi, ce dernier peut prendre bien des architectures et des tailles différentes. Diversité qui ne fait quʼéclore, tant ce monde est émergent !

Grégoire Bignier est architecte DPLG, enseignant-chercheur à lʼENSAPVS et à lʼENPC ainsi quʼessayiste aux éditions Eyrolles et Kubik. On lui doit de nombreux ouvrages dont le dernier publié en 2023, La troisième nature, traite de la question climatique et de lʼarchitecture.

Le taux d’inoccupation continue de chuter

La tendance est très marquée sur les principaux hubs de data centers dʼAmérique du Nord : malgré des niveaux de construction record, le taux dʼinoccupation ou taux de latence des data centers a chuté à un niveau historiquement bas : 1,9 % à fin 2024.

Les stocks dʼespaces disponibles dans les data centers nʼont jamais aussi bas. Selon le rapport “North America Data Center Trends H2 2024” de CBRE, dans les marchés primaires américains - les hubs de Virginie du Nord, Atlanta, Chicago, Phoenix, Dallas-Fort Worth et Hillsboro - le taux dʼinoccupation des data centers a chuté à un niveau historiquement bas, mesuré à 1,9 % à fin 2024.

En 2024, l'offre sur les principaux marchés nord-américains de data centers a augmenté de 34 % par rapport à 2023, pour atteindre 6 922,6 MW. Et pour la première fois, un marché a

dépassé la Virginie du Nord en termes d'absorption nette annuelle : Atlanta a dominé tous les marchés primaires avec 705,8 MW, bien au-dessus des 451,7 MW de la Virginie du Nord, leader historique.

Taux de latence 2024 sur les marchés primaires 1,9 %

A la recherche de foncier et de puissance

La réduction continue des taux de latence ces dernières années, jusquʼau taux historique de 1,9 % enregistré fin 2024, a été alimentée par une forte demande, mais aussi par des délais de construction prolongés en raison de contraintes énergétiques et des retards dans la chaîne d'approvisionnement. En corollaire, propriétaires et exploitants de data centers sont de plus en plus à la recherche d'une puissance et d'un foncier toujours plus importants. Les sites susceptibles de fournir de l'électricité dans les 18 à 24 prochains mois sont très recherchés.

L’IA par les chiffres

109 milliards € pour l’IA en France

Lors du Sommet pour l'action sur l'intelligence artificielle à Paris, en février 2025, le président Emmanuel Macron a annoncé des investissements privés totalisant 109 milliards d'euros dans le secteur de l'IA en France, principalement alloués au développement d'infrastructures, notamment des data centers.

• Une part importante sera consacrée à la construction et à l'amélioration des data centers et des infrastructures de calcul nécessaires au développement de l'IA. Ce qui inclut l'acquisition de serveurs, de processeurs graphiques (GPU) et d'autres équipements de pointe.

• La part recherche et développement comprendra le financement de projets de recherche dans les universités et les centres de recherche, ainsi que le soutien aux startups et aux entreprises innovantes.

• Une portion des fonds sera également utilisée pour la formation et le développement des compétences en IA.

• Les investissements en IA devraient également bénéficier à de nombreux secteurs d'application, tels que la santé, l'environnement, l'industrie, les transports et les services publics.

Répartition des investissements

La répartition exacte de ces investissements n'a pas été détaillée publiquement. Elle concerne des investissements privés et publics, dans des data centers, des infrastructures de calcul et des projets de recherche en IA. Les informations qui suivent ont été réunies durant le Sommet, sans confirmation quʼelles figurent dans les 109 milliards annoncés.

Investissements internationaux

• Émirats arabes unis : 50 milliards d'euros seront investis par le fonds MGX, basé à Abu Dhabi, pour la construction d'un campus de data centers d'une puissance de 1 gigawatt.

• Fonds américain Apollo : 5 milliards de dollars seront alloués au financement d'infrastructures de nouvelle génération.

• Fonds canadien Brookfield : 20 milliards d'euros seront investis dans des infrastructures d'IA, dont 15 milliards via sa filiale Data4 pour le développement de data centers et 5 milliards pour des infrastructures associées, telles que le transfert de données et les puces de stockage.

• Digital Realty : 5 milliards d'euros seront consacrés à la construction de 13 nouveaux data centers à Marseille et en région parisienne, avec un investissement supplémentaire d'un milliard d'euros pour un autre centre à Paris.

• Prologis : plus de 3,5 milliards d'euros seront investis par cet acteur américain de l'immobilier logistique.

• Evroc : 4 milliards dʼeuros pour construire un data center dʼIA à Mougins, au nord de Cannes.

Investissements français :

• Eclairion avec Fluidstack : 10 milliards dʼeuros pour Mistral AI, le plus grand cluster dʼIntelligence Artificielle dʼEurope à Bessésur-Braye (Pays de la Loire), avec une puissance supérieure à 100 MW.

• Iliad : 3 milliards d'euros dans des infrastructures dédiées à l'IA, et à un partenariat avec Mistral AI.

• Mistral AI : Plusieurs milliards d'euros seront investis dans un data center en Essonne, équipé des dernières générations de puces. Ce "cluster IA" sera opérationnel dès l'été 2025.

• Sesterce : 52 milliards dʼeuros dʼinvestissements pour le déploiement de 1,5 GW dʼinfrastructures dʼentraînement de lʼIA et 1,2 million de GPUs dʼici 2030.

Ces investissements visent à positionner la France comme un leader mondial dans le domaine de l'intelligence artificielle, en renforçant ses infrastructures et en favorisant l'innovation technologique.

+720 milliards $ pour l’IA US

Les acteurs américains de lʼhébergement dʼinfrastructures dʼIA ont révélé leurs budgets d'investissements dans les datacenters dʼIA pour cette année et parfois au-delà.

• OpenAI projet Stargate : 500 milliards de dollars

• Microsoft : 80 milliards de dollars

• Google : 75 milliards de dollars

• Meta : 65 milliards de dollars

Apple a annoncé un projet dʼinvestissement de 200 milliards de dollars, dont une partie, non dévoilée, ira à la conception et la fabrication de puces dʼIA et aux data centers.

Les investissements dans les data centers

1,1 trillion $

Tirées par lʼIA, les dépenses d'investissement mondiales dans les data centers vont plus que doubler, passant de 430 milliards de dollars en 2024 à 1,1 trillion de dollars en 2029.

Quatre entreprises ‒ Amazon, Google, Meta et Microsoft ‒ représenteront près de la moitié des investissements mondiaux dans les data centers en 2025..

Source : DellʼOro

Les utilisateurs de l’IA

400 millions

Malgré la concurrence des autres IA génératives et lʼémergence de DeepSeek, OpenAI (ChatGPT) a enregistré 400 millions dʼutilisateurs actifs hebdomadaires en janvier, soit une augmentation de 33 % en moins de trois mois.

Source : Lightcap

Les serveurs de l’IA

35 %

Les entreprises consacrent désormais environ 35 % de leur budget d'investissement aux serveurs optimisés pour l'IA, contre 15 % en 2023. Cette proportion passera à 41 % d'ici 2029.

Les hyperscalers consacrent déjà 40 % de leur budget à des serveurs dʼIA.

7 000 à 200 000 $

Un serveur traditionnel coûte généralement entre 7 000 et 8 000 dollars.

Un serveur dʼIA équipé des derniers processeurs Nvidia peut coûter entre 100 000 et 200 000 dollars.

Source : DellʼOro

Des budgets dédiés à l’IA

104 %

La hausse attendue des budgets dédiés à lʼIA en 2025, qui sʼimpose comme un axe stratégique incontournable.

20 %

Les investissements dans lʼIA représentent désormais 20% des budgets IT de la région EMEA.

Source : AInomics CIO Playbook 2025, réalisé pour Lenovo par IDC

L’empreinte énergétique de l’IA

Une requête Google traditionnelle consomme 0,3 Wh

Une requête ChatGPT consomme 2,9 Wh

Les charges de travail de lʼIA utilisent 10 à 20 % de lʼélectricité des datacenters

Lʼempreinte énergétique des processus dʼIA

• 10 % - Développement et affinage dʼun modèle

• 30 % - Entraînement dʼun modèle sur de grandes quantités de données

• 60 % - Déploiement et utilisation dʼun modèle

Source : Electric Power Research Institute

Densité des racks d’IA 1 000 kW

La densité moyenne de racks augmente régulièrement. Elle a plus que doublé au cours des deux dernières années, passant de 8 à 17 kilowatts par rack, et devrait atteindre 30 kW d'ici 2027.

L'entraînement d'un modèle d'IA comme ChatGPT peut consommer plus de 80 kilowatts par rack.

La dernière puce GPU de NVIDIA et ses serveurs nécessitent des densités de rack allant jusqu'à 120 kilowatts

Les prévisions de densité des racks dʼIA portent désormais sur 500 à 1 000 kW ou plus.

Source : McKinsey et Racks AI Factory

Les risques de l’IA

777

Nombre de risques liés à lʼIA identifiés par lʼAI Risk Repository du MIT (Massachussets Institute of Technology) pour sa base de données des risques de lʼIA.

51 %

La plupart des risques sont attribués aux systèmes dʼIA plutôt quʼaux humains (51 % contre 34 %).

65 %

La plupart des risques identifiés par les chercheurs du MIT se sont produits après la formation et le déploiement dʼun modèle dʼIA (65 %) plutôt quʼavant (10 %).

75 %

75% du trafic réseau incorporera de l'IA dʼici 2030.

Le succès relatif des projets d’IA

9 PoC d’IA sur 10 échouent

Source : Omdia

En 2024, les grandes entreprises avaient lancé en moyenne 37 PoC dʼIA (Proof of Concept dʼIntelligence Artificielle), certains coûtant plusieurs millions de dollars.

• A fin 2024, en moyenne seulement 5 PoC d'IA sont entrés en production, et seulement 3 sont considérés comme réussis.

30 % des DSI ont reconnu qu'ils ne savaient pas quel pourcentage de leurs PoC d'IA atteignaient les indicateurs clés de performance cibles ou étaient considérés comme réussis.

Pour 70 % des DSI, 9 applications dʼIA personnalisées sur 10 nʼont pas réussi à franchir lʼétape de la preuve de concept et à passer en production. Pour 35 % aucune de leurs applications dʼIA personnalisées nʼa dépassé lʼétape de la preuve de concept.

Les DSI tendent à privilégier les applications d'IA créées par les fournisseurs, mais deux tiers d'entre eux ont noté un taux d'échec de 90 %.

Source : enquête IDC Executive CIO QuickPoll Series : Oerationalizing AI

Des chiffres du marché de l’IA

Le refroidissement des data centers

80 milliards $

Le marché mondial du refroidissement des data centers devrait atteindre 80,1 milliards de dollars d'ici 2033, à un taux de progression annuel de 15,7 %.

En 2023, le marché était évalué à 18,7 milliards de dollars.

L'augmentation de la demande de data centers, l'essor du calcul haute performance, notamment l'IA, l'adoption croissante des data centers hyperscale et edge, ainsi que l'intégration des énergies renouvelables sont les facteurs qui devraient propulser la croissance du marché mondial du refroidissement des centres de données.

Le marché semble ne rencontrer quʼun seul frein : le coût initial des équipements.

Source : Allied Market Research

Le marché du DCIM

13,7 milliards $

Le marché mondial des solutions de gestion des infrastructures de data center (DCIM), très fragmenté avec de nombreux acteurs et des solutions propriétaires trop souvent associées aux marques des équipements, devrait croître de 13,7 milliards de dollars entre 2024 et 2028. Soit une progression annuelle de 26,06 %.

Le marché est stimulé par la gestion de l'énergie et les initiatives écologiques, avec une tendance à l'adoption massive de l'IoT, des capteurs intégrés et de l'informatique de pointe.

Le plus important défi du marché porte sur les investissements dans l'infrastructure initiale et les exigences associées.

Source : Technavio

Les marchés de l’IA switchs d’IA

100 milliards $

Les ventes de commutateurs / switchs de data centers dans les réseaux back-end d'IA devraient dépasser les 100 milliards de dollars au cours des cinq prochaines années.

La majorité des ports de commutation déployés dans les réseaux back-end IA devraient atteindre 800 Gbit/s dʼici 2025, 1 600 Gbit/s dʼici 2027 et 3 200 Gbit/s dʼici 2030.

Source : Dell'Oro

De 2025 à 2030 De 2025 à 2030

Pendant cette période, les coûts globaux d'OpenAI devraient augmenter considérablement.

• OpenAI prévoit de dépenser 20 milliards de dollars en 2027, soit bien plus que les 5 milliards de dollars qu'elle aurait dépensés en 2024.

75 % de la capacité de calcul dʼOpenAI sera transférée vers Stargate - le méga projet de data center dʼIA à 500 milliards de dollars présenté par Donald Trump le lendemain de son investiture - d'ici 2030.

Ce transfert marque un éloignement de la dépendance dʼOpenAI vis-à-vis de Microsoft, même si à court terme elle continuera à investir dans les data centers exploités par Microsoft.

En 2030

D'ici 2030, OpenAI prévoit que ses coûts liés à l'exécution de modèles (inférence) d'IA dépasseront ce que la startup dépense pour la formation de modèles (LLM) d'IA.

Source : The Information

IA : comment son développement pourrait être compromis par une mise en réseau nonoptimale

Amit Sanyal

Imaginez un monde où les machines comprennent les humains et vont même plus loin en créant, prédisant et révolutionnant des secteurs entiers... Si cela peut encore sembler tiré dʼun film de science-fiction, il sʼagit pourtant bel et bien dʼune réalité qui sʼinsère progressivement dans nos vies quotidiennes avec lʼIA. De l'usage changeant des smartphones aux découvertes scientifiques et aux applications d'entreprise, l'influence de l'IA grandit continuellement grâce à ses innovations dans l'infrastructure matérielle et logicielle, également inhérente aux grands modèles de langage (LLM).

Le cycle de vie de l'IA : de la formation à son inférence

Tout commence par la formation. Contrairement à l'IT traditionnel, où les programmes suivent une logique pré-codée, les applications d'IA générative assimilent des séquences à partir de vastes ensembles de données, introduits dans un LLM au cours de la phase d'apprentissage. Ce processus fait appel aux réseaux neuronaux, semblables aux neurones hu-

mains, qui appliquent des fonctions mathématiques (dites d'activation) à la somme pondérée de ses inputs (paramètres) pour générer des outputs. Grâce aux GPU et aux xPU, des quantités massives de données sont échangées entre les nœuds d'un réseau neuronal, ce qui en fait une partie intégrante de l'infrastructure de l'IA.

Une fois formés à l'aide de données génériques, les mo-

dèles sont affinés avec les spécifiques afin d'améliorer la précision, la pertinence et l'efficacité. Cet apprentissage basé sur le retour d'information humain (RLHF) est fréquemment utilisé pour éliminer les biais et les inventions. Les modèles spécialisés utilisent également la génération augmentée par récupération (RAG) pour améliorer la précision et l'actualité des données, au fur et à mesure qu'elles sont utilisées pour l'inférence.

Le besoin dʼune infrastructure solide pour supporter la pile de solutions dʼIA

Une pile de solutions d'IA efficace comprend plusieurs couches, chacune étant essentielle au fonctionnement global. Au sommet se trouvent les applications et les agents d'IA, qui fournissent des fonctionnalités spécifiques aux cas d'utilisation et aux domaines. Ceux-ci sont conçus à partir de LLM (par exemple, ChatGPT, Gemini, Llama) capables de comprendre le langage humain et d'y répondre en traitant d'énormes ensembles de données de texte, d'images, d'audio et de vidéo.

Ces applications s'appuient ainsi sur une infrastructure logicielle solide, comprenant des cadres de machine learning tels que PyTorch et TensorFlow. Ces derniers fournissent aux développeurs des instruments essentiels pour développer et former les modèles, ainsi

que des bibliothèques et des calculateurs, tels que NumPy, optimisés pour les opérations matricielles pour des GPU/xPU spécifiques. Les logiciels de gestion de plateforme, qui englobent les systèmes d'exploitation (OS), les conteneurs, les orchestrateurs, le clustering, les programmateurs et la surveillance, jouent aussi un rôle important dans l'automatisation et la gestion du cycle de vie du machine learning.

Le matériel constitue la base de la pile d'IA. Elle est alors composée d'infrastructures de calcul, de stockage et de mise en réseau. Le calcul comprend des serveurs d'IA construits avec des accélérateurs (GPU/ xPU), des CPU, des mémoires à large bande passante (HBM) et des interfaces de réseau à haute performance. Les systèmes de stockage sont utilisés pour alimenter les GPU/xPU en données et contrôler les résultats intermédiaires afin de se prémunir contre les dé-

faillances. Les GPU/xPU de ces serveurs chargent le modèle et les données dans la HBM, exécutent des fonctions mathématiques et produisent des résultats ou des sorties. Ceux-ci sont ensuite échangés entre les GPU/xPU par l'intermédiaire d'un réseau hautement évolutif à faible latence. Pendant la phase de formation, ce cycle de calcul se répète sur plusieurs jours, voire plusieurs semaines.

Une mise en réseau gourmande sous-tendue par une gestion optimale des flux

La mise en réseau est un élément essentiel des clusters d'intelligence artificielle, puisqu'elle est à la source de l'architecture distribuée nécessaire aux charges de travail. Aujourd'hui, les serveurs d'IA représentent plus de 80 % du coût total de l'infrastructure. Les retards dans les communications réseau peuvent également entraîner une sous-utili-

sation des serveurs d'IA coûteux, ce qui a un impact non négligeable sur les performances globales et la rentabilité.

L'apprentissage de l'IA est extrêmement gourmand en calcul et est impossible sans une architecture scale-out. Les algorithmes d'IA exploitent des techniques de parallélisme pour performer, en utilisant une combinaison de données (partition entre plusieurs GPU/xPU) et de modèles (partition du calcul entre plusieurs GPU/xPU d'IA) pour une meilleure efficacité. Avec cette approche, les serveurs d'IA ont désormais besoin de communiquer périodiquement via le réseau, connu sous le nom d'échange de gradient ‒ainsi la communication est close à chaque phase.

L'utilisation du concept de parallélisme nécessite d'énormes transferts de données au cours de la formation en utilisant l'accès direct à la mémoire à distance (RDMA). Cela génère des flux massifs sur le réseau, dits " flux éléphants", et d'importantes congestions. Un réseau continu doté de capacités dʼéquilibrage de la charge et de gestion de la congestion est essentiel pour maintenir l'efficacité, les performances et la fiabilité des clusters d'IA. En raison de cette grande quantité de données devant être stockées et consultées efficacement, le checkpointing (création de captures régulières de la progression de l'entraînement du modèle) est crucial pour assurer la résilience du matériel.

Les clusters d'IA disposent généralement de plusieurs ré-

seaux, chacun remplissant des fonctions distinctes. Le réseau front-end relie le serveur d'IA au reste du datacenter et au monde externe, aidant les utilisateurs à se connecter au cluster d'IA. L'interconnexion des datacenters (DCI) relie quant à elle plusieurs datacenters hébergeant des clusters d'IA pour des raisons de haute disponibilité et de résilience. Enfin, le réseau scale-out est utilisé pour l'échange de gradients durant la formation. Le réseau de stockage dorsal relie les serveurs d'IA à un système de stockage haute performance. Enfin, le réseau scale-up relie de nombreux serveurs IA au sein d'un boîtier ou d'un rack à l'aide d'un réseau à cohérence de cache et à large bande passante spécifique au fournisseur, comme NVLink pour Nvidia et Infinity Fabric pour AMD. Récemment, une alternative basée sur des normes ouvertes, appelée UALink (Ultra Accelerator Link), a émergé avec un large soutien de l'industrie.

Au-delà des considérations technologiques, garantir une utilisation éthique de l'IA et empêcher son utilisation abusive est primordial. Les grands consortiums dʼIA apparus ces derniers mois auront ainsi une grande responsabilité dans la promotion de la collaboration et de l'innovation.

Le

paradoxe des datacenters

: le virage écologique à l'ère de l'intelligence artificielle

François Debray

Chef Produit Power Quality Eaton

La consommation de datacenters monte en flèche, stimulée par le boom de l'intelligence artificielle (IA) et d'autres technologies gourmandes en données. Ils jouent un rôle essentiel dans l'économie numérique et sont réputés pour être énergivores, mais ils peuvent aussi être conçus pour jouer un rôle important dans la transition énergétique. Les datacenters font face au paradoxe clair : dans un monde où l'énergie fossile prédomine, comment les opérateurs de datacenters et l'écosystème au sens large peuvent développer les bonnes stratégies pour tirer parti de l'IA et répondre aux aspirations de croissance numérique, sans compromettre les objectifs de durabilité mis en place par les gouvernements et les organismes de réglementation pour atténuer le changement climatique ?

Vers un réseau de plus en plus sous tension

L'Agence internationale de l'énergie (AIE) prévoit que la demande mondiale d'électricité des datacenters fera plus que doubler d'ici 2026, passant de 460 térawattheures (TWh) à 1 000 TWh.[¹] Cette augmentation est largement due aux systèmes d'IA avancés, qui nécessitent beaucoup plus d'énergie que les tâches traditionnelles

de traitement des données. Par exemple, une seule requête d'IA consomme environ 2,9 wattheures (Wh), soit dix fois plus d'énergie qu'une recherche standard sur Google. [¹]

Par conséquent, avec cette croissance explosive, il est impératif que la demande d'électricité soit satisfaite par une production renouvelable et non par des combustibles fossiles à

forte intensité de carbone. S'il est facile de se concentrer sur la demande énergétique des datacenters, le véritable défi est de s'assurer que cette demande accrue ne crée pas une pression insoutenable sur le réseau énergétique et que les fournisseurs d'électricité mettent à disposition suffisamment d'énergie verte.

Malgré les efforts déployés à l'échelle mondiale pour passer

aux énergies renouvelables, il reste des défis importants à relever. Si certaines régions ont progressé dans l'adoption des énergies propres, d'autres sont à la traîne, ce qui crée des disparités compromettant les objectifs mondiaux en matière de développement durable. Même le nouvel objectif fixé par la directive sur l'énergie de l'Union européenne, consitant à garantir qu'au moins 42,5 % de l'énergie provient de sources renouvelables [²], ne permet pas de répondre à la croissance rapide de la demande d'énergie. Ce décalage entre l'ambition politique et l'infrastructure technologique entrave les progrès et menace les efforts d'atténuation du changement climatique.

Les datacenters à la fois problème et solution du dilemme énergétique

Il est indéniable que les datacenters sont au cœur de ce dilemme énergétique. Cependant, ces défis doivent être relevés collectivement : les datacenters en tant que consommateurs d'énergie, peuvent devenir des pro-sommateurs

proactifs, et les entreprises de services publics et de production d'électricité faisant partie de l'infrastructure énergétique au sens large peuvent fournir suffisamment d'énergie verte. Il est essentiel de reconnaître que le défi réside dans la disponibilité et l'expansion de la production d'énergie propre pour soutenir la conception et la construction de datacenters basés sur lʼIA. Les datacenters ne sont pas à l'origine du problème, mais reflètent plutôt le besoin plus large d'accroître les investissements et le développement des sources d'énergie renouvelables.

Les datacenters faisant partie intégrante de l'économie, leur consommation d'énergie menace de dépasser la capacité du réseau à fournir une énergie durable. La stabilité du réseau devient une préoccupation essentielle, en particulier dans les régions où les sources en énergie renouvelables sont moins répandues voir où l'infrastructure du réseau est obsolète. Par exemple, les datacenters situés dans des pays comme l'Irlande et les PaysBas mettent à rude épreuve les

réseaux locaux, amenant à des restrictions sur les nouveaux développements et à leur migration vers des sites plus écologiques. Les pays nordiques tels que l'Islande ou la Suède sont en train de devenir des destinations de premier plan pour les opérateurs de datacenters durables en raison de leur accès à une énergie renouvelable abondante et à des conditions climatiques favorables. Si cette évolution allège la pression sur les réseaux locaux, elle met également en évidence une vulnérabilité plus large : la dépendance de l'économie numérique à l'égard d'un approvisionnement stable en énergie verte. Le rythme d'expansion actuel ne permet pas de répondre à la demande croissante, ce qui met en péril l'ensemble de l'économie.

Bien qu'ils soient de gros consommateurs d'énergie, les datacenters ont à la fois la volonté et le potentiel de soutenir la transition énergétique et de passer au vert. Ils peuvent contribuer à stabiliser le réseau grâce à des technologies innovantes comme les systèmes de stockage d'énergie

par batterie (BESS). Le secteur investit de plus en plus dans l'énergie verte par le biais d'accords d'achat d'électricité (AAE) pour l'énergie renouvelable, ce qui contribue à décarboniser le réseau en finançant une part importante d'énergie sans carbone. Cet engagement en faveur des énergies renouvelables est crucial, car les datacenters peuvent favoriser une transition plus large vers les énergies propres. Cependant, l'industrie s'est principalement concentrée sur l'amélioration de l'efficacité qui, bien que nécessaire, ne résout pas le problème profond de la dépendance aux sources d'énergie non renouvelables. Les mesures traditionnelles telles que l'efficacité de l'utilisation de l'énergie (PUE) sont inadéquates dans ce contexte, car elles ne tiennent pas compte du contexte plus large de l'utilisation des énergies propres. Pour combler cette lacune et réaliser des progrès significatifs, l'industrie doit réévaluer le PUE et envisager de nouvelles mesures qui reflètent l'impact de l'utilisation de l'énergie sur l'ensemble du cycle de vie, en mettant particulièrement l'accent sur la proportion d'énergie verte qu'elle utilise.

Les pouvoirs publics : pièce maitresse de ce changement

L'intervention des pouvoirs publics est cruciale pour relever ces défis. Les décideurs politiques doivent créer un environnement qui encourage l'adoption rapide de l'énergie verte et soutient la modernisation du réseau. Il s'agit notam-

ment d'investir dans la modernisation des infrastructures, d'offrir des incitations à la production d'énergie durable et d'élaborer des politiques qui facilitent l'intégration des énergies renouvelables dans le réseau. Sans une action gouvernementale proactive, la transition vers l'énergie propre risque d'échouer, avec de graves conséquences pour l'environnement et l'économie.

Pour surmonter les obstacles à lʼadoption rapide de l'énergie verte, il faudra une plus grande collaboration entre les gouvernements, les chefs d'entreprise et les fournisseurs d'énergie. Une action coordonnée et une vision commune sont nécessaires pour que les datacenters puissent fonctionner de manière durable sans entraver la croissance de l'économie numérique.

Les enjeux sont incroyablement élevés. L'incapacité à relever ces défis pourrait avoir des conséquences considérables, non seulement pour le secteur des datacenters, mais aussi pour l'économie mondiale dans son ensemble. Il est impératif que toutes les parties prenantes s'unissent pour prendre en main ce problème, en veillant à saisir l'occasion de construire un avenir plus vert et plus durable. Les datacenters doivent faire partie de la solution, et non du problème. Ils doivent cesser de se concentrer uniquement sur les opérations internes et adopter une perspective plus large, au niveau du réseau.

[1] https://acrobat.adobe.com/id/urn:aaid:sc:EU:b2f9c7a6-3f82-4c48-9138-2d2001bcd3fe

[2] https://energy.ec.europa.eu/topics/renewable-energy/renewable-energy-directive-targets-and-rules/renewable-energy-targets_en

ROSENBERGER OSI PRÉSENTE UN

SYSTÈME

À TRÈS

HAUTE DENSITÉ POUR UN CONCEPT DE PROTECTION COMPLEXE DANS LE DATA CENTER.

Les informations classifiées exigent la confidentialité et des idées de sécurité sophistiquées

Créer des solutions de communication pour le secteur public représente un défi particulier. Les systèmes numériques à ce niveau doivent répondre à des critères de sécurité spécifiques afin de ne pas compromettre la souveraineté des autorités. Les data centers Penta Infra répondent à ces normes de sécurité et sont donc appréciés par de nombreux fournisseurs de services informatiques. Depuis peu, un système Ultra High Density

(UHD) de Rosenberger OSI constitue un élément essentiel du concept de sécurité optimisé. Combiné à un blindage spécialement conçu pour le câblage, l'échange de données critiques dans l'environnement numérique est ainsi protégé comme une forteresse.

La souveraineté numérique de l'Allemagne dépend en grande partie de la capacité du monde politique à réagir de manière appropriée aux situations de crise. L'échange d'informations sensibles nécessite une approche globale de la sécurité. Outre les communications

quotidiennes, des informations classifiées doivent être échangées afin de maintenir l'activité politique. Les prestataires de services informatiques de l'État fédéral sont donc soumis à des exigences très strictes. La mise en place et l'exploitation de la communication des informations classifiées de l'État fédéral sont confiées à des prestataires de services spécialisés qui disposent non seulement de connaissances techniques, mais aussi dʼamples connaissances en matière de sécurité. L'infrastructure informatique de lʼÉtat fédéral est notamment exploitée dans les data centers hau-

tement sécurisés et interconnectés de Penta Infra.

Les solutions existantes sont optimisées en permanence et les normes de sécurité sont renforcées. Les besoins dernièrement exprimés concernent l'aménagement de l'infrastructure existante avec plus de variabilité et une densité de ports plus élevée. Lors d'une réunion thématique, l'entreprise de sécurité responsable a contacté les spécialistes du câblage de Rosenberger OSI. Une évaluation par les spécialistes de la sécurité a permis d'analyser en détail l'offre de la société d'Augsbourg. Résultat : après une nouvelle évaluation rapide du marché, le contrat pour la mise en œuvre de la nouvelle solution a été attribué à Rosenberger OSI.

Concept de sécurité pour les demandes spéciales

Lors d'une réunion de lancement en décembre 2023, les besoins du prestataire de services ont été déterminés en détail. Dans le cadre de la définition des besoins, des demandes spéciales ont également été formulées afin de répondre pleinement aux exigences de sécurité élevées.

Sur la base du catalogue d'exigences identifiées, l'équipe responsable du spécialiste du câblage a établi une offre sur mesure. Une fois que les processus de la chaîne d'approvisionnement ont été clarifiés et la feuille de route établie, le marché a été finalement conclu en mars 2024. Il fallait ensuite agir vite, car le calendrier serré ne prévoyait que six semaines pour la réalisation du projet. Penta Infra a été impliqué dans le processus dès la phase de décision, car le contrat de location entre l'entreprise de sécurité et l'exploitant du data center prévoyait

que l'achat de tous les matériaux et services devait passer exclusivement par Penta Infra.

Sur la base des exigences identifiées lors de la réunion de lancement, Rosenberger OSI a recommandé l'installation d'un système PreCONNECT® SMAP-G2 UHD Ultra haute densité. Le PreCONNECT® SMAP-G2 UHD convainc par sa haute densité ainsi que par ses emplacements intégrés pour de nombreux types de câbles. Il est ainsi possible d'intégrer et de représenter une large gamme de câbles, dont le cuivre et la fibre optique, aussi bien en multimode qu'en monomode. Les emplacements peuvent en outre être équipés en fonction des besoins, ce qui permet beaucoup de flexibilité dans la baie. La représentation de la haute densité est garantie à tout moment.

Nous répondons volontiers aux demandes spéciales

Le souhait de l'entreprise de sécurité d'établir deux connexions hautement sécurisées a constitué un défi particulier. Cette procédure est toutefois nécessaire car les cages sont installées à deux endroits différents dans le data center et dans des compartiments coupe-feu distincts. Cette construction vise à prémunir le câblage de liaison contre les attaques extérieures afin de protéger les échanges de données critiques du client.

Pour répondre à cette exigence, Rosenberger OSI a développé et fabriqué spécialement un trunk à 48 canaux ainsi qu'une gaine spéciale. Les deux cages, qui se trouvent dans deux compartiments coupe-feu différents, sont ainsi reliées de manière unique et protégées comme par une vitre

blindée contre les attaques indésirables. Ceci est nécessaire, car pour relier les deux cages, il faut passer par une voie accessible au public. Les exigences de sécurité du client ne peuvent pas être suffisamment garanties entre les deux zones coupe-feu sur ce site. Afin d'éviter les attaques sur les câbles, l'entreprise de sécurité souhaitait donc une gaine spéciale qui empêche les manipulations.

La gaine de protection spéciale a été conçue par l'équipe de développement de Rosenberger OSI. La confection a ensuite été prise en charge par les spécialistes du site de production en Hongrie, ce qui a permis une réalisation rapide. Les deux équipes ont travaillé en étroite collaboration, ce qui a contribué à gagner du temps. Cette procédure était nécessaire en raison du court délai entre la commande et l'instal-

lation et la mise en service finales - environ six semaines.

L'équipe berlinoise de Rosenberger OSI a veillé à ce que le calendrier soit respecté. Lors des différentes phases dʼimplémentation, entre trois et cinq spécialistes étaient présents sur place. Tous les composants ont été installés dans le data center de Penta Infra et préparés à la production. La communication intensive avec le client final ainsi qu'avec l'équipe de l'exploitant du data center pendant toutes les phases a constitué une base essentielle pour la réussite du projet. En effet, l'équipe de spécialistes berlinois de Rosenberger OSI est non seulement responsable de l'étude de projet et de l'implémentation, mais aussi du service aprèsvente du nouveau système et continuera à l'avenir à accompagner le projet de sécurité avec compétence.

Conclusion

Le projet pour ce client exigeant en matière de sécurité marque le début d'une nouvelle collaboration.

« Avec ce projet de sécurité complexe, Rosenberger OSI a démontré ses compétences professionnelles et son orientation absolue vers le client », déclare Torsten Junges, Sales Manager DACH chez Penta Infra.

« Le concept, la prise en compte des demandes spécifiques du client ainsi que la mise en œuvre rapide et compétente dans notre data center - tout était parfait et a convaincu les participants sur toute la ligne.

C'est pourquoi nous réaliserons à l'avenir d'autres projets avec les experts du câblage Rosenberger OSI, tant au niveau national que dans les pays partenaires européens ».

Réussir avec des data centers durables

Penta Infra fournit une colocation flexible, durable, neutre vis-à-vis des opérateurs et conforme dans une large gamme de data centers de pointe couvrant le cœur et la périphérie numériques en croissance rapide de l'Europe. Les emplacements stratégiques, la connectivité étendue et la conception évolutive garantissent des performances élevées, des temps de latence faibles et favorisent la croissance des clients et des partenaires.

Penta Infra s'est concentré sur la transformation interne complète de ses anciennes installations afin de créer de nouveaux data centers flexibles, durables et adaptés aux besoins des clients. L'entreprise a connu une année bien remplie et caractérisée par un succès remarquable. Depuis l'acquisition de son premier data center à Geleen en 2015, Penta Infra a acquis d'autres installations à Leipzig et Cologne (2017), Berlin (2018), Düsseldorf et Hambourg (2019), Leeuwarden (2020) et Copenhague (2021) et les a transformées à l'intérieur comme à l'extérieur. En 2023, des installations ont vu le jour à Paris, Amsterdam et Bruxelles

(2024), ce qui porte à douze le nombre total d'installations que Penta Infra possède et exploite. L'entreprise accorde une grande importance à la durabilité. Cela se traduit par l'utilisation d'énergie renouvelable à 100 %, un financement lié à l'ESG et un concept primé pour le partage de la chaleur.

Retour d’expérience –Infrastructures LAN en Datacenter : EDF joue la carte du NetDevOps avec NXO

Directeur du Programme Télécoms EDF

NXO, partenaire de proximité dans la conception et lʼinfogérance dʼinfrastructures sécurisées et de cloud souverain, accompagne EDF dans un vaste projet de Rénovation et dʼOrchestration des Infrastructures LAN en Datacenter.

Un projet stratégique pour EDF

Le système dʼinformation est le support de la performance opérationnelle du Groupe EDF. Les métiers du Groupe utilisent le numérique au quotidien pour réaliser leurs tâches, travailler en mode collaboratif et atteindre les objectifs des chantiers dʼexcellence opérationnelle. Dans ce contexte, le réseau en datacenter, qui héberge la plupart de ses services et applications, et au travers duquel transitent les flux vers Internet et les services en cloud public (IaaS ou SaaS), était arrivé en fin de cycle. A donc été lancé le projet de Ré-

novation et Orchestration des Infrastructures LAN Datacenter (RODIN) pour concevoir et déployer une infrastructure de production, une infrastructure dédiée et autonome pour lʼadministration et une plateforme dʼautomatisation. Les enjeux du projet RODIN étaient de déployer une infrastructure LAN en datacenter plus fiable, plus sûre, plus agile, plus performante et prête à relever les défis de demain.

Le choix de NXO pour accompagner le projet RODIN

Dès les phases dʼappel dʼoffres pour retenir le futur intégra-

teur, NXO a su se distinguer en proposant des solutions pertinentes et adaptées aux besoins exprimés. NXO a ainsi su proposer de mettre ses compétences en appui de EDF pour la conception de la solution technique tout en permettant un accès direct aux ressources techniques dʼARISTA (partenaire équipementier), dans un mode gagnant pour toutes les parties.

Spécifiquement pour le développement de la plateforme dʼautomatisation appelée « NetDevOps », EDF ne disposait pas dʼune expertise suffisante et NXO a apporté ses compé-

Pierre Violet

tences et son expérience pour co-concevoir et co-développer la solution. NXO a permis de faire les bons choix et de mettre en production la plateforme en amont des premiers déploiements des infrastructures réseau, pour bénéficier de gains en termes de délai de déploiement et de sûreté de fonctionnement permis par lʼautomatisation.

Le

déploiement d’une solution industrielle

La plateforme NetDevOps mise en œuvre repose sur plusieurs briques : une source de vérité, un environnement de stockage des secrets, un environnement de stockage des scripts, une brique permettant lʼexécution des scripts et de lʼoutil constructeur permettant lʼadministration des équipements du LAN datacenter. À lʼexception de lʼenvironnement de stockage des scripts, partagé au sein dʼEDF, tous les autres composants ont été choisis et déployés dans le cadre de NetDevOps. Les scripts ont été développés et mis au point par le projet RODIN. La qualité de la mise en œuvre de la plateforme dans le cadre du projet RODIN et de ses processus, tant en termes de sécurité que de sûreté de fonctionnement, a été confirmée au travers dʼune procédure interne dʼhomologation.

Au niveau méthodologique, une cellule dédiée, composée de six experts réseau et système, a été formée. Sur les conseils de NXO, une phase initiale de formation de la cellule a été pilotée par les experts NetDevOps NXO et menée sur trois semaines en mode agile. Lʼobjectif était de mettre à niveau les équipes EDF sur les compétences de lʼautomatisation. Ensuite ont suivi les phases de développement, de qualification et de mise en production des premiers scripts. En six mois, la cellule était opérationnelle et a mis en production ses premiers scripts, avec lʼappui de ressources NXO. Aujourdʼhui, la cellule NetDevOps est devenue un service à part entière qui gère toute lʼautomatisation des équipements télécoms.

Une plateforme au service des enjeux d’EDF

La plateforme est utilisée quotidiennement par les exploitants. Plus aucun geste manuel nʼest réalisé sur les infrastructures de production ou dʼadministration RODIN.

NetDevOps, grâce à lʼautomatisation et à lʼindustrialisation des déploiements et des gestes dʼexploitation des infrastructures, a permis de gagner un an dans la migration des services et applications dʼEDF

de lʼancien LAN datacenter vers le nouveau, tout en fiabilisant les opérations. Lʼexploitation des infrastructures RODIN bénéficie également de NetDevOps grâce à la sécurisation de lʼexploitation apportée par lʼabsence de gestes manuels, au contrôle de conformité des configurations et au gain spectaculaire de temps de déploiement des mises à jour sur les équipements réseau.

Des évolutions régulières à venir

Le retour dʼexpérience très positif en termes de sûreté de fonctionnement et de performance de la plateforme dʼautomatisation sur les infrastructures RODIN a conduit à lʼélargissement de lʼautomatisation aux autres équipements télécoms et sécurité que le LAN datacenter, faisant de NetDevOps la plateforme de référence pour lʼautomatisation réseau. La cellule de développement NetDevOps a ainsi été confortée au sein dʼEDF, avec des ressources humaines EDF dédiées, lʼappui de ressources NXO, et dʼautres périmètres techniques que le LAN datacenter sont désormais automatisés par la plateforme ou en cours dʼintégration : les équipements optiques DWDM, les coupe-feu, les répartiteurs de charge, lʼinfrastructure de routage des flux en cœur de réseau, etc.

C’est au DC World de Paris qu’Euclyde Datacenter a annoncé officiellement le rebranding en nLighten France

Cʼest au DC World de Paris quʼEuclyde Datacenters annoncera officiellement le rebranding en nLighten France. Retrouvez Anwar SALIBA, Directeur général de nLighten France, sur la table ronde inaugurale du salon, le mercredi 27 novembre à 9h45.

Euclyde Datacenters, acteur incontournable des Datacenters Edge de nouvelle génération, annonce son rebranding à lʼoccasion de la nouvelle édition du DC World Paris. Ce changement de nom sʼinscrit dans le prolongement du rapprochement dʼEuclyde Datacenters avec nLighten en 2023.

Fort de ce rebranding, nLighten souhaite renforcer la visibilité de son offre pan-européenne et proposer de nouvelles opportunités et services à ses clients tout en maintenant lʼaccompagnement inconditionnel et le support de proximité de leurs interlocuteurs historiques. Lʼéquipe française restera étroitement impliquée dans leurs projets de compte.

Au-delà des opérations réalisées à lʼéchelle nationale au travers des datacenters de Sophia-Antipolis, Paris, Lyon, Besançon et Strasbourg, les clients de nLighten France pourront également envisager des déploiements dans toute lʼEurope au travers des datacenters edge du groupe en Allemagne, Espagne, UK, Pays-Bas, Belgique et Suisse.

« Nous sommes ravis de porter la marque nLighten en France et d’accueillir l’équipe d’Euclyde, renforçant ainsi notre engagement à offrir des infrastructures numériques de pointe locales et éco-responsables », a déclaré Harro Beusker, CEO de nLighten « Ce rebranding s’inscrit dans notre vision d’apporter les meilleures solutions numériques au plus près de nos clients, en s’appuyant sur la force de nos datacenters edge européens pour répondre à la demande croissante. »

Anwar SALIBA, Directeur général de nLighten France : « Notre qualité de service, notre expertise et notre implantation dans l’ensemble des régions françaises sont de précieux atouts qui nous ont permis de devenir un acteur incontournable sur le marché. Sous la marque nLighten France, nous allons continuer de valoriser nos atouts et d’offrir à nos clients des prestations d’hébergement de premier plan qui leur permettront de mener à bien leur transformation digitale. »

Un nouveau chapitre pour nLighten France

Pour mener à bien son nouveau plan de croissance, nLighten France poursuivra sa stratégie dʼexpansion territoriale avec lʼouverture de nouveaux sites et lʼévolution de ses datacenters existants pour répondre aux nouveaux usages, comme lʼIA par exemple. Enfin, en tant quʼacteur engagé, nLighten France compte intensifier ses investissements pour se positionner comme lʼune des organisations les plus vertueuses de son secteur en matière dʼefficience énergétique.

Le salon DC World constitue la plateforme idéale pour inaugurer ce nouveau chapitre dans la croissance de nLighten, avec ce rebranding qui symbolise un investissement continu en France et un engagement commun pour lʼinnovation dans le domaine des infrastructures numériques.

À propos de nLighten

nLighten est une plateforme dʼinfrastructure numérique axée sur le développement et la gestion de centres de données de proximité (Edge) innovants dans les principaux centres économiques dʼEurope. Nos centres de données, stratégiquement répartis, offrent un accès réseau de premier ordre aux entreprises, aux utilisateurs privés et aux travailleurs mobiles. nLighten sʼefforce dʼétablir une présence paneuropéenne dans toutes les grandes villes et les centres dʼaffaires plus petits. Les centres de données Edge de nLighten sont « Proche, Couplé et Connecté » (close, coupled, connected) : en étant plus proches des clients et des utilisateurs, nLighten garantit un accès à faible latence et une haute disponibilité pour les entreprises, la main-dʼœuvre mobile et les utilisateurs privés. Avec un engagement fort pour plus de durabilité, les centres de données de nLighten seront couplés avec la communauté locale, contribuant à la stabilité du réseau tout en minimisant lʼimpact sur lʼenvironnement. Connecté à un vaste réseau dʼopérateurs et de fournisseurs de services, nLighten permet une connectivité à vos données en temps réel et sans interruption à travers toute lʼEurope.

Fondée en 2021 par une équipe possédant des années dʼexpérience et une expertise variée dans lʼindustrie des centres de données, nLighten établit de nouvelles normes pour lʼinfrastructure numérique en Europe.

Le Groupe iliad et InfraVia s’associent pour développer un leader européen du data center hyperscale

Le Groupe iliad et InfraVia ‒ société de capital investissement indépendante de premier plan en Europe et expert en infrastructure ‒ sont entrés en négociations exclusives en vue de former un partenariat stratégique pour développer une plateforme de data centers hyperscale de référence en Europe. Dans le cadre de cette transaction, InfraVia acquerrait, via ses fonds dʼinfrastructures, une participation de 50% du capital dʼOpCore, valorisée à 860 millions dʼeuros en valeur totale dʼentreprise. Ce partenariat constitue un tournant décisif dans la croissance et le développement stratégique dʼOpCore.

OpCore est un opérateur de référence avec des data centers aux standards technologiques les plus avancés, implantés à Paris, Marseille, Lyon et en Pologne. Forte de 20 ans dʼexpérience dans la construction et lʼexploitation de data centers, lʼentreprise a su gagner la confiance dʼune clientèle exigeante et diversifiée, composée dʼacteurs hyperscalers du cloud, de sociétés technologiques et de grandes entreprises. En tant que pure-player regroupant les data centers du Groupe iliad, OpCore est idéalement positionnée pour adresser le marché européen des data centers actuellement en pleine expansion, avec une croissance annuelle estimée à plus de 20%.

OpCore est reconnue dans lʼindustrie du data center pour la mise au point de solutions technologiques permettant dʼoptimiser lʼefficacité et la durabilité de ses infrastructures. Lʼentreprise vise à conserver cet ADN dʼinnovation, à lʼheure où les usages dʼIA explosent ‒ avec les premières demandes de déploiements à large échelle de solutions de refroidissement liquide (« direct liquid cooling »).

Ce partenariat permet à OpCore de se doter dʼune structure financière optimale avec un financement dédié permettant de couvrir jusquʼà 75% des investissements par de la dette bancaire. OpCore disposera ainsi de plus de 130 MW de capacité, via la construction en cours dʼun data center de 100MW en région parisienne ‒ à laquelle viendront sʼajouter dʼautres projets en Europe totalisant plusieurs centaines de mégawatts.

OpCore et le Groupe iliad entendent œuvrer de manière rapprochée pour soutenir le développement ambitieux de Scaleway, la filiale cloud du Groupe iliad. Scaleway conservera son statut de client privilégié dʼOpCore et, en tant que leader européen du cloud dédié à lʼIA, contribuera à positionner OpCore parmi les leaders des infrastructures dédiées à lʼIA de prochaine génération.

Ce partenariat entre le Groupe iliad et InfraVia est une nouvelle avancée en faveur dʼun écosystème numérique souverain facilitant le développement économique et lʼinnovation en Europe.

Thomas Reynaud, directeur général du Groupe iliad : « L’ambition du Groupe iliad est à la taille de l’Europe. Nous allons investir avec notre partenaire InfraVia 2,5 milliards d’euros dans notre plateforme de datacenters OpCore pour devenir la première plateforme indépendante européenne.»

Vincent Levita, Fondateur et CEO dʼInfraVia : « Nous sommes ravis de poursuivre notre partenariat avec le Groupe iliad grâce à cet investissement dans OpCore. Cette transaction capitalise sur l’ensemble de notre expérience dans le développement de data centers hyperscale. Les data centers sont devenus des actifs essentiels de l’infrastructure digitale et connaissent une très forte demande nécessitant des investissements importants. Nous sommes fiers de pouvoir allier nos forces avec le Groupe iliad et contribuer à façonner un opérateur de data center hyperscale majeur en Europe. »

Arnaud de Bermingham, CEO dʼOpCore : « Chez OpCore, nous voyons actuellement une croissance sans précédent des besoins exprimés par les clients hyperscale du cloud et de l’IA. Notre expérience, notre historique et nos technologies uniques sont des atouts majeurs dans un marché du data center en pleine mutation. En tant que co-fondateur d’OpCore en charge de l’entreprise depuis 20 ans, je suis très fier du chemin parcouru et de la valeur créée jusqu’ici avec mon équipe. Cette transaction marque un tournant majeur dans notre trajectoire et je suis impatient de relever ce nouveau défi. Je suis convaincu que le Groupe iliad et InfraVia sont les actionnaires idéaux pour accompagner OpCore dans nos ambitions de développement. »

La transaction sera soumise à des consultations préalables auprès des instances représentatives du personnel. La clôture de la transaction devrait avoir lieu au premier semestre 2025, une fois les approbations réglementaires dʼusage obtenues.

Securitas Technology accompagne les organisations face aux risques liés aux batteries lithium

La hausse des incendies liés aux batteries lithium ces derniers mois crée de nouveaux enjeux de sécurité pour les entreprises et les infrastructures publiques. Pour accompagner ces dernières dans la prévention des incidents, Securitas Technology ‒ leader mondial et fournisseur global de technologies de sécurité et de sûreté ‒ déploie une solution de détection précoce qui identifie proactivement les émanations de gaz suspectes et alerte, au besoin, instantanément la centrale du Système de Sécurité Incendie (SSI).

Les batteries lithium : la détection précoce des risques, un enjeu crucial

Utilisées massivement dans des secteurs tels que lʼautomobile, lʼaéronautique, la précision mécanique ou bien encore le stockage dʼénergie, les batteries lithium sont au cœur de lʼinnovation industrielle. Les smartphones et les ordinateurs, les véhicules électriques, les dispositifs médicaux ou encore les panneaux solaires sont par ailleurs autant dʼappareils qui reposent sur leur utilisation.

Désormais incontournables dans notre quotidien, leur composition chimique et énergétique les rend néanmoins particulièrement vulnérables face à

un défaut de conception, un choc physique ou un usage avancé.

Ces incidents auxquels les batteries lithium-ion sont sujettes suivent souvent une séquence bien définie appelé emballement thermique. Ce phénomène est caractérisé par une montée progressive et incontrôlée de la température interne de la batterie.

Cette surchauffe engendre un dégagement de gaz inflammables et toxiques, marquant une étape critique dans lʼévolution de lʼincident. Si cette situation nʼest pas détectée et maîtrisée à temps, la batterie atteint un point de rupture où les gaz sʼenflamment provoquant un incendie ou, dans

certains cas, une explosion. Les batteries voisines sont alors susceptibles dʼêtre contaminées, ce qui amplifie les risques et les dégâts dans un effet domino.

Anticiper les risques grâce aux capteurs de gaz lithium

La prévention et la détection des émanations de gaz lithium, deviennent donc primordiales pour les entreprises qui encourent, en cas dʼincident, des interruptions dʼactivités critiques pour leur business, des risques de dommages matériels voire pour la sécurité des personnes.

Pour accompagner les organisations dans ces nouveaux enjeux de sécurité, Securitas

Technology déploie une solution qui permet de détecter précocement les gaz émis par les batteries lithium en surchauffe. Grâce à des capteurs positionnés de manière stratégique, il devient possible de surveiller en temps réel des zones spécifiques jusquʼà 20 m² par capteur.

Les émanations gazeuses à lʼorigine des incendies sont identifiées prématurément et instantanément remontées à la centrale incendie et au centre de télésurveillance, garantissant ainsi une chaîne parfaite de transmission de lʼinformation pour plus de réactivité. Ce

dispositif offre une marge dʼintervention précieuse (estimée entre cinq et dix minutes) avant lʼapparition de potentielles flammes ou explosion.

Rapidement alertées, les équipes dʼintervention peuvent ainsi agir pour contenir lʼemballement thermique et éviter lʼincendie propice à lʼaffectation des batteries voisines.

“L’efficacité et la densité énergétique des batteries lithium-ion, les ont rendues incontournables dans de nombreux secteurs. Cependant, la hausse des incidents liés le prouve, il est dangereux de ne pas prendre la me-

sure des risques inhérents à leur dysfonctionnement et à leurs usages en conditions extrêmes (sous de très fortes ou très basses températures par exemple). L’anticipation des risques par les industries et les commerces est essentielle. L’adoption de mesures de prévention et de protocoles de sécurité renforcés leur permettra de garantir la sécurité des personnes (usagers et travailleurs), du matériel et des infrastructures, tout en soutenant une transition énergétique durable et sécurisée”, explique Julien Poiron, Directeur Segment Incendie de Securitas Technology.

Quel

âge a votre data center ?

La moitié des datacenters dans le monde ont plus de 10 ans. Lʼenquête annuelle mondiale de lʼUptime Institute sur les data centers en 2024 révèle que lʼâge moyen dʼun data center est de 11,3 ans.

Cʼest un phénomène naturel, que lʼactualité riche en annonces de projets, de constructions et dʼentrées en production de nouveaux data centers, qui sʼaccentue avec les investissements massifs dans les infrastructures d'Intelligence Artificielle, tend à faire oublier : lʼâge moyen dʼun data center est de 11,3 ans. Cʼest ce que révèle lʼenquête annuelle mondiale de lʼUptime Institute sur les data centers en 2024, le vieillissement du parc des data centers.

Si lʼactualité des data centers se focalise sur les hyperscalers et la colocation, les seconds hébergeant une partie des infrastructures des premiers, cʼest oublier que lʼhistoire des data centers est autrement plus riche, et que la majorité dʼentre eux sont vieillissants. Pour prendre lʼexemple de la France, les premiers data centers ont été construits à une époque où lʼexpression ʻdata centerʼ, apparue au début du nouveau millénaire, nʼexistait pas. Cʼest ainsi quʼune partie des 5 000 data centers privés et salles blanches que compte le territoire (source France Datacenter) affiche de 10 à 15 ans, voire 20 à 40 ans… Car derrière la construction de data centers dans le monde liée à la demande massive de capacités de stockage de données pour

le cloud et lʼIA se cache le vieillissement des installations plus anciennes. Et pour certaines lʼheure est au rétrofit, à lʼimage des data centers les plus anciens de Telehouse ou de Data4 entrés en chantier de modernisation.

Autre phénomène quʼil faut prendre en compte, lʼaccélération massive des projets de construction participe à créer une image de sites récents. Ainsi selon lʼUptime Institute, la majorité de la capacité des data centers dans le monde (52%) se trouve désormais dans des installations qui ont été mises en service en 2014 et après. Cʼest pour cela quʼen appliquant une pondération, lʼâge moyen des data centers en termes de capacité, ce que les analystes de lʼUptime

nomment le “mégawatt moyen”, serait plutôt de 10,2 ans.

Ainsi, si 48 % des data centers ont plus de 10 ans, ils ne représentent que 38 % de la capacité informatique. Exprimée en puissance, cʼest-à-dire en mégawatts, le phénomène est encore plus marqué : 38 % des data centers ont 5 ans ou moins. Une tendance qui va s'accélérer, les premiers campus de data centers à 1 GW et plus sont entrés en phase de conception ou de construction. Même si leur part dans la masse des data centers reste

faible, malgré la ruée vers la construction de nouvelles capacités.

Autre tendance constatée, la demande continue de dépasser la construction, et lʼappétit pour les espaces viables est tel que peu importe que les infrastructures soient vieillissantes, leur exploitation justifie des dépenses énergétiques plus élevées. Lʼusage de data centers plus anciens risque donc fort de perdurer. Jusquʼà quand ? La réponse tient dans deux interrogations : quand lʼenveloppe énergétique des data centers de quelques années

sera-t-elle insuffisante ? Également quels seront les changements dans le paysage réglementaire qui retireront tout intérêt à lʼusage de data centers plus anciens ?

Le mégawatt moyen d’un data center est de 10,2 ans.

Le data center Lonestar, seul survivant sur la Lune

La mission lunaire Nova-C dʼIntuitive Machines sʼest crachée ! Lʼatterrisseur privé baptisé Athena, a raté son alunissage. Les charges embarquées sur lʼatterrisseur sont perdues. Pas toutes, cependant, puisque selon son concepteur la start-up spatiale Lonestar Data Holdings, lʼexpérience dʼun data center lunaire embarqué serait la seule charge utile à avoir survécu à lʼaccident…

Lʼatterrisseur Nova-C Athena dʼIntuitive Machines, lancé à bord d'une fusée SpaceX, a embarqué plusieurs dizaines de millions de dollars dʼexpériences réalisées à bord. Dont Freedom Data Center de Lonestar, un data center donc, destiné à la préservation de 8

téraoctets de données provenant de l'État de Floride et d'autres organisations gouvernementales et commerciales.

Enfermée dans une coque imprimée en 3D conçue pour résister au lancement et au voyage spatial, et aux condi-

tions lunaires difficiles pendant plus d'un millénaire, Freedom DC offre lʼassurance de préserver les données stockées des risques qui pèsent sur elles sur Terre, comme les cybermenaces ou les catastrophes naturelles.

La première étape de la mission a été un succès : le test du stockage des données et de la reprise après sinistre, avec des téléchargements de fichiers, des cryptages de données, des décryptages, des authentifications et des manipulations de données dans l'espace, est un succès. La charge utile de Lonestar a exécuté des tâches de traitement de pointe et démontré son endurance dans l'espace. Toutes ses mesures de puissance, de température, de mémoire CPU et de télémétrie sont restées stables, démontrant la capacité de survie de la technologie de Lonestar

dans l'environnement hostile de l'espace.

Malheureusement, le vendredi 28 février, à 384 400 kilomètres de la Terre, une erreur dʼalunissage de 240 mètres a fait basculer NovaC Athena sur le côté, dans un cratère glacial…

Mais voici que malgré lʼalunissage râté, Lonestar a confirmé que Freedom Data Center est intact. Ce serait même la seule charge utile à avoir survécu. Nul doute que lʼespace sera la future conquête des data centers.

La chaleur fatale dans le datacenter

Les data centers, qui fonctionnent sans interruption 24 heures sur 24, 365 jours par an, présentent les caractéristiques d'exigences de densité de flux thermique, de consommation d'énergie et d'émission de carbone élevées. Ils sont à ce titre d'importants producteurs de chaleur résiduelle, provenant principalement du fonctionnement ininterrompu des équipements informatiques et des systèmes de refroidissement.

La chaleur est une énergie, dont la production est liée à la consommation dʼénergie, et qui

par les émissions de carbone et de chaleur résiduelle présente un risque de détérioration de lʼenvironnement. Il est donc essentiel d'améliorer l'efficacité énergétique des data centers afin de réaliser des économies d'énergie et d'atténuer la détérioration de l'environnement.

A ce titre, les technologies de récupération de la chaleur résiduelle sont considérées comme des approches prometteuses pour améliorer l'efficacité énergétique, réaliser des économies d'énergie et de coûts énergé-

Dans un data center typique, les équipements informatiques (par exemple, les serveurs)sontlesplusgrosconsommateursd'électricité,représentantenviron44%dela consommationtotaled'électricité,suivisparlesystèmederefroidissementavec40%.

Livre blanc du Comité technique de l'ASHRAE

En 2030, 17 % des data centers en France récupéreront 20 % de leur puissance, ce qui représenterait 250 000 MWh/an d’économies d’énergie.

Etude menée par M.DC pour lʼADEME, lʼATEE, et France Datacenter tiques, et atténuer les impacts environnementaux.

Pour réduire la consommation d'énergie des data centers tout en garantissant leur fonctionnement sûr, deux types d'actions peuvent être prises afin de remédier aux inefficacités de charge informatique et à améliorer l'efficacité de refroidissement.

• Réduire la consommation électrique des équipements informatiques, par exemple par lʼamélioration de la virtualisation des semi-conducteurs et des serveurs. Mais la course à la puissance, en grande partie avec les GPU de lʼIA, limite son efficacité.

• Améliorer l'efficacité de refroidissement en CVC par :

• Le remplacement ou la complémentarité des sources de refroidissement du système de climatisation conventionnel (air cooling gratuit, water cooling gratuit, refroidissement par changement de phase et par évaporation) ;

• Lʼamélioration de l'efficacité énergé-

tique (gestion du flux d'air et récupération de chaleur perdue, l'optimisation de l'équipement de refroidissement).

La consommation énergétique et la densité de flux thermique élevées des data centers permettent de les considérer comme une source de chaleur pérenne et stable, qui fournirait une quantité continue et importante de chaleur résiduelle. Traditionnellement rejettée à lʼextérieur, cette chaleur considérée comme perdue peut être réutilisée. Elle est même considérée comme l'une des méthodes les plus prometteuses de conservation de lʼénergie.

Cependant, la récupération de chaleur dans les data centers présente un défi majeur, le faible niveau de température lié à la limitation de la température de fonctionnement des équipements informatiques. Cʼest ainsi que cette chaleur est considérée comme étant de faible qualité, dont la qualité thermique doit être améliorée par des pompes à chaleur pour répondre aux besoins de chaleur. Mais

Selon une étude de Microsoft dans ses data centers, pour chaque MWh d'énergie électrique consommée, on peut s'attendre à une réutilisation de l'énergie thermique entre 0,69 MWh (en hiver) et 0,86 MWh (en été) dans le cas d'un data center refroidi par air.

Un data center de 10 MW de capacité IT consomme annuellement 105 GWh.

Le potentiel d’énergie liée à la chaleur pour un usage local s’établit à : 73 GWh en hiver (soit le chauffage d’environ 12 000 foyers) 90 GWh en été (soit le chauffage d’environ 14 000 foyers)

Source : “Modern datacenter heat energy reuse” de Microsoft

dans le même temps, l'utilisation des échangeurs de chaleur et des pompes à chaleur peut servir à une variété d'utilisations.

Les méthodes de récupération et dʼexploitation de chaleur perdue possibles dans le data center comprennent le chauffage et l'approvisionnement en chauffage urbain, la production de froid dans un cycle d'absorption ou de refroidissement par adsorption, la production d'électricité, la production de combustible de biomasse, etc. Une grande partie dʼentre elles réduisent les besoins en énergie ainsi que des émissions de carbone.

« L’énergie ne peut être nicrééenidétruite. Elle ne peut être que convertie d’une forme d’énergieenuneautre.»

Loi de la conservation de lʼénergie, introduite par Émilie du Châtelet au XVIIIe siècle

« Les datacenters intégreront des solutions innovantes, telles que des systèmes de récupération et d’exportation de chaleur, pour réutiliser l’excès de chaleur généré

par les serveurs pour des projets de chauffage locaux

et

des initiativesdurables.»

Bruce Owen, président EMEA dʼEquinix et directeur général pour le

Royaume-Uni

Pourquoi exploiter la chaleur fatale du

data center ?

Incontournables de la donnée numérique et des flux dʼinformations, les data centers sont aussi d'importants consommateurs d'énergie, dont lʼimpact sur l'approvisionnement énergétique et l'environnement est un enjeu majeur. A ce titre, l'évacuation de la chaleur produite pendant le fonctionnement de lʼinformatique et des équipements du data center est un défi constant. Et qui devient plus complexe avec lʼémergence des infrastructures dʼIA (Intelligence Artificielle) et les nouveaux objectifs d'efficacité et de réduction des émissions de carbone fixés par lʼEurope, les gouvernements et les autorités locales.

Les clients des data centers sont également de plus en plus préoccupés par l'empreinte carbone de leur utilisation des données. Au travers de lʼapproche Scope 3 de la transition écologique et énergé-

tique, ils se concentrent sur la collaboration avec des fournisseurs qui, dans ce domaine, peuvent démontrer des références bas carbone. Globalement, les développeurs comme les opérateurs de data centers sont sous une pression croissante pour fournir des services robustes et sans défaut, tout en réduisant la consommation d'énergie et les émissions carbone.

18 % du chauffage en Europe pourrait provenir des réseaux de chaleur d'ici 2050, contre seulement 2 % aujourd'hui.

Des scénarios pour bénéficier de lʼefficacité des data centers L'attention sʼest dʼabord portée sur la sélection des technologies de refroidissement pour correspondre aux exigences des bâtiments tout en atteignant les objectifs de réduction d'énergie. Pour autant, il existe une autre façon d'aborder ce défi, considérer les data centers comme des sources d'énergie thermique pou-

vant être appliquées à d'autres bâtiments : la réutilisation de la chaleur émise et perdue par les data centers, également appelée “chaleur fatale”.

Cʼest pour cela quʼémerge un scénario reposant sur lʼassociation de la chaleur fatale avec les réseaux de chaleur et lʼexploitation des pompes à chaleur (qui utilisent la chaleur basse température comme source d'énergie).

Si cette méthode a été adoptée à travers l'Europe du Nord, elle présente de nombreuses opportunités de croissance dans le reste de lʼEurope et dans le monde.

La chaleur de sortie des data centers est d'environ 30ºC à 35ºC. Les pompes à chaleur peuvent utiliser l'eau à cette température comme source de chaleur, augmentant la température jusqu'à 70ºC à 80ºC. Cette énergie thermique peut être utilisée dans le bâtiment du data center et dans les bâtiments à proximité pour le chauffage général. Elle peut également répondre à la demande d'eau chaude sanitaire dans les salles de bains et les douches, par exemple. Alternativement, elle peut être utilisée à plus grande échelle dans les réseaux de chaleur.

L'initiative de Stockholm (Suède) visantàattirerdesdatacentersdansla ville et à capter leur excès de chaleur dans le réseau de chauffage urbain de la ville lui a permis de réduire les émissions du système de 50 g de CO2 par kilowattheure.

La réutilisation de la chaleur, donner une seconde vie au PUE

Le PUE (Power Usage Effectiveness) - le rapport entre l'énergie totale utilisée par un data center (y compris la charge informatique, le refroidissement, l'éclairage et autres systèmes électriques) et l'énergie fournie aux équipements informatiques - mesure l'efficacité d'utilisation de l'énergie consommée par le data center. Le PUE idéal est de 1,0, c'està-dire que toute lʼénergie va aux serveurs. Or, mesuré par lʼUptime Institute, le PUE moyen mondial en 2024 est de 1,56. Il a fortement chuté entre 2007 (PUE 2,5) et 2017 (PUE 1,58), soulignant le travail considérable effectué par les acteurs du data center en matière dʼefficacité énergétique et de réduction de la consommation, mais depuis il peine à rejoindre à défaut de se placer en dessous de la barre des 1,5. LʼUptime Institute note que “les progrès ont ralenti”, nous ajouterons que la donnée créée explose, tout comme la construction des data centers pour la stocker et la traiter, ce qui explique en partie ce ralentissement. Le PUE a besoin dʼun coup de pouce, les nouvelles pratiques en matière de refroidissement des data centers et dʼexploitation de la chaleur perdue vont lʼaider à se rapprocher du 1.0.

La prise en considération du facteur de réutilisation dʼénergie ERF (Energy Reuse Factor) devient essentielle dans la conception et l'exploitation des data centers. LʼERF mesure la quantité d'énergie réutilisée divisée par la quantité totale d'énergie électrique fournie à un data center. On retrouve ce facteur dans une nouvelle norme ISO/IEC 30134-6:2021 Technologies de l'information - indicateurs de performance clés des data centers - Partie 6 : Facteur de Réutilisation d'Énergie (ERF). Cette nouvelle norme définit l'énergie réutilisée comme : "L'utilisation de l'énergie utili-

sée dans le data center pour un objectif alternatif en dehors des limites du data center. L'énergie rejetée dans l'environnement ne constitue pas de l'énergie réutilisée."

Le Forum Économique Mondial (FEM) a reconnu l'importance d'exploiter la chaleur produite par les data centers, et estime que le marché du chauffage par des data centers pourrait valoir 2,5 milliards de dollars d'ici 2025. Microsoft a estimé qu'il est possible d'atteindre une plage de FRE allant jusqu'à 69% pendant les mois d'hiver et 86% en été. Les facteurs atténuants comprennent le type de système de refroidissement utilisé dans un data center et les températures ambiantes. Les data centers peuvent également aider d'autres bâtiments, y compris les maisons, à devenir plus durables en fournissant une source de chaleur alternative. Cʼest ainsi que les principaux développeurs et propriétaires de data centers cherchent à adopter les avantages de la réutilisation de la chaleur.

Le Comité sur le Changement Climatique du Royaume-Uni estime quant à lui que 18% du chauffage sur le territoire pourrait provenir des réseaux de chaleur d'ici 2050… contre seulement 2% aujourd'hui ! La France nʼest pas éloignée de ces chiffres.

de normes minimales de performance en matière de durabilité pour les data centers. L'objectif est que les data centers de l'UE soient neutres en carbone d'ici 2030. Le Code de conduite (Code of Conduct) européen pour les data centers fournit également des informations aux opérateurs sur l'amélioration de l'efficacité énergétique dans plusieurs domaines. Dont celui de la réutilisation de la chaleur perdue (Section 5.7), notant "Alors que l'utilisation des équipements informatiques augmente grâce à la consolidation et à la virtualisation, la température d'échappement est susceptible d'augmenter, ce qui offrira une plus grande opportunité de réutiliser la chaleur perdue".

Selon une étude du Lincoln Laboratory du MIT,

97 % de l’énergie électrique consommée par les data centers pourrait être exploitée sous forme de chaleur.

Vers une réglementation incitative

En Europe, la nouvelle Directive sur l'Efficacité Énergétique exige que les propriétaires de datacenters d'une capacité minimale de 500 kW divulguent leur performance énergétique. Cette directive sera suivie par lʼintroduction

Dans le prolongement de la vision européenne, lʼAllemagne a introduit en septembre 2023 une loi sur l'efficacité énergétique avec des exigences spécifiques. Par exemple, les data centers opérationnels devront atteindre un PUE de 1,5 ou moins d'ici 2027, et de 1,3 ou moins d'ici 2030. Quant à ceux qui commenceront leurs opérations après 2026, ils devront afficher un PUE de 1,2 ou moins. Les data centers devront atteindre 10% de réutilisation de la chaleur d'ici 2026 et 20% d'ici 2028 (mesure ERF - Facteur de Réutilisation d'Énergie). Selon une hypothèse statistique d’Equinix, un data center de 20 MW de charge informatique suppose environ 150 000 MMBTU (45 GWh) de chaleur récupérable par an.

En France, lʼétude M.DC sur lʼEfficience Énergétique dans les Datacenters - mandatée par lʼATEE, lʼADEME et France Datacenter - a dévoilé que 22% des sites bénéficient dʼune forme de récupération et de valorisation de la chaleur fatale, et que 81% de cette valorisation sur les sites existants et en projets se fait vers les réseaux de chaleur. Il existe dʼailleurs une fiche RES CH 108 qui rend éligible aux CEE (Certificats dʼEconomie dʼEnergie) lʼinstallation dʼéquipements permettant la fourniture de chaleur vers un réseau de chaleur ou un tiers.

Si lʼoptimisation de l'efficacité du refroidissement sera cruciale pour atteindre le niveau d'amélioration attendue pour l'efficacité des data centers, la réutilisation de la chaleur rejetée est également largement promue comme vitale pour l'avenir du secteur et participera à réduire les émissions de carbone. En Europe, le ERF est ainsi appelé à devenir une considération vitale pour la conception et l'exploitation des data centers.

Les « Directives thermiques pour les environnements de traitement des données » (Thermal Guidelines for Data Processing Environments) de l’ASHRAE recommandent : une plage de température de 18 à 27 °C, une plage de point de rosée de 5,5 à 15 °C et une humidité relative maximale de 60 %.

Des températures trop élevées entraîneront une surchauffe des composants et un dysfonctionnement, tandis qu’une température trop basse ou une humidité trop élevée entraîneront une condensation sur les composants internes et des courts-circuits. Une faible humidité entraîne des problèmes de décharge d’électricité statique qui peuvent endommager l’équipement.

S’il est essentiel de maintenir un environnement de fonctionnement correct, les processus associés sont gourmands en énergie.

L’exploitation de la chaleur fatale contribue à la trajectoire de décarbonation d’Etix

Etix Everywhere

Lʼinterview de Thomas HOMBERT, Directeur Général France et Belgique dʼEtix Everywhere, qui a accueilli les Assises de la Chaleur Fatale 2024

DCmag - Etix Everywhere est le partenaire de DCmag pour lʼorganisation des premières Assises de la Chaleur Fatale. En quoi est-ce important ?

La chaleur fatale et plus globalement notre trajectoire de décarbonation font partie des enjeux forts de notre société. Le sujet de la récupération de la chaleur fatale est un sujet central sur nos sites existants et que lʼon va développer à chaque fois que nous en aurons lʼoccasion.

Un des éléments importants des Assises, cʼest la démonstration que la chaleur fatale est également exploitable sur des plus petits sites…

Cʼest vrai. Sur le panel dʼexperts qui sont intervenus sur la table ronde des Assises, on a beaucoup insisté sur le fait que la récupération de chaleur fatale ne se fait pas forcément sur des gros sites, mais quʼelle a également un vrai impact local sur des sites réduits. Etix 3 est un site de 1,5 MW, important

en région, connecté au réseau de chaleur urbain de la communauté dʼagglomération de Valencienne Métropole. Elle bénéficie de nos calories en hiver. Et qui nous permet de chauffer notamment le Centre des Congrès où se sont déroulées les Assises.

Nous constatons que lʼexploitation de la chaleur fatale a un effet non négligeable sur le PUE du data center.

Cʼest vrai que nous travaillons beaucoup chez Etix et depuis le début sur la conception pour avoir un PUE cible qui soit le meilleur possible. Nous avons un PUE cible de 1,3 dès 70% de charge sur les sites que lʼon conçoit. Dans notre développement, nous avons fait pas mal dʼacquisitions, dont ce site Etix 3 acquis de ex-CIV France, et sur lequel on va travailler sur lʼoptimisation du PUE par différents moyens, notamment les réglages de boucle de chaleur, et différentes technologies que lʼon peut utiliser. Il y a pas mal de moyens de le faire, ce sont des investissements qui en valent le coût car on a un impact sur lʼenvironnement. Mais aussi sur notre facture à la fin du mois, et sur la facture de nos clients également. Et on a les enjeux de récupération de chaleur fatale sur lesquels on a plaisir à travailler.

Cʼest aussi un projet politique qui associe une entreprise, une industrie qui produit de la chaleur et la récupère, et une communauté urbaine.

Etix est un acteur, et le producteur des calories. Il y a des utilisateurs, le Centre des Conférences, des piscines, des lycées... Mais sans le liant entre les deux, et finalement le chef dʼorchestre qui va permettre aux utilisateurs et au producteur de travailler ensemble, ça nʼexiste pas. Donc il y a une vraie volonté politique à lʼorigine de ces projets de récupération de chaleur fatale. Egalement, on le sait aujourdʼhui avec la réglementation, que cʼest devenu obligatoire de pousser un projet de chaleur fatale pour tout nouveau projet de data center. Je pense que, plus largement, la raison pour laquelle on a tant plaisir à sʼinscrire sur ces sujets, cʼest que ça sʼinscrit réellement dans notre stratégie et dans la stratégie dʼimpact local.

Nous avons aujourdʼhui treize sites répartis sur le territoire, dont un dans la capitale, mais aussi dans les régions. Et on a ce vrai maillage du territoire, dʼailleurs nous sommes nés en région. Et aujourdʼhui, notre mantra cʼest dʼapporter le service là où le client en a besoin. Et donc on va aller sʼim-

planter dans les villes secondaires, qui sont très importantes pour le développement économique, et on va participer au développement de lʼéconomie numérique de ces villes en proposant une plateforme dʼinterconnexion, puisque sur ces sites, dans chacune des régions, nous détenons le hub télécoms avec entre 35 et 40 opérateurs pour chacun des hubs, qui vont permettre à tout lʼécosystème digital de sʼinterconnecter et de travailler ensemble.

Donc, nous avons cette volonté dʼavoir un impact fort localement, à travailler également avec les institutions locales pour pouvoir faire bénéficier de cet impact au plus grand nombre. Et donc on en revient à cette chaleur fatale qui a également un impact fort malgré la taille des sites un peu plus modestes que les gros sites dans les capitales, mais qui ont un vrai impact sur notre environnement.

La chaleur fatale entre également dans la stratégie de décarbonation du groupe.

Tout à fait. Nous avons eu un fort développement ces dernières années, au-delà de la croissance organique que lʼon développe tous les ans autour dʼune vingtaine de pour-

cents. Nous avons beaucoup accéléré, passant de 5 à 15 data centers en un peu moins de trois ans. Cela a été rendu possible grâce à nos investisseurs qui nous accompagnent sur des acquisitions stratégiques qui vont nous permettre dʼaccélérer le développement, de nous développer sur de nouvelles régions, et ensuite dʼouvrir la porte à des développements organiques avec de nouveaux sites sur chacune de ces régions.

Qui dit croissance externe dit également optimisation de sites existants, sur le PUE par exemple, et cela va participer à cette trajectoire de décarbonation. Mais au-delà des sites eux-mêmes, nous intervenons en amont avec lʼapprovisionnement en énergie verte. L'objectif dʼEtix est 100% dʼénergie verte dès 2027 et neutralité carbone à 2030 puisque nous adhérons au Climate Neutral Data Center Pact. Et en aval du bout du cycle, on en revient au sujet de la chaleur fatale. Lʼobjectif, cʼest de pouvoir la recycler dès que lʼon peut. A Valenciennes, cʼest assez clair. Sur un autre datacenter, on préchauffe nos groupes électrogènes avec la chaleur fatale. Et sur nos prochains sites à sortir, Etix Lille 4 et Etix Lyon 2, lʼobjectif comme à Valenciennes sera de se connecter au réseau de chaleur urbain et de pouvoir faire bénéficier de ces calories lʼécosystème. Qui dit nouveau dit parfois reconstruction, on va toujours essayer de travailler sur des friches industrielles ou sur des bâtiments existants, cʼest le cas pour nos prochains sites, où au moins la dalle est là, et où on évite dʼartificialiser les sols, ce qui contribue à notre trajectoire de décarbonation et à limiter notre impact sur lʼenvironnement.

Comment exploiter la chaleur fatale du data center ?

Les participants aux Assises de la Chaleur Fatale ont pu découvrir le cas concret datacenter Etix Lille #3, adossé à une boucle de chaleur locale, et le visiter. DCmag a également réalisé une visite en vidéo, en compagnie de Johan DEROOST, Responsable Infrastructure France et Belgique, et dʼOlivier HALLOT, Responsable énergie et cooling EU, chez Etix Everywhere.

Nous vous décrivons ci-dessous le schéma de la visite du datacenter avec les étapes du parcours de la chaleur. Le lien pour regarder la vidéo figure dans ce dossier.

La visite débute par la salle de contrôle et de supervision du data center avec Johan DEROOST.

Une salle serveur. La chaleur est produite dans ces salles. Nous sommes dans une allée chaude, tandis que lʼallée froide confinée derrière les racks visibles ici est refroidie. Le confinement permet de mieux récupérer et redistribuer la chaleur, lʼair circule en circuit fermé.

Dans ce local technique, le froid provenant de la boucle locale est redistribué sur la machine de refroidissement, que lʼair chaud des serveurs traverse dans un échangeur où la chaleur est captée. Lʼair repart froid vers les serveurs, et lʼeau réchauffée est dirigée vers un échangeur à lʼextérieur.

Selon les températures, le réseau dʼeau est refroidi par les groupes froids (à droite sur la photo), ou alors toutes les calories sont données via le local géothermie de la ville (au fond).

Dans le local géothermie, la ville redonne de lʼeau froide au datacenter qui dans un cercle vertueux va la réchauffer dans lʼéchangeur à plaques (à droite) à lʼaide de la chaleur fatale. Cette eau chaude est ensuite renvoyée par des pompes dans le réseau de chaleur.

Lʼeau froide fournie par la ville permet de ne pas faire tourner les groupes froids et représente un gain dʼénergie important pour le datacenter.

Dernière étape de notre visite, Olivier HALLOT - dont les missions chez Etix sont de retravailler sur lʼénergie et dʼen consommer le moins possible, tout en assurant le refroidissement des datacenters - évoque pour nous lʼinfluence positive de lʼexploitation de la chaleur fatale, dont les calories sont données à la ville, sur le PUE du datacenter.

Autre exploitation de la chaleur fatale, Etix récupère également des calories du datacenter pour, via une pompe à chaleur, maintenir en température le groupe électrogène à la place dʼune résistance électrique. De nouveau des gains dʼénergie et de réduction du PUE.

Les minutes des Assises de la Chaleur Fatale

Margaux Plantive-Triger, Responsable RSE Etix Everywhere

Patrick Marty, chercheur et directeur R&D THEIA ENERGY

Laurent Delannoy, responsable du pôle ENR&R Ferest

Pierre-Yves Chouadra, expert Energies & Décarbonation, fondateur de PYXED

Nathan Chiantaretto, Président MD.C

Yves Grandmontagne, rédacteur en chef DCmag

Le 12 décembre 2024 se sont tenues les premières Assises de la Chaleur Fatale, co-organisées par DCmag et Etix Everywhere, à la Cité des Congrès Valenciennes. Lʼévénement a permis de visiter le datacenter Etix Lille #5, à Valenciennes, relié à une boucle de chaleur locale (lire la suite).

La visite a été suivie par une table ronde sur les « Défis, Coûts et Avantages de la Récupération de Chaleur », qui a réuni :

• Margaux Plantive-Triger, Responsable RSE dʼEtix Everywhere

• Laurent Delannoy, responsable du pôle

ENR&R de Ferest

• Nathan Chiantaretto, Président de MD.C

• Patrick Marty, chercheur et directeur

R&D de THEIA ENERGY

• Pierre-Yves Chouadra, expert Energies & Décarbonation, fondateur de PYXED

Elle a été animée par Yves Grandmontagne, rédacteur en chef de DCmag

Etat des lieux de la pratique de la chaleur fatale

Nathan Chiantaretto, Président de M.DC et rapporteur de lʼétude « Efficacité énergétique dans les datacenters » 2024 de lʼADEME, lʼATEE et France Datacenter

Lʼétude a consolidé les données de 50 opérateurs de data centers, avec 62 sites existants en fonctionnement, et 74 sites prévus sous cinq ans. Elle fait le constat de lʼévolution de la filière, avec une puissance IT qui explose sur quinze ans, multipliée plus que par trois d'ailleurs entre 2020 et 2035. L'impact des datacenters sur la consommation nationale d'électricité est entre 2,5 et 3 % ; projetée à 2035, elle est quasiment 7 %. C'est très lié aux capacités de récupération de chaleur, de la consommation générale de l'énergie dédiée

aux serveurs aux éléments périphériques, production de froid, pertes en charge et tous les autres éléments, tout pouvant être directement indexé d'une certaine manière sur la puissance IT.

Lʼétude constate également lʼexplosion de la densité IT, qui se compte soit en kW/m² dans les salles blanches, ou en kW (kilowatts) par baie ou rack, c'est à dire les piles de serveurs. La densité IT moyenne relevée sur les bâtiments existants est de l'ordre de 3 kw/m². Et on voit arriver des sites avec des densités qui vont relever de 50 à 100 kW/m². 30 % des acteurs audités ont indiqué avoir des projets de salle où lʼon dépasse effectivement les 30 kilowatts IT au mètre carré, ce qui est déjà sur une multiplication par dix. Cʼest pour cela quʼil est important, avant dʼévoquer la chaleur fatale, de parler de la croissance de la filière et de la densité.

L'un des gros enjeux de la filière data center sur la récupération de chaleur, c'est la température des boucles, et la distribution sur des réseaux qui sont en général vers les 80° à 90° de température. Aujourd'hui, les data centers sortent aux alentours de 30° à 40° maximum. Donc cela nécessite des installations, notamment des pompes à chaleur, pour venir remonter cette température. C'est ce qui fait quʼil n'y a pas autant de projets qu'on pourrait le souhaiter. Justement, avec lʼaugmentation de la densité, nous avons un vrai sujet puisque pour le coup, nous arrivons sur des sujets de refroidissement liquide, notamment immersion et DLC, qui vont se développer avec des températures de boucles qui seront plutôt de l'ordre de 50°. Et nous avons effectivement une grosse partie des acteurs qui sont très intéressés par la récupération de chaleur avec 80 % vers les réseaux de chaleur.

Nous avons fait des projections sur les financements et les économies d'énergie qui pourraient être associées au dispositif C2E. Nous sommes notamment partis dʼune hypothèse de 17 % du parc qui en 2030 aurait de la récupération de chaleur et qui serait capable de récupérer 20 % de la puissance. Cela représenterait seulement 3,4 % de la puissance installée qui serait récupérée. Donc c'est à la fois beaucoup et peu. Mais cela représenterait des économies d'énergie annuelles, au niveau national, de 250000 mégawatts par an. Donc c'est déjà absolument considérable et cela représenterait potentiellement des subventions à la filière pour mettre en place ce type de projet de l'ordre de 25 millions d'euros. Nous ne sommes pas sur des éléments qui sont négligeables.

Nous sommes effectivement dans une période de transition, notamment avec l'arrivée du refroidissement liquide de ces densités IT, qui vont rendre de plus en plus possible la mise en place de récupération de chaleur. Si lʼon regarde juste ce dernier point, les projections de récupération de chaleur, ce sont des économies d'énergie potentielles que nous avons pu recenser dans le cadre de l'étude. Et souligner que la récupération de chaleur, c'est une des technologies qui a le plus fort potentiel d'économie d'énergie en France.

Pour rappel, un abstract de lʼétude de lʼétude « Efficacité énergétique dans les datacenters » 2024 de lʼADEME, lʼATEE et France Datacenter, réalisée par MD.C, est intégrée à Datacenter Magazine n°7 dont la version numérique peut être téléchargée gratuitement en ligne sur le site DCmag.fr.

L’expérience d’Etix Everywhere

Margaux Plantive-Triger, Responsable RSE dʼEtix Everywhere

Chez Etix, on cherche à offrir à nos clients des solutions de colocation, de proximité, souveraines et responsables. Et pour cela, nous avons défini une stratégie RSE en trois piliers, donc un pilier environnemental. On vise à être neutre en carbone sur les scopes 1 et 2 d'ici 2030. Donc ce pilier environnemental va passer par l'achat d'énergies vertes. Fin 2024, nous sommes à 57 % d'énergies vertes sur l'ensemble du périmètre du groupe. On suit également les recommandations du Climate Neutral Data Center Pact. Donc l'année prochaine, nous serons à 75 % des 100 % d'énergies vertes ciblés en 2030. Donc cette décarbonation passe beaucoup par l'énergie. Nous avons également d'autres projets, dont justement la chaleur fatale qui rentre totalement dans cet enjeu environnemental. Le troisième pilier est sociétal. On favorise le bien être de nos collaborateurs et partenaires.

Avec nos data centers Edge, donc de proximité, nous cherchons aussi à avoir un impact fort sur les territoires où lʼon opère. Du coup, les projets de chaleur fatale entrent dans

deux de nos trois engagements. Ce sont vraiment des projets que l'on souhaite mettre en valeur et développer dès que possible. Nous avons également des liens forts avec la réglementation et les directives dʼefficacité énergétique qui demandent aux data centers de plus d'un mégawatt de faire des études pour mettre en place la valorisation de la chaleur fatale. C'est aussi un levier pour agir sur le sujet. Et il y aura également certainement des décrets qui vont en découler avec des taux d'accises réduites sur les prix de l'électricité quand on a ce genre de projet de chaleur fatale. Donc le contexte RSE, mais également réglementaire et sociétal, fait que ces projets sont intéressants pour nous.

Les conditions d’un projet local

La chaleur fatale est un sujet qui concerne les industriels depuis plusieurs années, qui commence à devenir de plus en plus démocratisé, mais également les data centers. Pour faire un peu d'historique de la boucle locale sur la ZAC des rives de l'Escaut, c'est une initiative qui est effectivement issue de la commune

d'agglomération Valenciennes Métropole, qui a un projet de construction de cette ZAC et donc qui comprend le Palais des Congrès, bien sûr le data center, qui comprend également une résidence étudiante, des bureaux et une université du numérique Rubika. Et donc, il y a eu un projet de boucle locale exploitée en régie par la communauté d'agglomération et alimentée par de la géothermie et de la récupération de chaleur sur le data center. C'est la collectivité qui exploite le réseau et vient connecter les différents bâtiments à cette boucle locale qui est une boucle basse température.

On appelle ça une BETEG, une boucle dʼeau tempérée à énergie géothermique, qui vient donner de la chaleur ou du froid aux différents bâtiments qui sont connectés via des pompes à chaleur. Et donc le data center est un générateur de chaleur, notamment en période hivernale. Il donne des calories à la boucle et les utilisateurs peuvent bénéficier de ces calories, notamment en période estivale. Il y a un switch, et c'est plutôt la géothermie qui vient donner des frigories aux consommateurs de froid, sachant que quelquefois il y a des consommateurs de froid et des consommateurs de chaud simultanés. Donc, il y a aussi un transfert d'énergie entre ces consommateurs qui, de manière simultanée, consomment du froid en hiver, et donnent leurs calories également aux consommateurs de chaleur.

Nous accompagnons effectivement la Communauté dans le suivi de la performance de cette boucle locale et dans son développement vis à vis des bâtiments qui se

construisent sur la ZAC. Nous accompagnons également Etix dans cette démarche, qui est parallèle, ainsi que sur des démarches qui concernent d'autres sites. Donc notamment il y a un site à Lesquin qui pour lequel on a travaillé avec eux pour étudier une solution de récupération de chaleur fatale sur leurs serveurs pour une valorisation externe via un industriel. Avec toute une étude de faisabilité technique, économique, financière, voire juridique pour pouvoir mettre en place une boucle locale sur un autre site.

Le data center, tout seul avec sa chaleur fatale, ne ferait rien. Il faut qu'il y ait un vrai partenariat avec les collectivités locales, territoriales, etc. Une vraie synergie à trouver. Ce nʼest pas facile à lancer parce que, effectivement, ça demande beaucoup d'investissement. Effectivement, il faut des partenaires, quelqu'un qui a la compétence administrative, notamment pour tirer ces réseaux, et il faut des consommateurs et des fournisseurs d'énergie, et tout ça en même temps et avec le risque que ça comprend. C'est loin d'être facile de lancer ce genre de projet. Donc là, la collectivité a joué son rôle, en permettant de sortir, de faire émerger un projet et de pouvoir agglomérer des parties prenantes différentes au projet.

Exploiter la chaleur fatale, une obligation et des solutions

Aujourd'hui, on a entre guillemet une obligation de moyens de réfléchir sur ces solutions. Et il faut comprendre quʼaujourd'hui, en tout cas dans des projets de constructions neuves, elles ont un impact direct sur le délai d'instruction des dossiers. Et aujourd'hui, il y a de plus en plus de dossiers de construction de data centers neufs qui se retrouvent un peu dans le corner lorsquʼils doivent expliquer aux autorités administratives, dans le cadre des demandes d'agrément, quelles solutions ils ont trouvé pour la récupération de chaleur fatale. Et aujourd'hui, ces autorités ne se satisfont plus de simplement quelques éléments en disant “Oui, on a réfléchi, on a vu qu'il y avait un réseau de chaleur à quelques kilomètres. Il y a une bonne idée”. Aujourd'hui, ces autorités demandent des éléments très concrets et l'impact peut être, dans le meilleur des cas, simplement un report de délai. Donc on se prend six ou huit mois sur le délai d'instruction. Il y a eu des autorisations qui ont été refusées et qu'il a fallu casser dans le cadre de démarches qui ont pris beaucoup plus de temps. Donc ça devient un vrai élément contraignant du planning de développement de ces projets. Donc pour ces acteurs de data centers, ce sont des sujets qui doivent être anticipés très tôt.

À mon sens, au moment où on va sécuriser un foncier, on va sécuriser un approvisionnement électrique. Il faut aussi sécuriser le périmètre et l'environnement de savoir qu'est ce que l'on va faire de cette chaleur fatale. Il n'y a pas de solution toute faite, ça n'existe pas. Et donc il faut la créer, cette solution de récu-

pération de chaleur fatale. Il faut aller chercher les acteurs. Cela peut être de l'industriel, de l'immeuble, du réseau de chaleur, mais ce sont des discussions qui prennent beaucoup de temps. Et effectivement, lorsqu'on est au moment de déposer une demande d'agrément ou les permis de construire, et bien on n'a pas, on n'a plus le temps d'avoir cette discussion là. Donc aujourd'hui, l'impact pour un concepteur de datacenter, c'est vraiment d'anticiper très, très tôt, d'engager très vite des discussions avec l'écosystème qui l'entoure, les collectivités. Et on s'aperçoit que huit fois sur dix, tout le monde est très intéressé par ce type de solution. Tout le monde est très motivé, avec malheureusement souvent des pas de temps qui ne sont pas les mêmes, qui ne sont pas forcément alignés. Et donc plus on prend tôt ces projets, plus on est capable d'aligner ses pas sur le développement d'un réseau de chaleur, etc. Donc finalement, concrètement, pour un constructeur Data center, c'est vraiment d'anticiper dans la phase projet. Après, d'un point de vue simplement pratique, les solutions techniques sont pas très compliquées. Les solutions pratiques sont connues et sont plutôt simples à mettre en place. Par contre, la complexité c'est vraiment de trouver cette bonne cohérence entre les objectifs de chacun.

La chaleur fatale, le potentiel du déchet

Comme on lʼa dit, les solutions sont faciles à mettre en œuvre. Le plus simple, aujourd'hui, c'est effectivement de valoriser la chaleur fatale à travers un réseau de chaleur. Mais il faut voir de quoi on parle, parce que la chaleur fatale, c'est déjà le déchet du déchet. Il y a eu une phase où on est passé de la conception et de l'exploitation de data centers avec un PUE qui était bien au-delà de 2, à aujourd'hui des performances énergétiques, des équipements, avec le confinement, avec les nouvelles technologies, on arrive à avoir un PUE de plus en plus bas et donc de moins en moins de chaleur fatale à récupérer, donc de moins en moins de chaleur fatale à exploiter. Sachant que ce déchet, si on veut le revaloriser, il faut quand même trouver une exploitabilité. Cʼest une quantité d'énergie assez importante pour valoriser ce réseau de chaleur. Il y a un modèle économique à trouver, mais cette équation économique est facilement trouvable. Sur les data centers de taille tactique réduite, ça donne une image vertueuse, mais ce n'est pas avec le peu de chaleur qu'on va récupérer. Heureusement qu'il y a la géothermie à côté qui alimente le réseau de chaleur. C'est prioritaire. C'est ça le déchet. Il vient donner un complément, mais ce n'est pas ce déchet qui va faire vivre le réseau de chaleur. Donc le data center, il faut qu'il s'inscrive dans le territoire, dans un projet mutuel et de collectivité.

Nous avons déjà travaillé, il y a déjà trois ans, sur la valorisation de la chaleur fatale et ce marché. Aujourd'hui, nos recherches se développent plus sur les nouvelles ingénieries et

surtout sur le stockage d'énergie à grande échelle. Il vaut mieux, peut être, focuser plus sur comment on peut participer à l'intégration dans des smart grids du réseau d'énergie… Il faut effectivement s'intégrer dans tout ce qui est fournisseurs d'énergie et gros data centers, gros hyperscalers. Il faut développer en partenariat avec les fournisseurs d'énergie. Il ne faut pas leur dire on va rénover le poste de livraison ou le poste de transformation, et on va financer. Ce nʼest pas “vous me donnez 800 MW, vous aurez 300 MW pour la collectivité. Ce n'est pas comme ça qu'il faut réfléchir. Il y a beaucoup de choses qui peuvent être faites, mais en intégrant surtout l'ingénierie et surtout le bon sens. Aujourd'hui, c'est une hérésie de mettre 80 groupes froids et 80 groupes électrogènes sur une terrasse qui ne serviront qu'à 50 % de leurs performances…

Margaux Plantive-Triger, Etix Everywhere

Le sujet doit être pris en compte dès la conception des sites. Mettre en place une boucle de chaleur une fois que le site est construit, c'est plus coûteux, c'est plus compliqué et pas forcément faisable. Donc ce sont des sujets qui doivent être pris en compte dès le début, dès la conception. Et effectivement, c'est le bout de la chaîne. Parce que le meilleur déchet, c'est celui qu'on ne produit pas. Donc forcément, l'efficacité énergétique, les équipements qu'on met en place dans nos sites sont cruciaux, mais il y aura toujours un résidu de chaleur fatale à utiliser. Donc si ça peut approvisionner une serre à proximité ou autre, c'est mieux que de chauffer les petits oiseaux.

Il y a une vraie réflexion à poser sur les gros projets où on parle de plusieurs centaines de mégawatts, des sites où lʼon doit sʼinterroger sur comment on les intègre dans le réseau énergétique. Ma conviction, c'est qu'à un moment donné le législateur va se saisir du sujet, parce que investir dans des centrales nucléaires pour nʼalimenter que des data centers, ça va être compliqué, avec l'électrification du rail et l'électrification des véhicules, etc. Dans les années qui viennent, on demandera aux opérateurs de data centers de gérer leur propre production d'énergie et de réfléchir à ce sujet là. Le deuxième sujet, c'est quʼaujourd'hui le data center doit être conçu non seulement comme un équipement numérique, mais un équipement énergétique complètement intégré au réseau énergétique. Que ce soit électrique, mais également de production de chaleur. Cela veut dire qu'effectivement il faut réfléchir le système dans sa globalité. Et c'est vrai que cette approche, finalement, à 360 sur cette dimension énergétique, la sobriété, lʼefficacité et la consommation de l'énergie décarbonée. Ça, c'est le triptyque assez classique que l'on approche. Après, il y a in fine forcément un déchet, si on peut le valoriser, valorisons-le. De mémoire, il me semble quʼil y a trois ou quatre ans, l'ADEME estimait que la chaleur fatale, tous secteurs confondus, représentait à peu près environ 30 % de l'énergie primaire consommée en France. C'est un vrai enjeu d'aller traiter ces sujets.

Pierre-Yves Chouadra, PYXED

C'est vrai, il y a un vrai sujet d'effet d'annonce sur les projets de récupération de chaleur. Il y a de vrais enjeux aussi. Aujourd'hui, le déploiement des data centers hyperscale avec effectivement des puissances qui ne sont pas toujours utilisées à 100 % peuvent bloquer d'autres projets à côté. On peut évoquer les groupes électrogènes. Mais là, nous sommes sur des sujets d'effacement, qui sont aussi passionnants. Il y a un aspect cumulatif des économies d'énergie que l'on peut faire et c'est tout l'intérêt. On n'est pas que sur des sujets de récupération de chaleur. On a une volonté de récupérer la chaleur pour le réseau de chaleur, mais aussi pour pré-chauffer les groupes électrogènes. Et finalement, si on prenait tous ces éléments indépendamment ? Oui, là c'est 0,5 %, ici c'est 2 %, et là c'est 3 %. Et à la fin, on arrive à faire des économies d'énergie intéressantes. Les chiffres que nous avons sur les économies d'énergie potentielles projetées à partir des projets réels de chaleur fatale que nous avons pu auditer dans la filière data centers, représentent 2 % des consommations énergétiques des data centers en France. C'est beaucoup et c'est peu. Mais quand on cumule avec l'ensemble des autres sujets sur lesquels on peut avancer, on atteint quand même 8 %. Et mine de rien, 1 à 2 %, ça compte beaucoup.

Il ne faut pas trop diminuer l'impact potentiel de la récupération de chaleur. Et il y a aussi pour moi un vrai enjeu. Aujourd'hui, il y a beaucoup de projets qui n'aboutissent pas. Les températures sont trop faibles. Ou on se rend compte au fur et à mesure du projet, parfois parce qu'on voulait faire une déclaration, mais parfois aussi parce que ça serait un in-

vestissement complémentaire trop important de mise en place. Aujourd'hui, avec l'arrivée du refroidissement liquide et l'augmentation de la densité, la montée des températures de boucles d'eau glacée est très significative. On arrive à 40 à 50 degrés. Cela va permettre, de manière induite, de faire beaucoup plus de récupération de chaleur. Et donc, dans ce cadre là aussi, on va avoir une évolution dans les 5 à 10 ans à venir où on va être capable de venir mener des projets. On va être capable de récupérer une part beaucoup plus significative de la puissance et de manière efficace. Et évidemment, c'est toute l'idée aussi des services de l'État qui s'implique à travers le fonds chaleur. Idem quand on parle des coûts d'investissement. Avec de plus en plus les C2E. Mais évidemment, ça nécessite une réflexion en amont, l'implémentation de data centers qui n'ont pas tous les mêmes enjeux. Parce que les hyperscalers vont être en centre ville des très grandes villes françaises. Et il y a le edge qui se développe, il y a plein d'enjeux concomitant à ça.

Patrick Marty, THEIA ENERGY

C'est effectivement un déchet qu'il faut arriver à valoriser, mais il faut le prendre en considération tel quel. Il a été fait d'énormes efforts sur l'efficacité énergétique du data center, sur toutes les technologies. Ça contraint les bureaux d'ingénierie, ça contraint les fournisseurs à faire des efforts pour baisser cette consommation. Je pense quʼil n'y a pas une autre industrie où on est arrivé à ce niveau là. Les équipements évoluent aussi. On va arriver sur le refroidissement DLC ou autres, et là effectivement, on

aura encore d'autres technologies pour revaloriser cette chaleur. Mais n'oublions pas que ça représente un déchet. Le gros mérite, c'est qu'on a effectivement fait le focus au niveau législatif là dessus. Ça fait bouger les choses, ça fait connaître l'industrie du data center qui nʼétait pas très connue. Ce qui reste aujourd'hui à faire, c'est effectivement de légiférer au niveau implantation des data centers, des territoires, arriver à se faire connaître et arriver surtout à homogénéiser quelque chose qui ne l'est pas du tout aujourd'hui et qui se développe de façon anarchique.

Laurent Delannoy, Ferest

Je voulais rebondir sur le sujet de l'intérêt de la chaleur fatale. Effectivement, c'est un déchet, on est d'accord, mais faut avoir conscience aussi qu'il y a un vrai enjeu de décarbonation de d'usage tertiaire, ici en France, et que la chaleur fatale, c'est le sujet numéro un qui va y répondre. C'est sûr que des réseaux de chaleur alimentés par des biomasse, ce sont des choses qu'on connaît déjà. Il y a une tension sur le gisement qui est presque nationale. Il y a d'autres solutions d'énergies renouvelables qui permettent de décarboner des usages tertiaires, mais pas de manière aussi intéressante et aussi puissante que la chaleur fatale va le permettre. Donc effectivement, la chaleur fatale des data centers a des contraintes en termes de niveau de température, et donc n'est pas valorisable

partout. Mais c'est vrai que des projets de taille modeste comme ici, chez Etix, a une vraie dimension duplicable et représente un potentiel énorme sur la France.

C'est vrai quʼil y a déjà beaucoup de réseaux de chaleur urbain qui existent en France sur des très grosses villes. Sur les moyennes villes, il n'y a pas encore beaucoup de réseaux de chaleur. Donc le plus gros potentiel de décarbonation est plutôt lié à des petits projets ou des moyens projets de réseaux de chaleur urbains qui vont devoir s'alimenter avec de la chaleur fatale. Alors on parle de chaleur fatale industrielle. Effectivement, notamment sur Valenciennes, il y a un contexte particulier. C'est un beau projet de belle taille qui va être alimenté par de la chaleur fatale industrielle issue de l'industrie de la sidérurgie ou alors d'un incinérateur de déchets. Et donc on va parler plutôt de très gros projets par rapport au projet d'Etix. Mais c'est vrai que ce sont des projets qui sont hyper intéressants et qui sont vraiment la clé de la décarbonation à une grande échelle à l'échelle nationale. Le rôle des collectivités peut aussi intervenir là dessus pour notamment absorber une partie du risque industriel qui est lié à la captation de chaleur fatale. Et quand on parle de chaleur fatale, se cache derrière le risque industriel. C'est très présent quand on va parler de sidérurgie, c'est un peu moins présent quand on parle de data-center. Néanmoins, il y a quand même un risque in-

dustriel à venir mettre dans l'équation et qui est quand même un sujet important.

Des solutions simples à déployer… et à financer ?

Comme je le disais, les solutions techniques sont plutôt simples à déployer. Finalement, il faut toujours trouver le bon alignement des planètes, et c'est la problématique. C'est vrai quʼaujourd'hui, il y a effectivement des initiatives qui viennent de la RSE pour pouvoir aller dans ce sens, et c'est très bien. Je trouve très bien aussi qu'il y ait une obligation et que de plus en plus de contraintes amènent ces réflexions. Et je pense qu'on va finir par arriver à nous poser des obligations de résultat sur une quantité, un volume, un pourcentage de chaleur fatale à récupérer. Donc ça va devenir une vraie problématique. Aujourd'hui, encore une fois, je pense qu'il y a plein de solutions possibles de récupération de chaleur fatale avec du réseau de chauffage, avec un industriel à proximité avec des solutions de série, ou dʼindustries agroalimentaires qui peuvent avoir besoin de cette chaleur à des températures relativement modestes. Mais ces solutions, il faut les aligner. Et pour pouvoir les aligner, il faut encore une fois effectivement les anticiper et les préparer. Les préparer très en

amont. Ces sujets énergétiques vont devenir centraux dans le développement de nouveaux projets. Aujourd'hui, on le voit bien, un des sujets c'est d'aller, de récupérer, d'avoir, de signer les PTF avec des cartes pour pouvoir avoir l'alimentation des sites, et ça devient de plus en plus compliqué.

Aujourd'hui, il y a effectivement des zones où on va réclamer 50, 60, 100 mégawatts et puis vous vous répondre maintenant je peux vous en donner 20 ou 30. Le reste, débrouillez vous. C'est une donnée. Et donc, effectivement, dans cette réflexion, ça veut dire réfléchir à quel mode de production énergétique j'adosse à mon data center. Cette production énergétique elle-même généralement est émettrice de chaleur. Quand on produit de lʼélectricité, il y a toujours une part de chaleur qui est associée. Donc on va produire de la chaleur fatale qu'on va venir ajouter à celle du data center, et donc finalement on va créer une centrale de production numérique électrique et de chaleur. On réfléchit et puis on voit comment ça s'inscrit dans le paysage.

Margaux Plantive-Triger, Etix Everywhere

Le facteur limitant, c'est le temps. Le financement est avec des temps de retour sur investissement assez longs, et une prise en compte du risque, dont le prix de l'électricité qui est très volatil. Et puis la mise en relation

avec les acteurs du territoire qui pourraient être intéressés par notre source de chaleur et qui seraient prêts à s'adosser à un data center, qui seraient prêts à se lancer dans des projets un peu innovants comme une ferme urbaine. C'est dans l'air du temps, mais après ? Concrétiser le passage de la théorie à la pratique, c'est quand même plus compliqué. Et les financements pourraient aider avec l'évolution des C2E. On passera la sixième période en 2026. Il y aura peut être des évolutions là dessus qui pourraient aussi aider. Donc mise en relation, aide financière et le temps qui peut être incompressible là dessus.

Des sources qui peuvent permettre d'accompagner les projets et de réduire les coûts. Il y a les fonds chaleur ADEME qui peuvent intervenir sur ces projets. Sur la partie C2E, il y a des fiches qui existent aujourd'hui mais qui ne sont pas complètement adaptées au projet data center pour différentes raisons. Nous avons des capacités à venir mobiliser des C2E sur des projets. Et dans le cadre de l'étude, nous travaillion notamment sur la création de nouvelles fiches pour prendre en compte la capacité à faire de la récupération de chaleur, y compris sur des projets en refroidissement liquide qui ne seraient pas sur des systèmes de groupe froid, mais des systèmes de refroidissement ou des boucles d'eau directement. Ce qui permettrait de les valoriser. Il y a une fiche qui est sortie qui porte sur la récupération de chaleur via la mise en place de pompes à chaleur pour venir réchauffer des groupes électrogènes, ce qui peut se cumuler avec de la récupération de chaleur sur site. Il

faut aussi voir comment mieux valoriser tout ce qui est la récupération de chaleur sur site de manière très adaptée au data center, parce qu'il y a aussi des potentialités là dessus. 80 % de la chaleur exploitée actuellement va vers les réseaux de chaleur, mais ça veut quand même dire 20 % va vers la réutilisation sur site, notamment pour des bureaux ou autre

Autre sujet au travers des deux précédents de manière générale, il y a seulement 45 % des acteurs des data centers aujourd'hui qui avaient une suffisamment bonne connaissance de ces données pour les mobiliser. Ce n'est donc pas toujours parce que les dispositifs existent qu'ils sont malheureusement appliqués. Et en plus souvent, la problématique qui se pose, c'est que les acteurs qui les connaissent le moins sont les acteurs qui en ont le plus besoin pour débloquer leurs projets. Parce qu'évidemment les hyperscalers sont sur des infrastructures extrêmement capitalistiques, cela peut les aider à débloquer tel ou tel sujet. Mais pour parler du Edge, c'est là où les enjeux sont les plus présents. Il y a un plus grand besoin mais c'est là où souvent il y a le moins de ces dispositifs qui sont mobilisés par raison de complexité et de manque de connaissances.essus. Les données de l'étude font remonter, que le Edge va effectivement être acteur dans toutes les solutions. Quand on regarde les projets aujourd'hui qui sont en DLC ou en immersion, et donc systématiquement avec la récupération de chaleur, on est quasiment, à part sur certains postes, sur des projets que l'on peut qualifier de Edge. Aujourd'hui, on voit la mobilisation des acteurs du Edge pour mettre en

place de la récupération de chaleur et des projets qui fonctionnent, qui ne sont peut être pas avec des effets d'annonce sur des puissances récupérées.

Une volonté politique

il faut une volonté, une volonté politique. Il faut une volonté de porter un projet, préalablement à tout projet de valorisation de chaleur fatale. Je conseillerais de faire une étude de faisabilité par un bureau d'étude, car effectivement cette étude, non seulement a un intérêt de définir un projet technique, d'en définir les contours économiques et donc de mettre en lumière le business model, mais c'est aussi justement de pouvoir faire le lien avec qui va porter le projet, qui va pouvoir participer au financement et comment s'articuler avec une volonté politique… ou pas. Et puis identifier quels sont les interlocuteurs, parce que ce n'est pas toujours binaire. Ce n'est pas forcément la ville, quelquefois c'est un EPCI. Cʼest effectivement un méandre quʼil nʼest pas facile de débroussailler. Donc les études préalables sont importantes pour ça, parce qu'effectivement elles permettent de mettre autour de la table tous les acteurs potentiels, tous les partenaires. Et là, la question du financement pourra se poser. C'est vrai quʼil y a des aides, il y a des C2E, il y a le fonds chaleur de l'ADEME qui peut intervenir. Il y a d'autres fonds européens type FEDER qui peuvent être intervenants. Il y a aussi des solutions d'externalisation, de financement qui peuvent être faites. Dont typiquement sur des réseaux de chaleur urbains. On parle

communément de délégation de service public, où effectivement les travaux de réseau de captation de chaleur et de vente de chaleur vont être délégués à une entreprise privée qui va financer le projet et se rémunérer sur la vente de chaleur. C'est une façon aussi de faire émerger des projets qui sont effectivement compliqués à faire financer en direct par les data centers.

Patrick Marty, THEIA ENERGY

C'est un facteur important aujourdʼhui d'intégrer les réseaux de chaleur. Il existe un club des réseaux de chaleur. Il existe une cartographie des réseaux de chaleur. Et quand un client nous demande l'implantation d'un data center potentiel, le réseau de chaleur fait partie de la recherche d'implantation, au même titre que les fibres optiques et les sources énergétiques. Il y a quelques années, on ne concevait pas de l'intégrer. Mais c'est vrai que de ce côté là, les collectivités ont su faire connaître cette particularité et tous les opérateurs de réseaux de chaleur ont mis à disposition les données accessibles.

Margaux Plantive-Triger, Etix Everywhere

Lʼexploitation de la chaleur fatale peut contribuer également à l'acceptabilité des data centers dans les territoires, qui peut parfois être décriée. Mais j'ai la conviction qu'il y a de petits gestes qui comptent pour participer à la transition écologique. A notre échelle, nous pouvons y contribuer. La chaleur fatale peut contribuer à réchauffer des réseaux de chaleur urbain, à enrichir du coup le territoire local. Il n'y a pas de petites actions. Qu'on soit

un petit ou un gros data center, on peut s'adosser à une piscine olympique ou à une petite serre d'une SCOP locale. Donc, je pense qu'il y a vraiment plein de petits gestes. Et ils sont tous importants pour le développement des territoires. On a vraiment besoin aussi de facilitateurs sur les territoires. Voilà, donc allons-y. Et je pense que ce sont des sujets encore émergents et d'avenir.

Les RoI de la chaleur fatale

Effectivement, la question de rentabilité est toujours importante quand on parle de chaleur fatale. Et tout de suite se pose la question de qui le finance ? Et du coup, l'attente du RoI ne va pas être forcément la même en termes de qui finance. Si le data-center finance lui-même sa récupération de chaleur, si ça lui permet d'avoir une redondance en termes de production de froid, il ne va pas forcément raisonner que en termes de RoI. Mais si maintenant c'est sa volonté, effectivement il va bien souvent être un peu déçu par les résultats. On va être sur des RoI qui ne vont pas être forcément très courts et qui vont même plutôt être assez longs. Et c'est pour ça que se pose la question du financement et de qui finance. Et quand on parle de réseau de chaleur, on va toujours se positionner dans une réflexion à long terme. Et c'est là où les RoI plus longs sont largement acceptables. Donc c'est pour ça que bien souvent, les projets de réseaux de chaleur ne font pas financer les travaux de captation par les industriels eux mêmes. Parce qu'effectivement ça va venir alourdir le prix de la chaleur pour les consommateurs, parce qu'effectivement les RoI sont problématiques.

projets. Ça va dépendre de la quantité de kilomètres de réseau qu'il va falloir tirer pour pouvoir aller chercher le réseau de chaleur ou l'exutoire. Mais aujourd'hui, il faut effectivement comprendre que le modèle économique pour les acteurs du data center, il faut qu'ils acceptent de se dire que ce n'est pas un élément de rémunération. La chaleur, globalement, ce nʼest pas avec ça qu'il va améliorer son bas de page. Mais cela dit, je pense qu'aujourd'hui son bas de page est suffisamment assuré pour ne pas avoir besoin de ça. Il faut déjà accepter le fait que ce nʼest pas un élément de rémunération pour le data center. A partir de là, pour le consommateur, ça veut dire quʼil se retrouve avec une chaleur non pas gratuite mais très très peu cher. Et donc on revient sur le choix de toute la partie de distribution de cette chaleur fatale. C'est vrai que pour ces acteurs quʼarriver sur des RoI qui dépassent cinq ans, six ans, ce n'est pas surprenant pour tirer un réseau de chaleur. Aujourd'hui, le RoI c'est huit, neuf, dix ans, sachant quʼon est sur des projets, enfin dans le meilleur des cas sur des bons projets, sachant qu'effectivement ce sont des projets avec une durée de vie de quinze, vingt, vingt cinq ans. Donc la réflexion du héros a déjà un côté acteur du data center. Je pense que c'est difficile, mais il faut convaincre les financiers de dire non, là dessus on ne va pas mettre un prix comme on a l'habitude de le mettre. Ça, c'est la négociation interne. Et après, on rejoint plutôt des systèmes de rentabilité qui sont assez classiques dans les réseaux de chaleur.

Je pense qu'il faut parler de plusieurs RoI en fait. Effectivement, il y a autant de RoI que de

Chaque sujet de récupération de chaleur est quelque part sur mesure. C'est pour ça que c'est difficile à comparer. Ça dépend de l'utilisation de la chaleur in fine, ça dépend des conditions techniques du site, ça dépend du deal qui a été fait, des financements qui peuvent être alloués ou pas. Ça dépend évidemment aussi de qui va porter le projet et de la répartition du

Pierre-Yves Chouadra, PYXED

coût d'investissement entre l'opérateur du réseau de chaleur et le bénéficiaire. J'ai vu des opérations parfois qui se faisaient avec zéro vente de chaleur et puis tout l'achat de l'équipement qui était financé par le réseau de chaleur lui-même ou un opérateur énergéticien. Donc là c'était purement une opération “je donne gratuitement”, et en même temps c'est une question d'image. Là du coup, la question du RoI ne se pose même plus. Donc ça dépend vraiment du montage et ça dépend vraiment de la volonté aussi de l'acteur de mener le projet de son environnement.

Aujourd'hui, le coût de la chaleur quand il vient de la récupération de chaleur fatale est tout à fait concurrentiel avec de la production biomasse. Et comme le gaz, on est dans la volatilité du prix. Mais on est sur quelque chose qui est concurrentiel. Donc vendre la chaleur du datacenter nʼest pas choquant, c'est un projet à envisager comme n'importe quel autre, cʼest un source de production de chaleur.

Quelles obligations réglementaires ?

Aujourd'hui, en France, un porteur de projet data center dans le cadre de la demande d'agré-

ment, de la demande d'autorisation d'exploitation, se doit de réfléchir sur des solutions de récupération de chaleur fatale. Donc il a l'obligation de réfléchir et de partager le fruit de ses réflexions. Maintenant, la conclusion peut-être quʼil n'a pas trouvé de solution. Par contre, cette obligation a émergé depuis deux ou trois ans sur les dossiers d'instruction. Donc, elle devient de plus en plus importante. Aujourd'hui, on se retrouve avec des demandes d'autorisation où les autorités valident votre proposition parce quʼil y a une lettre d'intérêt avec un futur preneur de votre chaleur. C'est le minimum pour qu'un dossier d'agrément passe, il faut au minimum ça. Mais ça devient presque plus suffisant. Et à tel point qu'aujourd'hui il y a des projets où les autorités n'y croient pas. Donc effectivement, ça réinterroge beaucoup le projet en amont. Donc, c'est pour ça quʼil faut anticiper ce sujet, parce que ce n'est pas au moment où on dépose la demande d'agrément qu'il va falloir se demander si cʼest le bon endroit pour faire mon projet ? Et il y a eu des cas où les demandes d'autorisation ont été refusées. Je pense que dans quelques mois ou quelques années, il y aura une obligation de résultat. C'està-dire quʼun projet Data center devra annoncer un résultat de X pour 100 de sa chaleur récupérée en expliquant comment il le fait, comment on le finance et avec qui ?

Pierre-Yves Chouadra, PYXED

Régis Dufour Lefort,

Vice-Président en charge de la Transition écologique à l'agglomération de Valenciennes Métropole

On s'empare maintenant de plus en plus de ces sujets au niveau des collectivités locales. C'est d'abord venu de la DU, de l'aspect économique. Et les industriels nous le disent, la sécurisation de l'électricité et des énergies, le coût, tout ça commence à poser question et à poser problème. Et de ce fait, évidemment, on peut en discuter. L'autre aspect, c'est d'avoir de plus en plus une énergie décarbonée, puisque c'est la loi. Et donc ces deux phénomènes conjugués font que sur le territoire on se pose des question : Est-ce qu'il y a assez d'énergie propre sur notre territoire ? Est ce que notre territoire est suffisamment résilient? Est ce qu'on va toujours en bénéficier ? Est ce qu'on va pouvoir faire bénéficier à nos entreprises d'un coût qui soit évidemment le plus bas possible pour que nos industriels puissent rester sur notre territoire ? Sinon, ils vont partir ailleurs ! Donc la réflexion, maintenant de plus en plus forte dans nos agglomérations, fait jour. Et cette économie là, on ne peut plus en faire l'économie. Donc, nous sommes vraiment concernés, et du coup on mène aussi des opérations. Comme sur le réseau de chaleur.

Cʼest notre deuxième réseau de chaleur, avec une ambition forte, et parce qu'on a des potentialités aussi au niveau de nos aciéries. Dans notre secteur, on profite des opportunités, et les data centers sont aussi des opportunités, comme d'autres. Mais on sent bien que vu la croissance, il va y en avoir on l'espère un peu partout dans le territoire.

Comment peut-on créer cette synergie ? Je pense que cʼest un peu notre rôle d'être as-

semblier. Le réseau de chaleur, c'est ça, parce qu'il faut des producteurs, il faut des consommateurs et nous sommes au cœur des deux. Je l'ai entendu, et c'est vrai aussi, de venir en amont, parce que c'est toujours là qu'on pourra essayer de résoudre les problématiques, car après, c'est toujours beaucoup plus difficile de passer les tuyaux, ça prend énormément de temps à faire. Ensuite, la logistique à mettre en œuvre prend des années. Donc au plus tôt, au mieux à venir voir nos services énergétiques ou économiques qui pourront vous aider et vous mettre en relation avec les gens du territoire.

L'économie circulaire, c'est aussi ce que l'on promeut, maintenant et de plus en plus.

Dans une volonté gagnant-gagnant. Je pense que vous aurez une bonne écoute et une réflexion, parce qu'on nous sommes là pour ça, entre gens intelligents. Et plus on réfléchit ensemble, plus on aura cette intelligence collective. Et je pense que, ensemble, cette synergie, on peut la trouver. On trouvera des solutions, on espère, les plus intelligentes possible.

Pourquoi valoriser la chaleur fatale ?

Lʼinterview de Mathieu HULOT,

Responsable Energie et Carbone, Nation Data Center, Groupe Altarea

DCmag : L’utilisation de la chaleur fatale dans les datacenters est clé en matière de Responsabilité Sociétale des Entreprises, mais les réalisations sont encore peu nombreuses. Pourquoi ?

Mathieu HULOT : Les projets de datacenter sont confrontés à la difficulté de réintégrer des énergies fatales sur les réseaux de chaleur existants ou de répondre aux conditions permettant la création dʼun réseau de chaleur neuf. Ils nécessitent dʼaligner différents critères techniques et lʼensemble des acteurs. La réussite de ces projets repose autant sur une bonne anticipation que sur le choix des solutions techniques et des implantations.

Au sein de Nation Data Center, cela se caractérise à travers un programme de développement pour nos projets qui intègre lʼensemble des éléments favorisant la mise en œuvre dʼune solution de valorisation de la chaleur fatale. Cette démarche sʼinscrit dans les engagements environnementaux de Nation Data Center, ainsi que dans la politique environnementale du Groupe ALTAREA

Quels sont les critères à étudier pour un projet efficace ?

Les principaux critères à regarder portent sur : la distance qui sépare le datacenter et les potentiels usages finaux de la chaleur fatale, lʼexistence ou non dʼun réseau de chaleur dans le secteur dʼimplantation du datacenter, la proximité de la chaufferie (dans le cas dʼun réseau existant) et de la densité thermique potentielle du réseau (MWh/mL). Dans le cas dʼun datacenter neuf, il est préférable dʼanticiper en amont lʼintégration des équipements de récupération de chaleur et les locaux pour les installer. Il faut aussi vérifier sʼil existe un équilibre entre le volume dʼénergie fatale disponible et le capex dʼinvestissement du réseau de chaleur, et enfin aligner ces points.

Un autre critère essentiel à vérifier est lʼimplication de lʼensemble des acteurs : lʼhébergeur, lʼopérateur de réseau de chaleur et la collectivité. La réutilisation de la chaleur fatale est toujours possible.

Les projets de récupération de la chaleur fatale sont souvent évoqués par les grands acteurs du datacenter, hyperscale et colocation, mais les résultats semblent plutôt limités. Pourquoi et comment y remédier ?

Les datacenters sont de plus en plus gros, grands et puissants, et nous assistons à une concentration de grandes quantités de chaleur fatale en des points uniques. Cependant, plus leur taille augmente, plus il devient complexe de valoriser cette chaleur. On peut comparer le phénomène de la chaleur fatale des datacenters à celle des centrales de production dʼélectricité : en effet, elles ont été construites loin des zones habitées où la chaleur fatale pourrait être utile et il nʻest pas possible de trouver un équilibre économique lorsquʼil faut transporter les calories sur de longues distances. Dʼoù la volonté de Nation Data Center de développer des datacenters Edge, dont lʼimplantation en zone péri-urbaine facilite la valorisation de la chaleur. Lʼobjectif final est que chaque kilowattheure serve deux fois, une fois dans le datacenter pour faire fonctionner les serveurs et une fois dans le réseau de chaleur pour chauffer un logement par exemple.

Est-ce réalisable ?

Un datacenter existant nʼest pas toujours adapté à la récupération de la chaleur fatale, surtout si cela nʼa pas été envisagé dès sa conception.

Dans quelle situation est-il possible de raccorder la chaleur fatale ?

La température de récupération de la chaleur fatale est pour la plupart du temps dʼenviron 30°C, on peut identifier trois situations de raccordement. Premier cas, le réseau de chaleur est en haute température (80° à 90°), il sera alors plus optimisé dʼinjecter au niveau de la chaufferie et les chances de concrétisation sʼen verront augmentées. Il en est de même pour le deuxième cas, avec un réseau de chaleur dʼen moyenne 65° à 70°C, avec en plus lʼavantage que les équipements de relève de température de la chaleur fatale seront moins coûteux et plus performant. Les chances de succès sont donc meilleures que dans le premier cas. Enfin, le troisième cas, celui des réseaux dʼeau tempérée (20° à 25°) qui permettent au datacenter dʼinjecter à un autre endroit que la chaufferie sans machines thermiques, ce qui est moins contraignant pour le datacenter.

Il faut aussi considérer les nouvelles technologies de refroidissement tel que le DLC (Direct Liquid cooling) qui devraient permettre de récupérer de la chaleur fatale à plus haute température et ainsi faciliter la mise en œuvre des projets de valorisation.

Il faut un RoI (retour sur investissement) pour l’opérateur du réseau, et réduire le prix de l’énergie pour ses clients.

Pour lʼopérateur de réseau de chaleur, lʼintégration dʼénergie fatale gratuite nʼest viable que si les capex nécessaires à sa mise en œuvre maintiennent de la gratuité sur la facture énergétique des abonnés. Il ne faut pas regarder uniquement le ROI, la valorisation de chaleur fatale (énergie catégorisée dans les ENR&R) présente bien dʼautres avantages indirects : réduction de la dépendance aux énergies fossiles et aux variations du prix des énergies, augmentation du taux dʼENR&R dans le réseau de chaleur, accès à des subventions…

Il faut tuer la chaleur fatale

Tribune de Patrick Marty, chercheur et directeur R&D de THEIA ENERGY, jette un pavé dans la marre.

Cela fait une dizaine d'années qu'on en parle. Mais lʼexploitation de la chaleur fatale ne peut intéresser que les gros hyperscalers, où il y a plusieurs dizaines de mégawatts à récupérer. Et ce qui se passe aujourd'hui, c'est qu'on se leurre par rapport à des gros lobbys et des gros data centers. Il n'est pas normal aujourd'hui de concevoir un data center de plusieurs centaines de mégawatts et de dire quʼon va alimenter le réseau de chaleur à côté. Certe ça va occuper les politiques locaux, les territoires, ça va occuper tout le monde. Mais derrière, on va installer un groupe électrogène de trois mégawatts sur la toiture. Et là, on ne dit rien, c'est normal, il n'y a pas de problème acoustique, il n'y a pas de problème de réglementation, il n'y a pas de problèmes économiques pour des groupes électrogènes qui vont fonctionner quatre heures dans l'année. Où est le problème? Le vrai problème, il est à l'hôpital dʼà côté, qui aurait besoin d'un groupe électrogène. Mais lui, il ne l'a pas. Parce que déjà le gros data center du gros GAFAM a rempli le bon de commande, et on ne met pas les moyens au bon endroit. Donc aujourd'hui, on est en train de se leurrer à faire des études, de belle étude statistique avec des moyens énormes qui sont mis à côté pour accoucher d'une souris. Parce que si on remet le chiffre en mégawatt heure, ça représente même pas 3 % de la puissance IT. Dʼici à 2030, dans le data center qu'on va construire dans la région parisienne ou à Marseille, la chaleur fatale exploitée ne représentera même pas quinze jours d'exploitation. Donc là, on est en train de se leurrer autour d'un faux problème.

La chaleur fatale, à un moment donné, il faut la tuer. Il faut trouver autre chose. Quand on construit des data-centers à 100 mégawatts, il faut trouver une centrale d'énergie qui fournit cette puissance et cette puissance de secours, et non pas immobiliser des groupes de secours

qui ne peuvent même pas subvenir aux besoins du réseau national, parce que ce sont des groupes de secours. Ce ne sont pas des groupes de production. Donc on immobilise du CAPEX et des matières premières à construire des trucs qui n'ont pas lieu d'être aujourd'hui. Ou plutôt qui sont mal pensés au niveau ingénierie. Donc aujourd'hui, on nous leurre en disant de mettre le focus sur un problème pour lequel on va dépenser énormément d'argent, mais qui au bout ne va rien rapporter. L'argent aujourd'hui, il faut le mettre plus dans des conceptions, revoir toutes ces conceptions.

En France, il y a 400 datacenters neutres qui existent, une dizaine qui se construit, il y a des moyens, il y a des éthiques. C'est un très bon exemple d'avoir des data centers régionaux qui techniquement arrivent à avoir une super performance énergétique. C'est là le but. Déjà, c'est un effort considérable qui a été fait. Ils réduisent en plus en réseautant au niveau national, ils réduisent le temps de latence, la latence des transmissions de données est une économie d'énergie. L'économie d'énergie est un peu partout dans le data center. Mais elle n'est pas pour moi, et je jette un gros pavé, dans la récupération de la chaleur, à part pour les gros opérateurs du monde du data center qui représentent aujourd'hui 80 % du marché.

Des sources de référence

Nous vous proposons quelques sites de référence en France disposant dʼinformations sur les réseaux de chaleur et les data centers :

Guide cahier des charges Etude de faisabilité Récupération de Chaleur Fatale pour Valorisation Internet et/ou Externe - Librairie ADEME 2021 https://librairie.ademe.fr/energies/697-etude-de-faisabilite-recuperation-de-chaleur-fatalepour-valorisation-interne-et-ou-externe.html

Site Récupération de chaleur : http://www.recuperation-chaleur.fr/

Fiches Club C2E de lʼATEE - Site ATEE : https://atee.fr/

Le Pôle réseaux de chaleur et de froid du Cerema https://reseaux-chaleur.cerema.fr/

AMORCE - Le réseau national des territoires engagés dans la transition écologique https://amorce.asso.fr/

Valoriser sur son territoire la chaleur fatale des data centers Cahier technique APL https://www.apl-datacenter.com/wp-content/uploads/2024/01/Cahier-Technique-ValorisationChaleur-Fatale-Data-Centers.pdf

Glossaire des termes et expressions

A

• ADEME : Agence de la transition écologique, impliquée dans des études et financements liés à la récupération de chaleur.

• Air chaud : Flux d'air évacué par les équipements informatiques, souvent récupéré pour des systèmes de réutilisation d'énergie.

• Air Cooling : Refroidissement par air utilisé pour dissiper la chaleur générée par les serveurs.

• Airflow management : Gestion des flux d'air dans un data center pour optimiser la dissipation thermique.

C

• CEE : Certificat d'Économie d'Énergie, un dispositif d'incitation financière pour des projets énergétiques, y compris la récupération de chaleur.

• Chaleurfatale : Énergie thermique excédentaire générée par les équipements informatiques, souvent sousutilisée mais récupérable.

• Cogénération : Processus de production simultanée de chaleur et d'électricité, parfois utilisé dans les data centers.

• Condensateurs : Dispositifs utilisés dans les systèmes de refroidissement pour condenser et dissiper la chaleur.

• CVC : Chauffage, Ventilation, Climatisation, systèmes gérant les flux thermiques dans un data center.

D

• Densité thermique : Mesure de la chaleur générée par unité d'espace dans un data center.

• DLC (Direct Liquid Cooling) : Technologie de refroidissement liquide directement appliquée aux composants informatiques pour une dissipation thermique efficace.

E

• Échangeur thermique : Dispositif permettant de transférer la chaleur excédentaire à un autre système ou environnement.

• ENR&R : Énergies renouvelables et de récupération, incluant la chaleur fatale comme ressource.

• ERF (Energy Reuse Factor) : Facteur de réutilisation d'énergie, mesurant la proportion de l'énergie réutilisée par rapport à l'énergie totale consommée.

F

• Free Cooling : Refroidissement utilisant les conditions climatiques naturelles pour réduire la consommation énergétique.

• Fonds chaleur : Fonds de lʼADEME dédié au financement de projets de récupération de chaleur.

• H

• Heat Pump : Pompe à chaleur utilisée pour augmenter la température de la chaleur fatale afin de la rendre utilisable pour le chauffage ou d'autres applications.

• Heat reuse : Réutilisation de la chaleur excédentaire pour dʼautres usages, comme le chauffage urbain.

• Hot aisle containment : Technique dʼisolation des allées chaudes dans les data centers pour optimiser la gestion thermique.

• Hyperscaler : Data center de très grande taille, souvent exploité par des géants technologiques, produisant une quantité significative de chaleur fatale.

I

• ISO/IEC 30134-6 : Norme internationale définissant le facteur de réutilisation d'énergie (ERF) dans les data centers.

P

• Pompe à chaleur : Technologie permettant de récupérer la chaleur fatale et de lʼutiliser pour le chauffage ou dʼautres applications.

• PUE (Power Usage Effectiveness) : Indicateur d'efficacité énergétique mesurant le rapport entre l'énergie totale consommée par le data center et celle utilisée par les équipements informatiques.

R

• Récupération de chaleur : Processus de captation et dʼutilisation de la chaleur excédentaire générée par les équipements informatiques.

• Réseau de chaleur : Infrastructure distribuée pour fournir de la chaleur, souvent alimentée par la chaleur fatale des data centers.

• Refroidissement liquide : Technique de refroidissement utilisant des fluides pour capter et évacuer la chaleur générée par les serveurs.

S

• Scope 3 : Catégorie d'émissions indirectes, incluant l'impact carbone des fournisseurs et utilisateurs des data centers.

T• Température basse : Température typique de la chaleur fatale des data centers (30-35°C), souvent insuffisante sans rehaussement pour des usages industriels ou urbains.

• Thermodynamique : Science sous-jacente aux processus de transfert et de gestion de la chaleur.

• Trigénération : Processus de production simultanée de chaleur, de froid et d'électricité, parfois utilisé dans les data centers.

« Vous ne devriez pas exporter des données pour importer des renseignements. »
Jensen Huang, CEO, Nvidia

Evoquant le projet de plus grand datacenter dʼIA au monde en Inde : « Il est tout à fait logique que l'Inde fabrique sa propre IA. Vous ne devriez pas exporter des données pour importer des renseignements. L'Inde ne devrait pas exporter de la farine pour importer du pain. »

« Jusqu’à présent, l’IA a généré de la richesse pour les investisseurs, mais son impact économique est limité en raison de la lenteur de son adoption et du faible niveau d’investissement des entreprises. Cela devrait changer en 2025. »

Bruce Owen, président EMEA dʼEquinix et directeur général pour le Royaume-Uni

« Jusqu’à 80% des datacenters existants seraient inadaptables aux besoins de l’IA. »
David LOUIS, Managing Director, Digital Realty Belgium & Luxembourg
« Nous manquons de puissance et d’espace. »

« Nos clients se concentrent sur la réinvention, ce qui implique une transformation à grande échelle. »

Julie SWEET CEO et directrice générale dʼAccenture

Julie SWEET, CEO et directrice générale dʼAccenture, qui constate que les entreprises restent prudentes en matière de dépenses, et investissent dans des domaines qui leur permettront de faire évoluer lʼIA sans faire exploser les budgets.

«

Avec des algorithmes de plus en plus complexes, l’impact de l’IA générative sur le calcul, l’énergie

et le climat continuera de croître très rapidement.

»

« La compétitivité européenne a déjà un pied dans la morgue. »

Lors du sommet « Nouvelle ambition industrielle pour l'Europe » qui sʼest tenu à Bruxelles, Pekka Lundmark, CEO de Nokia, et Börje Ekholm, CEO d'Ericsson, ont créé la surprise en montant ensemble sur scène, une rare démonstration dʼunité, pour appeler à une réforme majeure pour assurer la compétitivité de lʼEurope sur la scène mondiale, ainsi quʼà des investissements plus importants dans la technologie de réseau pour soutenir l'innovation européenne.

Pekka Lundmark a déclaré :

« La compétitivité européenne a déjà un pied dans la morgue. Notre PIB réel est inférieur de 30 % à celui des États-Unis, la part de lʼUE dans le classement Fortune Global 500 continue de baisser et notre avenir numérique semble moins certain que jamais. La bonne nouvelle est que nous pouvons encore renverser la situation. LʼEurope doit créer un environnement dans lequel les entreprises souhaitent investir, en particulier dans des technologies telles que lʼIA, le cloud et la connectivité avancée. Cela ne peut pas prendre une décennie. LʼEurope doit agir dès maintenant sur des questions telles que la boîte à outils 5G et les fusions entre opérateurs de télécommunications. Si lʼEurope y parvient, ce sera une opportunité énorme. Draghi et Letta ont déjà fourni le cadre. Alors, agissons. »

Selon un rapport du McKinsey Global Institute, les entreprises européennes accusent un retard de 450 milliards dʼeuros en matière de recherche et développement (R&D) et de formation de capital dans le seul secteur technologique. Les entreprises américaines investissent environ 60 % de plus que leurs homologues européennes dans la R&D.

Le marché du cooling 48,42 milliards $

Le marché du refroidissement liquide des data centers, estimé à 5,65 milliards de dollars en 2024, devrait atteindre 48,42 milliards de dollars en 2031. Soit un taux de croissance annuel de 23,2 % entre 2025 et 2034.

Durant cette période, le refroidissement direct sur puce ou DLC (Direct Liquid Cooling) devrait dominer le marché jusquʼà en représenter près des trois quarts.

Le marché est porté par plusieurs tendances : lʼutilisation croissante de lʼIA, du big data et du cloud ; lʼaugmentation de la densité de puissance ; les initiatives en matière dʼefficacité énergétique et de durabilité ; la croissance rapide des data centers Edge qui nécessitent des solutions de refroidissement avancées pour des systèmes compacts et hautes performances ; les progrès dans les technologies de refroidissement par immersion et direct sur puce.

Source : Research&Markets

Incertitudes sur la technologie quantique

Les décideurs informatiques face à la technologie quantique sont :

26,3 % à s'attendre à un fort impact sur leur secteur d'activité au cours des cinq à dix prochaines années.

33,3 % à considérer les cas d'utilisation flous

26,9 % à manquer de connaissances spécialisées

Source : enquête de Civey auprès des décideurs informatiques commandée par lʼassociation allemande eco

Le risque cyber

96 % de violations de données.

96 % des entreprises du S&P 500 ont subi des violations de données.

Les trois principaux problèmes subis sont les violations de données, la configuration de la couche de sockets sécurisés SSL (ce qui reflète des normes de cryptage faibles) et les problèmes d'hébergement du système. Suivis par les correctifs logiciels critiques.

Source : Cybernews Business Digital Index

Salaire d’un employé de data center US

130 000 $

Salaire médian annuel

dʼun employé de data center aux Etats-Unis

77 %

En 2023, plus de trois quarts des employés américains de data centers ont bénéficié dʼune augmentation de leurs salaires.

Source : InformaTech

Dépenses d’infrastructure des data centers

1,1 trillion $ soit

1 100 milliards $

dépenses d'investissement annuelles des data centers à l'échelle mondiale d'ici 2029…

sous réserve que le projet Stargate de 500 milliards $ annoncé par Donald Trump se déroule normalement !

La moitié des 1 100 milliards de dollars sera absorbée par les quatre plus grands hyperscalers : Amazon, Google, Meta et Microsoft.

Source : DellʼOro

SCOTT ARMUL

vice-président exécutif

Vertiv

PHILIPPE ROBIN

Directeur Général Groupe

Groupe IMOGIS

OLIVIER JEAN

Directeur Offres Solutions et Services HPC

Eclairion

ÉLOÏSE POINTREAU

Delivery Service Manager

Eclairion

DAMIEN DERUELLE

Responsable Service dʼinformation

Eclairion

JIMMY PASSEMARD

Responsable Sûreté Site et Service dʼinformation

Eclairion

CHRISTIAN DARAN

Direction des Opérations

Eclairion

JUSTIN BRIARD

Chief Technology Officer

Datalok

DANIEL WINTER

Président

Danfoss Power Solutions

FRANCISCO RAMÍREZ

Country Director - Espagne

DATA4

NIRUPA CHANDER

senior Vice President of Secure Power & DC

Schneider Electric

YOUSSEF BENNOUR

Directeur IT

Telehouse France

KARIM EL NAGGAR

Directeur Général TDF Iceotope

CEO JONATHAN BALLON

SÉBASTIEN ARBOLA

DG adjoint en charge des projets spéciaux

Engie

DEBBIE WEINSTEIN

Présidente (EMEA)

Google

ALEXANDER OYAERT

Chief Investment Office

DATA4

NICOLAS WARNIER

VP of Sales pour la région EMEA

Cato Networks

https://youtu.be/e-2ziqoANpA

TalkDC - La web TV de Datacenter en Transition : Benoît-Louis MARTIN, Directeur Commercial ‒ Data Centre, Eiffage Energie. Eiffage Data Center est un acteur européen incontournable du centre de données.

L'interview est réalisée par Philippe LUCE, consultant expert et co-fondateur du think tank Datacenter en Transition, et Yves GRANDMONTAGNE, rédacteur en chef de DCmag / Datacenter Magazine.

https://youtu.be/R7Wiqgpvx3o

TalkDC - La chaîne vidéo de Datacenter en Transition : François SABATINO, Président d'Eclairion, première infrastructure française de nouvelle génération et éco-responsables d'hébergement et de stockage en containers pour le HPC et l'IA.

L'interview est réalisée par Philippe LUCE, co-fondateur du think tank Datacenter en Transition, et Yves GRANDMONTAGNE, rédacteur en chef de DCmag / Datacenter Magazine.

Loïc CHASSIGNOL, Directeur de la division Smart Power chez ABB France, présente les innovations d'ABB dans le datacenter : cellule UniSec Air, le premier tableau moyenne tension isolé sans SF6 ; l'évolution de la gamme des onduleurs ABB ; et le Label Eco Solution d'ABB, pour réduire l'empreinte des équipements sur l'environnement.

https://youtu.be/UGD5AZmPWck

Lors de Data Centre World Paris 2024, Christophe MORA, Data Center Sales Manager chez R&M, évoque les solutions d'urbanisation de salles, les PDU de dernière génération connectés au DCIM de R&M.

https://youtu.be/azWp9kj47pw

Grolleau nous a présenté un nouveau projet lors de Data Centre World Paris 2024, un micro datacenter dans une armoire outdoor regroupant toutes les fonctions classiques d'un datacenter dans une seule enveloppe miniature et compacte. Avec Benoit TIERCELIN, Avant vente chez Grolleau.

https://youtu.be/9a0PbC8sj0Q

Le salon Data Centre World Paris 2024 qui s'est tenu en novembre nous a offert l'opportunité d'évoquer le marché du câblage pour les datacenters et ses produits de dernière génération avec l'équipe Rosenberger OSI présente sur place : Bruno DEMOURON, Country manager France, Bienjamin KAINDL, Product manager, et Gerald BERG, Process Manager Sales & Marketing.

https://youtu.be/wEapMmycFlw

Delphys XM, nouvelle solution ultra compacte et haut rendement notamment dédié aux datacenters. Avec Bérangère DANNELY, Power Conversion Business Development chez Socomec, qui évoque également l'évolution du marché et de l'offre de Socomec.

https://youtu.be/xV8fp8oyf2U

Lors de Data Centre World Paris 2024, Florent Perron, ingénieur d'Application Data Solutions de nVent Schroff, nous a présenté RDHX Pro, une solution de porte arrière refroidie, constituée principalement dʼun échangeur thermique air/eau, de ventilateurs, avec alimentations et contrôleurs.

Les unités de refroidissement à eau glacée RDHX PRO sont conçues pour fournir un refroidissement localisé et économe en énergie dans les datacenters, en particulier pour les systèmes de calcul haute performance (HPC).

https://youtu.be/XE1gbKLOWKU

Nous vous proposons un nouvel l'état des lieux du marché et de lʼimmobilier du datacenter en compagnie de Matthieu Gallego, Directeur responsable de lʼactivité datacenter chez Turner & Townsend. Il y a un peu plus de deux ans, Matthieu Gallego, alors récemment nommé à son poste chez Turner & Townsend, nous gratifiait d'une riche interview sur l'état des lieux du marché et de lʼimmobilier du datacenter, et sur la tendance au founding et à la financiarisation du secteur. Nous étions plutôt en avance sur les tendances majeures du marché à l'époque.

https://youtu.be/vOaPe4t_d0I

Lʼinauguration de Phocea Data Centers sʼest tenue le 23 janvier 2025. Damien Desanti, qui porte ce projet de construction dʼun datacenter de proximité et à taille humaine à Marseille, revient pour DCmag sur cette expérience exceptionnelle.

https://youtu.be/w_8D8WsvZN8

Profitant de lʼinauguration de Phocea Data Centers qui sʼest tenue le 23 janvier 2025, dans cette seconde vidéo nous avons invité Damien Desanti à évoquer les démarches dʼinnovations initiées, réussies, parfois abandonnées, dans son projet de construction dʼun datacenter de proximité et à taille humaine à Marseille. Une exclusivité DCmag.

https://youtu.be/YQ2n4hvkY0A

Le 12 décembre 2024 se sont tenues les premières Assises de la Chaleur Fatale, co-organisées par DCmag et Etix Everywhere, à la Cité des Congrès Valenciennes. Lʼévénement a permis de visiter le datacenter Etix Lille #3, à Valenciennes, relié à une boucle de chaleur locale. La visite a été suivie par une table ronde sur les « Défis, Coûts et Avantages de la Récupération de Chaleur », dont vous pouvez suivre ici l'intégralité des interventions.

https://youtu.be/UDthEzhd7uM

Lʼexploitation de la chaleur fatale contribue à la trajectoire de décarbonation dʼEtix.

Lʼinterview de Thomas HOMBERT, Directeur Général France et Belgique dʼEtix Everywhere, qui a accueilli les Assises de la Chaleur Fatale 2024.

"Le sujet de la récupération de la chaleur fatale est un sujet central sur nos sites existants et que lʼon va développer à chaque fois que nous en aurons lʼoccasion."

https://youtu.be/rntkERW0-Qg

Les participants aux Assises de la Chaleur Fatale, qui se sont tenues le 12 décembre 2024, ont pu découvrir le cas concret du datacenter Etix Lille #3, adossé à une boucle de chaleur locale de Valenciennes, et le visiter. DCmag a également réalisé la visite en vidéo, en compagnie de Johan DEROOST, Responsable Infrastructure France et Belgique, et dʼOlivier HALLOT, Responsable énergie et cooling EU, chez Etix Everywhere. La vidéo décrit les étapes du parcours de la chaleur du datacenter à la boucle locale.

https://youtu.be/4Xzam8ptpW0

A la découverte de Stengel IT-Infrastruktur, entreprise partenaire innovante allemande en plein essor spécialisée dans les solutions système dʼinfrastructure informatique pour data center (racks, confinement, cage, sécurité) qui se déploie en France, en compagnie de Thomas Zeyer, Country Manager France et Belgique.

https://youtu.be/UNDzLYoUFno

Hasard du calendrier, c'est au moment où débutait le Sommet pour lʼAction sur lʼIntelligence artificielle qu'Equinix inaugurait le centre PA13x installé à Meudon, un investissement de 350 millions dʼeuros, en présence de Marc Ferracci, ministre chargé de lʼIndustrie et de lʼÉnergie. DCmag était présent et vous propose lʼinterview vidéo de Régis Castagné, Directeur Général France dʼEquinix.

https://youtu.be/9wsB2CEe_Bg

Voltekko ambitionne de concevoir et d'opérer un Réseau Européen - France, Portugal, Espagne et Italiede Data Centers de nouvelle génération et éco-responsables. Et de proposer une offre modulaire et innovante, Edge et colocation, jusqu'à l'hyperscale, en fournissant des environnements de haute performance et répondant aux nouveaux usages comme lʼIA et le HPC.

https://youtu.be/eobO6KLeJ9M

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.