Etix Everywhere - Terralpha et Nokia - Distech Controls - Eclairion
Stengel IT-Infrastruktur - CyrusOne - Top 25 des marchés de datacenters
Hyperion - Motul - Communauté de communes de lʼErnée - Vidéo Dcmag
Edito
Ce numéro de Datacenter Magazine est exceptionnel. Dʼabord parce quʼil sʼagit du numéro 6, et que nous tenons la route pour vous proposer une parution régulière, que nous fixons avec lʼexpérience à six numéros par an.
Exceptionnel également car nous vous proposons pour la première fois un vrai dossier complet sur une thématique dʼactualité : lʼimmersion. Un dossier avec notre analyse, des témoignages dʼacteurs de ce marché et même dʼun client.
Nous vous proposons également de nous rejoindre sur nos événements. Le jeudi 26 septembre, nous serons chez R&M pour évoquer entre experts et utilisateurs lʼurbanisation des salles au travers des baies et du confinement. Le lien est sur la publicité qui précède cette page.
Rendez-vous en novembre pour un Datacenter Magazine numéro 7 principalement consacré à Data Centre World Paris, où vous pourrez nous retrouver. Vous serez exposant sur le salon ? Communiquez sur Datacenter Magazine, pour apporter encore plus de visibilité à vos activités, à vos produits et à vos services.
Yves GRANDMONTAGNE
Rédacteur en chef de Datacenter Magazine yves@datacenter-magazine.fr
Contact
Datacenter Magazine n°6 - Septembre 2024
Prix au numéro : 25 €
6 numéros par an - Impression PDF
Une publication Human, Business & Technology (HBT)
CPPAP 1123 X 95016 - ISSN 3039-7170
Directeur de publication
Sébastien GRANDMONTAGNE
sebastien@datacenter-magazine.fr
Edité par HBT, 5 rue Charles Maillier, 28100 DREUX
Rejoignez nous sur le CLUB OPEX :
Ilfauts’assurerquetoutesles données des entreprises françaises ne soient pasexploitéesparlesÉtats-Unis.
Jean-Noël Patillon
Directeur adjoint
institut List du CEA
LES PETITES PHRASES DU DATACENTER
Danslesprochainsmois,40% des datacenters que nous construisons pour nos clients seront au moins refroidis par liquide.
Charles Liang
Fondateur et CEO
Super Micro Computer
Les entreprises dépensent désormais trois fois plus pour les services cloud que pour leur propre infrastructure de datacenter.
John Dinsdale
Analyste en chef
Synergy Research Group
DEEPIKA
et ECLAIRION
annoncent un partenariat de travail et de référencement
Le partenariat de DEEPIKA avec ECLAIRION permet aux deux organisations de croiser leurs compétences pour optimiser leur offre de service vers leurs publics.
Deepika ‒ pépinière de start-up valorisant les innovations de rupture, pour mettre lʼintelligence artificielle au service de lʼindustrie, de la finance et de la santé ‒ est heureux dʼannoncer un partenariat avec ECLAIRION, une société de solutions de centres de données modulaires et conteneurisés. Cet accord de partenariat permet aux deux sociétés de croiser leurs compétences et leurs réseaux pour fournir des solutions optimisées à leurs publics respectifs.
Le partenariat entre ECLAIRION et DEEPIKA comprend deux volets
Le premier volet concerne la mise en place dʼéchanges croisés et la mise en commun de ressources pour ‒ non exhaustivement ‒ lʼorganisation dʼévénements scientifiques et professionnels en commun, la mutualisation du travail et des résultats des actions de veille technologique et réglementaire, la rédaction à venir dʼun Livre Blanc spécifique à lʼanalyse et la mise en perspective du retour sur investissement (ROI) des projets dʼIntelligence Artificielle. Le second volet concerne la mise à disposition de consultants DEEPIKA pour travailler en accompagnement dʼECLAIRION dans ses actions de représentation, dʼavant-vente ou commerciales.
« Je me félicite de cet accord avec deepika, une organisation qui réunit les porteurs des innovations les plus pointues en matière d’IA et de HPC avec les grandes entreprises, va nous permettre de bénéficier de leur connaissance fine et de leur large réseau pour améliorer encore la pertinence de nos offres d’hébergement vers les grands comptes qui sont utilisateurs de ces technologies », déclare François Sabatino, Président dʼEclairion
« Nous sommes ravis de nous associer à ECLAIRION« , déclare Jean-Michel GHIDAGLIA, Président de deepika. « Alors que nos solutions demandent de plus en plus de capacité et de puissance requises par les solutions basées sur l’IA, notre partenariat avec ECLAIRION va nous permettre d’avoir accès aux solutions les plus pertinentes pour leur hébergement, et d’avoir la compréhension des emboîtements technologiques qui permettent d’atteindre un optimum.«
27-28 NOVEMBRE 2024 | PARIS, PORTE DE
+ de 6 200 visiteurs | + 255 exposants I + de 290 conférenciers
LE
PLUS
GRAND SALON DÉDIÉ AUX EXPERTS DES DATA CENTRES EN FRANCE
Nous sommes ravis de vous annoncer l’ouverture des inscriptions visiteurs pour l’édition de Data Centre World Paris 2024 !
Pendant 2 jours, c ’est l’opportunité unique de rencontrer les leaders du secteur, de découvrir les toutes dernières innovations de nos partenaires exposants et sponsors.
Un programme d’exception et des intervenants de renom vous attendent pour faire le plein d’idées et échanger sur les défis de la filière data centre
Taïwan a mis un embargo sur les datacenters de plus de 5 MW
Lʼembargo de Taïwan sur les datacenters de plus de 5 MW ne concerne que le nord de lʼîle, mais vient rappeler que la sécurité énergétique est un enjeu stratégique pour lʼïle.
Depuis la catastrophe de Fukushima, au Japon, en 2011, Taïwan sʼest engagée à fermer ses centrales nucléaires dʼici 2025. Décision controversée, les fermetures créant en particulier des déséquilibres entre les régions.
Dans les chiffres, lʼîle produit suffisamment dʼélectricité pour couvrir ses besoins, dont ceux des datacenters et de ses industries. Mais depuis la fermeture des centrales nucléaires de la région du nord, celle-ci doit importer une partie de son approvisionnement, créant un goulot dʼétranglement énergétique.
Pour faire face à cette difficulté, et adapter la charge à lʼalimentation électrique, depuis septembre dernier aucun grand projet de datacenter nʼa été autorisé dans le nord de Taïwan.
Lʼénergéticien Taiwan Power Company vient de clarifier la situation et confirme que Taïwan nʼapprouvera plus les datacenters de plus de 5 MW au nord de la ville de Taoyan.
Taïwan devrait désormais « donner la priorité à la construction de datacenters dʼune consommation électrique supérieure à 5 mégawatts dans les régions du centre et du sud, où il existe suffisamment dʼénergie renouvelable et de grandes sources dʼénergie ».
La vision de Huawei sur le futur du datacenter
Huawei a décliné sa vision du futur du datacenter lors du Global Data Center Facilities Summit 2024 qui sʼest tenu à Singapour. Les experts présents ont exploré les dernières opportunités et tendances du secteur mondial des datacenters.
Sans surprise, le premier constat a porté sur le potentiel transformationnel de lʼinformatique intelligente et de lʼintelligence artificielle (IA), en particulier les opportunités et des progrès rapides générés par lʼIA. Ce qui va entraîner une croissance exceptionnelle des infrastructures de datacenters.
Les experts ont par contre souligné les interrogations autour de la consommation dʼénergie et la fiabilité des datacenters. Selon Huawei, le passage du mégawatt au gigawatt va entraîner une augmentation exponentielle de lʼimpact potentiel des pannes, ce qui risque dʼaffecter un nombre croissant, exprimé en millions, dʼutilisateurs. En résulte la nécessité de garantir la fiabilité de bout en bout.
Sun Xiaofeng, président des centres de données et de lʼactivité Critical Power de Huawei, a présenté la stratégie de lʼentreprise dans son dis-
cours dʼouverture. Il a souligné lʼimportance dʼun déploiement rapide, dʼun refroidissement flexible, dʼune énergie verte et dʼune fiabilité maximale pour les centres de données.
Le président des activités datacenters et Critical Power de Huawei, Sun Xiaofeng, a souligné lʼimportance dʼun déploiement rapide ‒ centres de données modulaires et préfabriqués -, dʼun refroidissement flexible, dʼune énergie verte avec des systèmes intégrés, et dʼune fiabilité maximale.
Huawei sʼest engagé à améliorer la sécurité du système de distribution dʼénergie grâce à la fiabilité des produits et à une prévention intelligente et proactive. Il sʼest également engagé à développer des écosystèmes pour construire des centres informatiques intelligents de nouvelle génération.
Huawei invite les acteurs du marché à plus de collaboration pour faire évoluer le secteur des datacenters afin dʼaider à construire une infrastructure informatique fiable, accélérant ainsi lʼadoption de lʼIA et alimentant lʼère numérique. Pour un avenir plus vert et plus fiable…
Elon Musk choisit le refroidissement liquide direct de Supermicro pour ses deux supercalculateurs d’IA
Ce seront non pas un mais deux supercalculateurs ‒ destinés à X et à Tesla ‒ qui intégreront le Texas Tesla Gigafactory. Pour ces nouveaux clusters, Elon Musk a choisi la technologie de refroidissement DLC (Direct Liquid Cooling) de Supermicro.
Image dʼentête : Charles Liang (à gauche) et Elon Musk discutent au milieu des racks. Source publication X de Charles Liang.
Elon Musk construit un méga datacenter, le Texas Tesla Gigafactory, mais contrairement à ce que nous pensions, il y déploie non pas un mais deux supercalculateurs :
Le premier, question de priorité, sera le supercalculateur X/xAI, destiné à former GrokAI, lʼalternative originale de chatbot IA de X disponible pour les abonnés X Premium. Musk a passé une commande 100 000 GPU H100 de Nvidia. Et une mise à niveau 300 000 GPU B200 de Nvidia pour lʼété 2025.
Le second ‒ placé en retrait après que Musk a demandé à Nvidia de livrer X en priorité ‒ sera le supercalculateur du cluster Tesla Gigafactory avec une extension de 50 000 GPU Nvidia destinés à former la fonction Full Self Driving de Tesla.
Selon Elon Musk, le datacenter Gigafactory consommera 130 mégawatts lors de son déploiement, avec une croissance jusquʼà 500 MW attendue après lʼinstallation du matériel dʼIA exclusif de Tesla.
Elon Musk choisit le DLC de Supermicro
Les deux supercalculateurs bénéficieront du refroidissement DLC (Direct Liquid Cooling) de Supermicro. Son CEO et fondateur Charles Liang affirme que le refroidissement liquide direct peut offrir jusquʼà 89 % de réduction des coûts électriques de lʼinfrastructure de refroidissement par rapport au refroidissement par air… Ce qui nʼa pas empêché la construction de ventilateurs supermassifs pour refroidir le refroidissement liquide !
USA : l’offensive du gaz pour alimenter les datacenters
Yves Grandmontagne
Rédacteur en chef
Datacenter Magazine
Pour répondre aux attentes des datacenters confrontés aux difficultés pour trouver de lʼénergie et à lʼexplosion de la demande avec lʼIA, les énergéticiens commencent à sʼintéresser sérieusement au gaz…
Alors quʼen France, la solution gaz pour alimenter les datacenters continue de souffrir du lobby de lʼélectrique, même si des solutions existent en particulier avec le biogaz, aux Etats-Unis les acteurs du gaz commencent à intéresser sérieusement les opérateurs de datacenters.
Réunie autour des acteurs du transport du gaz naturel, emmenés par Enbridge et TC Energy, la filière gaz américaine entend désormais mener un rôle dans la production dʼénergie pour les datacenters. Leur affirmation est simple : le gaz est
une source dʼalimentation de base apte à répondre aux attentes 24/7 des hyperscalers.
Stan Chapman, VP Executif et directeur de lʼexploitation de TC Energy, constate que, confrontés aux problématiques dʼalimentation de leurs datacenters, ces derniers sʼinstallent désormais à proximité des infrastructures énergétiques, et non plus des infrastructures télécoms.
Or, pour répondre à la demande, il constate également que 60% des plus de 300 datacenters hyperscales installés ou en construction aux EtatsUnis sont à moins de 80 km de son réseau de gaz naturel.
Le gaz pour alimenter les datacenters en énergie, une idée qui mérite que lʼon sʼy intéresse.
VIDÉOS DCMAG TV
Sécurité data center, Fabrice Coquio, Digital Realty, Matthieu Le Taillandier, Securitas Technology
Fabrice Coquio, Président de Digital Realty France, et Matthieu Le Taillandier, Président de Securitas Technology France, ont échangé en exclusivité pour DCmag sur la sécurité du datacenter et l'indispensable partenariat entre ces deux acteurs leaders de la colocation et de la sécurité des entreprises critiques. https://youtu.be/ppDo_Zir4iU
Terralpha et Nokia dévoilent un record de débit de 800
Gb/s
entre Bordeaux et Marseille
Terralpha et Nokia annoncent avoir établi un nouveau record de débit en France en activant une longueur dʼonde de 800 Gb/s sur plus de 800 km entre Bordeaux et Marseille.
Cette réalisation, menée sur le réseau de production, constitue une avancée majeure dans le domaine des communications optiques, démontrant la capacité de Terralpha à augmenter la performance de son réseau optique, qui offre déjà 400 Gb/s par longueur dʼonde et pourra bientôt supporter des services de 800 Gb/s et plus pour les prochaines générations.
Le record de débit de 800 Gb/s sʼest fait entre deux datacenters interconnectés aux câbles sous-marins :
• Bordeaux : Amitié
• Marseille: 2Africa, Medusa, Atlas Offshore, SeaMeWe-6, MED, Peace, Africa-1, Hawk, Imewe, SeaMeWe-4, AAE-1, Medloop, et Blue
Cette avancée technologique positionne Terralpha comme lʼopérateur de choix pour relier les
hubs stratégiques de Bordeaux et Marseille et préfigure les capacités à venir de notre réseau à lʼéchelle de tous les territoires de métropole.
Une révolution technologique de pointe
La prouesse technologique de Nokia repose sur les optiques de transmission cohérentes PSE6s, capables de transporter des données à des débits pouvant atteindre 1.2Tb/s sur une longueur dʼonde, pour des applications dʼinterconnexion entre Datacenters par exemple.
Ce déploiement a été réalisé sur une longueur dʼonde utilisant 150GHz de spectre dans une fibre optique sur le réseau de production de Terralpha. Sont traversés au total : 4 datacenters, 7 sites de brassage optiques ROADM et 7 sites dʼamplification avec un débit de 800 Gb/s.
Liaison Terralpha sur laquelle le test a été réalisé
La technologie de pointe de Nokia couplée aux routes les plus directes et aux latences les plus faibles du marché français du réseau de Terral-
pha, repousse les limites actuelles de la technologie de transport de données, offrant des perspectives inédites en termes de performance et de capacité.
Une collaboration stratégique
Grâce à ce record de débit, Nokia et Terralpha renforcent leur position de leaders technologiques dans le domaine des communications optiques. Cette avancée démontre leur capacité à innover et à offrir des solutions de pointe, consolidant ainsi leur statut dʼacteurs clés sur le marché.
« Nous sommes heureux de cette collaboration avec Nokia qui démontre parfaitement la capacité de notre réseau à intégrer les dernières avancées en termes de transpondeurs. Ce projet est une étape clé, consolidant notre position de leader sur le marché grâce à des routes alternatives à faible latences et ouvrant la voie à de nouvelles opportunités pour nos clients », déclare Jean-Henri Antunes, CTO de Terralpha.
Matthieu Bourguignon, Senior Vice-Président et responsable de lʼactivité Infrastructure réseau Europe chez Nokia commente : « Dans un monde où la connectivité numérique est essentielle, notre collaboration avec Terralpha sʼest révélée être une étape importante. Nous ne nous contentons pas dʼaugmenter la bande passante des services pour les clients finaux de Terralpha, nous contribuons à révolutionner la façon dont la France se connecte à lʼinternet mondial. Notre réussite conjointe qui a permis dʼatteindre un débit de 800 Gb/s sur plus de 800 km est plus quʼun record en France ‒ cʼest une promesse de fournir une capacité inégalée, même dans les zones les plus reculées, à un coût inférieur et avec une empreinte carbone plus faible. Cʼest ainsi que nous nous engageons pour une planète mieux connectée et plus verte. »
Des bénéfices pour les clients finaux
La possibilité de transporter des données à des débits de 800 Gb/s sur une seule longueur dʼonde entre deux sites distants offre une capacité exceptionnelle. Cela permet notamment de gérer de grandes quantités de données avec une efficacité accrue, répondant ainsi aux besoins des entreprises et des acteurs publics.
Les clients bénéficient dʼune communication plus rapide et plus fiable, avec une latence considérablement réduite qui se traduit par une meilleure qualité de service. De plus, la technologie avancée utilisée optimise le spectre optique, garantissant ainsi une transmission des données plus fiable et plus sécurisée. Les clients peuvent compter sur une connexion stable et protégée qui diminue les risques de coupures et de cybermenaces.
Lʼutilisation de ces nouvelles générations de transpondeurs présente des avantages significatifs en termes de responsabilité sociétale des entreprises (RSE). Elle favorise une réduction de lʼempreinte environnementale grâce à une meilleure efficacité énergétique et une optimisation des ressources. En effet, en augmentant le débit sur une seule paire de fibre signifie moins de consommation dʼénergie par unité de données transférée. En outre, les équipements actifs nécessaires aux extrémités étant moins nombreux, ils occupent moins dʼespaces, demandent moins de ressources et consomment moins dʼénergie.
Enfin, cette avancée technologique démocratise lʼaccès à lʼinformation, réduit la fracture numérique et stimule lʼéconomie locale en améliorant la productivité et lʼinnovation.
L’infrastructure gazière libère
les capacités énergétiques franciliennes tout en accompagnant la décarbonation
Mission Décarbonation : la solution énergétique de demain, dès aujourd’hui.
1
Pourquoi choisir le gaz ?
Performance et Compétitivité Immédiates :
• Capacité impressionnante : plus de 10 000 MW électriques* disponibles aujourd’hui à partir de l’infrastructure gazière.
• Un réseau dense et fiable : large couverture du réseau de distribution de gaz en Île-de-France, garantissant des raccordements redondants et sûrs.
• Solution complémentaire : une infrastructure gazière disponible pour pallier les contraintes de raccordement aux infrastructures électriques et pour répondre aux enjeux d’effacement pendant les pointes électriques.
* 28 000 MW gaz disponibles en IDF soit l’équivalent de 10 000 MW électriques
2
Décarbonez vos installations
• Réduisez votre pollution locale et empreinte environnementale : optez pour des solutions compatibles dès aujourd’hui au gaz, biogaz et à l’hydrogène en remplacement de vos groupes électrogènes au fioul pour atteindre la neutralité carbone.
• Préparez-vous aux défis futurs : affrontez la volatilité des prix de l’énergie et les enjeux de l’effacement électrique avec l’appui du réseau gaz en lien avec l’Axe 3 France 2030.
3
Un accompagnement personnalisé
• Études de raccordement rapides et gratuites : moins d’un mois pour une étude de faisabilité.
• Coûts et délais optimisés : des raccordements ultra-compétitifs et rapides.
• Expertise reconnue : Profitez du savoir-faire des équipes GRDF pour des solutions sur mesure.
Le mix énergétique final de l’Île-de-France
Rejoignez-nous dans la transition énergétique !
Contactez nos experts :
• David MOHAMMED - david.mohammed@grdf.fr
• José GUIGNARD - jose.guignard@grdf.fr
• Daniel LHERITIER - daniel.lheritier@grdf.fr
218 TWh de consommation totale d’énergie finale en Île-de-France en 2022
Source : AIRPARIF pour le ROSE, pour l’année 2019 (2022)
GRDF, premier distributeur de gaz aligné avec l’Accord de Paris. Découvrez comment notre réseau gazier peut révolutionner votre industrie et contribuer à un avenir plus vert.
Blackstone veut devenir le premier investisseur mondial en infrastructures d’IA
La perspective dʼun secteur, lʼIntelligence Artificielle (IA) ‒ qui pour le seul territoire américain va représenter 1 000 milliards de dollars dʼinvestissements dans les datacenters, et autant dans le reste du monde ‒ nʼa pas échappé à Stephen Schwarzman, le CEO du premier fonds dʼinvestissement mondial Blackstone.
Chez Blackstone, le portefeuille de datacenters opérationnels et en construction représente 55 milliards de dollars ‒ sur les 336 milliards dʼactifs en gestion sur le secteur des entrepôts, des datacenters et des logements locatifs. Les développements potentiels du fonds dans les datacenters sont estimés à 70 milliards de dollars.
Et le porte drapeau du fonds est QTS, qui nʼen finit plus de multiplier ses capacités de colocation (x7 depuis 2021 !).
Stephen Schwarzman entend dʼautant plus in-
vestir sur les datacenters que la plupart des secteurs immobiliers, en repli de 40 à 70% selon lʼactivité, affichent une pénurie de nouvelles constructions.
Mais ce que nous avons surtout retenu de lʼanalyse du patron de Blackstone, cʼest moins son affirmation que la tendance des datacenters « ouvrira des opportunités dʼinvestissement sans précédent« , cela les acteurs du datacenter lʼont bien compris, que sa vision à plus long terme : « Sʼil a fallu des années pour développer des produits commercialement viables, le développement ultérieur du réseau électrique au cours des décennies suivantes présente des parallèles avec la création actuelle de datacenters pour alimenter la révolution de lʼIA« .
Car Stephen Schwarzman fait le parallèle entre la révolution du dépôt de brevet par Thomas Edison sur lʼampoule électrique en 1880 et les conséquences de lʼIA aujourdʼhui…
Stengel IT-Infrastruktur : des solutions d’infrastructures informatiques sur mesure pour data center
Stengel IT-Infrastruktur GmbH, entreprise partenaire innovante allemande en plein essor dans le domaine des solutions système d'infrastructure informatique pour data center (racks, confinement, cage, sécurité), se déploie en France.
Faisant partie de Stengel GmbH, qui compte plus de 850 employés sur le site d'Ellwangen, Stengel IT-Infrastruktur offre une diversité impressionnante dans la fabrication de tôles et mise sur les technologies les plus modernes et sophistiquées, en particulier au service des data centers. Depuis sa création en 2018, lʼentreprise est animée par une équipe jeune et dynamique qui fait souffler un vent de fraîcheur sur le secteur.
Des solutions complètes pour votre infrastructure informatique de data center
Le portefeuille de produits de Stengel IT-Infrastruktur comprend une vaste gamme de solutions système, dont des armoires pour serveurs et réseaux, des confinements dʼallées chaudes et froides, des systèmes de gestion des câbles, des systèmes de cage, ainsi que des solutions de sécurité. Tout MADE IN GERMANY, à Ellwangen. L'offre est complétée par des systèmes d'alimentation électrique et de ventilation, ainsi que par des technologies PDU de fabricants leaders.
• Racks pour serveurs : flexibles et robustes : Les racks de serveurs offrent la solution idéale pour héberger des serveurs et des équipements réseau de manière sûre et efficace. Grâce à leur conception
modulaire, ils peuvent être adaptés de manière flexible aux différentes exigences, ce qui en fait le choix parfait pour des environnements informatiques variés.
• Systèmes d'allées froides/chaudes : l'efficacité énergétique au plus haut niveau : Les systèmes d'allées froides et chaudes maximisent l'efficacité du refroidissement et réduisent les coûts énergétiques, tout en prolongeant la durée de vie des composants informatiques. Ils optimisent la circulation de l'air dans le centre de données et contribuent ainsi à améliorer les performances et la fiabilité globales.
• Cages : une sécurité sur mesure : Pour répondre aux exigences de sécurité les plus élevées dans les centres de données, Stengel propose des cages personnalisées. Ces systèmes de protection robustes garantissent la protection physique et le contrôle d'accès des infrastructures informatiques sensibles et répondent aux besoins de sécurité spécifiques du client.
• Système de plafond suspendu : efficacité et flexibilité : Par la création dʼun système innovant de plafond suspendu, Stengel soutient une organisation efficace ses systèmes de câblage et de ventilation. Il crée des conditions optimales dans le data center tout en facilitant la maintenance, en particulier dans les environnements qui nécessitent une grande flexibilité.
• Portes arrière refroidies par eau : technologie de refroidissement avancée : Les portes arrière refroidies par eau offrent une solution de pointe pour le refroidissement direct des équipements informatiques. Cette technologie minimise la chaleur perdue et augmente la densité des racks de serveurs, ce qui améliore la capacité de refroidissement et réduit les coûts énergétiques. Idéal pour les centres de données qui nécessitent un contrôle précis de la température.
• Logistique en propre : une livraison fiable : Stengel dispose de son propre département logistique. Doté dʼune flotte de 30 grands camions, Stengel assure une livraison rapide et fiable. Du processus de production à la livraison au client, Stengel garde le contrôle de toute la chaîne d'approvisionnement, ce qui permet des délais de livraison courts et une grande satisfaction du client.
• Montage : une installation professionnelle : Des équipes de montage expérimentées se chargent de l'installation professionnelle de votre infrastructure informatique. De la planification à la réception finale, Stengel veille à la mise en œuvre efficace et dans les délais. Les techniciens travaillent en étroite collaboration avec le client afin de garantir une intégration parfaite dans lʼenvironnement informatique existant.
Stengel est le partenaire pour
des solutions globales dans le data center
Stengel IT-Infrastruktur est plus qu'un simple fabricant ‒ il prend le rôle dʼun partenaire global. Lʻexpertise couvre l'ensemble de la chaîne de valeur : de la conception à l'installation et à la maintenance de votre infrastructure informatique, en passant par la production.
Pourquoi Stengel IT Infrastructure ?
• Qualité et précision : nous appliquons les normes de fabrication les plus strictes et des contrôles de qualité rigoureux afin de garantir la longévité et la fiabilité de nos produits.
• Innovation et adaptabilité : grâce à une recherche et un développement continu, nous proposons toujours des solutions innovantes qui répondent aux exigences actuelles et futures du marché.
• Satisfaction du client : une équipe d'experts dévoués travaille main dans la main avec nos clients pour développer des solutions sur mesure et établir des partenariats à long terme basés sur la confiance et la réussite commune.
Stengel IT-Infrastruktur couvre désormais le marché français. Thomas Zeyer, Country Manager France et Belgique, se tient à votre disposition : Thomas.Zeyer@stengel-gmbh.de +33 607804123
www.stengel-gmbh.de Stengel GmbH • Max-Eyth-Str. 15 • D - 73479 Ellwangen • Germany Geschäftsführer: Josef Stengel, Frank Schäffler • Sitz der Gesellschaft ist Ellwangen Registergericht Ulm HRB 510 134
La part de marché des hyperscalers
Selon un rapport de Synergy Research, les hyperscalers contrôlent désormais 41 % de la capacité mondiale des datacenters.
Synergy Research a qualifié le marché des datacenters en quatre familles : lʼhyperscale (datacenters détenus en propre par les acteurs du cloud) ; lʼhyperscale en location(hyperscalersdanslesdatacenters de colocation) ; la colocation non hyperscale ; et les datacenter dʼentreprise on-premise (datacenters privés).
Les hyperscalers affichent une croissance soutenue sur le marché des datacenters. Dʼà peine plus de 20% en 2017, leur part de marché atteint 40% aujourd'hui et devrait dépasser les 60% en 2029.
Les acteurs de la colocation ne cessent dʼaugmenter leur empreinte, mais ce sont surtout leurs clients hysperscalers qui les tirent vers le haut. Le cloud continuant de progresser, il favorise les infrastructures des hyperscalers, quʼelles soient directes ou hébergées chez des colocateurs.
Les datacenters privés, les grands perdants…
La part de marché des datacenters privés, les datacenters on premise dʼentreprise de lʼétude, ne cesse de se réduire. De 60% en 2019, elle va passer à 20% en 2029. Les entreprises investissent fortement dans le cloud, 79 milliards $ au second trimestre 2024. Soit trois fois plus pour les services cloud que pour leur propre infrastructure de datacenter. “Lʼinvestissement continu souligne l'évolution vers les services cloud et l'abandon des solutions traditionnelles sur site”, commente lʼétude.
Capex du datacenter par technologie
Lesdépensesdʼinvestissementmondialesdansledatacenterontprogressédes4%en2023,pouratteindre 260 milliards de dollars, selon DellʼOro Group.
En sortie de Covid, les organisations ont marqué le pas sur les investissements dits de datacenters. Les commandes de serveurs, stockage et cartes réseaux ont connu une forte baisse en 2022.
En 2023, la baisse se maintient, par contre les dépenses consacrées aux accélérateurs - GPU et HPC - affichent une très forte croissance (x3).
Tiré par les hyperscalers et leurs infrastructures de cloud (AWS, Microsoft, Google) les investissements Capex dans les infrastructures de datacenters repartent en 2024.
* DCPI (Data Center Physical Infrastructure) regroupe une partie des équipements dʼinfrastructure physique du datacenter : alimentations sans coupure (UPS), distribution dʼalimentation des armoires et canalisations blindées, distribution dʼalimentation des racks (PDU), racks et confinement informatiques, la gestion thermique ainsi que les logiciels et les services associés.
Etix Everywhere s’implante à Lyon et ouvre une sixième région en France avec l’acquisition
d’HosTELyon
Avec lʼacquisition dʼHosTELyon, Etix conforte sa position de leader sur le marché du Edge Data Center en France et continue de mailler le territoire avec 13 Data Centers répartis sur 6 régions.
Etix Everywhere (Etix) annonce avoir conclu lʼacquisition dʼHosTELyon, incluant son Data Center implanté au cœur de Lyon (dans le 7e arrondissement).
« L’acquisition d’HosTELyon est la première étape du développement d’un campus de Data Centers sur la métropole Lyonnaise répondant aux plus hauts standards de l’industrie », souligne Thomas Hombert, Directeur Général dʼEtix Everywhere France.
Situé sur lʼaxe telecom stratégique Amsterdam ‒ Bruxelles ‒Lille ‒ Paris ‒ Marseille, et relais vers les hubs suisse et alle-
Thomas Hombert, Directeur Général dʼEtix Everywhere France
mand, la métropole Lyonnaise constitue un hub digital régional en forte croissance à lʼéchelle européenne et une place forte de lʼéconomie numérique en France.
« Avec l’ouverture de cette nouvelle région, nous consolidons notre position de leader de l’hébergement en France et nous renforçons notre offre multi-sites avec une implantation dans une localisation stratégique au carrefour de l’Europe », ajoute Louis Blanchot, CEO dʼEtix Everywhere.
Avec cette nouvelle acquisition, Etix continue dʼétendre sa couverture du marché français, et sʼappuie sur la confiance et les moyens apportés par ses partenaires financiers également français, qui soutiennent sa croissance et garantissent son engagement souverain.
dans la stratégie dʼEtix de maillage du territoire en développant un réseau global de data centers de proximité et un accès aux principaux nœuds dʼéchanges.
« En tant qu’hébergeur neutre de colocation de souveraineté française, Etix représentait le repreneur idéal pour HosTELyon en s’inscrivant dans la continuité du projet que nous avions amorcé il y a quelques années », précise Samuel Triolet, ancien actionnaire de lʼhébergeur lyonnais.
Avec 12 ans dʼexistence, Etix bénéficie dʼune forte expérience mise au service de ses +500 clients issus de différents secteurs, dont les exigences en matière de qualité de service, de proximité et dʼengagements RSE lui permettent par ailleurs dʼinnover continuellement.
« Le tissu économique de la région lyonnaise peut compter sur un groupe solide au professionnalisme démontré pour l’hébergement de ses infrastructures informatiques », conclut Amaury Tronel, ex-Président dʼHosTELyon.
À propos dʼEtix Everywhere
Etix Everywhere est un acteur de premier plan dans le secteur des data centers, fournissant des solutions de data centers sécurisées et interconnectées à des clients du monde entier grâce à son réseau international de 15 data centers.
Grâce à son engagement en faveur de la neutralité carbone, ses data centers de proximité et un plan de croissance ambitieux, Etix continue dʼinnover et dʼêtre un acteur prépondérant dans lʼamélioration des services de data centers en Europe et en Asie du Sud-Est.
À propos dʼHosTELyon
HosTELyon est un Data Center neutre idéalement placé au cœur de la métropole lyonnaise. Avec plus de 30 opérateurs télécoms hébergés, il est lʼun des principaux hubs télécoms de la métropole lyonnaise et représente une véritable plateforme dʼinterconnexion à lʼensemble de lʼécosystème IT régional et national.
HosTELyon représente lʼun des principaux pops télécoms régionaux. Cette acquisition sʼinscrit donc parfaitement
Louis Blanchot, CEO dʼEtix Everywhere
La stratégie d’Etix Everywhere avec l’acquisition d’HosteLyon
Thomas HOMBERT
directeur France
Etix Everywhere
Lʼinterview de Thomas HOMBERT, le directeur France dʼEtix Everywhere, sur lʼacquisition récente du datacenter dʼHasteLyon et la stratégie territoriale du groupe.
Datacenter Magazine - Parlons de votre actualité, l'acquisition d'HosteLyon, qui s'est conclue au mois de juillet.
Thomas HOMBERT : Nous sommes ravis d'avoir pu conclure ce projet, cela faisait un moment que l'on y réfléchis-
sait et il s'inscrit parfaitement dans notre stratégie de maillage territorial et d'offres multi sites. Pour pouvoir apporter le service là où le client en a besoin. Et donc avec cet aspect de proximité, avec les clients mais également avec leurs besoins. Et de pouvoir continuer finalement cette mission que l'on s'est donnée il y a déjà quelques années, qui était de pouvoir apporter cette qualité de service qu'on retrouvait dans les grandes capitales également dans les capitales régionales. Il est amusant de
se rappeler quʼil y a à peu près un an de cela vous mʼavez interviewé et vous aviez évoqué le Sud-Est. On a forcément révélé nos intentions à ce moment-là. En particulier nous avons évoqué la région lyonnaise, avec une certaine logique finalement.
La région lyonnaise, on la regardait déjà à l'époque et on l'avait déjà en tête. Nous avons donc finalement réalisé ce qu'on avait décidé de faire à ce moment-là. Lyon aujourd'hui est une ville qui est sur l'axe
Lille Paris, Marseille. Et on peut remonter vers Bruxelles et Amsterdam. Il y a un axe vraiment stratégique au niveau des data et donc des data centers. Cela avait beaucoup de sens pour nous de nous installer dans cette ville, et en plus de ça à la croisée des chemins. Lyon est un peu une ville centrale en Europe et c'est intéressant puisque c'est ce que nous avons fait en 2017 avec Lille. A l'époque où nous avons ouvert ce data center, on avait beaucoup travaillé et poussé les investisseurs de l'époque pour pouvoir ouvrir ce data center. Parce qu'on croyait beaucoup, encore une fois, à ce concept de carrefour de données. Et donc Lille représentait bien cet aspect là. Et on reproduit aujourd'hui l'expérience avec Lyon.
Pourquoi HosteLyon ?
C'est une très bonne question. Aujourd'hui, ce qui fait notre force sur les différentes régions dans lesquelles nous sommes implantés, c'est cette capacité à proposer une plateforme d'interconnexion, une plateforme d'échange au sein de laquelle on a un réel écosystème qui s'est développé. HosteLyon aujourd'hui, c'est un des deux principaux POP télécoms de la métropole lyonnaise. Et donc, quelle meilleure entrée finalement sur ce marché que par
justement arriver à mettre la main sur ce pop télécom? Et ce n'est qu'un premier pas.
On va revenir quand même sur ce premier pas. C'est la deuxième acquisition la plus remarquable après celle de CIV. Je parle d'acquisition récente, il y en a eu d'autres, on va le rappeler, il y a eu Zcolo à Vélizy, déjà dans un environnement qui était existant. Mais avec CIV nous étions sur une progression technologique assez forte en termes d'efficacité et de durabilité. HosteLyon est plutôt sur la partie télécoms et hub dʼéchanges, avec également une vision vers la Suisse et l'Allemagne.
Donc avec CIV et HosteLyon, on est sur des acquisitions encore plus stratégiques.
Oui. Nous avons aujourd'hui une vraie stratégie établie lorsque l'on va réaliser une acquisition. Et il faut que ces acquisitions répondent à certains critères, notamment de qualité de service, qualité d'infrastructure. Et encore une fois, cet aspect plateforme d'interconnexion et d'échange. Comme je le disais, finalement, c'est un premier pas. On a ouvert la porte, on a mis le pied dans la porte à Lyon. Finalement, avec l'acquisition d'HosteLyon, l'idée c'est de pouvoir constituer, développer un campus sur
la métropole, avec la construction d'un nouveau data center. Celui ci, from scratch en greenfield ou sur un bâtiment existant, puisque évidemment l'aspect RSE et empreinte carbone, et lʼartificialisation des sols va être très importante dans ce projet. Mais l'idée, c'est de pouvoir vraiment développer ce campus avec un data center d'une capacité bien plus importante, de l'ordre de deux mégawatts. On va encore préciser cela dans les 18 à 24 mois qui viennent. Et finalement HosteLyon, avec cette richesse télécoms, nous permettra de réellement travailler en mode campus avec la capacité à développer des infrastructures robustes durables et extensibles, flexibles pour nos futurs clients.
Et avec l'intégration de nouvelles technologies, on parle peut être d'IA, qui ne sont pas encore présentes sur vos data centers, parce quʼil y a un aussi un bond technologique ?
C'est vrai que depuis maintenant un an, dans tous nos designs, nos directions techniques intègrent la possibilité de pouvoir se piquer sur l'infrastructure pour pouvoir faire du liquide cooling et de l'immersive cooling. C'est prévu dans le prochain data center que l'on est en train de construire
d'ailleurs à Lille et qui sortira au troisième trimestre de l'année 2025. Ce sera également prévu dans ce projet, ce Etix Lyon 2 comme on va l'appeler, qui nous permettra de travailler sur des densités classiques puisqu'il y a un marché existant et le marché corporate, même les ESN vont travailler sur des densités que l'on connaît de l'ordre de 3, 8, 10 KVa. Il nous permettra également de monter à des densités bien plus importantes pour répondre aux besoins de l'IA ou du HPC en l'occurrence.
Et sur la durabilité, vous travaillez aussi sur ce sur cette thématique ? On parle de croissance externe avec des acquisitions, mais également en interne où vous développez vos infrastructures.
sistons sur ça avec nos investisseurs au quotidien, puisqu'une société qui est robuste, c'est aussi une société qui fait de la croissance organique. Aujourd'hui, on l'a fait, et en réalité, la stratégie c'est dʼaller plus vite, dʼaccélérer en faisant des acquisitions, ce qui va nous permettre de pénétrer de nouvelles régions, comme la région lyonnaise par exemple. Et ensuite nous allons consolider, solidifier ces infrastructures avec de la croissance organique et construire de nouveaux datacenters, remplir ceux que l'on a acquis, mais également construire de nouveaux data centers et les remplir pour pouvoir continuer à développer ce business de manière pérenne.
Bien sûr, et c'est vrai que l'on a aujourd'hui un mix. On a beaucoup communiqué sur nos croissance externe. Nous faisons également beaucoup de croissance organique. Nous in-
C'est bien ce qu'on compte faire effectivement sur lyon. Et pour ce qui est de la partie durable, qui est très importante, effectivement, c'est beaucoup plus dur de le faire sur un bâtiment existant que sur du greenfield. En réalité, même quand on achète un site, on va faire en sorte d'en améliorer le PUE. On l'a fait sur pas mal de sites, notamment sur Etix Paris 3 (où se déroule lʼinterview). En changeant des machines, en modifiant l'architecture technique, en rénovant des parties de ces architectures, on arrive à gagner quelques points de PUE qui sont vraiment très
précieux au moment où on fait les comptes de l'empreinte carbone. Et sur les nouveaux data centers, on va insister sur les technologies qu'on met en place, mais également l'approvisionnement de notre énergie, aller chercher de l'énergie verte et surtout la partie aval du cycle sur laquelle on a déjà travaillé. Nous avons déjà mis en place la revalorisation de la chaleur fatale. On chauffe nos bureaux à Nantes dans l'un de nos data centers, On est en train d'aménager notre nouveau siège nantais sur Carquefou, avec justement l'étude de cette revalorisation de chaleur fatale pour chauffer nos propres bureaux. Et à Lille, sur l'un de nos datacenters, on chauffe d'ores et déjà le centre des conférences sur lequel on aura l'occasion de se retrouver pour un événement avec Datacenter Magazine d'ici la fin de l'année.
C'est un teaser, rendez-vous à Lille en fin d'année.
Et ce sera un sacré rendez vous... C'est un vrai enjeu, et sur la partie architecture et sur la partie PUE. Quʼest-ce qu'on va pouvoir optimiser dans nos sites, mais également en amont ? Aujourd'hui, sur les sites sur lesquels on se développe, nous allons essayer de privilégier des bâtiments existants qui vont nous permettre
d'une part de gagner du temps, mais surtout d'éviter d'artificialiser les sols, et de pouvoir réutiliser des infrastructures existantes, des bâtiments existants.
Aujourd'hui, pour résumer, vous êtes sur l'ouest, le nord, la région parisienne, Lyon, Toulouse et Montpellier également. Parlons de vos clients. Cette présence permet de créer une grande diversité. Mais quels sont les points forts d'Etix pour répondre aux attentes de vos clients?
Je pense qu'on a appris au fur et à mesure de notre développement, depuis maintenant onze ans que l'on existe, à travailler avec les différents clients avec un enjeu, je pense, qui est extrêmement important, qui est fondamental dans notre métier : c'est la proximité avec les clients et bien comprendre leurs besoins. Nous sommes nés en région. Aujourd'hui, on est également présent à Paris, on est présent sur l'ensemble de la France. Nous sommes un des acteurs majeurs du secteur, même s'il y en a d'autres qui sont bien évidemment plus gros que nous. Mais en naissant en région, on a vraiment eu et travaillé cette fibre de la proximité client qui est très, très importante, notamment en région, un peu plus qu'à Paris
où les clients sont beaucoup plus gros, beaucoup plus habitués à des structures plus importantes. Et on essaye vraiment de développer et de faire perdurer cette fibre de la proximité. Et partant de là, c'est apprendre finalement les enjeux de nos différents clients. Ce sont évidemment les ESN, nos opérateurs télécom, mais également des entreprises de l'industrie, du secteur bancaire, du secteur des assurances, tout type de secteur. Et aujourd'hui, on a on a un petit peu plus de 550 clients de tout secteur qui nous permettent justement de bien comprendre l'ensemble de leurs enjeux et d'y répondre lorsque lorsque c'est nécessaire.
Pour terminer notre entretien, qu'est ce qui fait rêver Thomas HOMBERT aujourd'hui ?
Aujourd'hui, Etix est un des pionniers dans ce qu'on fait. Si on regarde le marché, il y a beaucoup de choses qui ont été faites, de très belles choses. Mais aujourd'hui, une offre de colocation uniforme, multi-sites, répartie sur l'ensemble du territoire français, ça n'existe pas. On en parlait avec les équipes et on leur disait quʼon est des pionniers dans ce qu'on fait, dans ce qu'on fait à l'extérieur, dans le développement commercial. Le développement de la société va répondre aux besoins de nos clients en région, et de manière globale sur sur l'offre multi-sites. Mais à l'intérieur également, nous sommes en train de construire, de mettre en place, de solidifier et de consolider tous ces process qui fonctionnent bien. En train d'apprendre également à avoir une certaine émulation et à s'améliorer chaque jour en apprenant de chacune des régions. Et ce sont des défis quotidiens. Je pense que c'est ça aujourd'hui qui m'anime, parce qu'on le fait avec des équipes qui sont passionnées et très engagées. On a cette chance, on essaie de le cultiver au maximum, avec une équipe dirigeante qui est également passionnée et très engagée. Donc, c'est ça aujourd'hui qui me passionne, c'est d'aller défricher ce terrain là.
Dossier
Les data centers existants, les data centers en edge et les infrastructures de puissance (IA et HPC) peinent à répondre aux exigences de technologies qui demandent à supporter des solutions de refroidissement efficaces, peu gourmandes en énergie, aux coûts d'exploitation maîtrisés, et qui réduisent leur empreinte écologique. Le refroidissement par immersion est une réponse innovante apportée à ces attentes. Et cʼest un véritable marché en devenir. Datacenter Magazine lui consacre ce dossier.
L'immersion dans des fluides diélectriques ou “immersion cooling” marque une étape innovante utilisée dans plusieurs applications, notamment pour le refroidissement des systèmes électroniques comme les serveurs informatiques et les data centers. L'immersion dans un liquide diélectrique permet en effet une dissipation de la chaleur plus efficace que le refroidissement à air traditionnel, ce qui est crucial pour maintenir la performance et la durée de vie des composants. En immergeant directement les composants électroniques dans des fluides diélectriques, la chaleur est dissipée de manière plus homogène, ce qui réduit la nécessité de systèmes de refroidissement supplémentaires tels que les ventilateurs et les climatiseurs. Cela se traduit par une réduction significative de la consommation d'énergie pour le refroidissement, la plus importante après lʼalimentation des équipements informatiques.
Pourquoi l'immersion devient-elle populaire dans les data centers ? Au-delà de la dissipation de la chaleur, les expériences menées par des centres de calcul, le Crédit Agricole ou encore Microsoft, montrent que lʼimmersion offre un meilleur contrôle de la température, même lorsque les composants sont très rapprochés, ce qui permet une plus grande densité de calcul. Les data centers haute performance peuvent
ainsi répondre aux demandes dʼinfrastructures dʼIA (Intelligence Artificielle) et de HPC (High Performance Computing). Et accueillir plus de serveurs dans un espace donné sans risque de surchauffe. L'immersion réduit également les coûts opérationnels associés aux infrastructures de refroidissement telles que les systèmes de climatisation. Elle diminue aussi les besoins en maintenance, car les composants immergés sont protégés de la poussière et d'autres contaminants présents dans l'air, ce qui prolonge leur durée de vie. Enfin les fluides diélectriques empêchent les courts-circuits et la corrosion, ce qui améliore la fiabilité et réduit le risque de défaillance du matériel. Cette fiabilité accrue est essentielle pour les data centers, où les temps d'arrêt non planifiés peuvent entraîner des coûts élevés et des interruptions de service.
Les techniques de l'immersion
Il existe principalement deux techniques d'immersion dans les data centers :
• Lʼimmersion à phase unique
Dans cette méthode, les équipements sont immergés dans un fluide diélectrique liquide qui reste à l'état liquide tout au long du processus de refroidissement. La chaleur est dissipée dans le fluide, qui est ensuite refroidi par un échangeur de chaleur externe. Cette technique est simple et économique, idéale pour les applications où une maintenance facile est essentielle. Lʼimmersion à phase unique utilise principalement des fluides à base d'hydrocarbures et de biotechs, dérivés de minéraux et qui sont généralement moins coûteux.
• Lʼimmersion à deux phases
Ici, les équipements sont immergés dans un fluide diélectrique qui s'évapore à une température relativement basse. Lorsque le fluide chauffe, il change de phase (de liquide à gaz), il
monte dans un réservoir, où il est condensé et retourne à l'état liquide. Les fluides biphasés à changement de phase offrent une excellente performance de refroidissement grâce à leur capacité à absorber une grande quantité de chaleur lors du changement d'état. Cette méthode est donc plus efficace pour le refroidissement de haute densité et offre une meilleure performance thermique, mais elle est plus complexe à déployer, à maintenir et elle nécessite des fluides plus spécifiques, ce qui la rend plus coûteuse. Lʼimmersion à deux phases utilise des fluides fluorés, qui ont un point d'ébullition bas et sont efficaces pour les applications de haute densité de puissance, mais qui peuvent être plus coûteux et posent des questions environnementales.
• Lʼinnovation dans lʼimmersion
Dans lʼimmersion, les innovations portent sur de nombreux domaines. A commencer par les fluides de refroidissement. Leur performance se
mesure à leur capacité de transfert thermique, à leur stabilité thermique pour résister aux températures élevées sans dégradation, à la réduction de la viscosité, et à leur engagement écologique avec des huiles issues des biotechs. Les fluides sont des produits transformés, qui peuvent être augmentés avec lʼajout dʼadditifs. Ils peuvent donc être adaptés à des usages ou apporter des fonctionnalités supplémentaires appréciées. Plusieurs expériences ont été menées sur des fluides synthétiques, développés pour offrir une meilleure performance thermique, mais issus de la chimie la question environnementale est posée, et leur coût est plus élevé.
Lʼinnovation porte également sur la conception des supports pour les serveurs. Certains sont des tiroirs à placer dans des racks, aux emplacements des serveurs, ces derniers étant placés dans ces tiroirs. Mais la majorité des fabricants proposent des bacs, que lʼon remplit de fluides, et dans lesquels on immerge les serveurs. Cette
L’histoire de l’immersion dans l’industrie et l’informatique
Lʼimmersion nʼest pas chose nouvelle. Lʼimmersion dans des fluides est même une technique largement utilisée dans plusieurs secteurs industriels, tels que le refroidissement, le nettoyage, l'usinage, la protection ou la transformation. Dans le cadre qui nous intéresse ici, le refroidissement par immersion est une méthode qui permet de dissiper la chaleur générée par des équipements ou des processus en les plongeant dans des fluides à haute capacité thermique. Les premières applications industrielles datent du début du 20e siècle, la technique a été initialement utilisée pour refroidir les moteurs et les systèmes électriques. Des fluides comme l'huile ou l'eau étaient utilisés pour empêcher la surchauffe dans les transformateurs et les moteurs électriques industriels. L'huile agissant également comme isolant, les bains dʼhuile se sont développés dans les années 19201940 pour les transformateurs électriques, pour dissiper efficacement la chaleur et éviter les décharges électriques. Dans les années 1950, avec lʼapparition de composants électroniques et de circuits de plus en plus compacts, lʼimmersion dans des liquides de refroidissement a commencé à être utilisée pour gérer la dissipation thermique, notamment dans les ordinateurs de grande taille. Depuis les années 2010 et aujourdʼhui, le développement de technologies avancées, telles que lʼimmersion dans des fluides diélectriques, révolutionne le refroidissement des serveurs dans les data centers, en réduisant considérablement l'énergie nécessaire pour refroidir l'équipement.
conception de châssis permet une disposition optimisée des serveurs pour maximiser l'efficacité du refroidissement et faciliter la maintenance. On notera également que des technologies avancées de surveillance des fluides et des équipements permettent de détecter les problèmes potentiels en temps réel et d'automatiser la gestion du refroidissement.
Le support et la maintenance de l’immersion
Les pratiques autour de l'immersion impliquent des changements significatifs dans la conception des data centers et la gestion des opérations. Constatons tout dʼabord que les solutions d'immersion sont soutenues par un écosystème croissant de fabricants d'équipements, de constructeurs de serveurs, de fournisseurs de fluides, dʼinfogéreurs et de mainteneurs, et de bureaux dʼétudes spécialisés dans la conception de data centers.
La durabilité de l’immersion
La durabilité est un argument majeur en faveur de l'immersion, car elle permet de réduire la consommation d'énergie et d'eau, tout en offrant une meilleure gestion thermique.
Les installations d'immersion ne nécessitent pas la présence dʼun faux plancher, mais dʼun sol solide aux normes industrielles. Elles sont souvent conçues pour être modulaires, ce qui permet des ajouts ou des modifications sans interruption majeure des opérations. Si peu dʼinfogéreurs offrent aujourdʼhui des services sur lʼimmersion, force est de constater que la maintenance de ces installations est simplifiée : les systèmes immergés nécessitent moins de maintenance des systèmes de refroidissement (comme les ventilateurs et les climatiseurs).
Elle demande par contre des protocoles de maintenance spécifiques pour la manipulation des fluides et la gestion des équipements immergés. Le personnel doit donc être formé aux nouvelles pratiques de gestion des systèmes d'immersion, y compris la manipulation sécurisée des fluides et la maintenance des systèmes immergés.
Fluides diélectriques, une efficacité scientifiquement démontrée
Les tests scientifiques de l'immersion et des fluides diélectriques sont cruciaux pour assurer la sécurité, la performance, et la durabilité des systèmes utilisant ces fluides. Ils englobent une large gamme d'évaluations destinées à mesurer les propriétés électriques, thermiques, chimiques et mécaniques des fluides pour garantir leur adéquation à diverses applications industrielles et technologiques.
Conductivité Électrique :
Les fluides diélectriques possèdent une très faible conductivité électrique pour être utilisés en toute sécurité avec des composants électroniques. Des tests sont effectués pour mesurer la résistivité électrique et assurer que le fluide reste non-conducteur, même en présence de contaminants comme l'eau ou les particules de poussière.
Propriétés Thermiques :
Les propriétés thermiques des fluides diélectriques, comme la capacité thermique et la conductivité thermique, ont démontré leur efficacité à dissiper la chaleur. Cela comprend des tests pour évaluer le comportement du fluide à différentes températures et sous différentes charges thermiques.
Compatibilité Matériaux :
Lors de l'immersion de composants dans des fluides diélectriques, il est essentiel dʼassurer la compatibilité chimique du fluide avec les matériaux des composants (tels que le plastique, le caoutchouc et les métaux). Ces tests garantissent que le fluide n'endommage pas les composants, qu'il ne provoque pas de corrosion ou de dégradation chimique.
Durabilité et Vieillissement :
Les fluides diélectriques se comportent très bien sur de longues périodes sous des conditions de fonctionnement. Des tests évaluent la stabilité chimique et physique du fluide, son éventuelle dégradation thermique et oxydative, et ses effets sur les composants immergés au fil du temps.
Isolation :
Étant donné que les fluides diélectriques sont utilisés principalement pour leur capacité d'isolation électrique, leur efficacité à prévenir les décharges électriques pour l'isolation électrique a été vérifiée. Ces tests incluent des mesures de rigidité diélectrique, qui indiquent la capacité du fluide à résister à des champs électriques sans se décomposer.
Performance en Conditions Extrêmes
:
Les limites d'utilisation des fluides diélectriques sous des conditions extrêmes de température, de pression, et de charge électrique ont été évaluées. Elles permettent de comprendre comment ces fluides réagissent dans des situations où les systèmes pourraient être poussés à leurs limites, comme dans des environnements industriels rigoureux ou des opérations informatiques intensives.
Des serveurs pour l’immersion
Si lʼimmersion, les équipements et les fluides diélectriques ne sont plus réellement un sujet dʼinterrogation, et cela depuis bien longtemps, il nʼen est pas de même des équipements informatiques à immerger dans les bains. En effet, les serveurs ne sont pas immédiatement compatibles avec l'immersion, car à lʼorigine ils nʼont pas été conçus pour fonctionner dans ces environnements. Le problème ne vient pas du fonctionnement du serveur, un serveur immergé fonctionne comme celui qui est refroidi à lʼair, mis à part que le refroidissement est autrement plus efficace dans une fluide, nous lʼavons vu. La vraie problématique provient de la compatibilité de certains matériaux avec les fluides, à lʼimage de certains plastiques qui font office de gaine des câbles.
Un serveur standard utilisé dans les data centers peut théoriquement être rendu compatible avec l'immersion via des modifications spécifiques. A commencer par retirer ou désactiver les composants non essentiels au fonctionnement qui sont inutiles et pourraient être endommagés par les
fluides, comme les ventilateurs et les carters dʼorientation des flux dʼair. Pour autant, cela ne suffit pas car certains éléments du serveur comme des câbles peuvent sʼoxyder, se durcir, et se désagréger dans le fluide. A une époque également des fluides qualifiés de diélectriques circulaient sur le marché mais leur composition nʼétait pas adaptée aux usages informatiques. Cʼest ce qui explique des expériences malheureuses qui ont terni lʼimage de lʼimmersion voici quelques années, mais qui aujourdʼhui appartiennent au passé. Reste quʼil est nécessaire de sʼassurer de la compatibilité des serveurs avec lʼimmersion.
Ces problèmes sont résolus aujourdʼhui avec des constructeurs qui conçoivent et fabriquent des serveurs destinés à lʼimmersion et utilisables directement dans des environnements de refroidissement immergés. Ces serveurs sont construits avec des matériaux compatibles avec les fluides diélectriques et sans composants mobiles tels que les ventilateurs. Les câbles, les connecteurs, et autres composants sensibles sont également sélectionnés pour leur compatibilité avec les fluides utilisés.
La compatibilité des matériaux immergés
La compatibilité des matériaux est une considération cruciale lors de la préparation des serveurs pour l'immersion. Voici les matériaux couramment utilisés dans les serveurs et leur compatibilité avec les fluides diélectriques :
• Plastiques : Certains plastiques peuvent se dégrader lorsqu'ils sont exposés à des fluides diélectriques. Il est important de s'assurer que les plastiques utilisés pour les connecteurs, les supports de cartes et les câbles sont compatibles avec le fluide.
• Métaux : La plupart des métaux couramment utilisés dans les serveurs, tels que l'aluminium et l'acier inoxydable, sont compatibles avec les fluides diélectriques. Cependant, certains métaux comme le cuivre peuvent subir une corrosion à long terme dans certains types de fluides, nécessitant une attention particulière ou des traitements de surface.
• Composants électroniques : Les composants électroniques, comme les puces et les condensateurs, sont généralement compatibles avec les fluides diélectriques, tant qu'ils sont correctement encapsulés. Les circuits imprimés doivent être protégés pour éviter tout risque de courtcircuit en cas de contamination du fluide.
• Quelle garantie pour les serveurs ?
La question se pose évidemment sur la garantie de ces serveurs. Pendant des années, aucun fabricant de processeur nʼacceptait de garantir leurs produits pour lʼimmersion. Mais un grand pas a été franchi en 2023, via lʼOCP (Open Compute Project), le projet dʼarchitectures open source matérielles porté par Facebook et les géants du cloud, où Intel a présenté le premier système de refroidissement par immersion de référence pour lʼindustrie à propriété intellectuelle ouverte, et annoncé la certification de tous ses processeurs pour serveur sur lʼimmersion. Ses concurrents ont suivi et aujourdʼhui la plupart des CPU sont acceptés et les serveurs entrent dans le cycle classique des garanties et du support. Ce qui cependant ne veut pas dire que tous les intégrateurs et les infogéreurs supportent les serveurs en immersion, encore faut-il que leurs équipes soient formées et qualifiées…
Un cas de résistance existe cependant, les GPU
pour lʼIA. Le géant Nvidia ne certifie pas ses GPU, en immersion les serveurs dʼIA ne sont pas garantis. Cʼest une question dʼordre plutôt ʻpolitiqueʼ, comme pour les fabricants de fluides, les constructeurs de composants peuvent accorder le support à certains constructeurs de serveurs. Cʼest ainsi quʼun même serveur, embarquant les mêmes composants, pourra être garanti sous une marque, mais pas sous lʼautre. Une problématique de jeunesse, tout le monde finira par entrer dans les rangs, cʼest une question de temps. En attendant, avant de procéder à une immersion complète, il est conseillé de se rapprocher des constructeurs de serveurs pour valider leur compatibilité, ou alors dʼeffectuer des tests avec des composants individuels pour s'assurer qu'ils fonctionnent correctement lorsqu'ils sont immergés.
• La préparation des serveurs pour l'immersion
Partant dʼun serveur ʻstandardʼ, plusieurs étapes sont nécessaires à sa préparation pour lʼimmer-
sion. Tout dʼabord, le retrait des composants incompatibles. Les ventilateurs et les autres composants mobiles sont retirés des serveurs, car ils ne sont pas nécessaires dans un environnement immergé et pourraient ne pas fonctionner correctement dans un liquide. Les cartes électroniques et les connecteurs ʻremplaçablesʼ sont vérifiés pour sʼassurer qu'ils sont compatibles avec l'immersion. Les composants sensibles aux liquides doivent être remplacés ou protégés. Avant d'immerger un serveur, il est crucial de le nettoyer de toute poussière, graisse, ou autres contaminants qui pourraient interagir avec le fluide diélectrique. Enfin, il faut sʼassurer que le fluide diélectrique choisi est compatible avec tous les matériaux des composants du serveur, y compris les plastiques, les métaux et les composites.
• Lʼimmersion des équipements réseaux
Peut-on immerger les équipements réseaux ? En théorie, rien ne sʼy oppose, la composition de ces équipements est proche de celle des serveurs. Dans la réalité, la réponse est plus délicate, car cela dépend de leur conception, de leur compatibilité avec les fluides diélectriques, certes, mais aussi des câbles aux origines diverses. Ainsi quʼà lʼengagement des constructeurs, et ces derniers se montrent beaucoup moins favorables que leurs homologues sur les serveurs ! Les commutateurs et routeurs standards peuvent être adaptés pour l'immersion, ce qui comme pour les serveurs nécessite le retrait de tous les composants mobiles, comme les ventilateurs, et l'utilisation de matériaux compatibles. Concernant les câbles et les connecteurs optiques, il est essentiel de vérifier la compatibilité avec les fluides diélectriques pour éviter toute dégradation des matériaux ou lʼaltération des performances optiques.
Comme pour les serveurs, les équipements réseaux doivent être soigneusement nettoyés et
Normes, certifications et réglementations pour l'immersion
Sʼil n'existe pas de norme internationale spécifique à l'immersion cooling, elle est soumise à un ensemble de normes, de certifications et de réglementations en constante évolution avec les technologies, et visant à garantir la sécurité, la fiabilité et la performance des systèmes dans le data center. Ces normes couvrent différents aspects, tels que la sécurité incendie, la compatibilité électromagnétique, la protection des personnes et la protection de l'environnement. De plus, les solutions d'immersion sont variées, ce qui complexifie la définition de normes génériques. Les solutions mises en œuvre doivent respecter les normes en vigueur et les bonnes pratiques de l'industrie.
Normes générales applicables
• Normes électriques: Les équipements utilisés dans les data centers en immersion doivent respecter les normes électriques en vigueur dans chaque pays (NF C 15-100 en France). Ces normes définissent les caractéristiques techniques des équipements, les méthodes d'installation et les mesures de protection.
• Normes de sécurité incendie: Les liquides diélectriques utilisés pour l'immersion sont généralement des hydrocarbures. Les normes de sécurité incendie s'appliquent pour prévenir et combattre les incendies potentiels (NF EN 60079 pour les atmosphères explosibles).
• Normes environnementales: Les normes environnementales (ISO 14001) visent à limiter l'impact de l'immersion sur l'environnement, notamment en matière de gestion des déchets et de recyclage des liquides diélectriques.
testés avant l'immersion pour s'assurer qu'ils fonctionnent correctement dans le fluide diélectrique. Cependant, la connexion réseau dans un environnement immergé peut présenter des défis, notamment en ce qui concerne la gestion des câbles et des connecteurs. Ceux-ci doivent être sélectionnés et protégés pour éviter toute corrosion ou dégradation. Et surtout, si le serveur demande peu dʼinterventions une fois quʼil est immergé, lʼaffaire se corse avec les équipements réseaux, qui réclament plus de gestes de proximité et plus régulièrement, ce qui généralement ne fait pas lʼaffaire des techniciens qui parfois nʼapprécient pas dʼintervenir au contact des fluides.
Les avantages de l'immersion dans les data centers
L'immersion présente plusieurs avantages significatifs.
• Efficacité énergétique : L'immersion est plus efficace que le refroidissement par air ou par liquide conventionnel. Les fluides utilisés dans les systèmes d'immersion sont bien meilleurs conducteurs de chaleur que l'air, ce qui permet de réduire considérablement l'énergie nécessaire pour refroidir les équipements.
• Réduction des coûts d'exploitation : Les coûts liés à l'énergie pour le refroidissement peuvent être réduits de 30 % à 50 % grâce à l'immersion. De plus, la réduction de l'usure des composants (comme les ventilateurs) et l'absence de climatisation lourde réduisent les frais de maintenance.
• Densité de puissance accrue : Les systèmes d'immersion permettent de placer davantage de serveurs dans un espace plus réduit car la dissipation thermique est beau-
coup plus efficace. Cʼest particulièrement avantageux dans les data centers où l'espace est limité.
• Réduction du bruit et des vibrations : L'immersion élimine le besoin de ventilateurs pour le refroidissement, ce qui réduit le bruit et les vibrations, contribuant à un environnement de travail plus silencieux et plus stable pour les équipements informatiques.
• Écologie et durabilité : Les systèmes d'immersion utilisent moins d'énergie et d'eau par rapport aux méthodes traditionnelles, ce qui contribue à une empreinte carbone plus faible et à une meilleure durabilité environnementale.
• Fiabilité et stabilité accrue : Les systèmes immergés sont moins sensibles aux fluctuations de température de l'air et aux conditions environnementales extérieures. Ils sont donc plus fiables et nécessitent moins de surveillance.
DLC (Direct Liquid Cooling) ou immersion ?
Si le refroidissement liquide est une technologie de plus en plus utilisée dans les data centers, les entreprises sʼinterrogent quant au choix technologique qui se présente à elles : DLC (Direct Liquid Cooling) ou immersion ? Ces deux méthodes partagent un principe commun - l'utilisation d'un liquide pour évacuer la chaleurmais elles présentent des différences notables.
• DLC - Direct Liquid Cooling
Le liquide de refroidissement circule directement sur les composants électroniques (CPU, GPU, etc.) à travers des canaux de refroidissement intégrés. Cette méthode a lʼavantage de la
flexibilité, elle peut être adaptée à différents types de composants, et de la précision, elle permet un contrôle précis de la température de chaque composant. Cependant, son usage sʼavère complexe et lourd, car elle nécessite une conception thermique spécifique pour chaque composant, et quʼelle impose de démultiplier les équipements au contact des serveurs, des échangeurs sur les composants, et les équipements de refroidissement et de traitement de la chaleur transportée. Ce qui complexifie également les gestes de proximité et la maintenance.
Contraints par lʼaugmentation de la densité des équipements - qui impose de revoir lʼurbanisation des salles informatiques et les méthodes de refroidissement en passant de lʼair au liquide -, beaucoup dʼexploitants sont prêts à adopter le DLC. Mais certains hésitent à lʼemployer car souvent, pour des raisons économiques, le liquide de refroidissement est de lʼeau. Et lʼeau ne fait pas bon ménage avec lʼélectricité… Lʼusage dʼautres fluides frigorigènes est possible, mais fortement réglementé. Notons également quʼen matière dʼentretien, les liquides employés pour le DLC se dégradent et peuvent se révéler corrosifs pour la tuyauterie, générant des dépôts, et
que les canaux de refroidissement peuvent s'obstruer avec le temps.
• Immersion
Les composants électroniques sont entièrement immergés dans un liquide diélectrique. Cʼest un refroidissement très efficace grâce à une surface d'échange thermique maximale. La conception est plus simple, car il n'y a pas de canaux de refroidissement à intégrer. Les huiles diélectriques sont sans danger, mais leur usage peut rebuter. Elles supportent des additifs qui peuvent en accentuer certains effets positifs.
Passé lʼeffet psychologique du trempage du serveur dans un fluide, qui au départ est une opération surprenante qui peut heurter certains sensibilités, lʼimmersion doit répondre à la critique du coût, l'investissement initial est en effet plus élevé en raison du réservoir et du liquide. Mais lʼefficacité immédiate, ce qui permet un RoI rapide. En matière de sécurité, le fluide diélectrique nʼest pas conducteur, le risque électrique nʼest pas dans les bacs, qui nécessitent par contre des précautions particulières pour éviter les fuites.
Immersion, le point de vue du bureau d’étude : APL
Nous avons rencontré Julien Molina, Responsable du pôle performance énergétique innovation du bureau dʼétude APL, afin quʼil nous apporte sa vision de lʼimmersion.
Datacenter Magazine : Quelle est votre perception de lʼimmersion ?
Julien Molina : Les besoins capacitaires et la densification explosent, qui demandent des puissances à la baie ou unitaire, mais on nʼy arrive plus avec lʼair, pour lequel la performance du refroidissement cʼest la différence entre le fluide rejeté et la température extérieure. La densification impose de répondre à lʼobjectif du refroidissement et à valoriser la chaleur émise. Lʼimmersion est un cas de niches, nous ne voyons pas encore de passage à lʼéchelle. Et les demandes sont spécifiques au calcul intensif ou au rendu vidéo.
Pour vous, la solution serait plutôt dans le DLC ?
Le passage à lʼéchelle se fait plutôt sur le DLC, dont lʼavantage est quʼil adresse des organisations plutôt classiques, qui éprouvent le besoin de contrôler lʼambiance en salle. Avec lʼimmersion, il nʼest pas besoin de salle blanche, de contrôler lʼair et lʼhumidité. Par contre, côté exploitabilité, il faut adapter les procédures. Il faut aussi prendre en compte la montée en puissance de Nvidia, qui exploite le même régime dʼeau que sur lʼair. Est-ce quʼavec lʼimmersion nous allons devoir revoir à la baisse les régimes dʼeau ? Les cartes GPU ont une taille définie, avec la même surface, mais pour extraire plus de chaleur il faudrait augmenter la taille. Le seul moyen, cʼest dʼabaisser la température, même avec le DLC. Nous arrivons à tant de densité au mètre carré et de puissance que le seul moyen de rejeter la température, cʼest de lʼabaisser, ce qui oblige à climatiser. Mais sur lʼair on y arrive pas.
Qu'est-ce qui pousse à ne pas le faire ?
Pour le moment, cʼest beaucoup la faisabilité, et les réponses sur le matériel IT pour les garanties. Ce sont aussi les contraintes dʼexploitation, lʼusage de câbles spếcifiques, la difficulté de connecter la fibre, lʼaménagement des salles. Lʼimmersion invite à revoir la distribution hydraulique, à ramener des tuyaux, de lʼéclectique. Parmi les contraintes, il faut parfois revoir les faux plancher, selon les arrivées dʼalimentations, et repenser la densité au mètre carré, la structure est à étudier systématiquement. Cʼest aussi le blocage sur les réseaux de chaleur, qui sont davantage tournés vers les régimes hauts. Reste que lʼimmersion est attendue sur le développement durable, intellectuellement et sur le réglementaire.
• Choisir, DLC ou immersion ?
Chaque technologie de refroidissement a ses avantages et ses inconvénients. DLC est idéal pour les systèmes où la flexibilité et le contrôle précis de la température sont essentiels, comme les serveurs haute performance ou lʼIA. Pour les entreprises, il sʼimpose lorsque lʼâge ou la conception du data center ne permettent pas dʼévolution lourde de lʼinfrastructure. Lʼimmersion est parfaite pour les applications nécessitant une densité de calcul très élevée et une efficacité énergétique maximale, comme les data centers hyperscale, lʼIA et le HPC, mais aussi pour les petites infrastructures qui souhaitent ou sont contraintes à la durabilité. On y ajoutera à lʼusage une simplicité autrement plus élevée que le déploiement du DLC.
Les freins à l’immersion
Nous ne pouvons proposer un dossier sur lʼimmersion sans rappeler que, malgré ses avantages, plusieurs obstacles freinent l'adoption généralisée de l'immersion. A commencer par la résistance au changement. Comme pour toute nouvelle technologie, il existe une résistance naturelle au changement, surtout lorsque les méthodes traditionnelles sont bien établies et que les gestionnaires de data centers ne sont pas familiarisés avec certaines pratiques. Sʼy ajoute un effet de perception particulier, lié au fait de placer un serveur dans un fluide ! Par ailleurs, le coût initial pour la mise en place de systèmes de refroidissement par immersion peut nécessiter un investissement initial important, car elle implique des équipements spécialisés, des fluides qui restent coûteux, et souvent des modifications structurelles des infrastructures existantes. L'intégration de systèmes d'immersion dans des data centers existants peut également exiger des adaptations importantes, lʼadoption de bacs ou le remplacement de racks standards par des racks adaptés à l'immersion. Lʼopération
peut être considérée comme complexe. Enfin, concernant lʼentretien, les fluides de refroidissement nécessitent une gestion rigoureuse, notamment en ce qui concerne leur manipulation, leur stockage et leur remplacement. De plus, il y a des préoccupations liées à la sécurité et à l'environnement si les fluides ne sont pas manipulés correctement.
Lʼimmersion est une technologie nouvelle qui nécessite un temps dʼacceptation et dʼintégration, cʼest ainsi que ces barrières sont franchies chaque jour. Pour lʼexploitant de data center
Qui sont les acteurs de l’immersion ?
comme le DSI, deux autres freins sont plus problématiques, même sʼils trouveront eux-aussi leurs solutions. Le manque de standardisation par l'absence de normes uniformes pour les technologies d'immersion, ce qui peut rendre difficile l'interopérabilité entre différents systèmes et fournisseurs, limitant ainsi la flexibilité et l'évolutivité. La formation et les compétences, le personnel des data centers doit être formé aux nouvelles techniques de refroidissement par immersion, ce qui peut représenter un coût supplémentaire et un frein à l'adoption. Mainteneurs et infogéreurs y travaillent.
Le marché de lʼimmersion dans le data center affiche une croissance rapide, au rythme annuel de 20% à 30% dans les prochaines années. Cette croissance profite dʼune demande forte pour des solutions de refroidissement plus efficaces en énergie, particulièrement dans les secteurs du cloud computing, de l'IA et du calcul haute performance (HPC).
Les acteurs commencent à être nombreux. Sans chercher à être exhaustifs, nous citerons chez les fabricants les français Hyperion et DiveIT, Asperitas et Submer en Europe, et chez les américains le pionnier GRC (Green Revolution Cooling), Iceotope, Allied Control et LiquidStak. Certaines gammes de produits de ces constructeurs se retrouvent au catalogue dʼintégrateurs comme Schneider Electric et Vertiv, voire de fabricants de serveurs, comme Dell et HPE.
Concernant les fluides diélectriques, nous citerons les français Motul et Total Energy, les britanniques Shell et Castrol, lʼaméricain Engineered Fluids, et plus généralement la majorité des pétroliers qui voient dans lʼimmersion une marché de substitution à certains de leurs produits.
Pour la maintenance et lʼinfogérance, il nous est plus difficile de citer des acteurs, chacun préparant plutôt des réponses adaptées à la demande. Citons cependant Metaline qui pratique depuis longtemps des gestes de proximité dans ces environnements.
Investir dans l’immersion
Le refroidissement par immersion est une technologie prometteuse pour les data centers. Si le coût dʼinvestissement initial est plus élevé quʼune infrastructure de refroidissement DLC et plus encore par air, il offre des gains économiques significatifs à long terme, réduction des coûts dʼexploitation, amélioration de la performance, efficacité énergétique et densité de calcul, avec un RoI (Retour sur Investissement) rapide.
Les coûts d'investissement associés à l'immersion sont principalement liés aux bacs et réservoirs ; aux systèmes de circulation du liquide, pompes et filtres qui sont essentiels pour assurer la circulation et la filtration du liquide ; aux systèmes de sécurité, détection de fuites, extincteurs spécifiques et dispositifs de sécurité électrique ; aux équipements de monitoring, capteurs et logiciels de surveillance requis pour contrôler les paramètres du liquide et des équipements ; et à l'adaptation des infrastructures existantes, modifications de ces infrastructure, intégration de nouveaux équipements, et adaptations pour la gestion des fluides.
Du côté des coûts d'exploitation de l'immersion, ils comprennent la consommation énergétique des pompes, des filtres et des équipements de surveillance ; la maintenance, le remplacement
des filtres, la vérification du niveau de liquide, la maintenance préventive, et les interventions régulières ou les réparations ; le coût du liquide diélectrique qui doit être remplacé périodiquement (périodes de longue durée), en fonction de sa durée de vie et des conditions d'utilisation ; et les coûts de personnel, avec des compétences spécifiques requises pour la gestion et la maintenance des systèmes d'immersion.
Concernant le fluide diélectrique, les liquides biphasés sont plus coûteux que les liquides monophasés. Et la technologie biphasique nécessite des investissements plus lourds en équipements adaptés. Le prix du fluide varie selon la formulation chimique et surtout la marque ! Une fois le bac rempli, le fluide est filtré pour écarter dʼéventuels contaminants, particules fines ou poussière. Il faut parfois revoir les niveaux, mais les systèmes en immersion consomment peu de fluide. Les fabricants conseillent de changer le liquide… tous les 10 ans. Et dans lʼindustrie, il nʼest pas rare de rencontrer des systèmes qui fonctionnent sur le même fluide plusieurs dizaines dʼannées.
Concernant la maintenance, notons que les systèmes en immersion nécessitent moins de maintenance que les systèmes de refroidissement par air, car ils n'ont pas de pièces mobiles comme les ventilateurs et sont moins sujets à la poussière et aux débris
• Avantages économiques de l'immersion
Malgré les coûts initiaux, l'immersion offre des avantages économiques à long terme. A commencer par la réduction de la consommation énergétique, qui peut être significative. L'immersion permet également d'augmenter la densité de calcul des serveurs, ce qui peut réduire le coût par watt de calcul. Lʼamélioration de la fiabilité et la prolongation de la durée de vie des équipements, en particulier les températures plus basses réduisent la contrainte thermique sur les composants électroniques, ce qui peut prolonger leur durée de vie. Sans oublier la réduction de l'empreinte carbone.
Le RoI (retour sur investissement) de l'immersion dans les data centers dépend de nombreux facteurs, notamment les économies d'énergie, les réductions des coûts de maintenance, et l'augmentation de la densité des serveurs. Lʼamortissement du coût initial, selon la taille de lʼinstallation, et lʼintensité énergétique des opérations, peut être atteint en 2 à 5 ans. Les solutions d'immersion maximisent le RoI tout en garantissant la fiabilité et l'efficacité à long terme.
Top 10 des bonnes pratiques de fiabilité et de sécurité des systèmes d’immersion
Nous vous proposons de partager notre Top 10 des bonnes pratiques du refroidissement par immersion qui nous ont été confiées par des utilisateurs de cette technologie que nous avons rencontrés.
1. Choisir le bon liquide de refroidissement
Le fluide diélectrique doit être non conducteur pour éviter les courts-circuits et avoir une grande capacité de transfert de chaleur. Et privilégier des liquides non toxiques, écologiques, et recyclables pour réduire la toxicité et minimiser l'impact environnemental.
2. Conception modulaire des cuves
Les cuves d'immersion doivent être modulaires, pour faciliter leur déploiement (par exemple dʼune largeur suffisante pour passer les portes) et la maintenance. Elles doivent être isolées pour prévenir toute fuite de chaleur et minimiser l'évaporation du fluide.
3. Maintenance proactive et surveillance des fluides
Le monitoring régulier du fluide permet de détecter dʼéventuelles dégradations ou contaminations, ce qui permet de prolonger la durée de vie du liquide et d'éviter des pannes soudaines. La mise en place dʼun système de filtration ou de régénération continue permet de conserver la qualité du fluide.
4. Gestion thermique efficace
La disposition des serveurs dans la cuve permet dʼoptimiser le flux de chaleur à travers les composants afin dʼassurer un refroidissement uniforme et dʼéviter les points chauds. Lʼutilisation de pompes de circulation ou de systèmes de refroidissement passifs (comme la convection naturelle) maximise le transfert de chaleur depuis la cuve vers les systèmes externes de dissipation.
5. Sécurité des équipements
Lʼintégration de systèmes de détection de fuites et de mécanismes d'arrêt d'urgence prévient tout incident lié à des fuites ou des dysfonctionnements.
6. Formation du personnel
La formation du personnel à la manipulation des fluides et à la maintenance des systèmes immergés le familiarise avec cette technologie, met fin aux éventuelles réactions de rejet, et réduit les risques.
7. Optimisation énergétique avec des équipements secondaires
Pour dissiper la chaleur évacuée par les fluides d'immersion, il est conseillé dʼutiliser des systèmes de refroidissement secondaire efficaces, comme des échangeurs de chaleur ou des refroidisseurs adiabatiques. Et dʼintégrer des systèmes de récupération de chaleur pour réutiliser la chaleur excédentaire (chaleur fatale), par exemple pour chauffer des bureaux, des équipements sportifs, ou encore des processus industriels.
8. Conformité et documentation
Veiller à respecter les normes industrielles et les réglementations locales concernant la gestion des liquides et la sécurité des installations. Et pour faciliter la gestion des risques, maintenir une documentation précise sur la
maintenance, les interventions et la gestion des fluides.
9. Test et validation avant le déploiement
Toujours effectuer des tests à petite échelle avant le déploiement à grande échelle pour s'assurer de la compatibilité entre les équipements et le fluide. S'assurer que les composants électroniques peuvent bien fonctionner en immersion prolongée, et que leur durabilité n'est pas affectée par le fluide choisi.
10. Planification à long terme
Prendre en compte la durée de vie des fluides et les coûts de remplacement dans la planification opérationnelle du data center. Prévoir des mécanismes de recyclage des fluides en fin de vie pour minimiser les déchets.
Immersion et innovation
Le refroidissement par immersion est une technologie clé pour construire des data centers plus efficaces et plus durables, qui répondent aux enjeux du numérique. Pour conclure notre dossier, évoquons les recherches qui continuent d'avancer à un rythme rapide, offrant de nouvelles perspectives pour l'avenir de lʼimmersion.
Parmi ces perspectives, évoquons lʼoptimisation en temps réel des systèmes de refroidissement par lʼutilisation de lʼIA, qui ajuste les paramètres en fonction de la charge de travail et des conditions environnementales.
Le développement de nouveaux matériaux est une source dʼinnovations. Les matériaux à changement de phase peuvent stocker de grandes quantités de chaleur lors de leur changement d'état, puis la relâcher progressivement. Quant aux matériaux conducteurs thermiques, ils sont développés pour améliorer les performances des systèmes de refroidissement. Ainsi l'utilisation de microcanaux permet dʼaugmenter la surface d'échange thermique et d'améliorer l'efficacité du refroidissement.
De nouveaux fluides diélectriques élargissent également ces perspectives, dont les fluides biphasés à changement de phase. Ils offrent une excellente performance de refroidissement grâce à leur capacité à absorber une grande quantité de chaleur lors du changement d'état. L'ajout de nanoparticules aux liquides de refroidissement, aussi appelés nanofluides, améliore considérablement leur conductivité thermique, permettant ainsi d'évacuer plus efficacement la chaleur. Enfin des recherches sont menées sur l'utilisation de liquides naturels, biodégradables et non toxiques, comme l'eau ou des huiles végétales, pour réduire l'impact environnemental.
Dernier axe dʼinnovation à suivre, lʼintégration de plusieurs technologies, comme refroidissement par immersion et immersion directe, ou refroidissement liquide et refroidissement par air, des solutions de refroidissement hybride, adaptées à différents types de composants, et qui optimisent l'efficacité énergétique.
A suivre…
https://www.youtube.com/watch?v=Y5O1eLDV8o8
Hyperion à l’état de l’art de l’immersion dans le datacenter
Nicolas Boulinguiez
fondateur et dirigeant Hyperion
Nicolas Boulinguiez, fondateur et dirigeant du groupe Numains (MCT, Delta, Hyperion), crée et intègre des équipements pour lʼimmersion des datacenters, sous la marque Hyperion. Et il sʼapprête en 2025 à ouvrir son propre datacenter également en immersion. DataCenter Magazine lʼa rencontré pour évoquer son attrait pour lʼimmersion et ses projets.
Datacenter Magazine - Pourquoi un tel investissement dans lʼimmersion ?
Nicolas Boulinguiez - Nous avons créé une activité dédiée à l'industrie du datacenter, pour un data center et un numérique plus responsable, qui s'appelle Hyperion. Et qui est dédiée aux solutions de liquide cooling en immersion, avec une technologie de fluides diélectrique afin de minimiser l'impact des datacenters dans le monde qui nous entoure. C'est à notre avis dʼune importance majeure que de minimiser nos impacts pour accompagner un numérique plus durable et plus
responsable pour les années qui viennent.
Pour nous, l'immersion, c'est un aboutissement de la maîtrise de l'impact énergétique des datacenter. On a toujours eu dans notre ADN de minimiser notre empreinte sur les consommations énergétiques, dans toutes les salles qu'on a construites, dans toutes celles qu'on a exploitées depuis toutes ces années. Et l'aboutissement de ce projet, qui va démarrer fin 2025, cʼest de dé-
dier un data center à l'immersion, qui va se positionner pour aller accompagner un réseau de chaleur pour emmener la calorie qui va être utilisée pour faire fonctionner l'IT à destination d'un bâtiment. Pour pouvoir justement minimiser encore plus l'impact du numérique et également se servir de ce numérique pour aller réchauffer ce bâtiment.
Des opérateurs de data centers, des DSI, des techniciens sont attirés par cette technologie, mais ont encore peur de faire la bascule, dʼutiliser des outils qui sont dans de l'huile. Que leur répondez-vous ?
Ils appréhendent surtout. Le mieux, c'est de venir nous voir pour pouvoir mettre les mains dedans, pour voir que ça ne sent pas les hydrocarbures, que c'est une machine qui va parfaitement s'intégrer dans un environnement de data center qui est pensé pour être exploité. C'est d'abord notre métier que d'exploiter des salles et de l'IT en salle. On l'a vraiment pensé de cette manière là, pour
que ça puisse se faire en grand nombre avec notre vision qui est celle de l'immersion en mode filière, avec nos partenaires industriels. Donc venez nous visiter, nous rencontrer en Mayenne pour qu'on vienne vous présenter et vous expliquer tout ça.
Ajoutons quʼil y a aussi le service, qui est indispensable aujourd'hui.
Oui, c'est très juste. Nous sommes d'abord une entreprise de service et la partie immersion est une brique par rapport aux autres services qui sont les nôtres et une des forces qui sont les nôtres. En plus de la maîtrise industrielle, de la technologie et de la fabrication des cuves et de toute l'intégration bâtimentaire avec nos partenaires, c'est également la capacité à accompagner les DSI, de les migrer d'environnement air cooling en immersion cooling, soit dans du rétrofit de datacenter, soit de l'intégration sur des collectivités comme on a pu le faire récemment pour une collectivité qui a souhaité se rééquiper
on-premise chez elle avec des cuves en immersion, parce qu'elle voulait minimiser son empreinte énergétique dans ses locaux.
Nous sommes sur une filière française, avec des fabricants français, et des personnes qui participent à la conception française de ce produit.
Nous sommes sur une chaîne de valeur intégrée, effectivement, avec des partenaires français de premier choix. La SERAP est un spécialiste des cuves en inox depuis des générations. Motul est un fabricant de fluides français avec lequel on a travaillé des recettes spécifiques pour être au top en termes de récupération énergétique, d'effet sur les mains et sur les équipements pour pouvoir traiter convenablement cette appréhension pour les techniciens. Et enfin Wilo qui nous a également accompagné et qui est à nos côtés sur la partie circulation des fluides. Pour maximiser la récupération de chaleur et la dissipation calorifique.
Notre reportage se déplace dans le Lab d’Hyperion, où Nicolas Boulinguez nous présente les premiers bacs à immersion développés par la société, et un bac en cours d'intégration et de test pour un client.
Parlons de votre premier projet en immersion, la maquette en quelque sorte.
Le tout premier prototype est un usage détourné d'une cuve à fromage à l'origine, sur laquelle nous avons réalisé les premiers tests en labo qui nous ont permis de concevoir effectivement la technologie qui est maintenant sur le marché. La cuve était déjà en inox, pour une vision de durabilité et de machine industrielle à intégrer dans des environnements industriels.
Qu'est ce que cette maquette vous a appris?
Elle nous a appris que cela nous permettait en l'état de récupérer de la calorie, mais qu'on pouvait optimiser notre méthodologie de récupération de chaleur en mettant en place un système de convection en plus du système de circulation en paroi. Également que le mode de récupération de calories est réellement nécessaire et qu'il fallait plus réfléchir en mettant un groupe froid pour intégrer du froid, mais qu'il fallait d'abord extraire les calories et la chaleur pour en faire un
usage tierce et être dans une vision de l'économie circulaire. Le bac à double paroi offre une isolation double peau qui permet de traiter le syndrome de la porte du four qui nʼest pas chaude. L'intégralité de la calorie doit rester dans la cuve et ne pas se diffuser dans le datacenter. La chaleur reste dedans avant dʼêtre extraite avec le système de circulation.
C'est dans ce Lab Hyperion que vous avez expérimenté vos technologies en immersion jusquʼau produit fini devant nous.
Exactement. Le Lab a été notre première intégration dans un bâtiment dédié à cela, avec la partie pilotage et automatismes qui se trouve derrière la gestion hydraulique, et l'intégration bâtimentaire avec la tuyauterie blanche qui est le modèle dédié pour nous à l'extraction de chaleur sans revalorisation. La tuyauterie noire avec le ballon tampon permet
d'utiliser la calorie extraite de la chaleur numérique de manière à pouvoir la revaloriser à son maximum. La partie noire vient alimenter tout le bâtiment. Cette installation nous permet de revaloriser le déchet qu'est l'énergie électrique qui est consommée pour faire fonctionner l'IT. Vous avez le système de portique qui était pour nous une évidence pour pouvoir gérer l'exploitation et l'extraction des machines, qui est une option. Également une notion de cale sèche pour égoutter les machines et gérer le trop plein quand on fait des mouvements. En termes d'entrées et sorties de matériel, il est une évidence que le trop plein de fluide doit être géré. Cela fait partie des choses que l'on a rajouté à la cuve proto.
Vous avez également développé tout ce qui permet de piloter l'installation.
Nous avons deux circuits : un circuit primaire pour la circula-
tion des fluides, sur lequel on a travaillé avec un partenaire industriel ; et le circuit secondaire qui est juste la partie système hydraulique d'eau pour lequel on doit pouvoir piloter les variations des circulateurs pour aller optimiser la récupération, ouvrir, fermer des vannes pour pouvoir extraire plus ou moins en fonction de la puissance IT qui est intégré dans les cuves. Nous avons fait le choix de l'esthétique rudimentaire et industrielle. Ce nʼest pas quelque chose où lʼon met du clinquant avec des leds pour que ce soit beau. Nous voulons que ce soit efficace, durable et performant.
Pour concevoir ce bac à immersion, vous avez activé la filière locale.
Sur la partie marché de l'immersion, on travaille
en mode filière avec plusieurs partenaires industriels. Concernant les fluides diélectriques pour faire fonctionner les équipements, nous avons un partenaire industriel français de premier choix, Motul. Notre second partenaire est Wilo pour des circulateurs que l'on a intégrés et qui nous a permis de doubler le système de circulation. La partie cuve en inox est produite par une entreprise mondialement connue, la Serap, qui est dédiée au marché de l'inox et à l'étanchéité des cuves, qui est une appréhension forte que l'on peut avoir avec nos interlocuteurs à qui lʼon explique que nous ne ne sommes pas un chaudronnier. Notre vision de la filière est de travailler avec des partenaires industriels de premier plan, qui nous permettent de sécuriser et de justifier la qualité et le fait que les installations ne fuiront pas.
Nous poursuivons notre échange avec Nicolas Boulinguez sur le lieu d’implantation du futur data center d’Hyperion, où un système en immersion est déjà en production.
Ce site est celui de notre projet de data center full en immersion au sein de l'agglomération de Laval, pour lequel on a démarré la mise en production du bac.
On constate que c'est finalement assez facile à installer...
C'est l'idée, en fait. A la différence des racks que vous pouvez connaître, des racks en air qui peuvent être montés sur site, là on amène des cuves sur le site de destination intégralement déjà étanches et sur roulettes.
Nous avons travaillé sur des cuves qui sont en largeur 80, facilement transportables, qui permettent de s'installer à peu près n'importe où à partir du moment où on a simplement la partie récupération de chaleur sur le circuit secondaire au niveau de l'hydraulique.
Justement, parlons des fluides.
Vous travaillez en particulier avec Motul. Est ce que la sélection du fluide a posé un problème et comment vous en êtes arrivés à travailler avec eux ?
La sélection du fluide n'est pas un problème, c'est la solution. À la différence de l'air, qui est un isolant, le fluide est un conducteur. Donc pour nous, c'était un élément majeur que l'on devait être capable de maîtriser en termes de risque. Notamment
pour les techniciens qui interviennent, par les parties du toucher et olfactives, et par l'appréhension car c'est vraiment un changement de métier que d'avoir des équipements IT qui sont en immersion. Donc, nous avons travaillé un certain nombre de fluides différents, plusieurs recettes de fluides qui ont été faites et validées avec Motul, qui est l'entreprise de choix pour accompagner notre stratégie de filière française de technologie, de fluides et d'immersion. Ici, nous sommes sur un fluide qui en plus a une empreinte spécifique, notamment sur le fait que le fluide qui reste sur les doigts y reste très peu longtemps. Aujourd'hui, vous avez d'autres fluides du marché, qui sont également des fluides diélectriques, mais qui restent
très longtemps sur les mains. Le nôtre y reste très peu, dès qu'on s'essuie les mains, ça s'en va immédiatement.
C'est étonnant, je m'attendais à ce que vous nous parliez des capacités conductrices, de la chaleur, etc. Mais en fait, le vrai problème c'est l'acceptation par les équipes.
Tous les fluides diélectriques ont une capacité de récupération calorifique qui est à peu près la même, à plus ou moins quelques pour cent. Nous avons fait des tests avec le pôle Cristal, qui est le laboratoire avec lequel on travaille à Dinan. Sur différents types de fluides, ça se joue à un ou 2 %, ce n'est pas représentatif. Le vrai enjeu, effectivement, c'est l'acceptation de ce que ça fait pour les équipes techniques de mettre les mains dans un fluide. C'est en fait le choix qui a été le nôtre, de nʼimmerger aucune des connectiques. Il nʼy a uniquement que la partie compute calcul et chipset qui est en immersion. Toute la partie connecteur est vraiment au-dessus du fluide de manière à ce que ça permette l'acceptation pour les équipes techniques, de ne pas mettre les mains dans un fluide en fait.
Pour la partie connectique, qui a été placée à l'arrière, nous avons redondé l'intégralité de la chaîne, que ce soit la partie LAN, la partie électrique, la partie hydraulique, justement pour être capable de pouvoir changer des équipements en mode production. L'enjeu majeur de la dernière version de notre bac, ce sont les travaux qu'on a fait au niveau des circulateurs par rapport à la pompe initiale. Nous avons désormais deux circulateurs qui nous permettent de gérer avec une variation la nécessité d'évacuation de la calorie ou de récupération selon comment on se positionne dans la chaîne primaire ou secondaire. Et avec un système de pilotage en mode bus qui nous permet de remonter dans l'intégralité des tableaux de contrôle et de pilotage de la cuve
elle-même. Il faut savoir que dans le choix que l'on a fait dans nos installations, chaque cuve est indépendante. On ne mélange pas les fluides d'une cuve à une autre pour des raisons diverses, notamment dans nos choix de maintenance. Nous faisons de manière annuelle un prélèvement sur le fluide pour être sûr qu'il garde toutes ses facultés et qu'il n'y a pas une hygrométrie trop forte au niveau du fluide.
Le circuit secondaire est du même acabit d'un point de vue pilotage, on a mis également des circulateurs. Wilo est capable de gérer au plus fin la partie gestion de la calorie et récupération de la chaleur fatale en termes de variation, de données et de métriques. Tout est intégré sur la cuve, avec la partie pompe. Dans une installation sur laquelle on enchaîne les cuves, on supprime le placard technique, et on traite toute la partie pompage et échangeur dans un local qui est dédié. En termes de gains, c'est une vraie question parce que c'est un des enjeux majeurs. Aujourd'hui, on baisse de 40 % la consommation énergétique parce qu'on n'a pas du tout besoin de climatisation. Et surtout on récupère aujourd'hui plus de 90 % de la chaleur fatale que lʼon convertit à plus de 90 % en l'électricité pour des usages X ou Y, soit en eau chaude sanitaire, soit en chauffage de bâtiment ou en apport calorifique sur une piscine.
Retrouvez l’intégralité des interviews de Nicolas Boulinguez d’Hyperion sur notre chine YouTube.
Motul : production française de fluide au service de l’immersion
Christophe Lacroix
directeur de lʼinnovation et du développement durable Motul
Si la société familiale française
Motul est plus connue pour ses huiles dans les courses automobiles, elle entretient également lʼesprit de curiosité et dʼinnovation dʼune entreprise de la mobilité. Jusquʼà travailler avec Hyperion afin dʼélaborer un fluide diélectrique monophasé qui répond aux attentes de la solution dʼimmersion en data center de ce dernier.
Nous nous sommes entretenus avec Christophe Lacroix, directeur de lʼinnovation et du développement durable de Motul.
Datacenter Magazine : Comment Motul en est venue à développer un fluide diélectrique pour le refroidissement par immersion dans le data center ?
Christophe Lacroix : Motul est fabricant de fluides spéciaux depuis plus de 170 ans et a toujours trouvé sa croissance via une grande curiosité et un désir de performance, tout cela soutenu par de lʼinnovation. Nous avons plusieurs verticales définies pour les mobilités de demain, notamment sur
le véhicule électrique pour lequel nous travaillons sur le refroidissement des batteries avec des fluides diélectriques qui circulent autour des cellules, des batteries à immersion. Le fluide diélectrique dispose de la capacité dʼextraire de la chaleur et il est non conducteur. Dans cette configuration, toute la batterie et son électronique sont immergés. Dʼune carte pour une solution de BMS (Battery Management System) jusquʼaux serveurs, il y a ce pas que nous avons franchi.
Comment concevoir un fluide pour le data center ?
Notre produit est un fluide monophasé développé sur une base biosourcée et renouvelable. Le refroidissement par immersion permet dʼutiliser moins dʼélectricité et ne nécessite pas dʼeau froide. Il contribue donc à réduire lʼimpact environnemental du data center tout en assurant une performance optimale dʼextraction de calories. Pour son développement, nous avons travaillé avec un de nos partenaires, Nicolas Boulinguez et Hyperion (lire notre interview). Outre le fluide, de très nombreuses choses entrent en ligne de compte. Avec le risque de sortir un produit qui ne correspond pas au cahier des charges. Nous devons répondre à un besoin client, prendre en compte la typologie du bain, le type et la densité des serveurs, qui optimise la performance des
pompes, etc... Concernant les matériaux dans les serveurs, nous effectuons de nombreux de tests en fonction de la nature des câbles, des pattes, des joints, car le fluide peut interagir avec certains de ces matériaux. Cʼest pour cela que nous effectuons des tests sur tous les câbles, ainsi que sur tous les matériaux de type plastique et joints hors la carte mère.
Motul est suffisamment agile pour optimiser ses formules et répondre au mieux aux besoins clients, apporter support, solutions, et suivi dans le temps. Nous ne sommes pas intégrés verticalement avec notre propre raffinerie, mais nous avons par contre la capacité dʼoptimiser différents fluides ( huiles et autres), et dʼajouter des additifs pour remplir le cahier des charges. Notre approche artisanale nous permet de répondre à un besoin spécifique. Nous disposons
également de services, dont de simulation numérique pour optimiser les flux hydrodynamiques et thermiques, et pas seulement le fluide. Et à la demande, nous effectuons la prise dʼéchantillons pour suivre lʼévolution.
Quelle est votre perception de lʼimmersion dans les data centers ?
Lʼimmersion change la donne pour le monde du data center. Il ne faut plus raisonner en salles IT, mais sʼadapter à la salle, à la compatibilité des équipements.
Nous avons travaillé en interaction avec Hyperion. Il faut analyser les flux dʼécoulement, comme dans les batteries, se poser la question des débits, des bains, des différentes tech-
nologies de refroidissement. Nous avons par exemple développé un fluide de nettoyage pour retirer le fluide et accélérer le séchage. Nous avons fait le choix de travailler à impact carbone réduit, avec des produits majoritairement biosourcés car lʼimmersion dans le monde du data center participe aussi à réduire son impact environnemental.
Les premières expériences dʼimmersion des serveurs ont rencontré des difficultés de corrosion liées à la qualité des huiles et à celle des composants.
de ne pas affecter la qualité des cables et perturber les signaux. Notre produit assure une homogénéité de propriétés indispensables au bon fonctionnement de lʼimmersion et répond favorablement à des cahiers des charges précis. Nous supportons la compatibilité OCP (Open Compute Project) si besoin. En fait, OCP partage un guide mais il nʼexiste pas de réelles normes actuellement pour ces fluides. Leurs caractéristiques sont intimement liées aux configurations. On peut citer par exemple des demandes qui portent sur des produits différents, des viscosités très faibles proches de lʼeau pour certains types de refroidissement (fontaine, spray…), des produits dont la viscosité permet dʼoptimiser la puissance des pompes dʼune installation, … Cʼest dans ce sens là que nous faisons du sur mesure et quʼil est nécessaire dʼavoir une interaction forte avec le client.
Lʼinnovation semble porter sur le biphasique…
Nous avons minimisé un grand nombre de problèmes de compatibilité des matériaux, afin
Le fluide biphasique est aujourdʼhui une base fluorée. Sa caractéristique, cʼest quʼil change dʼétat, se vaporise au contact dʼune surface chaude. Lʼextraction de la chaleur se produit lors du changement de phase (dans des systèmes ouverts on peut observer la for-
mation de bulles qui recondensent après dans le fluide). Mais sa production nʼest pas facile au niveau chimie, son bilan carbone de fabrication est beaucoup moins favorable.
Et lʼimmersion face en DCL (Direct Liquid Cooling) ?
Le DLC est une chose qui marche très bien, avec de lʼeau glycolée. Cʼest un solution existante très efficace au regard de lʼimmersion mais qui peut présenter des inconvénients : dans le temps on peut constater la présence de champignons, de bactéries qui peuvent venir de lʼeau, et les fuites qui existent peuvent endommager très fortement les GPUs et CPUs. Ceci peut causer des problèmes de coût (au regard du prix des GPU par exemple), dʼinterruptions de service, de contrôle
des températures, etc. Tout doit être maîtrisé dans le DLC, la maintenance, la qualité de lʼeau, la plomberie, les débits…
Lʼimmersion est une technologie robuste, soit en statique (avec une inertie du bain suffisante) et/ou dynamique (lʼécoulement entre les serveurs). Cʼest lié à la forme du bain, à la densité des serveurs, aux surfaces de contact. Et la durée de vie dʼun fluide est de plus de 10 ans. Les propriétés diélectriques ne changent pas dans le temps. Il faut juste vérifier la qualité du fluide en cas de changement et de renouvellement des serveurs, lors des manipulations, sinon il nʼy a pas de consommation. Lʼimmersion est durable dans le temps et sʼinscrit dès lors dans une démarche environnementale.
La Communauté de communes de l’Ernée déploie un système d’immersion cooling
Laurent LEMAITRE
Responsable Service
Système dʼInformation Communauté de communes de lʼErnée
La Communauté de communes de lʼErnée, soutenue par le département de la Mayenne, devient la 1ère collectivité territoriale françaiseàdéployerdansseslocaux un système dʼimmersion cooling, en partenariat avec le Groupe Numains et sa filiale Hyperion. Datacenter Magazine revient sur ce projet avec Laurent LEMAITRE, Responsable Service Système dʼInformation de la Communauté de communes.
Datacenter Magazine : La
Communauté de communes de lʼErnée sʼest engagée à déployer deux datacenters durables pour lʼensemble des 15 communes membres de son service commun Systèmes dʼInformation. Pourquoi avoir choisi la solution de lʼimmersion ?
Laurent LEMAITRE : Lʼimmersion est une solution qui colle au besoin de ne pas sur-climatiser la salle informatique dans le cadre de notre engagement pour des actions responsables.
Dans notre recherche de solutions de Green-IT dans le respect de nos obligations locales, nous avons fait le choix dʼéviter le reconditionnement aux coûts élevés, et de trouver de vraies actions. Cʼest là quʼa émergé lʼidée de lʼimmersion. Nous avons lancé un appel dʼoffre, auquel a répondu le Groupe Numains avec lequel nous travaillons déjà, et dont la situation géographique nous est proche.
Nous éprouvions le besoin de revoir notre infrastructure et de
passer par l'hyper convergence. La solution devait décoréler lʼIT du siège, sur deux sites. Un site principal dont toute la chaleur entre dans le préchauffage du centre aquatique et dʼun centre de fitness. Et un site de redondance interconnecté au chauffage classique à eau, avec un PRA (Plan de reprise dʼactivité). Et en plus, gagner sur la sur-climatisation des équipements en air. La solution proposée par le Groupe Numains et sa filiale Hyperion, un bac en immersion sur chaque site, a été retenue après une étude de faisabilité réalisée avec Cegelec DC. Numains est un contact à taille humaine, qui facilite le dialogue et les échanges. Avec lequel nous avons travaillé sur des solutions pour minimiser les impacts. Nous avons également privilégié les acteurs locaux sur le département. Cʼest un saut dans le grand bain !
Quelles étaient les spécificités de votre projet ?
Nous avons conçu ce projet dans lʼoptique dʼun changement de paradigme avec un énorme en-
jeu environnemental. Cʼest une action qui sʼinscrit dans celui dʼactions plus globales, dont la performance énergétique, subventionnées par le département de la Mayenne. Cʼest un investissement sur 15 ans dont le montant global est public : 506 000 € HT. Les deux bac à immersion ont représenté environ 90 000 € HT - cʼest le coût de lʼinnovation, le saut technologique est couvert par des subventions - auxquels il faut ajouter lʼintégration de la fibre, lʼaménagement des locaux, lʼinfrastructure de PRA (plan de reprise dʼactivité), la maintenance et le licencing. Ce dernier poste de coût représente un cinquième du projet.
On imagine que la relation et l'accompagnement sont essentiels dans ce type de projet innovant.
En effet, et nous avons profité dʼune relation exceptionnelle avec nos prestataires. Il est important de se faire accompagner, surtout quand il sʼavère un peu compliqué de comprendre les hydrauliques. Cʼest pourquoi nous avons demandé
une étude de faisabilité auprès de Cegelec DC. Un projet de data center à refroidissement en immersion est un investissement à long terme, qui nécessite lʼaménagement des locaux, le renouvellement des infrastructures, du licencing.
Le site de production principal est situé au sous-sol dʼune piscine. Cʼest un environnement corrosif, avec de la vapeur et de lʼoxydation. Nous avons donc demandé une cuve en aluminium, avec moins de pliures et de soudures. Et pour obtenir une déperdition minimale, une double paroi. Le choix des serveurs nʼest pas un problème,
lʼimmersion participe à la durabilité des matériels, il nʼy a pas de poussière et pas de panne. Et nous pourrons faire évoluer notre infrastructure au gré de nos besoins, la solution offre beaucoup de flexibilité. Cʼest une configuration hybride, avec des couches applicatives accessibles uniquement en mode SaaS, qui nous permet de ne pas mettre tous nos œufs dans le même panier.
Quels conseils donneriezvous aux organisations qui souhaiteraient sʼengager sur un projet de data center en immersion ?
De correctement dimensionner les économies engagées. Et pour cela de réaliser une étude de faisabilité en amont, à la fois sur le projet financier et sur le RoI (retour sur investissement). Et ne pas avoir peur dʼy aller, cʼest une technologie
qui devient accessible. Il nʼy a pas de gros frein. Il y a une barrière que je me mettais moimême, mais le liquide est sans problème pour la santé. Tout est aisé. Je me posais des questions sur les économies à terme, la réponse est venue de lʼétude de faisabilité en amont. Pour le reste, on est sur une infrastructure classique. Et cʼest un travail dʼéquipe, lʼIT, le service environnement, les services techniques, le service des eaux pour les interco… Pour pouvoir basculer sur un RoI, il faut prendre en compte le coût de l'énergie et faire attention à ce que lʼon consomme. Lʼidée globale est de changer de paradigme, avec le soutien des élus. Cʼest un projet dans le grand projet. La Communauté de communes de lʼErnée a choisi de sʼengager dans cette démarche dans le cadre dʼune politique globale de développement durable.
https://www.youtube.com/watch?v=GOAQ4967JHk
https://www.youtube.com/watch?v=wqsRVzwNrtM
Tokyo (Japon)
(Chine
Londres (Grande-Bretagne)
1053 MW
Pékin (Chine)
1799 MW
02
Virginie du Nord (USA)
2552 MW
01
La croissance des centres de données nécessite une réflexion
durable
Russell Dailey
Business Development Manager
Distech Controls
Le développement de lʼIA a une incidence considérable sur presque tous les secteurs dʼactivités, plus particulièrement sur les centres de données. Selon les prévisions, la demande mondiale dʼélectricité des centres de données aura doublé dʼici 2026 en raison de la croissance de lʼintelligence artificielle (IA). Dès lors, comment sʼassurer que nos centres de données fonctionnent de la manière la plus efficace possible ?
Nous générons de plus en plus de données dans tous les aspects de notre vie, quʼil sʼagisse de nos activités professionnelles, de lʼutilisation des médias sociaux ou même de nos habitudes dʼachat avec la croissance du commerce en ligne.
Notre nouvelle dépendance à lʼégard des services Web et de lʼinfrastructure numérique nécessite un plus grand nombre de centres de données, qui doivent fonctionner de manière plus fiable et plus efficace que jamais.
Selon lʼAgence internationale de lʼénergie (AIE), les centres de données ont consommé 460 térawattheures dʼélectricité en 2022 et elle sʼattend à ce que ce chiffre double en quatre ans seulement. Les centres de données pourraient utiliser un total de 1 000 térawattheures par an dʼici à 2026.
Cette demande dʼélectricité est étroitement liée à la croissance de lʼIA. De la même manière que la croissance du commerce en ligne a stimulé lʼutilisation de grands entrepôts industriels, lʼIA devrait plus que doubler les besoins en capacité
de stockage des centres de données mondiaux dʼici à 2026.
Alors que les centres de données contribuent de manière significative à la consommation mondiale d'électricité, de nombreuses installations cherchent à adopter des stratégies de durabilité améliorées. Pour atteindre les objectifs de « zéro émission nette » ou dʼautres objectifs environnementaux, les centres de données doivent investir massivement dans des mesures dʼefficacité énergétique. Un système de gestion technique du bâtiment (GTB) peut constituer la pierre angulaire de ces efforts, en fournissant des informations sur lʼutilisation de lʼénergie et en aidant à réduire les gaspillages dʼénergie inutiles grâce à une efficacité opérationnelle accrue.
Les centres de données sont des bâtiments uniques et leur système de GTB nécessite une planification et une mise en œuvre minutieuses.
Faisons preuve d’ouverture
Dans le passé, les systèmes du bâtiment étaient traditionnellement propriétaires et non flexibles
comme les systèmes ouverts. Les systèmes propriétaires parlent des langues différentes, ce qui entraîne une visibilité, des données et une fiabilité incomplète, et lie le propriétaire du bâtiment à un seul fournisseur de services, souvent onéreux.
Toutefois, la situation évolue et les systèmes ouverts gagnent en popularité et présentent de nombreux avantages pour les centres de données. Les systèmes ouverts permettent une surveillance et une analyse au niveau du contrôleur local, réduisant ainsi la complexité du réseau. Avec Distech Controls, les opérateurs peuvent maintenir leur installation à des performances optimales grâce à une solution éprouvée basée sur IP qui crée un réseau plus sécurisé et flexible, facilitant l'intégration des systèmes avec une large gamme d'applications.
Lʼengagement de Distech Controls envers les protocoles ouverts et les normes informatiques de lʼindustrie, combiné à sa technologie de pointe, crée une base durable qui soutient et évolue avec le cycle de vie du bâtiment.
Efficaces et tournés vers l’avenir
Les systèmes ouverts ont également un effet sur la durabilité dʼun centre de données. Ils peuvent tout rassembler de manière cohérente et centralisée, ce qui permet aux utilisateurs de visualiser les informations, dʼévaluer les relations, dʼétablir des points de référence et dʼoptimiser lʼefficacité énergétique en conséquence.
Les solutions de Distech Controls répondent aux besoins de contrôle des centres de données les plus exigeants (même à distance) grâce à des commandes entièrement programmables et à des capacités de configuration graphique avancées. Elles sʼappuient sur des technologies telles que lʼAPI RESTful, BACnet/IP, des contrôleurs connectés et des systèmes unifiés pour aider à préparer le centre de données au fur et à mesure que la technologie continue de progresser.
L’importance de la sécurité
Plus les bâtiments sont intelligents, plus la cy-
bersécurité est importante. Les propriétaires de bâtiments et les intégrateurs de système doivent tenir compte de certains principes fondamentaux en ce qui concerne la sécurité de la GTB.
Pour commencer, les appareils ou la technologie opérationnelle (OT) doivent se trouver sur un réseau différent de celui du système informatique, car ils ont des exigences de sécurité distinctes et différentes personnes doivent y avoir accès.
Par exemple, les sous-traitants qui supervisent la GTB nʼont pas besoin dʼaccéder aux informations relatives aux RH. Chaque appareil doit être verrouillé de manière sécurisée afin quʼil ne puisse communiquer que de la manière requise. Il ne doit pas y avoir de trafic entrant ou sortant inutile à partir des appareils. Ce principe est étroitement lié à la surveillance. Il est essentiel de surveiller les dispositifs après leur installation et leur mise en service afin de sʼassurer quʼils ne font lʼobjet dʼaucun trafic indésirable susceptible de menacer la sécurité dʼun bâtiment ou dʼune entreprise.
Certains fabricants, comme Distech Controls, veillent à ce que leurs produits soient sécurisés dès leur sortie de lʼemballage. Les fonctions de sécurité sont intégrées directement dans le matériel et les logiciels, comme le cryptage TLS 256 bits, le serveur HTTPS intégré et les certificats HTTPS. Par exemple, ECLYPSE APEX intègre un démarrage sécurisé et des mesures de sécurité physique supplémentaires pour aider à surmonter les défis actuels en matière de sécurité.
Les solutions de Distech Controls sont préconisées par les principaux fournisseurs de services Web en raison de lʼarchitecture complète IP basée sur des protocoles ouverts. Elles intègrent également les technologies adéquates pour se conformer aux normes de cybersécurité les plus strictes, ainsi que lʼAPI RESTful / MQTT à des fins dʼinteropérabilité OT/IT. Ces caractéristiques permettent aux opérateurs de centres de données, aux intégrateurs et aux sous-traitants de choisir les meilleures solutions pour la gestion du centre de données. Ces fonctionnalités avancées permettent dʼaméliorer considérablement lʼefficacité opérationnelle et de réduire les coûts énergétiques pour les propriétaires et les gestionnaires de centres de données.
LʼIA a déjà un effet révolutionnaire sur les entreprises et nos vies personnelles. Chez Distech Controls, nous utilisons ses capacités, et de toute évidence, cette révolution va nécessiter davantage de centres de données. Nous devons trouver des moyens de rendre ces bâtiments spécialisés aussi efficaces que possible. Lʼutilisation dʼune GTB intelligente et ouverte est essentielle.
Pour plus dʼinformations, visitez https://www. distech-controls.com/fr-fr/solutions/data-center-control-systems.
Directive sur l'Efficacité
Énergétique (DEE) : Renforcer les Normes
pour des Data Centers Durables
Alex Safronoff
EMEA Business Development Manager
CyrusOne
Toutes les industries ont l'obligation de minimiser leur impact sur l'environnement et l'industrie des datacenters ne fait pas exception. 2024 marque l'entrée en vigueur de la directive sur l'efficacité énergétique (DEE), un tournant majeur dans la transition énergétique de l'UE, exigeant davantage de transparence des datacenters et des objectifs plus ambitieux en matière d'économie d'énergie. Plusieurs opérateurs, dont CyrusOne, se positionnent à l'avant-garde de cette transformation, démontrant comment des pratiques durables peuvent aller de pair avec l'innovation et la croissance dans le secteur des data centers.
Obligations Nouvelles pour les Datacenters : La DEE impose de nouvelles obligations aux datacenters, notamment la divulgation annuelle de leur performance énergétique et l'utilisation obligatoire de la chaleur fatale pour les nouvelles installations ou les rénovations substantielles. Ces mesures visent donc à stimuler l'efficacité énergétique et à réduire l'empreinte carbone de l'industrie.
Plus en détails, la DEE exige que toutes les entreprises dont la consommation d'énergie annuelle moyenne sur trois ans dépasse 23 600 mégawattheures (MWh) disposent d'un système
de gestion de l'énergie (SGE) certifié. La directive prévoit donc la démonstration d'une amélioration continue de la performance énergétique, mesurée par le travail effectué par unité d'énergie consommée, et les entreprises doivent rendre compte publiquement des conclusions et des mesures correctives identifiées au cours de l'audit de certification.
Une Gestion Durable des Datacenters
Le secteur des data centers redouble d'efforts pour adopter des pratiques éco-responsables, en se concentrant sur l'efficacité énergétique, les énergies renouvelables et la réduction des émissions de carbone. Lʼadaptation à ces nouvelles réglementations représente une opportunité pour lʼindustrie des datacenters. Les acteurs du secteur ont déjà entrepris des efforts significatifs pour répondre à ces exigences, démontrant leur engagement envers la transition vers des pratiques plus durables bien en avance. Plusieurs initiatives ont déjà vu le jour, notamment le Pacte des centres de données neutres en carbone (CNDCP). A titre dʼexemple, CyrusOne, en adhérant au Pacte CNDCP en 2021, est devenu le premier signataire à être conforme pour tous ses sites opérationnels en Europe. Ce pacte mondial vise à soutenir les objectifs du Green Deal européen, en se concentrant sur lʼefficacité énergétique, la gestion responsable de lʼeau et lʼutilisation dʼénergies propres.
Concilier Innovation et Réglementation
Concevoir des datacenters durables et économes en énergie est tout à fait logique. Le secteur adopte diverses innovations pour concilier efficacité énergétique et durabilité. L'optimisation des serveurs à l'aide de logiciels avancés permet de réduire la consommation d'énergie lorsqu'ils ne sont pas utilisés à pleine capacité. De plus, l'installation de batteries de stockage d'énergie renouvelable garantit une utilisation stable et flexible de l'énergie. La réutilisation de
la chaleur perdue pour chauffer les bâtiments voisins ou pour d'autres usages industriels illustre également une approche innovante et éco-responsable. Ces mesures montrent que les datacenters peuvent être à la fois efficaces et compatibles avec l'environnement.
Par ailleurs, CyrusOne opte pour un système de refroidissement en boucle fermée, utilisant des refroidisseurs électriques écoénergétiques. Ce système, modélisé en détail, assure un refroidissement suffisant avec une consommation électrique minimale et utilise uniquement 8000 gallons d'eau initialement pour amorcer le système. Associé à de l'électricité renouvelable, ce système émet des quantités négligeables de carbone, principalement lors de l'utilisation occasionnelle de générateurs de secours et de pertes de réfrigérant, ne consomme pas d'eau supplémentaire et nécessite une faible quantité d'électricité. Ainsi, il est efficace en termes de carbone, d'énergie et d'eau.
L'industrie des datacenters doit désormais répondre à des exigences environnementales strictes, et l'adoption de la Directive sur l'Efficacité Énergétique (DEE) accentue cette responsabilité. Le rapport Sustainability 2023 de CyrusOne illustre comment l'entreprise a déjà converti toutes ses opérations en Europe à une alimentation en énergie 100 % renouvelable, tout en s'engageant à réduire encore davantage ses émissions de carbone. Ces initiatives ne sont pas seulement une réponse aux nouvelles réglementations, mais aussi une démonstration de l'engagement de CyrusOne envers la durabilité et l'efficacité énergétique.
Cleansoft, fleuron de la vie des planchers techniques, reconnu
French Tech
La French Tech vient de reconnaître Cleansoft services & solutions pour son coté méthode & procédé innovant utilisé pour des opérations de soulèvement de racks serveurs & équipements IT en exploitation.
Les planchers techniques (faux planchers) sont un composant incontournable de la majorité des datacenters et des salles techniques. Ils supportent les baies, les confinements, et les équipements serveurs et IT quʼils embarquent. Ils sont soumis à rude épreuve, tant par lʼévolution des équipements (augmentation du poids supporté, obsolescence, défaillances) que de lʼurbanisation des salles informatiques, voire des déménagements.
Pour accompagner les exploitants et les DSI, Cleansoft a développé des méthodes « zéro down time » qui permettent de
procéder au remplacement, en toute sécurité, de planchers surélevés vétustes en limite dʼeffondrement. Ces Exploitants Informatiques & Télécoms de Salles serveurs, de datacenters et dʼinfrastructures critiques, parfois dépassés par lʼaugmentation du poids des équipements IT ‒Techniques, peuvent ainsi envisager de remplacer leurs planchers techniques défaillants, tout en maintenant les conditions opérationnelles de leurs productions IT.
Récemment, plusieurs opérations dʼenvergures réalisées par le service « Zéro Down Time » de Cleansoft services & solutions ont permis de remplacer plus de 2 500 m² de plancher surélevé, de soulever et rabaisser plus de 856 racks serveurs ou équipements IT actifs urbanisés en POD ou en allées froides-chaudes sur plusieurs datacenters et locaux
techniques sensibles en exploitation.
Pour les exploitants, les DSI, les directeurs des Moyens généraux, les Responsables techniques et facilities, les chefs de projets, ou encore les maître dʼouvrage, ces méthodes & procédés de Cleansoft services & solution sont de véritables outils techniques pour remplacer, sans arrêt de production, les planchers surélevés, véritables colonnes vertébrales et poumons des datacenters.
Cʼest pourquoi French Tech vient de reconnaître Cleansoft services & solutions pour son coté méthode & procédé innovant utilisé pour des opérations de soulèvement de racks serveurs & équipements IT en exploitation. Un savoir-faire français emmené par Jean Mazet et son équipe, quʼil nous arrive de croiser sur DCmag.
Qui est UltraEdge, l'acquéreur des datacenters de SFR ? Rencontre avec Fabrice Cousin
UltraEdge est née pour acquérir et exploiter les activités de SFR dans le datacenter, financée avec Morgan Stanley Investments, et présidée par Fabrice Cousin, qui nous présente la société et son projet dans une interview vidéo exclusive accordée à DCmag. UltraEdge, ce sont 250 sites de SFR présents sur l'ensemble du territoire français, 33 000 m² de surface IT, 45 MW. 90 sites exploitables en datacenter (au minimum 500 m² de surfaces IT), dont 6 hébergent des opérateurs, intégrateurs, entreprises. Et 84 sites utilisés par SFR avec des surfaces disponibles affichant un fort potentiel de développement. Les autres sites sont exploités par SFR pour leurs équipements télécoms.
https://youtu.be/cm0iASyv1IQ
VIDÉOS DCMAG TV
Régis Castagné, Equinix, revient sur le projet de récupération de chaleur fatale du datacenter PA10
Régis Castagné, directeur général dʼEquinix France, évoque en exclusivité pour Datacenter Magazine le projet de récupération de chaleur fatale issue du datacenter PA10, une approche environnementale désormais intégrée à la stratégie du groupe. Avec la mise en service de la sous-station du datacenter pour alimenter, via le réseau de chaleur du SMIREC, la ZAC Plaine Saulnier de Saint-Denis et son emblématique Centre Aquatique Olympique destiné aux Jeux de Paris 2024, pour plus de 75% dʼénergie renouvelable.
https://youtu.be/tWFt9SzLXf8
Visite guidée du campus Paris Digital Park de Digital Realty par Fabrice Coquio - Part 1
Situé à La Courneuve, à 4 km du périphérique, Paris Digital Park est le plus grand campus de datacenters en proximité immédiate de Paris en cours de construction. Il est composé de 4 datacenters, les deux premiers, PAR8 et PAR9, sont déjà largement opérationnels, les deux suivants, PAR10 et PAR11, sont en construction et seront opérationnels dès 2025.
Dans cette première vidéo (trois autres suivent), Fabrice Coquio, SVP et Managing Director de Digital Realty France, nous présente le projet et son intégration urbaine.
https://youtu.be/jQsc-2iDYtU
VIDÉOS DCMAG TV
Les engagements d'Etix Everywhere et ses edge data centers, l'interview de Louis Blanchot, PDG
Avec 15 sites principalement en France, Etix Everywhere créée en 2012 confirme son statut de plateforme paneuropéenne de edge datacenters. Après une actualité riche et un changement stratégique chez ses investisseurs, Louis Blanchot, PDG dʼEtix
Everywhere, nous a accordé une interview en exclusivité pour évoquer la stratégie et les transformations du groupe.
https://youtu.be/hSp3ynX4n2g
Les chiffres du datacenter
Marché de lʼinterconnexion des datacenters en 2030
28,6 milliards $
• Estimé à 11,2 milliards de dollars en 2023, le marché de lʼinterconnexion des datacenters devrait atteindre 28,6 milliards de dollars en 2030, avec une progression annuelle de 12,4%.
Source :
Marché des UPS/onduleurs pour datacenters en 2029
6 milliards $
• Estimé à 3,172 milliards de dollars en 2022, le marché des UPS pour datacenters devrait atteindre 6,015 milliards de dollars en 2029, avec une progression annuelle de 9,57%.
Source : ResearchAndMarkets.com
Marché du stockage des données pour datacenters en 2029
37,9 milliards $
• Estimé à 19,6 milliards de dollars en 2022, le marché du stockage de données pour datacenters devrait atteindre 37,9 milliards de dollars en 2029, avec une progression annuelle de 9,88%.
Source : ResearchAndMarkets.com
Lʼâge du code-barre
50 ans
• Le premier code-barre a été scanné le 26 juin 1974 sur un paquet de 10 chewing-gums dans une épicerie de Troy, dans lʼOhio.
• Plus de 10 milliards de codes-barres sont scannés chaque jour dans le monde.
Les chiffres du datacenter
Marché des infrastructures dʼIA dans les datacenters en 2033
421 milliards $
• Estimé à 37 milliards de dollars en 2023, le marché des infrastructures dʼIA, qui intègre les GPU, les équipements électriques, le refroidissement, etc., devrait atteindre 421,4 milliards de dollars en 2033, avec une progression annuelle de 27,3%.
• Ce marché sʼinscrit dans celui global de lʼIA, estimé à 196 milliards de dollars en 2023 et à 407 milliards de dollars en 2027.
Source : Grand View Research
Marché mondial des GPU en 2029
272 milliards $
• Estimé à 65,3 milliards de dollars en 2024, le marché mondial des GPU devrait atteindre 272 milliards de dollars en 2029, avec une progression de 320%.
• Le marché est emporté par les commandes des hyperscalers pour leurs infrastructures dʼIA.
Source : Stocklytics
Portefeuille de projets de datacenters de Blackstone
70 milliards $
• Blackstone est le premier fonds dʼinvestissement mondial.
• Son portefeuille de datacenters est évalué à 55 milliards de dollars.
• Et son portefeuille de projets de datacenters à 70 milliards de dollars.