Datacenter magazine n°07

Page 1


Dossier

Baies et confinement

Optimal Data Center

Référent des confinements sur mesure pour le standard OCP

Netalis

3 questions à Nicolas Guillaume

Eaton

Le pouvoir des six

Le chantier d’une vie

Vous lisez le numéro 7 de Datacenter Magazine. Et oui, sept numéros pour cette première année, nous pensions avoir mis la barre très haut, mais nous y sommes arrivés. Et cʼest grâce à vous, à votre accueil, à vos encouragements, à lʼintérêt que vous portez à notre magazine. Et merci à nos sponsors et annonceurs, sans vous, notre média DCmag et DatacenterMagazine nʼexisteraient pas.

Deux événements consacrés au datacenter vous attendent pour cette fin dʼannée :

• Les mercredi 26 et jeudi 27 novembre se tiendra Data Center World Paris 2024, Porte de Versailles. Comme chaque année, vous nous trouverez à la sortie de lʼespace keynote, ainsi que sur la majorité des tables rondes du salon.

• Le jeudi 12 décembre, rendez-vous à Lille, dans un datacenter dʼEtix Everywhere connecté à une boucle de chaleur locale, pour les Assises de la Chaleur Fatale, une première co-organisée par DCmag, où nous parlerons refroidissement, efficacité énergétique et valorisation de la chaleur fatale.

Quant au prochain numéro de Datacenter Magazine, le numéro 8, nous vous donnons rendez-vous en janvier 2025.

Yves GRANDMONTAGNE

Rédacteur en chef de Datacenter Magazine yves@datacenter-magazine.fr

Directeur de Publication

Journaliste

Co-créateur HBT / DCmag

sebastien@datacenter-magazine.fr

+33 6 16 22 53 47

Datacenter Magazine n°7 - Novembre Décembre 2024

Prix au numéro : 25 €

6 numéros par an - Impression PDF

Une publication Human, Business & Technology (HBT)

Rédacteur en chef

Journaliste

Co-createur HBT / DCmag

yves@datacenter-magazine.fr

+33 6 51 80 02 87

CPPAP 1123 X 95016 - ISSN 3039-7170

Directeur de publication

Sébastien GRANDMONTAGNE

sebastien@datacenter-magazine.fr

Edité par HBT, 5 rue Charles Maillier, 28100 DREUX

Sebastien Grandmontagne
Yves Grandmontagne

Le

3

Lʼautomatisation des datacenters rejoint le Top 5 des priorités de dépenses informatiques des entreprises

Le Top 10 des choses où il ne faut pas se planter pour la construction dʼun datacenter

Marseille focalise le pire des oppositions aux datacenters

Eviden renforce pour la deuxième fois les performances du supercalculateur IA suédois Berzelius

Le pouvoir des six : les clés pour une ingénierie et une intégration efficaces des systèmes dans les datacenters

François Debray

Chef Produit Power Quality

Eaton

Lʼindustrie des datacenters est à un tournant décisif de son développement. Les avancées de lʼintelligence artificielle (IA) et la gestion durable des infrastructures sont au cœur de cette transformation. Lʼutilisation de certains principes dʼingénierie des systèmes permet de réduire les risques de conception, la complexité et dʼoptimiser les performances du datacenter.

Cette approche méthodique et pluridisciplinaire en six étapes prend en compte les compo-

sants de la chaîne cinématique et leurs interdépendances tout au long du cycle de vie, ce qui permet de créer de véritables solutions techniques de bout en bout. Cette méthode offre un avantage à la fois commercial et technique et se décline comme suit :

1. Conception des composants critiques des systèmes électriques

Comprendre les caractéristiques des composants et leur impact sur les propriétés élec-

triques, la tension, la capacité de courant et lʼimpédance permet dʼoptimiser les performances, et dʼaméliorer lʼefficacité énergétique pour répondre efficacement aux besoins informatiques.

Lʼutilisation dʼune plate-forme logicielle numérique peut optimiser lʼemplacement, la gestion et lʼintégration des équipements. Lʼobjectif est dʼaméliorer les performances, de prévoir les défaillances et dʼoptimiser lʼutilisation grâce à une conception détaillée de

chaque composant et à une compréhension approfondie de lʼinteraction entre tous les composants dès le départ.

2. Gestion des actifs et surveillance basée sur l’état

Il est nécessaire dʼintégrer une couche numérique dans les systèmes de gestion de lʼénergie. Cela permet la surveillance et la gestion des actifs en continu, ouvrant la voie à la mise en œuvre de mesures proactives, à lʼaugmentation de la durée de vie et à lʼoptimisation des performances.

Lʼutilisation dʼune couche numérique avec des capacités de jumelage, associée à des fonctions dʼintelligence artificielle (IA) et dʼapprentissage automatique, permet dʼoptimiser les performances dès la phase de conception en identifiant les domaines dans lesquels lʼéquipement ne fonctionne pas comme prévu.

3. Conception du système

Considérer une approche plus large de la conception du système, au lieu de le considérer comme une série de blocs fonctionnels minimise le gaspillage dʼénergie, garantit lʼutilisation efficace des charges à forte puissance afin de réduire la demande de fonctionnement de la chaine cinématique.

tifs opérationnels et de développement durable. Lʼamélioration de la communication et de lʼinterfaçage entre les composants du système peut contribuer à réduire la latence des données fournies afin dʼoptimiser et de maintenir les performances du système et de fournir plus dʼinformations sur le fonctionnement du système.

4. Efficacité énergétique

Une approche dʼingénierie des systèmes peut aider à atteindre les objectifs de durabilité et à réduire les coûts dʼexploitation. La sélection et la prise en compte de lʼéquipement adéquat permettent dʼaméliorer lʼefficacité globale.

Parallèlement, une plateforme logicielle surveille et gère lʼefficacité énergétique grâce à lʼapprentissage automatique et à lʼIA afin de mieux comprendre à quel moment les pertes électriques peuvent se produire et comment elles peuvent être évitées. Associées à dʼautres, ces mesures permettent dʼéconomiser de lʼénergie et de stimuler lʼintégration dʼénergies renouvelables.

5. Intégration des énergies renouvelables

Un système bien conçu et intégré contribue à la réalisation des objec-

Les sources dʼénergie renouvelables sont de plus en plus importantes dans lʼécosystème électrique. Il est donc essentiel de comprendre lʼimpact de leur intégration sur les performances du système et

la qualité de lʼélectricité. Correctement réalisée, cette intégration permet de fournir une énergie résiliente et fiable et de réduire la probabilité de pannes. Cependant il faut prendre en compte lʼinertie des énergies renouvelables, qui affecte la qualité du flux dʼénergie le long de la ligne électrique en raison dʼun moindre contrôle de la fréquence et dʼune plus grande volatilité. Les effets sur les fluctuations de tension découlant de lʼintroduction dʼun grand nombre de sources dʼénergie doivent également être pris en compte. Une couche numérique permet de comprendre le mélange de production renouvelable sur site et hors site, en surveillant lʼénergie consommée et sa source.

6. Conception souple et dynamique

Une approche de conception flexible et dynamique permet de répondre aux demandes changeantes et aux technologies émergentes telles que lʼIA. Être adaptable permet de rester pertinent et efficace dans des environnements qui évoluent rapidement. Lʼintégration dʼune plateforme logicielle permet dʼidentifier les changements nécessaires dans la conception et la meilleure façon de procéder aux adaptations, tout en comprenant leur impact et en optimisant la flexibilité.

Si lʼobjectif ultime est de créer un datacenter responsable et auto-optimisé, lʼindustrie doit

sʼorienter vers une conception basée sur les systèmes. Pour y parvenir, il faut collectivement adhérer à un ensemble de principes et adopter un état dʼesprit systémique. Lʼutilisation des plateformes logicielles intégrées, pendant les opérations, mais aussi dès les premières étapes de la conception et tout au long du cycle de vie du datacenter permettra de générer plus facilement de la valeur opérationnelle et dʼexploiter les informations qui proviennent des données.

En ces temps incertains, pour répondre à lʼévolution des exigences en matière dʼénergie et dʼenvironnement, il faut commencer à penser différemment!

OPTIMAL DATA CENTER : Référent des confinements sur mesure pour le standard OCP©

ODC© (Optimal data Center), lʼinitiateur du confinement sur mesure et de son optimisation dans le data center, soutenu par IMPLEON, fait son entrée dans le cercle des référents et des fournisseurs membres de la communauté OCP© (Open Compute Project).

A lʼheure où les hyperscalers font entrer lʼIA chez leurs hébergeurs ou dans leurs propres Data Centers, tous sont confrontés au défi qui consiste à refroidir des densités IT qui nʼavaient pas forcément été anticipées lors de la conception des architectures et des urbanisations.

Lʼexplosion des enveloppes thermiques associées aux serveurs impose lʼoptimisation de l'efficacité énergétique des équipements dʼurbanisation et la transition du refroidisse-

ment vers le liquid cooling, qui est inévitable et va devoir coexister avec le refroidissement classique existant en air cooling. Pour accompagner ces évolutions, la communauté OCP© réunit les hyperscalers et les fabricants de serveurs, systèmes de refroidissement, équipements électriques, réseaux, racks et tous les équipements et dispositifs pour rendre cette transition durable et vertueuse.

« Depuis près de 20 ans, notre division ODC FACILITIES a conçu, développé puis installé plus de 500 confinements sur mesure », rappelle Pascal MARTY, Président et fondateur dʼODC dont les compétences et les équipements contribuent à permettre aux data centers de franchir cette étape critique et de réduire sensiblement leur consomma-

tion énergétique tout en facilitant les gestes techniques. « La valeur ajoutée de ces confinements est, depuis le départ, la modularité et l’exploitabilité à partir de designs exclusifs d’équipements spécialisés conçus pour être déployés ou optimiser les salles informatiques. »

Ce mois dʼoctobre, ODC© , soutenuparIMPLEON,faitson entrée dans le cercle des fournisseurs membres de la communauté OCP©.

Pascal MARTY, Président et fondateur dʼODC

Depuis 20 ans, ODC a développé des équipements et des pratiques, ainsi que des services pour équiper et optimiser le confinement, et répondre ainsi aux attentes des exploitants de data centers. Parmi ces outils :

• Des dimensions hors normes (jusquʼà largeur 3,6 ML, hauteur 3,6 ML) et lʼintégration de toutes les contraintes bâtiment

• Une structure autoportante ou suspendue sans aucun appui intermédiaire pour autoriser toutes les évolutions de lʼurbanisation (ajout /retrait / remplacement de racks)

• Une toiture surélevée qui offre ainsi la possibilité dʼexploiter jusquʼau dernier U utile et dʼutiliser les chariots porte-serveur et PIRL de grande taille dans le plus grand confort

• Des trappes latérales coulissantes qui rendent naturels les gestes de proximité (cabling….) aussi bien depuis lʼintérieur que de lʼextérieur du confinement

• Des kits dʼoccultation modulaires qui permettent à lʼexploitant dʼintégrer des

racks hétérogènes en redimensionnant lui-même son confinement en temps réel

• Des portiques autonomes aux extrémités, compatibles avec tous les fabricants de portes coulissantes et qui laissent les baies dʼextrémité libres de mouvement

« Ces 5 dernières années, les acteurs du data center - exploitants, intégrateurs, bureaux d’études, hébergeurs et hyperscalers - ont plébiscité ces spécificités en les intégrant de plus en plus dans leurs CCTP (Cahier des Clauses Techniques Particulières). Dans ce nouveau contexte, où il faut, au sein d’une même allée, refroidir des densités différentes, des racks de tailles hétérogènes, et des urbanisations amenées à changer, nous avons constaté que la modularité et l’exploitabilité des solutions de confinements ODC s’intègrent naturellement dans la démarche proposée et attendue par la communauté OCP. »

Partant de ce constat, ODC fait le choix stratégique de rendre publiques ses pratiques en rejoignant la communauté OCP©. « Désormais, la valeur

d’un fournisseur ne se mesure pas à ses brevets, mais à sa capacité à les mettre à disposition du challenge collectif qui se pose à tout l’écosystème », mentionne François Tournesac président dʼIMPLEON et représentant dʼOCP en France. « La démarche “Open source”, vertueuse et éco-responsable, sʼinscrit dans nos fondamentaux et dans le système de valeurs qui anime les relation dʼODC avec ses clients. »

En adhérant à la communauté, ODC sʼinscrit désormais en fournisseur et plus encore en référent expert des confinements pour le standard OCP©. Les acteurs de lʼOCP bénéficieront du meilleur du conseil, des pratiques comme des équipements du confinement, du standard au sur-mesure, et de près de 20 ans dʼexpériences dans ce domaine. Sans craindre de voir ces usages devenus indispensables aux data centers couverts par des brevets ou des marques.

Pascal MARTY et son équipe sont fiers de ce parcours qui les amène aujourdʼhui à rejoindre la communauté et à apporter leur pierre à lʼédifice de lʼOCP©.

Fabien Gautier

Directeur Marketing et Business développement Equinix

L’Edge, désormais incontournable pour les entreprises innovantes

La donnée, véritable ressource stratégique pour les entreprises, est de plus en plus souvent générée en périphérie du réseau, loin des centres de données centralisés. Avec l'essor de l'intelligence artificielle, les enjeux de confidentialité deviennent cruciaux, d'autant que des réglementations, telles que le RGPD en Europe, exigent une gestion stricte de la localisation des données. Pour assurer la sécurité des informations sensibles et renforcer la confiance des clients, les entreprises doivent se tourner vers des infrastructures de type Edge.

Les Datacentres Edge sont des leviers de croissance pour l'économie numérique

L'informatique en périphérie, ou Edge, est donc devenu aujourd'hui stratégique pour les entreprises qui souhaitent être disruptives. Il ne s'agit plus seulement de stocker des données, mais de les traiter au plus près des utilisateurs finaux, permettant ainsi des interactions plus rapides et des expériences personnalisées.

Une connectivité sécurisée, avec une latence réduite, est devenue cruciale pour répondre aux exigences croissantes des entreprises.

Par ailleurs, la collaboration entre les structures s'intensifie et sʼétend sur un territoire géographique élargi, devenant ainsi plus complexe. Selon l'Indice Global d'Interconnexion

(GXI) 2024, les entreprises travaillent désormais avec 30 % de partenaires supplémentaires, répartis dans un nombre de zones doublé. À partir de ce constat, il apparaît clairement qu'une infrastructure Edge est indispensable pour soutenir cette interconnectivité.

La fin de l’ère du centre de données unique et centralisé

Nous entrons dans une ère de décentralisation où la localisation de lʼinfrastructure devient un facteur clé pour satisfaire les attentes des clients et préserver la compétitivité. Un Datacentre Edge est une infrastructure compacte et décentralisée, installée à proximité

des utilisateurs finaux.

Contrairement aux centres de données centralisés, les centres Edge rapprochent le traitement des données du lieu de leur collecte, réduisant ainsi les échanges longue distance. Ce modèle favorise la fluidité et la rapidité des interactions tout en minimisant la latence, un critère essentiel pour des applications exigeantes comme le streaming et lʼInternet des objets (IoT).

Ainsi, les Datacentres Edge jouent désormais un rôle crucial pour les entreprises à lʼéchelle mondiale, en garantissant une connectivité optimisée avec les partenaires et une interconnexion accrue avec les fournisseurs de services. En apportant des avantages stratégiques, les Datacentres Edge transforment les activités des entreprises : ils optimisent la bande passante en traitant les données localement et assurent une expérience utilisateur fluide. Leur modèle évolutif permet une croissance flexible sans investissements initiaux lourds, et leur redondance locale garantit la continuité des services même en cas de panne. De ce fait, les Datacentres Edge deviennent des solutions incontournables pour répondre aux exigences de performance, de fiabilité et de confidentialité des entreprises modernes.

L’Edge, un levier pour accélérer la numérisation de l'écosystème

Les Datacentres Edge sont, par conséquent, des moteurs de la transformation numérique, offrant aux entreprises une infrastructure flexible et adaptable aux spécificités de chaque secteur. En répondant aux exigences de souveraineté et de sécurité des données imposées par la réglementation, ils permettent non seulement dʼaméliorer lʼexpérience client, mais aussi de garantir un contrôle accru sur les informations sensibles. Pour les entreprises, les Datacentres Edge sont ainsi des solutions adaptées aux besoins croissants de flexibilité et de performance, contribuant à une infrastructure numérique plus réactive, fiable et en phase avec une économie globalisée et connectée.

Dans le secteur de la santé, par exemple, les hôpitaux nécessitent des infrastructures locales pour assurer confidentialité et connectivité en temps réel. De même, les entreprises manufacturières peuvent optimiser leurs chaînes de production en sʼappuyant sur des infrastructures Edge, réduisant les risques de latence dans les processus critiques. Pour les entreprises SaaS à clientèle internationale, rapprocher le

traitement des données des utilisateurs améliore la qualité de service, notamment dans les zones éloignées des centres de données centraux. Prenons lʼexemple dʼune société spécialisée dans lʼanalyse de données en temps réel : même avec une infrastructure centrale performante, elle pourrait faire face à des ralentissements pour les utilisateurs éloignés lors des pics dʼactivité.

En intégrant les Datacentres Edge à leur stratégie numérique, les entreprises se dotent d'un levier stratégique leur permettant de répondre efficacement aux exigences de rapidité, de sécurité et de conformité. Cette infrastructure décentralisée leur offre une flexibilité précieuse pour s'adapter aux besoins spécifiques de chaque secteur, optimisant l'expérience client tout en garantissant un contrôle renforcé sur les données sensibles. Dans un monde où la performance et la satisfaction client sont devenues essentielles pour rester compétitif, les Datacentres Edge sʼimposent comme une solution incontournable, alliant réactivité, fiabilité et conformité aux réglementations pour accompagner durablement la transformation numérique des entreprises.

et le groupe électrogène gaz

MOJI est le premier opérateur de datacenter en France à sʼéquiper dʼun groupe électrogène de secours alimenté au gaz. Une innovation française reposant sur une technologie pourtant largement répandue de lʼautre côté de lʼAtlantique.

Un groupe électrogène de secours alimenté au gaz de ville dans un datacenter, peut-on parler dʼinnovation, voire de révolution ? En France, nous serions tentés de dire “oui”, tant le diesel dans le domaine des générateurs pour datacenter est hégémonique. Malgré les efforts menés par la filière gaz pour obtenir la reconnaissance de sa capacité à remplacer le diesel, lʼexpérience nʼavait pas été menée. Et pourtant, il suffit de traverser lʼAtlantique pour constaterque60%desgroupes électrogènes américains sont alimentés au gaz. Allez comprendre pourquoi…

Ferdinand Chevrant-Breton, fondateur de MOJI, sʼest fait remarquer de nombreuses fois

par ses choix technologiques efficients sur son datacenter de Nanterre. Comme par exemple lʼadoption de batteries supercondensateurs, ou la réutilisation en interne de la chaleurproduite.Cenʼestdonc pas la première fois que ce fin observateur du marché et des technologiesfaitunchoixtranché et tente lʼexpérience du gaz. En partenariat avec Pramac, qui équipe le datacenter dʼun groupe électrogène de secours gaz de 300 kVA, et avec GRDF.

Le choix du gaz pour alimenter un groupe électrogène a du sens pour peu que lʼon porte une attention particulière à cette source dʼénergie dont le réseau a largement fait ses preuves et démontré une fiabilité de la livraison à toute épreuve (en région parisienne, le réseau gaz est coupé en moyenne tous les 50 ans !).

Lʼinstallation sʼalimente directement sur le réseau gaz de ville, et ne nécessite donc pas de réservoir. Et pour Ferdinand Chevrant-Breton, “la fusion de

lʼélectrique et du gaz sur le site annule le risque”.

Les acteurs du datacenter connaissent tous les avantages et les inconvénients des groupes électrogènes diesel. Concentrons-nous sur ceux apportés par le secours alimenté au gaz.

Côté construction et équipement :

• Le raccordement au réseau gaz est un standard, le carburant est généralement directement accessible. Mais sʼil nʼexiste pas, le délai de raccordement assuré par GRT Gaz est de lʼordre de 3 ans, à comparer aux 8 ans en moyenne annoncés par les énergéticiens électriques.

• Le générateur gaz, conçu en conteneur, occupe un espace équivalent voire plus réduit que son homologue.

• Alimenté par le réseau gaz qui assure une autonomie illimitée, il ne nécessite pas de stockage de carburant ni

dʼentretien des cuves, ce qui élimine le risque du diesel mal entretenu et à la qualité parfois variable.

Coté usages en production :

• Le groupe électrogène gaz fonctionne sur un mélange de gaz riche qui favorise un démarrage rapide, moins de 10 secondes pour un groupe de secours, moins dʼune minute pour les groupes de production.

• La motorisation gaz est moins bruyante, elle ne rencontre pas les mêmes contraintes de bruit, le fonctionnement des groupes est plus acceptable par le voisinage.

• La solution est écologique et durable, elle ne produit pas de fumée, elle produit 20% CO2 en moins, 0% de particules et 90% de NOX en moins.

• Les délais de tests peuvent être multipliés par deux.

Côté investissement et coûts :

• Lʼavantage peut sembler porter que le diesel, avec un investissement sur le groupe gaz qui peut être jusquʼà 50% plus cher (actuellement). Sauf que lʼingénierie du réseau gaz est plus simple, que lʼinvestissement dans lʼinfrastructure est 50 à 90% moins cher, et quʼil ne nécessite pas de stocker le carburant dans une cuve.

• Si le tarif du gaz a subi de fortes variations ces dernières années, la tarification a retrouvé sa stabilité, et le gaz tendrait même à être moins cher que lʼélectrique et le diesel.

Nous lʼavons vu, le groupe de secours gaz présente de nombreux avantages. Alors pourquoi lʼexpérience menée par MOJI est-elle une première en France ? Cʼest dʼabord une question culturelle, le secours

est traditionnellement diesel. Cʼest aussi un effet de lobby sur lʼélectrique, qui entend bannir le gaz (alors que celuici fournit 50% de lʼénergie industrielle en France !).

Les nouveaux paradigmes de lʼénergie, qui poussent les datacenters à devenir acteurs du grid énergétique auquel ils sont rattachés, voire à devenir les producteurs de leur propre énergie, pourraient changer la donne. Car en matière de production dʼélectricité, les solutions gaz ont depuis longtemps démontré leur pertinence.

Quant à Ferdinand ChevrantBreton, de MOJI, il a constaté que la proposition du secours sur générateur gaz plaît à ses clients, dont la majorité affiche leur intérêt pour la question environnementale à laquelle le groupe électrogène à gaz apporte une réponse et justifie un surcoût dʼinvestissement rapidement amorti.

Les 7 barrières de protection du Data Center

Les data centers sont au cœur de la révolution numérique, abritant des données essentielles pour le fonctionnement des entreprises et institutions. Leur protection doit donc être une priorité absolue. Grâce à son expertise en solutions de sécurité avancées, Securitas Technology joue un rôle clé danslamiseenplaceetlagestion des barrières de sécurité qui garantissent la résilience et la sûreté des infrastructures de datacenters.

Voicicommentcessolutionsse déclinent dans chacune des 7 barrières de sécurité cruciales pour un datacenter.

1. Sécurité Physique du Périmètre

La première étape pour sécuriser un datacenter consiste à en protéger le périmètre extérieur. Securitas Technology propose des solutions de sécurité pour data center comme la surveillance périmétrique avancée incluant des clôtures intelligentes, des détecteurs infrarouges, des barrières physiques et des systèmes de détection de mouvement. Ces technologies sont souvent intégrées avec des solutions de vidéosurveillance (CCTV) pour surveiller et dissuader toute tentative d'intrusion. Grâce à des plateformes centralisées, Securitas Technology permet

une gestion en temps réel des incidents pour une réactivité maximale.

2. Contrôle d'Accès

Le contrôle des entrées et des sorties est essentiel pour limiter l'accès aux seules personnes autorisées. Securitas Technology fournit des solutions de contrôle d'accès sophistiquées, combinant badges RFID, cartes magnétiques et systèmes de biométrie (empreintes digitales, reconnaissance faciale ou rétinienne). Ces systèmes peuvent être configurés pour restreindre lʼaccès à des zones spécifiques selon les rôles, avec une journalisation pré-

cise des entrées et sorties. Grâce à des solutions de gestion intégrée, Securitas Technology offre une surveillance permanente et la possibilité de révoquer à distance des droits dʼaccès si nécessaire.

3. Surveillance Vidéo

Pour une visibilité permanente sur les activités du data center, Securitas Technology déploie des solutions de vidéosurveillance intelligentes avec des caméras haute résolution capables de fonctionner dans des conditions difficiles (faible luminosité, extérieur). Grâce à des fonctionnalités comme l'analyse vidéo avancée et la détection de comportements suspects, Securitas Technology assure une surveillance proactive. Les images capturées sont centralisées dans

des salles de contrôle permettant une gestion instantanée des incidents.

4. Systèmes de Détection d'Intrusion

Les solutions de détection dʼintrusion proposées par Securitas Technology pour sécuriser les data centers comprennent des capteurs et détecteurs de pointe pour repérer toute tentative dʼaccès non autorisée. Ces dispositifs sont placés aussi bien à lʼextérieur quʼà lʼintérieur du data center, notamment dans les zones sensibles où sont stockés les équipements critiques. Connectés aux systèmes de sécurité globaux, ces détecteurs déclenchent des alertes immédiates en cas de violation et permettent une réponse rapide des équipes de sécurité.

5. Contrôle

des Accès

Logiques

Bien que Securitas Technology se concentre principalement sur la sécurité physique, elle collabore avec des partenaires pour offrir des solutions complémentaires en matière de sécurité informatique. Les clients peuvent intégrer des solutions de contrôle dʼaccès logique pour restreindre lʼaccès aux données et aux systèmes critiques. Ces solutions incluent des pare-feu, des VPN et des systèmes de gestion des identifiants pour une protection optimale des infrastructures numériques.

6. Sécurité des Infrastructures

Les infrastructures dʼun data center doivent être protégées contre les pannes et les acci-

dents. Securitas Technology propose des solutions de détection de fumée, dʼalerte incendie et de systèmes de suppression automatique, qui sont spécialement conçues pour les environnements sensibles tels que les salles serveurs. Securitas Technology assure également la surveillance des conditions environnementales comme la température et lʼhumidité, en installant des capteurs capables de détecter tout changement qui pourrait affecter les équipements, garantissant ainsi une maintenance préventive.

7. Sécurité des Données

Bien que Securitas Technology ne fournisse pas directement des solutions de sécurité numérique (cybersécurité), ses systèmes de sécurité physique permettent de protéger les accès aux zones critiques où sont stockées les données. En sécurisant lʼaccès aux serveurs via des systèmes de contrôle dʼaccès et en surveillant en temps réel les activités autour des équipements de stockage, Securitas Technology joue un rôle indirect mais fondamental dans la protection des données hébergées. De plus, ses solutions peuvent être intégrées à des systèmes de gestion de la sécurité des informations (SIEM) pour compléter lʼapproche de défense.

Comment

Securitas Technology fait la différence

En combinant ses technologies innovantes et ses services de sécurité avancés, Securitas Technology permet de protéger les data centers de manière complète. Avec des solutions personnalisées pour chaque environnement, Securitas Technology aide ses clients à atteindre des niveaux élevés de résilience et de conformité réglementaire. Les expertsdeSecuritasTechnology assurent un audit de sécurité détaillé pour identifier les risques potentiels et proposer des solutions sur-mesure.

En conclusion, Securitas Technology joue un rôle crucial dans la protection des data centers en offrant des solutions de sécurité physique robustes, et en collaborant avec des partenaires pour étendre la protection aux systèmes dʼinformation. Grâce à une approche intégrée et des technologies de pointe, Securitas Technology permet aux entreprises de se concentrer sur leurs activités tout en assurant la sécurité de leurs infrastructures critiques.

Himoinsa veut rebattre les cartes du marché des groupes électrogènes pour datacenters

En lançant la série HGY de nouveaux groupes électrogènes allant jusquʼà 3 500 kVA (et 4 MW à venir), équipés de moteurs Yanmar et destinés à lʼalimentation électrique critique, le fabricant espagnol Himoinsa pourrait redynamiser le marché des groupes électrogènes en apportant des réponses aux fortes demandes de générateurs.

Cʼest à Madrid, dans le cadre prestigieux du Civitas Metro-

politano Stadium de lʼAtletico de Madrid, quʼHimoinsa, filiale du fabricant japonais de moteurs Yanmar, a lancé la série HGY de nouveaux groupes électrogènes Power Solution de solutions de secours critique.

Lʼarrivée de nouveaux produits sur le marché des générateurs critiques ‒ destinés aux hôpitaux, à lʼarmée, au micro grid électrique, et pour ce qui nous concerne les datacenters ‒ est un événement qui mérite notre

attention. Et Himoinsa frappe un grand coup car cʼest un marché industriel qui nʼest pas marqué par le rythme de ses innovations.

Pourquoi la série HGY de nouveaux groupes électrogènes de Himoinsa méritet-elle votre attention ?

Elle a été conçue par la réunion des bureaux dʼétudes du constructeur et de Yanmar, à la fois pour disposer dʼune motorisation spécialement dé-

diée, le japonais cherchant ici à élargir sa gamme et ses marchés, et des équipements et pratiques Himoinsa qui, à lʼécoute des clients et distributeurs, répondent aux attentes des utilisateurs.

Les groupes de la série HGY sont alimentés par les moteurs GY à grande vitesse équipés dʼun système dʼinjection common rail de Yanmar, dont la réputation nʼest plus à faire. Et il sʼagit bien de moteurs conçus et dédiés au double usage du

secours et de lʼalimentation.

Dans un premier temps, la gamme est constituée de modèles à 12 et 16 cylindres, tous commandés électroniquement, capables de délivrer de 1 250 à 3 500 kVA. Plus tard, la gamme sʼétendra à des moteurs à 20 cylindres et 4 000 kVA.

Maintenance et accessibilité

Les motoristes présents nous ont indiqué de nombreuses as-

tuces intégrées dans la conception des groupes qui en font des produits avancés côté déploiement, usages et maintenance. Comme un moteur plus compact, qui peut prendre place dans un container maritime tout en laissant de lʼespace pour les interventions. Ils ont également noté lʼaccessible sur un coté et au travers de trappes, ce qui simplifie et réduit les temps de maintenance. Toutes les pièces consommables du moteur, telles que le filtre à carburant,

le filtre à air et le point de remplissage dʼhuile, sont situées dʼun seul côté pour des raisons de confort dʼaccès.

Concernant la maintenance, la série HGY dispose dʼintervalles de maintenance prolongés. Lʼintervalle de révision supérieure est de 10 000 heures, tandis que celui de révision générale peut atteindre 30 000 heures pour un fonctionnement continu.

HIMOINSA propose également une plateforme de gestion de ses équipements permettant la surveillance, le contrôle et la maintenance à distance des groupes électrogènes. Cette solution complète permet un suivi en temps réel des paramètres critiques, des alertes automatiques en cas de défaillance ou dʼanomalie et des outils de planification proac-

tive de la maintenance, le tout visant à maximiser lʼefficacité opérationnelle en minimisant les temps dʼarrêt.

Une conception durable

Derniers venus des groupes électrogènes critiques, les générateurs HGY fonctionnent sur le diesel, mais également à partir de carburants alternatifs tels que le HVO (nativement), et dans un avenir proche le gaz et lʼhydrogène.

Les groupes HGY sont équipés de systèmes de post-traitement des gaz dʼéchappement conformes aux réglementations européennes, allemandes et britanniques pour les centrales à combustion de taille moyenne fonctionnant plus de 300 ou 500 heures. La nouvelle série comprend une version certifiée EPA Tier 2

pour les applications de secours aux États-Unis.

La conception des groupes électrogènes HGY avec un nouveau système dʼinjection common rail à haute pression, la conception des pistons et la densité de puissance élevée devraient apporter une consommation de carburant optimale, qui se traduit par des économies, une réduction des émissions et une grande autonomie. On notera également quʼHimoinsa a intégré une démarche de réduction sonore.

Les moteurs Yanmar GY

Les moteurs Yanmar associent la technologie de combustion des moteurs à grande vitesse à la fiabilité des moteurs à vitesse moyenne, ce qui garantit des performances et une efficacité élevées. Ce qui se

traduit par des capacités de fonctionnement dans des conditions extrêmes, un encombrement réduit, des possibilités de carburants multiples et de faibles émissions.

• Systèmes dʼinjection de carburant common rail et pompe à haute pression : ce dispositif produit une pression dʼinjection pouvant atteindre 2 200 bars pour une efficacité maximale, en optimisant la courbe de pression de combustion grâce à des injections multiples.

• Densité de puissance élevée : la série HGY affiche des performances exceptionnelles en termes dʼémissions et de densité de puissance (jusquʼà 37,9 kWm/l). La densité de puissance spécifique élevée réduit lʼencombrement, tout en ayant un impact important sur lʼempreinte carbone du cycle de vie total.

• Prototype monocylindre : la conception de la tête de piston et lʼanalyse des

fluides sont essentielles pour lʼefficacité et les performances du moteur. Yanmar a consacré des milliers dʼheures dʼingénierie à cette phase du développement.

• Réponse rapide : lʼinjection de carburant marque une énorme différence dans les applications de production dʼénergie pour lesquelles la vitesse de réponse est primordiale. Le bloc de commande peut réagir aux changements soudains de vitesse en quelques millisecondes. Le moteur démarre en moins de 8 secondes et peut fonctionner dans les conditions de la classe ISO 8528-5 G3.

• Bloc de commande électronique du moteur intuitif: le bloc de commande comprend plusieurs paramètres physiques pour un contrôle optimal du système dʼinjection. Le système de contrôle fait appel à un logiciel de diagnostic intégré, intuitif et exploitable, qui permet la sur-

veillance à distance du moteur et du groupe électrogène.

Mieux maîtriser la supply chain

Autre intérêt de cette gamme, Yanmar et Himoinsa ont augmenté leurs capacités industrielles avec le lancement dʼune nouvelle ligne de production pour le moteur Yanmar GY dans lʼusine dʼAmagasaki au Japon, et lʼétablissement dʼun nouveau centre de production Himoinsa en Espagne. Cette dernière usine destinée aux Power Solutions disposera, dès 2025, dʼune capacité de production de 1 000 unités de groupes électrogènes par an.

Rappelons quʼavec lʼexplosion des projets de construction de datacenters la fourniture des groupes électrogènes subit de fortes contraintes. Un opérateur de datacenters français nous a indiqué que ses dernières commandes subissent des délais de lʼordre de 60 semaines, et quʼaux Etats-Unis certains projets affichent des délais de 2 à 3 ans, lʼimpact sur lʼorganisation de la construction est forte.

Lʼouverture dʼune nouvelle unité de production en Europe et sa capacité de 1000 unités par an devrait soulager le marché…

Adapter les data centers aux besoins évolutifs de l'IA

Kamlesh Patel

VP Data Center Market Development CommScope

Si 2023 a marqué une prise de conscience révolutionnaire de lʼimmense potentiel de lʼintelligence artificielle, cʼest en 2024 quʼune transformation opère. Les diverses applications de lʼIA ‒allant du machine learning au deep learning, en passant par le traitement du langage naturel ‒ se sont immiscés dans le tissu même de notre vie quotidienne, révolutionnant notre façon de vivre, de travailler et de nous connecter.

Avec la montée en puissance

de lʼIA, les gestionnaires de data centers et leurs équipes sont confronté aux défis relatifs non seulement aux pétaoctets de données supplémentaires qui inondent leurs réseaux, mais aussi aux exigences en matière de latence ultra-faible. L'augmentation de la puissance requise et le nombre plus élevé de fibres nécessaires posent également des défis.

L'essor de l'intelligence artificielle entraîne un changement fondamental dans la façon

dont les data centers sont construits. Ces changements devraient avoir un impact significatif sur l'infrastructure de réseau, qui va du câblage et de la connectivité à l'architecture, à la résilience et à l'adaptabilité.

Une demande insatiable d'énergie

En République d'Irlande, les data centers représentent désormais plus de 20 % de la consommation totale d'électricité, contre seulement 5 % en

2015. Par conséquent, pour la première fois dans l'histoire, a été atteint un point où la capacité à fournir l'énergie nécessaire au fonctionnement des data centers ne peut plus être garantie.

LʼessordelʼIAetlaconsommation dʼénergie intensive des data centers mettent à rude épreuve les engagements « net zéro » des grandes entreprises technologiques. Google a annoncé que ses émissions de gaz à effet de serre avaient augmenté de 48 % au cours des cinq dernières années en raison de l'expansion de ses data centers, tandis que les émissions de portée 3 de Microsoft sont actuellement supérieures de plus de 30 % à leurs niveaux de 2020.

Pour que les data centers concilient efficacement durabilité accrue et augmentation de

la capacité et des performances, il est nécessaire quʼils reçoivent de l'aide de partenaires en matière de technologie d'infrastructure sous diverses formes.

Latence ultra-faible ; câblage et architecture à connectivité ultra-élevée

Le traitement de ces grands modèles d'IA nécessite plusieurs GPU interconnectés répartis sur de nombreux serveurs et racks. Un data center d'IA déploie des dizaines de ces clusters et l'infrastructure de câblage qui relie le tout pour assurer la circulation des données présente un ensemble unique de défis.

Par exemple, les serveurs GPU nécessitent beaucoup plus de connectivité entre les serveurs mais, en raison des contraintes de puissance et de

chaleur, il y a moins de serveurs par rack. Par conséquent, le câblage inter-racks est plus important dans un data center d'IA que dans un data center traditionnel. Chaque serveur GPU est connecté à un commutateur dans la rangée ou la salle et ces liaisons nécessitent 400G et 800G à des distances qui ne peuvent pas être supportées par les connexions cuivre traditionnelles telles que les DAC, AEC ou ACCS. En outre, chaque serveur doit être connecté au commutateur de trame, au stockage et à la gestion hors bande.

Dans un scénario idéal, tous les serveurs GPU d'un cluster d'IA seront proches les uns des autres, car les algorithmes d'IA/de machine learning, comme le calcul à haute performance (HPC), sont extrêmement sensibles à la latence.

Selon une estimation, 30 % du temps d'exécution d'un grand modèle d'apprentissage est consacré à la latence du réseau et 70 % au temps de calcul. Pour minimiser la latence, les clusters d'IA visent à maintenir les serveurs GPU à proximité, la quasi-totalité des liens étant limités à des portées de 100 mètres. Malheureusement, tous les data centers ne pourront pas placer les racks de serveurs GPU dans la même rangée. Ces baies nécessitent facilement plus de 40 kW pour alimenter le serveur GPU, ce qui représente une puissance considérablement supérieure à celle des baies de serveurs classiques, et les data centers traditionnels devront donc espacer leurs baies GPU.

Si l'espace supplémentaire n'est pas une option viable pour l'agencement serré des racks de serveurs des data centers actuels, il est possible de naviguer dans leurs allées étroites et encombrées et dans les complexités de câblage accrues qui vont de pair avec l'IA grâce à des innovations telles que la fibre en ruban enroulable.

La conception unique permet de charger jusqu'à six câbles de 3 456 fibres dans une gaine de 10 centimètres, soit plus de deux fois la densité des fibres emballées de manière conven-

Dans le câble à fibres en ruban enroulable, les fibres sont attachées de manière intermittente pour former un ruban lâche. Cette configuration rend le ruban plus flexible, permettant aux fibres de fléchir avec un certain degré d'indépendance les unes par rapport aux autres. Les fibres peuvent alors être « enroulées » en un cylindre, ce qui permet de mieux utiliser l'espace par rapport aux rubans plats.

Les câbles sont plus légers, ce qui simplifie la manipulation et l'installation, et leur liaison intermittente permet aux installateurs de positionner naturellement les fibres dans une section plus petite, ce qui les rend parfaits pour l'épissage.

Une architecture tournée vers l'avenir

À l'avenir, la rentabilité des data centers repose sur leur capacité massive de traitement et de stockage, et les opérateurs devraient réfléchir attentivement aux émetteursrécepteurs optiques et aux câbles à fibres optiques qu'ils utiliseront dans leurs clusters d'IA.

dominé par l'émetteur-récepteur. Les émetteurs-récepteurs qui utilisent des fibres parallèles, par exemple, sont avantageux car ils ne nécessitent pas les multiplexeurs et démultiplexeurs optiques utilisés pour le multiplexage par répartition en longueur d'onde (WDM), ce qui se traduit par un coût et une puissance moindre pour les émetteursrécepteurs à fibres parallèles.

En raison de la brièveté des liaisons au sein dʼun cluster d'IA, le coût de l'optique sera

Les liaisons jusqu'à 100 m sont prises en charge par les applications de fibre monomode et multimode, et les progrès tels que la photonique du silicium ont réduit le coût des émetteurs-récepteurs monomodes. En outre, de nombreux clusters dʼIA utilisent des câbles optiques actifs (AOC) pour interconnecter les GPU répartis sur de nombreux serveurs et racks. La plupart de ces câbles sont utilisés pour les courtes distances et sont généralement associés à des fibres multimodes et à des VCSEL. Les émetteurs et les récepteurs d'un AOC peuvent être les mêmes que ceux des émetteurs-récepteurs analogues, mais ce sont des pièces détachées. Ni l'émetteur ni le récepteur ne doivent répondre à des spécifications rigoureuses en matière d'interopérabilité, car ils ne doivent fonctionner qu'avec l'unité spécifique attachée à l'autre

extrémité du câble. Comme l'installateur n'a pas accès aux connecteurs optiques, il n'a pas besoin des compétences requises pour nettoyer et inspecter les connecteurs à fibres optiques.

Une attention particulière est portée au câblage du cluster d'IA

En conclusion, l'évolution et l'adaptation des data centers sont impératives pour répondre aux exigences croissantes de l'intelligence artificielle dans les applications commerciales et la prestation de services à la clientèle. Il est essentiel que les concepteurs et planificateurs d'infrastructures innovent en termes d'efficacité, d'évolutivité et de durabilité. Un aspect essentiel de cette innovation est l'amélioration des systèmes de câblage, qui permettra aux opérateurs de réduire les coûts, la consommation d'énergie et la durée d'installation. Ces mises à niveau sont essentielles pour équiper les installations de la capacité de gérer non seulement les charges de travail actuelles basées sur l'IA, mais aussi celles prévues à l'avenir. En adoptant ces changements, les data centers seront équipés pour faire face aux défis contemporains tout en étant bien préparés pour les progrès futurs.

Nicolas Guillaume, CEO de Nasca Group et Netalis, a accepté de jouer le jeu des trois questions après lʼannonce du développement dʼun pôle dʼIA en région Bourgogne-FrancheComté, Alsace et ProvenceAlpes-Côte dʼAzur (Lire sur Dcmag.fr Netalis développe un nouveau pôle IA régional en partenariat avec Gcore et nLighten).

DCmag ‒ Quelle est la demande régionale dʼinfrastructures dʼIA et pour quels usages ?

3 questions à Nicolas Guillaume après l’annonce de Netalis du développement d’un pôle d’IA

Nicolas Guillaume ‒ Tout dʼabord, notre choix de nous positionner sur ce sujet est né dʼun pivot stratégique lancé en septembre 2024 après des mois de réflexions. Nous étions très focalisés sur le développement (très cash intensive) de notre réseau fibre dans plusieurs régions et pas assez sur les demandes croissantes de nos clients TPE, PME et ETI pour lʼaccompagnement autour de la connectivité. Cʼest pourquoi nous avons initié la scission de nos

activités services et infras réseau puis la recherche dʼun partenaire industriel et financier pour poursuivre notre métier dʼorigine, la connectivité Très Haut Débit, en agrémentant ce métier de nouvelles offres de cybersécurité, de VoIP/UCaaS, de Cloud et dʼIA récemment au sein de notre plateforme de services.

En Région, comme dans les métropoles françaises qui concentrent les grandes entreprises, lʼadoption des usages numériques tels que lʼIA est en

forte croissance. Nos clients PME et ETI en particulier, soumises à des tensions en RH et coûts, se questionnent pour savoir comment améliorer ou optimiser leurs process, rendre plus fluides, plus autonomes ou plus sécurisées lʼexécution de certaines tâches pour focaliser les personnels sur des tâches critiques quʼune IA ne pourrait pas réaliser.

Nous avons également des collectivités qui se demandent comment rendre plus agiles leurs agents, délivrer des services publics plus modernes ou répondre aux demandes des citoyens plus rapidement. Lʼun des usages de lʼIA particulièrement demandé dans les collectivités réside dans la gestion mieux coordonnée des flux routiers (anticipation ou détection précoce dʼembouteillages

par analyse du trafic en temps réel issu de caméras intelligentes ou capteurs au sol, etc.), car de cette gestion découle aussi lʼamélioration de lʼenvironnement (moins de pollution sonore ou carbone générée par les véhicules à lʼarrêt, etc.) devenu LE sujet majeur au sein de nos sociétés. LʼIA peut être présente dans une immensité de cas dʼusage désormais et cʼest notre rôle dʼaccompagner les clients dans leurs réflexions et projets.

Quels sont les apports de valeur de lʼassociation dʼun acteur des solutions dʼIA (Gcore), dʼun opérateur de services numérique (Netalis), et dʼun opérateur régional de datacenters (nLighten) ?

Cʼest le mix de trois compétences totalement complémentaires dans la chaîne technique. GCore construit et opère des plateformes dʼhébergement hautement disponibles, réparties dans de nombreux data centers en Europe et dans le Monde, avec un excellent réseau mondial. Netalis connecte des clients finaux grâce à de nombreuses boucles locales et transporte ces flux de données depuis plusieurs régions françaises vers lʼinternet ou vers des data centers locaux comme ceux de nLighten qui hébergent historiquement aussi nos propres équipements (hébergement client, SI/outils internes et réseau) ou ceux de GCore qui seront positionnés au sein même de nos baies et interconnectés à notre réseau pour optimiser la latence pour nos

Nous connaissons donc lʼexcellente fiabilité de notre partenaire de colocation pour ce qui est des sites de Besançon et dʼAntibes. Enfin, nous interconnectons Strasbourg grâce à une nouvelle autoroute numérique longue distance en cours de construction depuis le nord Franche-Comté et nous ouvrons au passage une présence commerciale alsacienne, nous aurons donc lʼoccasion de pouvoir nous héberger aussi dans ce site nLighten récemment mis en production.

Comment les problématiques dʼenveloppes énergétiques et thermiques liées à lʼhébergement dʼune solution dʼIA reposant sur des GPU Nvidia est-elle traitée ? Quʼest-ce que cela change pour les clients de la solution ?

Nos clients sont assurés que nous sélectionnons des data centers de colocation aptes à accueillir ces machines assez gourmandes en ressources électriques et nécessitant un refroidissement adapté. Si nous ne connaissons pas le site, nous en auditons les spécificités et nous nous assurons avec son gestionnaire de ses capacités à disposer des ressources nécessaires (refroidissement, énergie secourue, etc.) pour héberger les machines dans les meilleures conditions et revaloriser la chaleur dégagée au besoin.

Comme lʼa dit notre confrère Anwar Saliba de nLighten France dans vos colonnes, le fait de se fonder sur des data centers de proximité dits « edge » pour des besoins liés à lʼhébergement de capacités IA permet une meilleure distribution des capacités techniques

au plus près des usagers et des ressources électriques au plus près des sites de production (centrales, barrages, champs éoliens ou solaires, etc.). Les « pods » de serveurs dʼIA sont ainsi plus petits et dès lors moins gourmands en ressources électriques que les très grandes salles techniques dédiées que lʼon peut trouver principalement chez les hyperscalers.

Cʼest la raison pour laquelle à lʼavenir, nous viserons toujours une stratégie dʼhébergement de proximité avec des ressources régionalisées, proche de notre ADN dʼopérateur télécoms de proximité. Nous restons bien entendu clients de data centers majeurs (Digital Realty, Telehouse) pour nos besoins dʼinterconnexions réseau, notamment vers dʼautres Cloud providers ou points dʼéchange (IXP) par exemple.

Rejoignez nous sur le CLUB OPEX :

Denv-R inaugure son premier datacenter flottant

Denv-R a déployé son premier datacenter flottant expérimental à Nantes, sur le domaine portuaire de Nantes Saint-Nazaire Port. Ce prototype préfigure une infrastructure de nouvelle génération pour des datacenters de proximité, durables, aux coûts dʼinvestissement et dʼexploitationréduits,etsans impact sur le foncier.

en réalité dʼun datacenter qui sʼimplante sur un lieu encore inexploré mais largement disponible dans nos contrées et sans impact sur le foncier : les cours dʼeau. Cʼest donc sur un quai dʼun bras de la Loire, mis à disposition pour une expérimentation de six mois par le Grand port maritime de Nantes - Saint-Nazaire, que le nouveau datacenter est amarré.

De prime abord, le datacenter flottant inauguré par Denv-R a tout dʼun prototype industriel sans réelle esthétique, bardé de panneaux solaires, et reposant sur un flotteur à deux coques où lʼon verrait plutôt une bouée de signalisation pour guider les navires. Il sʼagit

La structure du flotteur dʼun peu moins de 10 mètres de long est en acier, ce qui lui garantit une longue durée de vie et une résistance aux environnements marins. Il sʼagit dʼun flotteur expérimental conçu par la société guérandaise Geps Techno, également investisseur sur le projet, qui re-

prend le concept dʼune structure simplifiée, économe en ressources, modulaire et simple à mettre en œuvre, à lʼorigine destiné à des applications de mesure en mer. Si cette structure nʼest pas destinée à naviguer, mais bien à flotter, elle peut facilement être déplacée. On notera sur les photos que le datacenter a été monté sur des rails adossés au quai afin de flotter au rythme de la marée sans risque de dériver.

A lʼintérieur prend place un container pouvant accueillir quatre baies informatiques. Le refroidissement sans climatisation est assuré par un système breveté de refroidissement hybride en circuit fermé,

qui ne pompe pas lʼeau de la Loire, composé dʼun échangeur thermique immergé qui utilise le débit du cours d'eau pour refroidir directement au niveau des points chauds.

Le datacenter affiche donc des dimensions réduites pour un équipement réduit, ce qui ne nécessite pas de ressources électriques extravagantes, puisquʼil demande une puissance de 200 kW, donc directement accessible via un grid local. Sʼy ajoutent des panneaux solaires intégrés qui alimentent les systèmes auxiliaires,apportantunerelativeindépendance énergétique au-delà de lʼIT embarquée.

Flexible et modulaire, destiné à des projets de taille locale (ou edge) - on pense à lʼéquipement des communautés urbaines, de la smart-city, de lʼIoT comme de clusters dʼIA -, ce premier datacenter Denv-R se révèle également écologique et économique. A lʼusage, ses ressources réduites comme son coût seront obligatoirement optimisés (Denv-R évoque des coûts dʼexploitation et dʼinvestissement, ainsi quʼune empreinte écologique divisés par deux), avec une intégration urbaine qui se fait oublier, tout en préservant les ressources naturelles et durables.

“Nous croyons fermement quʼil est possible de transformer lʼinfrastructure cloud tout en réduisant notre impact environnemental. Ce premier data center flottant est la preuve que technologie, innovation et durabilité peuvent coexister pour offrir des solutions performantes aux entreprises de demain. Le lancement de ce premier data center flottant est aussi une opportunité pour la ville de Nantes et sa région de se positionner comme un pôle dʼinnovation en matière dʼinfrastructures numériques durables. En créant des emplois spécialisés et en favorisant la collaboration avec les entreprises locales, Denv-R contribue à la dynamique économique régionale."

Côté investissement, Geps Techno est le principal investisseur de la start-up Denv-R, et le projet expérimental dʼun coût de près dʼun million dʼeuros a bénéficié pour un tiers dʼun financement par la région Pays de la Loire.

Vincent Le Breton, PDG de Denv-R

Efficacité optimisée pour les centres de données : un point sur

les solutions Mist AI™ de Juniper Networks et les services managés

Aujourdʼhui, dans un contexte de croissance numérique, la gestion efficace des centres de données devient un enjeu majeur. À mesure que lʼinfrastructure se complexifie, le maintien des performances, de la sécurité et de lʼévolutivité exige de plus en plus de ressources. En exploitant des technologies avancées telles que Mist AI™, Juniper Apstra et Marvis Virtual Network Assistant (VNA) de Juniper Networks, permettent de faire face à ces challenges de façon efficace. En couplant lʼautomatisation pilotée par lʼIA et la mise en réseau basée sur lʼintention, notre objectif est dʼaméliorer les opérations des centres de données tout en garantissant une intégration fluide avec les systèmes existants.

Publi-rédactionnel ‒ Zoréole Services, avec intégrant Mist AI™ de Juniper Networks à votre infrastructure existante, optimise votre centre de donnée.

A la découverte de Mist AI™, Juniper Apstra et Marvis VNA pour datacenter de Juniper Networks

La plateforme Mist AI™ de Juniper Networks apporte une automatisation basée sur lʼIA pour simplifier la gestion du réseau, améliorer lʼefficacité opérationnelle et lʼexpérience utilisateur. Mist AI™ simplifie les opérations complexes, en automatisant les configurations et en fournissant des informations en temps réel pour améliorer lʼexpérience des utilisateurs. Juniper Apstra va encore plus loin en introduisant le réseau basé sur lʼintention (IBN), qui permet aux centres de données de sʼauto-opérer en fonction des résultats souhaités, plutôt que de procéder à des configurations manuelles tout en offrant une compatibilité entre plusieurs fournisseurs. Cela réduit non seulement le risque dʼerreur humaine, mais permet également aux centres de données de fonctionner plus efficacement.

En complément, Marvis VNA pour datacenter est un assistant réseau virtuel conçu pour améliorer lʼefficacité opérationnelle en proposant des actions proactives et prescriptives adaptées aux environnements des centres de données. Il sʼintègre à Juniper Apstra pour offrir une visibilité complète, en utilisant les données de télémétrie pour détecter les anomalies du réseau et recommander des actions pour un dépannage plus rapide. Grâce à son interface IA conversationnelle, Marvis VNA simplifie les tâches complexes et aide les équipes informatiques à passer dʼune gestion réactive à une gestion proactive.

Améliorez votre infrastructure avec les services managés de Zoréole Services

Ce qui distingue nos services gérés, ce nʼest pas seulement la technologie de pointe que nous utilisons, mais aussi la façon dont nous intégrons ces solutions dans votre infrastructure existante. Nous prenons en charge le processus de bout en bout, de la conception et du déploiement à la gestion et à lʼoptimisation continues. Nos services dʼintégration garantissent que Mist AI™ fonctionne de manière cohérente avec vos systèmes actuels, en améliorant les fonctionnalités sans perturber les opérations commerciales.

Notre objectif nʼest pas seulement de gérer votre infrastructure, mais de veiller à ce que chaque élément ‒ des commutateurs centraux aux assistants virtuels ‒ fonctionne en parfaite harmonie, offrant agilité et réactivité.

Notre équipe est passionnée par ce quʼelle fait. Notre objectif nʼest pas seulement de répondre aux normes du secteur, mais de les dépasser. En nous choisissant, les entreprises sʼassocient à une équipe qui est fière dʼoffrir lʼexcellence. Nous évoluons en permanence et adoptons les dernières avancées technologiques, afin que les infrastructures de nos clients restent à la pointe de la technologie.

Pourquoi travailler avec Zoréole Services ?

Lʼexternalisation de lʼintégration et la gestion à des experts apporte aux entreprises plus quʼune tranquillité dʼesprit. Les entreprises peuvent se concentrer sur leurs objectifs stratégiques plutôt que de sʼenliser dans la complexité des réseaux. Lʼautomatisation, le dépannage et lʼanalyse prédictive offerts par ces solutions permettent non seulement de rationaliser les opérations, mais aussi de garantir une plus grande disponibilité et une meilleure sécurité.

En intégrant Mist AI™ de Juniper Networks à votre infrastructure existante, nous optimisons votre centre de données à son plein potentiel, en veillant à ce quʼil puisse sʼadapter aux défis futurs et aux besoins de lʼentreprise. En nous confiant la gestion de votre réseau, vous ne bénéficiez pas seulement dʼun service, mais dʼun partenaire passionné qui sʼengage à aider votre entreprise à prospérer.

Zoréole Services est un intégrateur à valeur ajoutée et un revendeur expert dont lʼADN est lʼinnovation, spécialisé dans les réseaux informatiques sécurisés. www.zoreole.com

Rétrofit de Telehouse

TH2 Voltaire

Le chantier d’une vie

Le rétrofit de TH2, un engagement pour l’avenir

“Sans mettre de la pression à mes équipes, je vais dire un truc vraiment qui vient des tripes. Pour moi, c'est le projet de ma carrière. C'est à dire que je n'ai rien de plus important que de redonner 25 ans d'âge à un monument, à Notre-Dame des Télécoms quʼest TH2. Il n'y a rien de plus important aujourd'hui sur mon bureau que ce projet là. Si je réussis ça, je considère qu'à titre personnel en tout cas, j'aurai contribué à l'Internet français tout particulièrement et à l'Internet de manière générale. Parce que pérenniser un site comme celui-ci, c'est permettre aux interconnexions entre des milliers et des milliers d'utilisateurs de perdurer dans le temps et de devenir adaptées aux contraintes écologiques, aux contraintes environnementales, aux exigences liées à l'IA ou à ce nouveau service. Donc, c'est vraiment un projet qui me tient particulièrement à cœur, et sur lequel je suis à titre personnel très très investi.”

A lʼheure où les grands acteurs de la colocation nʼen finissent plus de miser sur la démesure avec des projets toujours plus grands, des investissements toujours plus lourds, qui se nourrissent de centaines de mégawatts dʼélectricité, pour au final servir quelques clients et leurs clouds publics, dʼautres jouent la carte de la diversité, de la proximité et de la continuité. Car aux côtés de ces géants, le numérique a besoin dʼacteurs de taille intermédiaire, qui offrent une typologie réseau bien connue, celle des clouds privés, des clients

corporate, souverains, nationaux, européens…

Cʼest ainsi quʼau gigantisme, Telehouse répond par le service dʼinterconnexions de milliers de clients via des centaines dʼopérateurs, historique de lʼInternet et indispensable à la vie numérique. Et il continue de perpétuer un héritage unique, celui de “la plus ancienne maison de data centers au monde”.

Sʼil nʼa pas quitté sa position de cœur historique des télécommunications en France, le

datacenter

Telehouse TH2

Voltaire affiche son âge, 25 ans. Mais alors que le numérique vire à lʼIA et aux infrastructures massives, il est temps de lui donner une nouvelle jeunesse. Pourtant, à la facilité de la construction à partir dʼune feuille blanche, Sami SLIM, Président de Telehouse France et gardien dʼun héritage unique, joue la carte du rétrofit. Il a engagé à contre courant un chantier pharaonique, celui de la réhabilitation dʼun datacenter historique au cœur de Paris. Le chantier dʼune vie !

• Première étape de notre reportage, nous évoquons avec Sami Slim la place de TH2 et la dimension exceptionnelle de ce projet de réhabilitation.

• Lasecondeétapeestconsacréeàlarelationclients,partenairesetvoisins, indispensable pour mener à bien le rétrofit dʼun datacenter parisien.

• Enfin, la troisième étape donne la parole Audrey CHESNEAU, Head of DC Operations de Telehouse France, qui pilote le chantier.

Les enjeux de la relation client dans un retrofit historique

Lors de notre rencontre avec Sami SLIM, Président de Telehouse France, dans le cadre de la réhabilitation exceptionnelle du datacenter TH2 Voltaire à Paris, nous lʼavons interpellé sur la relation avec ses clients et son évolution au travers du chantier. Au programme : organisation, information, transparence, et une occasion de partager pour évoluer vers plus dʼefficience.

DCmag - Un chantier comme celui du rétrofit de TH2 est différent d'un chantier de construction. Quʼavez-vous pris comme mesures spécifiques ?

Sami SLIM - Effectivement, l'angle intéressant dans cette histoire, c'est de bien marquer la différence entre la réhabilitation d'un site en exploitation, en production, et la construction d'un nouveau datacenter. Surtout un site aussi critique que TH2. C'est juste le site le plus interconnecté de France,

le quatrième au monde. On parle bien des mêmes organes, on parle toujours des groupes froids, des UPS, de batteries et de distribution électrique et climatique. Mais dans un cas finalement, on déroule un plan de chefferie de projet construction sur du greenfield, et dans un autre on va avec la pince à épiler pour faire le tri entre ce qui est en prod, ce qui ne doit pas être touché. Il faut installer le neuf, le tester, le commissionner, et puis petit à petit décommissionner l'ancien. Et s'assurer

que quand on décommissionne, on ne touche à aucun brin de fibre. Et donc, de cet environnement contraint vient toute une nouvelle ingénierie. Et là, il y a l'ordonnancement dont a parlé Audrey [lire lʼinterview dʼAudrey CHESNEAU, Head of DC Operations de Telehouse France, qui suit], et j'imagine qu'elle a donné quelques autres détails sur comment on gère un système d'exploitation quand on fait des travaux de ce type.

Mais surtout, il y a le dédoublement des équipes. Il y a la chefferie de projet, c'est-à-dire quand on fait ce qu'on appelle la réunion de chantier du matin, où on a un plan d'exécution des tâches. En fait, dans chaque tâche, on essaye d'isoler ce qui potentiellement peut toucher à la production client. Et ces tâches-là, ce qu'on appelle les tâches critiques, on les renforce en termes de suivi humain. C'est à dire, par exemple, quʼon ne laisse pas du personnel du gros œuvre tout seul, on accompagne toujours avec des chefs de projet qui vont s'assurer que les personnes du gros œuvre ne commettent pas finalement de déviation par rapport à la procédure à exécuter.

Donc, on rajoute finalement du people au chantier. Et donc on le ralentit, et on augmente son coût de manière à avoir zéro impact sur lui. Et ça, c'est une vraie grosse différence avec la construction d'un datacenter greenfield. Nous estimons que le CAPEX à mobiliser pour faire un rétrofit d'un site comme le nôtre, avec cette volumétrie là, est environ trois fois supérieur à celui qu'on mobilise pour construire la même puissance IT sur un site neuf. Cʼest pour donner un ordre de grandeur, ce n'est pas un chiffre précis et ça vient justement des ressources que lʼon met en plus,

des gens que lʼon embauche, en plus du fait de ralentir le chantier pour ne jamais avoir d'incident. Et ça l'est encore plus sur certains lots, comme la clim plus que l'élec, ou encore sur l'incendie. Bref, effectivement, entre du rétrofit et uneconstructionàneuf pourla même puissance IT, encore une fois dans un site aussi sensible que TH2, on ne peut même pas se permettre une coupure, même la plus courte. En fait, c'est zéro incident, et c'est ça la contrainte.

Sur un chantier aussi sensible, comment se gère la relation avec les clients du datacenter ?

C'est une question centrale. J'ai connu une époque où effectivement on faisait les maintenances de datacenter sans rien dire aux clients. Cette époque-là est révolue, parce que les clients maintenant souhaitent mesurer leurs risques et éventuellement basculer leur trafic sur d'autres datacenters s'il y a le moindre risque qui est pris. En tout cas, si la matrice de risque nécessite un transfert de flux. Par ailleurs, nous avons entamé ce projet titanesque avec cette nouvelle philosophie client. Et du coup, finalement, nous avons fait quelque peu les choses en grand par rapport à ce que l'on faisait avant.

C'est-à-dire que, d'abord, on a fait presque une réunion publique avec tous les clients. En gros, nous avons ouvert notre notre salle de conférence ici, à Voltaire, nous avons invité ceux qui pouvaient venir, et nous leur avons présenté le chantier avant qu'il démarre. Pour leur dire quʼil va durer 3 à 5 ans, comment il va se passer, quel sera l'impact pour eux. Évoquer également les risques éventuels.

Et voici la promesse de Telehouse : tout ce qui va se passer là sera transparent pour vous. Voici tous les moyens que l'on mettra en œuvre pour que jamais, jamais vous n'ayez un impact sur votre rack, votre exploitation sur ce site. Et voici le plan de communication qui sera déroulé. Donc, semaine par semaine, on vous mettra à jour sur votre portail. Qu'est ce qui va venir là ? Est-ce que votre étage est touché ? Où est-ce que vous pouvez avoir des détails ? Et puis, vous avez une ligne unique, une espèce de hotline en ligne et au téléphone qui vous permet d'aller plus loin dans les détails pour ceux qui le souhaitent. Et il y en a qui le souhaitent, même sʼils ne sont pas nombreux. Il y en a qui veulent avoir plus de détails sur certaines procédures, ce qu'on appelle les MOP, les Method of Procedure, une explication détaillée de ce

que nos équipes, ainsi que nos partenaires externes, vont dérouler sur une zone IT donnée. Ces MOP permettent au client de faire une matrice de risque bien calculée pour rationaliser le risque. Et parfois, quand il estime que le risque est élevé, le client peut choisir de basculer leur charge sur d'autres datacenters le temps de passer la maintenance ou l'intervention en question. Et puis, il rebascule son trafic chez nous.

Voilà comment ça a été géré, comment ça continue à être géré. Je touche du bois, mais jusque là, nous nʼavons eu aucun incident. Et je suis sûr qu'avec le talent d'Audrey et de ses équipes, il nʼy en aura aucun. En tout cas, la transparence sera toujours là. C'est-àdire que les clients savent exactement à quelle heure, quel jour, quelle opération, et ils peuvent demander le maximum de détails possibles. Encore une fois, le data center n'est plus une boîte noire. La nécessité d'être très très transparent est désormais vitale pour tout le monde.

Évidemment, cette transparence, vous l'avez jouée aussi avec la communauté urbaine, avec les habitants, etc.

Absolument. Effectivement, il y a un autre risque à cadrer, celui des nuisances au voisinage.

Parfois, il nous est arrivé de bloquer le Boulevard Voltaire un samedi, un dimanche, pour notamment, par exemple, placer la grue. A ce moment-là, nous avons mis des flyers dans toutes les boîtes aux lettres de nos voisins. On a fait un affichage, un affichage en mairie, on a fait une réunion publique en mairie, on a mis un site privé pour un certain voisinage collé à nous, qui leur permet d'évaluer tout impact éventuel qui pourrait avoir lieu à leur domicile. Quand on dit impact, c'est à dire attention, là, il va y avoir du bruit ou de la vibration, ou telle ou telle opération qui arrive, ou un mouvement de grue, etc. Donc, effectivement, au-delà des clients, les

voisins et la communauté urbaine sont des partenaires dans ces travaux, et on leur doit un certain niveau de transparence. Pas le même que les clients, forcément, parce que l'on n'a pas à dévoiler les éléments techniques à tout le voisinage. Mais en tout cas une transparence vis à vis des impacts éventuels qu'ils peuvent avoir dans leur domicile.

Il est vrai que nous sommes forts d'une certaine expérience à Voltaire : nous avons construit un datacenter à côté, rue Léon Frot. Donc nous connaissons tous nos voisins, nous les avons habitués à quelques grues dans le coin…

Et au final, notre précédent

chantier, qui était beaucoup plus conséquent, en tout cas pour le voisinage puisque c'était une construction et non pas une réhabilitation, s'est très très bien passé. On a eu zéro impact avec les voisins, et donc finalement il y a un capital confiance qui s'est établi. Cela fait 25 ans qu'on est là et ils nous connaissent tous très bien. Ce capital confiance est vraiment précieux quand on conduit ce genre d'opération.

Un chantier de réhabilitation comme celui-ci doit représenter une sacrée occasion de se rapprocher de ses clients et de renouer des liens, voire de les étendre ?

Tout à fait. Et c'est surtout l'occasion de motiver le client à remettre le nez dans son historique. C'est en fait un alignement des intérêts, c'est bien pour eux, c'est bien pour nous. Ils disent “vous allez rétrofiter l'ensemble du site, on peut rétrofiter notre quart d'heure, voir si nos câbles sont encore utilisés, cleaner un petit peu l'arrivée d'air froid”. Donc finalement, les améliorations énergétiques et l'efficacité que l'on va injecter suite à ces travaux, elles seraient vaines si le client ne fait pas sa partie, si le rétrofit ne va pas jusqu'au rack et non pas uniquement sur la partie infrastructure. Donc, c'était surtout l'occasion de les motiver pour faire ça.

Une étape qui est nécessaire aujourd'hui, où lʼon se doit de revoir l'organisation des salles…

Attention, nous avons pris le parti de ne rien imposer aux clients non plus. On ne veut pas être dans la brutalité. Mais effectivement, si le client souhaite tirer davantage des travaux que lʼon apporte, c'est-àdire l'injection de puissance électrique et de puissance climatique, le mieux pour lui c'est d'accepter une réhabilitation. De rétrofiter son propre urbanisme dans sa salle, et certains clients sont en train de jouer le jeu. C'est complexe. Mais attention, je ne veux pas les faire culpabiliser parce que

c'est dur. Imaginez, une salle télécom qui est là depuis 25 ans, je ne sais pas combien de tonnes de fibre. Et tu ne sais même pas qu'est ce qui est raccordé à quoi ! C'est un projet complexe pour eux aussi. Donc je ne suis pas dans un discours moralisateur. Je comprends et je compatis sincèrement avec mes clients sur la complexité du truc. Mais les gains sont tellement énormes si on ne s'y colle quʼau final, ceux qui ont fait ce choix là savent quʼils vont avoir un retour sur investissement évident.

Le chantier pharaonique du retrofit d’un datacenter historique

Telehouse a lancé le chantier de réhabilitation (rétrofit) de TH2 Voltaire à Paris, le datacenter historique le plus interconnecté de France, qui avec ses 25 ans dʼâge mérite bien de retrouver une seconde jeunesse… pour 25 nouvelles années ! Nous avons rencontré Sami SLIM, Président de Telehouse France, pour évoquer ce chantier exceptionnel, que certains qualifient de pharaonique.

Datacenter Magazine - Sami SLIM, merci dʼavoir accepté de répondre à nos questions. Mais avant dʼévoquer ce chantier et son contexte, pouvez-vous revenir sur le caractère historique du datacenter TH2 Voltaire ?

Sami SLIM - Telehouse est la plus ancienne maison de data centers au monde. Cela a fait notresuccès,notreexpérience, et la confiance que les clients ontennous.Maiscelafaitaussi que nous avons un héritage, un certain nombre de bâti-

ments partout dans le monde, et pas qu'à Paris, qui ont 25, 30, 35 ans d'âge. Et un héritage, ça se gère par des décisions difficiles mais nécessaires. Certaines décisions sont de fermer des sites. Nous lʼavons fait, nous avons décidé de fermer TH1 rue des Jeûneurs à Paris, London Metro en plein cœur de Londres, Teleporte à New York. Ces décisions, douloureuses pour nous, sont en fait en ligne avec notre stratégie de long terme qui est quʼon ne peut pas se traîner un héritage qui est in-

capable de s'adapter à la modernité que nous imposent nos clients. La modernité étant bien entendu la responsabilité environnementale, mais aussi la capacité d'accompagner la croissance de nos clients, notammentendensifiant,notamment en proposant plus d'espaces à louer et plus de densité. Donc, tous les sites qui ne nous permettent pas de faire ce mouvement seront fermés. Ceux par contre, qui permettent de le faire, comme TH2 à Paris, seront rénovés,

mais de manière très ambitieuse et très massive. On parle quand même de 80 millions d'euros à injecter sur ce site qui est plein. Alors, on va rajouter un espace à vendre. Mais la réalité, c'est que l'investissement que l'on fait, c'est d'abord et avant tout pour les clients existants, pour leur bénéfice, parce que ça leur permet d'avoir un meilleur impact énergétique et une meilleure efficacité pour leur propre IT, mais aussi une perspective de croissance toujours dans le même site. En plus dʼune réduction des risques opérationnels, cela nous permet à nous également de, encore une fois, prendre des virages technologiques qui sont nécessaires pour l'avenir de notre entreprise. Voilà finalement l'enjeu stratégique pour Telehouse autour des questions de rétrofit. Aujourd'hui, on estime que la moitié de notre activité sera liée à la mo-

dernisation de sites en exploitation. L'autre moitié sera la construction de nouveaux sites partout dans le monde, pas qu'en France.

Nous avons la chance d'avoir dans nos actifs un monument des télécoms et de l'internet en France. Et le mot monument est vraiment pesé ici.

Cʼest quand même un peu la Mecque des télécoms dont on parle là. Et sans ce site, très peu de trafic pourrait être acheminé entre un point A et un point B. Effectivement, ça fait peser une forme de responsabilité et ça nous oblige à ne pas commettre le moindre faux pas. Et on parle de 80 millions d'euros.

Cʼest un investissement important pour un rétrofit.

En effet, et ça aurait pu être beaucoup moins si j'avais pris la décision de l'éteindre, de le

rétrofiter, puis de le rallumer.

Cela m'aurait coûté un ordre de grandeur de 30 à 40 millions d'euros maximum. Mais nous avons choisi pour nos clients de maintenir le site en exploitation. D'accord, cela aurait été beaucoup plus facile, beaucoup moins coûteux pour nous de faire des travaux sans l'exploitation. Beaucoup, beaucoup, beaucoup plus facile. Mais effectivement, cʼest dans notre responsabilité de faire ces travaux en exploitation, avec zéro coupure pour les clients. Parce que ce monument des télécoms, non seulement mérite une nouvelle vie, une nouvelle jeunesse, l'adaptation à l'IA et aux nouveaux usages, mais il mérite également qu'on le respecte et quʼaucune fibre qui passe par ce site ne soit touchée pendant toute la durée des travaux.

TelehouseTH2VoltaireestleseconddatacenterdeTelehouseen France, à Paris, ouvert en 1999 - 25 ans ! Cʼest le cœur historique des télécommunications et des échanges de données en France.

Hub de connectivité de classe mondiale, Telehouse TH2 se classe dans le TOP 5 des Data Centers les plus connectés au monde.

Datacenter neutre, mais surtout carrefour des données, Telehouse TH2 offre un accès direct à plus de 750 opérateurs télécoms et FAI, et assure 54% du peering en France (source France-IX)

Performance, sécurité, résilience sont trois mots qui sont essentiels aujourd'hui sur le projet.

Clairement oui. La performance se mesure surtout au niveau du point de dégagement de CO2. Et puis sur la performance climatique, c'est-à-dire lerajoutd'unepuissanceʻfroidʼ qui permettra des extensions de certains espaces sur le site.

Donc, clairement, c'est là où on aura un RoI (retour sur investissement) pour nous et nos clients, qui sera de diviser par 24% ou 25% les émissions de CO2, diviser par un facteur de 35 la consommation de lʼeau, dʼaméliorer le PUE jusqu'à 1,49 alors qu'il est de un peu plus de 2 actuellement. Et puis, rajouter environ 600 kW d'espace vendable. C'est effectivement la performance que nous allons aller chercher. Concernant la résilience, cʼest pareil à partir du moment où lʼon passe à de la technologie dernier cri, à des niveaux de redondance et d'automatisation des processus de l'outil industriel et de sa maintenance. Nous allons gagner en résilience parce que ça sera plus fiable, parce que ce sera monitoré de manière plus automatisée, parce que nous aurons beaucoup moins de process manuels et que nous serons beaucoup plus dans la maintenance prédictive et dans la supervision avec des outils de pointe. Donc, clairement, avec cette résilience, et en passant d'une génération à une autre, nous faisons un saut quantique. Nous gagnons 25 ans d'âge tout de suite, donc forcément nous sommes plus résilients et plus sécurisés. Voilà les gains effectivement qui sont évidents pour les clients et pour le site, et qui sont un objectif sur ce projet.

Est-ce que tous les clients ont bien conscience de ce que vous leur apportez ?

Jʼavoue que non, les clients ont une seule problématique, actuellement en tout cas, c'est que ce ne soit pas coupé ! Quand je fais ce pitch au client de ce quʼon va faire, il me dit ok, mais est ce qu'on va être coupé ? Là, du coup, on insiste sur le fait que tout cela se fera en transparence, et que, bien sûr, ils ne seront pas coupés. Je pense que les gains d'un projet comme celui-ci ne seront visibles quʼaprès coup. Les gens ne se projettent pas dans les gains actuellement, ils se projettent dans le risque.

En matière de RSE, lʼimpact sera également important sur le Scope 3 de vos clients.

Effectivement, l'impact de ce projet sur le Scope 3 de nos clients est énorme. C'est-àdire quʼon apporte des améliorations à deux chiffres. D'abord, il ne faut pas que ça coupe, et après on parle du Scope 3. C'est pour cela que je pense que les clients vont l'apprécier plus tard, une fois qu'ils passent la phase de risque où ils ont un petit peu peur qu'il y ait des incidents. Ils pourront lire que le reporting s'est beaucoup amélioré. Comment cela se fait ? Et bien

là, on va leur ré-expliquer que, en fait, on a fait tout ça, et qu'effectivement il y a un saut quantique sur le Scope 3 des clients parce quʼon est plus efficace, parce quʼon émet moins de gaz à effet de serre, parce quʼon nʼutilise plus d'eau, parce quʼon partage la chaleur fatale, etc.

Ce rétrofit offre-t-il lʼoccasion dʼappréhender le virage de lʼIA ?

Clairement. L'un des objectifs du projet, au-delà de donner 25 ans d'âge de plus, donc une cure de jeunesse pour ce site, c'est de le préparer aux grands virages qui arrivent, surtout celui de l'IA. La traduction de l'IA pour nous est simple : c'est la capacité à densifier les racks.

Et donc là aussi, Voltaire permettra aux clients d'avoir des racks haute densité, voire très haute densité. Pour nous, l'anticipation est là. Après, quels usages, comment va se comporter l'IA? Honnêtement, on ne sait pas. On ne va pas non plus essayer de faire de la prospective qui nous dépasse. Par contre, nous saurons répondre très concrètement aux clients qui souhaitent avoir de

la très haute densité et même du HPC sur ce site Boulevard Voltaire. Et on pense que la valeur que lʼon crée va finalement être en mesure de répondre à des besoins de très très haute densité en plein centre de la ville, à côté des fibres. C'est une valeur qui est assez unique sur le marché. Je le redis, pour faire du HPC, pour faire de l'IA, les clients doivent s'éloigner beaucoup des centres villes. Grâce à ces travaux, les clients auront une solution de très haute densité, en plein cœur de la ville et au plus proche des fibres. Et on pensequeçaseraparticulièrement adapté aux besoins d'inférence pour l'IA. Alors, peutêtre pas pour l'entraînement des modèles, mais pour l'inférence, c'est certain. Il est impensable pour nous, quand on lance des travaux comme ceux-ci, de ne pas proposer de la très haute densité à nos clients. On veut pouvoir donner la possibilité à certains clients. Mais attention, ce ne seront pas des mégawatts et des mégawatts pour quelques racks…

Nouspensonsquelʼavenirde lʼIA sera dans des clusters, avec la création des modèles

dansdesdatacentersgéants, et lʼinférence sur des sites de proximité. Est-ce la vision de Telehouse ?

Effectivement, il va y avoir des clusters spécialisés en inférence. Je suis complètement d'accord. Mais ces clusters vont devoir être très très proches des centres de connectivité comme le nôtre, voire même incorporés dedans. C'est pour cela que lʼon réserve un espace IA dans ce nouveau TH2, parce quʼon pense quʼil sera nécessaire d'interconnecter ces clusters aux milliers d'utilisateurs qui sont fibrés, à TH2 quoi ! Encore une fois, c'est un peu la spécialisation que lʼon voit de plus en plus dans les datacenters. TH2 est voué à avoir un rôle clé dans l'inférence de l'IA auprès des clusters. Ce sera un écosystème qui va finalement s'interconnecter l'un à l'autre. On ne fera pas, par contre, d'entraînement de modèles. Clairement, ce n'est pas fait pour nous. Je trouve qu'il y a beaucoup de confusion, il n'y a pas assez de clarté finalement dans qui va faire quoi ?

Audrey CHESNAU

Un pilote sur le chantier

Audrey CHESNEAU a rejoint récemment Telehouse France au titre de Head of DC Operations. Elle supervise les importants travaux de modernisation du datacenter Telehouse TH2 Voltaire, lʼun des plus grands (7 000 m²), des plus anciens et des plus stratégiques datacenters de Paris.

Datacenter Magazine - Quel a été votre parcours avant de rejoindre Telehouse ?

Audrey CHESNEAU - Je suis diplômée de lʼEcole des Mines de Nantes, jʼai donc un bagage plutôt ingénieur, et jʼai fait beaucoup de conception. Mon expérience majeure a été chez Cap Ingelec, où je suis passée par différents postes : ingénieur conception, dans un premier temps avec une dominante plutôt CVC, puis responsable commissioning, encore une fois sur des projets de

conception et de réalisation, puis chef de projet, sur des projets allant jusqu'à 40 millions d'euros. Je travaille dans lʼenvironnement de Telehouse depuis 2018, sur des projets en conception et réalisation comme Léon Frot [adjacent de 4 500 m² de surface IT de Telehouse Paris 2], puis ensuite sur Magny avec toute la partie direction de projet.

Quels sont les principaux défis techniques rencontrés dans le cadre de ce projet de travaux à TH2 ?

Nous sommes en train de rénover une grande partie de nos infrastructures sur TH2, avec un gros axe sur la climatisation, avec un système de refroidissement, mais également en électricité. En termes de bénéfices, ces travaux portent sur l'amélioration de la fiabilité, avec des installations plus fiables, donc, mais également plus redondantes, avec des installations plus modernes, et de gagner également en efficacité énergétique.

Ce site a été lʼun des tout premiers implantés par Telehouse, avec un historique long et riche. Qu'avez vous trouvé lorsque vous êtes entrée sur ce chantier ?

Pas de surprise, quand je suis arrivée, c'est un projet d'envergure sur un site en exploitation. Donc forcément, les complexités et la difficulté d'intervenir, en termes de co-activité, la difficulté technique et les risques associés sont présents sur ce type de projet.

Dʼailleurs,ilfautrappelerque malgré le chantier, le site ne sʼarrête pas, la gestion, la maintenance et la continuité de service nʼont pas dʼinterruption.

Oui, tout à fait. On va dire quʼil y a deux types de défis. Le premier est plutôt de type organisationnel. Nous sommes sur un site en plein cœur de Paris, qui plus est en exploitation. Nous allons donc mener des opérations complexes de type manutention, avec une grue Boulevard Voltaire en terrasse. Donc, forcément, ce sont des opérations qui sont plus complexes que sur d'autres sites. Lorsqu'on part d'un terrain vierge, par exemple, on a des espaces contraints sur site. Néanmoins, il faut trouver pour les travaux des espaces, pour

“Laviedusitecontinue danssonintégralité,et on vient ajouter ces travaux, ce qui rend la complexité de ce projet.”

la partie stockage, la base vie des compagnons, etc. Cela reste des difficultés auxquelles on s'attendait, mais auxquelles il faut répondre. Il y a égalementunpointdevueorganisationnel et co-activité, puisque les travaux ont lieu dans des zones qui sont utilisées quotidiennement. Donc, il faut gérer la co-activité à la fois avec les clients, à la fois avec le personnel. Donc à la fois Telehouse ainsi que des prestataires qui interviennent tous les jours, et à la fois les entreprises de travaux. Donc ça, c'est plutôt sur la partie organisationnelle. Et après, bien évidemment, le plus gros de notre défi est technique. Il est lié aux risques, puisque l'on mène effectivement les travaux sans interruption de service sur nos infrastructures techniques en pleine exploitation.Aveccommeobjectif,bien évidemment, de maintenir le niveau de service des clients.

Dans le cadre du projet, nous allons rénover l'intégralité de la partie chaîne de refroidissement. On va remplacer l'intégralité de la production frigorifique. Nous mettons en place des groupes plus respectueux de l'environnement, sur différents aspects. Il y a à la fois le remplacement, en utilisant un mix de technologies, avec de la condensation par air et de la condensation par eau avec des systèmes adiabatiques. Également, les nouveaux groupes que l'on met en place possèdent des gaz à faible impact. C'est un premier point, qui concerne la partie production frigorifique. Toujours dans la partie système de refroidissement, on vient remplacer l'intégralité de la distribution frigorifique, donc la partie production vers les salles informatiques. Cela permet encore une fois de la fiabiliser, et puis d'y ajouter des réseaux de récupération de chaleur. Enfin, côté terminal, côté salle informatique, on vient remplacer les armoires de climatisation situées en salle. Donc vraiment travailler de la production jusqu'à la distribution en salle.

La part la plus importante de ces travaux porte sur le refroidissement. Pouvez-vous nous en parler ?

Nous parcourons une période où explose un domaine, celui de l'IA et de la puissance des serveurs. Avezvous intégré cette dimension?

Oui, on a intégré cette dimension puisque dans le cadre du projet, il y a également deux autres axes : le premier, c'est que l'on vient également ajouter une nouvelle voie électrique, notamment pour la partie utilities. Et au terme de ce projet coding, nous aurons également la création d'une nouvelle salle informatique pour 600 kW IT. Donc, on pourra intégrer ces nouveaux besoins. Et le DLC (Direct Liquid Cooling) est envisagé.

Qu'attendez-vous en termes de résultats avec ces nouvelles approches du refroidissement ?

Nous allons avoir différents types de bénéfices. Également sur la partie clients puisque

l'on va avoir un gain en efficacité énergétique. Ce gain là, nous l'aurons à la fois côté clients mais également côté exploitation. On va pouvoir garantir une exploitation plus pérenne et l'amélioration de la fiabilité de nos infrastructures. C'est important pour nous et pour nos clients. Soit on vient renouveler chacun de nos systèmes, soit on vient y apporter de la redondance. Ce sont des éléments qui sont importants pour nous, en exploitation, mais également pour nos clients.

Qu'est ce qui a été fait au niveau électrique ?

Tout dʼabord, nous avons la puissance électrique disponible sur site. Et nous sommes

sur de la redondance assez classique sur la nouvelle salle informatique. L'ajout de la voie électrique est principalement liée à nos installations existantes. Après, la partie alimentation électrique de la nouvelle salle informatique aura la redondance globale du site. Ce sera un design de site classique.

Quelles compétences et métiers avez-vous réunis sur ce chantier ?

Aujourd'hui, sur la partie compétences pour cette typologie de projet, nous avons fait confiance à des partenaires européens et français, et aux élus locaux dont l'expertise a déjà été prouvée auparavant.

“Le PUE (Power Usage Effectiveness) du site sera significativement amélioré, passant de 2,03 actuellement à 1,5. Par ailleurs, la consommationd’eauannuellepasserade36000m³àmoinsde1000m³ pour un WUE (Water Usage Effectiveness) proche de 0, grâce à l’utilisation de refroidisseurs adiabatiques. Les émissions carbone serontréduitesde25%.”

Concernant les métiers, nous avons trois gros domaines, que lʼon va dire principaux. Le premier, c'est la partie gros œuvre, forcément puisque lʼon vient fiabiliser, mettre de nouveaux équipements, créer une nouvelle salle. Il y a de la structure qui va avec. Il faut renforcer au niveau des planchers, etc. C'est un aspect important. On a souvent tendance à penser à toutes les infrastructures techniques, CVC, climatisation, mais la partie gros œuvre arrive souvent en amont et elle est très importante. Ensuite, les deux domaines où on a besoin de compétences fortes, c'est la partie électricité et la partie climatisation, puisqu'on vient intervenir sur des infrastructures existantes et en exploitation.

Comment s'assurer de la sécurité des infrastructures critiques pendant ces travaux ?

Il y a différents axes, différents volets également. Dans un premier temps, on va s'assurer que la partie qualité des études d'exécution est aboutie et de qualité, et on s'appuie sur une synthèse 3D. Ça nous permet en fait d'anticiper le plus en amont possible et de résoudre les problématiques avant d'aller réellement sur site réaliser ces travaux. Ensuite, sur la partie vraiment opérationnelle, il y a des modes opératoires qui sont

élaborés entre les entreprises et les équipes internes de Telehouse. Nous mettons également en place une organisation humaine qui a adopté et qui est adaptée à la criticité des interventions. Enfin, le dernier axe sur lequel nous travaillons, c'est le phasage des travaux. Le fait de séquencer nos différents travaux. Cela va nous permettre de conserver la fiabilité du site au fur et à mesure des travaux. On ne peut pas aujourd'hui remplacer l'intégralité des réseaux de la production simultanément. Sinon, on perdrait la fiabilité du site. Donc ce séquençage, ce phasage nous permet également de diminuer les risques sur les travaux.

Vous venez dʼévoquer la synthèse 3D. Cela veut-il dire que vous avez créé un jumeau numérique du futur datacenter ?

Le jumeau numérique concerne plutôt la partie efficacité énergétique. Aujourd'hui, tous les relevés ont été réalisés et on travaille avec lors des études d'exécution, avec un logiciel 3D, qui nous permet en fait quasiment au centimètre près de valider le positionnement des futurs réseaux, des supportages de chaque organe. En fait, ce qui va être positionné demain sur site. Cela nous permet vraiment d'anticiper au maximum les problèmes, s'il y a des problèmes de passage, de les résoudre dans un premier temps sur une synthèse 3D plutôt que sur chantier.

Ce qui amène à dire que le phasage des travaux a nécessité une très forte anticipation, de manière à ce que vous maîtrisiez parfaitement les interventions des différentes équipes.

Oui, tout à fait. Il y a un ordonnancement qui est réalisé depuis le début des projets. L'ordonnancement évolue quasiment tous les jours, parce qu'on a vraiment besoin de sécuriser chacune des interventions. Et donc on s'adapte tous les jours à ce qu'on peut rencontrer comme problématiques, que ce soit à la fois au niveau des études d'exécution, mais également à la fois des travaux, des interventions qu'on peut réaliser sur site.

La contrainte du zéro incident, que nous avons évoquée avec Sami Slim, doit être forte pour vos équipes ?

Oui, tout à fait. Nous avons les équipes qui sont mobilisées, l'organisation qui est mise en place avec des rôles bien définis par personne. Donc, il y a cette partie ordonnancement pilotage qu'on doit gérer puisqu'on a énormément d'interlocuteurs également en face de nous, à la fois côté travaux, prestataires, multitechniques.

On a une diversité d'intervenants, donc on doit piloter toutes ces interfaces.

Nous avons lʼimpression que sur ce chantier on atteint un sacré niveau de complexité…

Quelles expériences pouvezvous partager avec nous ?

Ce chantier doit mettre une sacrée pression sur vosépaules?
“Non,

pas spécialement. Le projet était connu auparavant, avec des difficultés également connues sur un système d'exploitation. Donc non, on fait pour ne pas avoir la pression. On fait le maximum en amont pour préparer, anticiper, bien communiquer. Et

c'est comme ça qu'on n'a pas lapressionauquotidien.”

La complexité vient des interventions que l'on peut avoir en site occupé. La co-activité que l'on a avec nos clients, ça fait vraiment beaucoup de personnes alors que nous continuons une exploitation classique du site, dans chacune des zones, que ça soit les data centers, les bureaux, lʼaccueil. Nous avons des permis feu complémentaires à donner, des surveillances supplémentaires sur des zones, et cela vient vraiment modifier le quotidien de tout le monde. C'est vraiment ça je pense qui en ressort. On vient vraiment modifier le quotidien de tout le monde, et on fait tout pour autant pour limiter les impacts, avoir une communication adaptée, prévenir à la fois les

clients, mais également en interne nos prestataires, tous ceux qui vont être touchés et qui sont dans notre environnement proche.

Et vous même, à titre personnel, qu'avez-vous appris sur ce chantier ?

J'ai principalement travaillé sur des projets. Dernièrement sur un projet effectivement sur terrain vierge sur le site de Magny. Nous avons fait la réhabilitation de Léon Frot. Cela m'a permis d'appréhender énormément de notions de risques. Si on reprend Léon Frot, c'était une réhabilitation dʼanciens bâtiments de bureaux. Structurellement, on a eu des grosses problématiques d'un point de vue conception, réalisation. Il y avait l'environnement urbain qu'on retrouve aujourd'hui sur cette typologie de projet. Et également, c'est un projet qu'on a fait en quatre phases. Ça implique que sur la première phase, on a pu travailler, on va dire de manière assez libre, puisqu'on n'avait pas de client en salle, mais les trois phases d'après, on avait exactement les mêmes contraintes. On a dû anticiper au maximum pour prévoir en 3D, prévoir les attentes nécessaires pour venir rajouter des groupes supplémentaires. Il y a toute cette partie un peu en

amont des études d'exécution et de synthèse. Et puis il y a cette même notion de risque qu'on a sur le projet avec des clients qui sont présents, envers lesquels on doit communiquer et qu'on doit sécuriser d'unpointdevuefiabilitéd'installation. Enfin, il y a une forte analogie, en tout cas entre ces deux projets, le fait de venir ajouter un système, le tester et une fois que Telehouse valide ce test, là c'est important. On peut venir décommissionner les équipements existants. Donc c'est ça, les plus grosses parties du projet, et les plus grosses difficultés.

Nous avons évoqué avec Sami SLIM la relation avec les clients. Comment se passe-t-elle avec vous qui dirigez le chantier ?

Ça se passe très bien. Nous avons en parallèle des services qui échangent directement avec les différents clients. Dans notre pilotage de projet, nous communiquons tous les éléments nécessaires sur les interventions à venir à huit semaines, le planning général jusqu'à la fin du projet, les interventions à risques qui sont logées toutes les huit semaines. Il n'y a pas de problématique, je dirais que cela fait partie de notre communication.

Vous venez dʼévoquer la notion de risques...

Nous avons établi une analyse de risques. Mais nous avons mis en face les moyens qui permettent de répondre à ce niveau de risques. Une fois que toutes ces choses sont mises en place, l'analyse de risques, la matrice de risques par rapport à chacune des procédures, des interventions, avec qui on touche, qui on doit prévenir, etc., une fois que toute cette matrice, ce processus est mis en place, cette méthodologie déroule dès qu'on a une nouvelle intervention à venir. On prévient les personnes qu'on doit prévenir, on transmet les plannings, les modes opératoires qu'on fait valider. Là dessus, en termes de pilotage, c'est vraiment beaucoup de communication.

Est-ce que vous intégrez dans ce rétrofit des capacités à appréhender un futur dont on ne sait pas jusqu'où onvaallerentermesdepuissance, d'équipement, etc. ?

Par exemple lʼIA.

C'est tout l'objet aussi du rétrofit. On gagne en fiabilité, on remplace certains équipements, mais on a également une vision long terme. On se projette, et pas uniquement à la fin du projet. Est-ce qu'on

sera en mesure de répondre aux besoins du client ? Nous avons une vision long terme et de ce qu'on met en place qui nous permettra de répondre aux besoins dans le futur. Ce qui peut être fait selon différents axes : ce peut être de mettre en attente certains réseaux en vue du DLC, de la récupération de chaleur, ou autre. Mais en tout cas, nous avons cette vision effectivement à long terme.

Baies et confinement

Les baies (racks)

Les baies (racks) sont des cadres dans lesquels prennent place divers équipements, cʼest pourquoi on les trouve dans de nombreux domaines, lʼinformatique, les télécoms, la santé, le commerce, lʼindustrie, etc. Dans ce document, nous ne nous intéressons quʼaux baies informatiques dans les data centers.

Quʼil sʼagisse dʼarmoires fermées ou de racks ouverts, les baies sont des éléments essentiels de l'infrastructure physique des data centers, exploitées pour stocker, organiser et sécuriser des équipements informatiques de diverses tailles, serveurs, sto-

ckage de données, réseaux (routeurs et commutateurs), électriques (onduleurs et batteries) et autres équipements destinés aux salles informatiques. Elles sont en métal et peuvent être dotées de fonctionnalités intégrées, comme des systèmes électriques (PDU) ou de refroidissement, ou encore de sécurité (portes et serrures). Les armoires/ racks fermés devraient représenter la part de marché majeure des baies de data centers, les boîtiers verrouillés garantissant la sécurité physique des équipements.

Lʼexplosion des services numériques, télécoms, Internet,

cloud, IoT (Internet des Objets), etc., sʼaccompagne de lʼexplosion du trafic de données, ce qui se traduit par la multiplication des équipements électroniques et informatiques, et lʼextension des infrastructures de data centers où ils sont stockés. Et donc, le marché des baies suit au même rythme. Sʼy ajoute aujourdʼhui lʼimpact de lʼIA (Intelligence Artificielle), qui nécessite des équipements plus denses, avec plus de puissance électrique et plus de refroidissement, et donc de privilégier des infrastructures informatiques plus innovantes et durables, avec des racks spécialisés capables de prendre en charge une infrastructure de calcul et de stockage à haute densité.

Les tendances sur les baies informatiques

Au-delà de lʼexplosion des volumes de données, les opérateurs de data centers adoptent des racks haute densité pour accueillir davantage de puissance de calcul dans des espaces plus petits. Cette tendance est principalement motivée par le besoin d'efficacité énergétique et d'optimisation de l'espace, dʼabord chez les hyperscalers, et de plus en plus dans tous les espaces de

Une unité de rack (U) où 1U équivaut à environ 1,75 pouces (44,45 mm) de hauteur.

data centers, de colocation, dʼhébergement, privés et edge. Pour réduire les coûts opérationnels, les racks sont conçus pour optimiser le flux d'air et l'efficacité du refroidissement. Mais les infrastructures de dernière génération, de type HPC (calcul) avec des racks haute densité par exemple, génèrent plus de chaleur, nécessitant des solutions de refroidissement robustes, qui présentent un défi pour équilibrer les besoins en énergie et en refroidissement sur les racks. Lʼadoption du DLC (Direct Liquid Cooling) risque fort dʼaccentuer cette tendance.

• Hauteur

Question taille, les racks de 40U et moins sont considérés comme plus efficaces en termes d'espace et parfaitement adaptés aux environnements où l'espace disponible au sol est limité, notamment les petites salles de serveurs ou les placards de bureau. Ces racks sont moins chers et nécessitent moins d'espace physique que les plus grands, ce qui se traduit par des coûts de construction et d'exploitation inférieurs. Pour autant, la tendance va aussi vers les racks de 41U à 50U, les plus vendus en 2023, en particulier les racks 42U dotés de mécanismes de verrouillage avancés et d'autres fonctionnalités de sécurité pour protéger l'équipement contre tout accès non autorisé, ajoutant une couche supplémentaire de sécurité physique. Les entreprises peuvent obtenir une densité et une consolidation d'équipement plus élevées en utilisant un rack 42U (la norme en 2023), minimisant le besoin d'unités de rack supplémentaires et optimisant l'utilisation

de l'espace.

Les racks 45U et 48U offrent quant à eux l'espace vertical supplémentaire nécessaire pour héberger des serveurs, du stockage et des réseaux haute densité, maximisant l'utilisation de l'espace au sol disponible. Ces racks plus hauts améliorent l'efficacité opérationnelle en réduisant le nombre d'allées et en optimisant la gestion du flux d'air, ce qui est essentiel pour maintenir un refroidissement et une efficacité énergétique optimaux. Les racks 50U et plus doivent faire face à une difficulté majeure, celle de la manipulation des équipements en hauteur…

• Largeur

Côté largeur, le segment des 19 pouces représentait la plus grande part de marché en 2023. En raison de sa compatibilité avec divers matériels informatiques, de télécommunications et dʼalimentation, la largeur 19 pouces est depuis devenue la référence du secteur pour les équipements montés en rack. Elle lʼétait pour tous les domaines de lʼin-

dustrie depuis 1930 ! Cette compatibilité universelle facilite l'intégration et le déploiement de différents types d'équipements, garantissant ainsi que les data centers peuvent maintenir une flexibilité et une évolutivité opérationnelles. De plus, la largeur de 19 pouces est préférée pour son efficacité spatiale, permettant aux data centers de maximiser leur espace au sol disponible tout en s'adaptant à une densité d'équipement élevée.

Mais la tendance du marché dans les prochaines années pourrait se tourner vers des largeurs de 21 et 23 pouces. Cʼest en tout cas le choix des hyperscalers. Ces racks offrent des capacités de gestion de l'espace et des câbles améliorées, s'adaptant à des configurations d'équipements plus grandes et plus complexes. Du côté des hyperscalers, la tendance est aux racks de 21 pouces, popularisés par lʼOCP (Open Compute Project), afin dʼaméliorer l'efficacité énergétique, le flux d'air et la flexibilité, et dʼoffrir une meilleure efficacité de refroidissement,

répondant aux défis de gestion thermique associés aux environnements informatiques à haute densité.

• Profondeur

L'essor des infrastructures de cloud, la demande en serveurs plus denses et plus puissants ont conduit à une augmentation de la profondeur des racks. De 24 à 31,5 pouces à lʼorigine (600 mm à 800 mm), la profondeur standard des racks dans les data centers modernes varie généralement entre 39 à 47 pouces (1000 mm et 1200 mm). Ces racks offrent plus de place pour les serveurs à haute densité intégrant plus de composants, une meilleure gestion des câbles, et des dispositifs de refroidissement plus efficaces. Mais là aussi lʼavenir, emmené par les hyperscalers, devrait amener à une profondeur encore plus grande, avec des racks de 1200 mm à 1500 mm conçus pour une plus grande flexibilité en profondeur, avec des sections ajustables selon les besoins en refroidissement et en gestion des câbles.

Des solutions plus compactes en hauteur et en largeur mais plus profondes devraient permettre de maximiser la densité de calcul et de GPUs.

• Modularité

Les baies dans les data centers sont également de plus en plus modulaires, pour offrir une évolutivité facilitée. Elles peuvent être ajustées ou ajoutées au fur et à mesure que les besoins en infrastructure augmentent. Cette approche simplifie l'adoption ou le retrait d'équipements selon les besoins, en s'alignant sur l'évolution des exigences commerciales. Les racks modulaires sont équipés de solutions de gestion des câbles plus efficaces pour réduire l'encombrement, améliorer la circulation de l'air, mais aussi simplifier les manipulations. Ce qui contribue à optimiser les performances des data centers. Certaines baies modulaires peuvent être livrées configurées avec des sys-

tèmes de refroidissement, de gestion dʼénergie, et de sécurité. Elles sont particulièrement utiles pour les installations rapides dans des data centers en expansion ou pour des edge data centers.

Attention cependant, l'instabilité géopolitique, les pénuries de matériaux, la volatilité macroéconomique, les retards de fabrication et les goulots d'étranglement dans les transports ont un impact sur la disponibilité et le coût des racks de data center. Lʼintégration et lʼinstallation de nouveaux racks nécessitent également de répondre aux exigences de personnalisation, de complexité et de rapidité imposées par les clients. Les fournisseurs capables dʼaccompagner les processus dʼurbanisation des salles informatiques, de personnaliser les équipements et de livrer et installer le tout dans des délais rapides, ont un carte à jouer. Sans oublier la nécessité de disposer d'un personnel

qualifié pour gérer le déploiement et la maintenance des racks.

L’efficacité et l’intelligence viennent au rack

Les baies pour data center sont des structures qui offrent plus de protection, de sécurité et de modularité. Et de nombreux équipements viennent les compléter pour les rendre plus efficaces.

Lʼun des principaux défis dans la gestion des baies est de maintenir un flux dʼair optimal pour éviter la surchauffe des équipements. De nombreuses innovations ont été créées pour améliorer la circulation dʼair dans les racks. Les obturateurs d'allée froide bloquent les espaces non utilisés dans les racks pour empêcher l'air chaud de circuler dans les zones de refroidissement. Des panneaux obturateurs ajus-

tables modulaires peuvent être adaptés en fonction de la disposition des équipements dans le rack, optimisant ainsi la séparation des flux dʼair chaud et froid.

Une gestion efficace des câbles est cruciale pour maintenir l'ordre et l'accessibilité dans un data center, tout en réduisant le risque de surchauffe et de panne. Situés à lʼarrière des racks, les bras de gestion des câbles permettent de les regrouper en fonction de leur type et de guider les câbles réseau et d'alimentation pour éviter lʼencombrement et les nœuds, et faciliter la maintenance. Quant aux panneaux de gestion des câbles, souvent installés à l'avant ou à l'arrière des racks, ils permettent de fixer et de ranger les câbles de manière ordonnée, évitant toute obstruction du flux dʼair.

Le PDU (Power Distribution Unit), dernier maillon de la chaîne d'alimentation électrique, se présente sous la forme dʼun bandeau de prises électriques. Il est conçu pour gérer la distribution d'énergie via des dispositifs dʼalimentation les équipements IT. Il permet une gestion efficace de lʼalimentation et il est souvent équipé de dispositifs de mesure et de surveillance énergétique.

La gestion thermique dans la baie repose sur des équipements comme les panneaux passe-câbles obturants. Certains racks sont équipés de systèmes de surveillance intégrée de la consommation dʼénergie, qui permettent de mesurer en temps réel la consommation électrique des équipe-

ments, aidant à optimiser lʼefficacité énergétique et à identifier les équipements sous-utilisés.

La sécurité et la protection des équipements dans les baies est également une préoccupation majeure dans les data centers. Elles sont de plus en plus équipées de serrures intelligentes, qui permettent un contrôle dʼaccès sécurisé via des badges, des codes PIN, ou des systèmes biométriques. Ces serrures peuvent être connectées à des systèmes de gestion centralisés pour surveiller lʼaccès à distance. Certains racks sont équipés de solutions de protection contre lʼincendie, comme des systèmes de détection de fumée et des dispositifs dʼextinction automatiques. Il existe également des baies blindées qui offrent une protection physique accrue contre les incendies, les inondations et même les attaques physiques.

Une baie intelligente est équipée de capteurs pour surveiller en temps réel des paramètres clés : la température, lʼhumidité, le flux dʼair et la consommation dʼénergie. Ces données sont transmises à un système de gestion d'infrastructure de data center (DCIM) pour optimiser les performances. Les systèmes DCIM permettent de surveiller et de gérer lʼensemble des ressources du data center en temps réel. Cela inclut la surveillance de lʼénergie, de la température, de la sécurité et de la capacité. Avec les données collectées par lescapteurs,cessystèmespeuventautomatiquement ajuster les paramètres de refroidissement ou signaler des problèmes, optimisant ainsi les opérations du data center.

Les PDU

Les PDU (Power Distribution Units) sont des composants essentiels dans les baies des data centers. Ils permettent de distribuer lʼélectricité aux équipements IT, et l'efficacité, la gestion de l'énergie et la sécurité des infrastructures informatiques en dépendent en grande partie. Ces unités sont devenues de plus en plus intelligentes et sophistiquées pour répondre aux besoins croissants des data centers modernes.

De base, le PDU fournit une distribution d'énergie sans fonctionnalités avancées. Il distribue simplement l'alimentation électrique à plusieurs équipements à partir d'une seule source d'alimentation. Équipé de capteurs, le PDU mesure et affiche la consommation d'énergie en temps réel au niveau de lʼunité, fournissant une visibilité sur la consommation totale du rack, ce qui aide les gestionnaires à optimiser la charge électrique et à éviter les surcharges. Les PDU intelligents offrent des capacités de surveillance et de gestion avancées, permettant de surveiller lʼalimentation électrique au niveau des prises individuelles et de contrôler lʼalimentation à distance via une interface réseau. Les PDU intelligents peuvent également signaler des anomalies telles

que des surcharges ou des interruptions de courant. Avec la surveillance à distance via des systèmes de gestion de lʼinfrastructure (DCIM), ils offrent une visibilité complète sur la consommation d'énergie, l'état des équipements, et la distribution de la charge électrique, surtout dans les environnements de haute densité et critiques où la gestion fine de lʼalimentation est cruciale. Enfin, commuté (Switched PDU), le PDU permet dʼallumer ou dʼéteindre à distance les prises individuelles, ce qui permet de redémarrer un serveur ou un équipement à distance sans avoir à intervenir physiquement dans le data center.

L’innovation dans les PDU intelligents

Les PDU sont lʼobjet de plusieurs axes dʼinnovation. En matière de sécurité, par exemple, les PDU modernes intègrent des protections contre les surtensions pour éviter les dommages aux équipements en cas de variations de tension. Également, les PDU commutés et intelligents peuvent être configurés pour restreindre l'accès à certaines prises via des systèmes dʼauthentification (comme des codes PIN, cartes magnétiques, ou même des accès via le réseau). Ces PDU intelligents peuvent être connectés à un réseau pour être gérés à distance via des protocoles standards (SNMP, HTTP/ HTTPS, Telnet, SSH).

Pour autant, les innovations dans les PDU modernes proviennent principalement des données collectées en temps réel qui permettent dʼidentifier des tendances de consommation énergétique, facilitant la planification future des besoins en alimentation et en refroidissement. Ces PDU intelligents offrent une surveillance avancée et granulaire de la

consommation dʼénergie, de la puissance en kilowatts (kW), de la tension, du courant (ampères) et du facteur de puissance. Cela aide à identifier les points de surconsommation et à optimiser lʼefficacité énergétique du data center.

Certains PDU intelligents peuvent rééquilibrer la distribution de lʼalimentation pour éviter les surcharges sur certaines prises ou groupes dʼap-

pareils, une gestion de la charge qui garantit une utilisation optimale de lʼénergie disponible. Ces PDU sont aussi conçus pour maximiser lʼefficacité du facteur de puissance, minimisant les pertes énergétiques. Des options de redondance d'alimentation avec des entrées doubles (A/B) permettent aux équipements critiques d'être connectés à deux sources d'alimentation distinctes. Si lʼune des sources

échoue, lʼautre prend le relais automatiquement. En cas de panne d'une source d'alimentation, le basculement automatique garantit que les équipements connectés continuent de fonctionner sans interruption.

Autre innovation, le contrôle thermique et la gestion de la chaleur. Certains PDU intelligents intègrent des capteurs pour surveiller non seulement lʼénergie, mais aussi la température et lʼhumidité au niveau du rack. Cela permet une gestion thermique plus fine et la détection précoce des conditions à risque (surchauffe, humidité excessive). En optimisant la distribution de la charge électrique et la consommation dʼénergie, ces PDU contribuent à réduire la chaleur dégagée par les équipements, apportant une gestion du flux dʼair pour optimiser l'efficacité des systèmes de refroidissement.

Pour fournir des informations détaillées sur la consommation d'énergie, optimiser la capacité des racks, et planifier les besoins futurs, les PDU doivent s'intégrer aux systèmes de gestion dʼinfrastructure de data center (DCIM). Cʼest ainsi quʼils offrent la possibilité de surveiller et de contrôler les PDU à distance, ce qui est essentiel pour les grands data centers comme pour les infrastructures complexes ou distribuées, réduisant le besoin d'interventions physiques en aidant à prévenir les pannes et à réduire le temps d'arrêt des équipements critiques.

Le confinement

Les technologies de confinement dans les data centers visent à optimiser l'efficacité énergétique et à améliorer le refroidissement en séparant les flux d'air chaud et d'air froid. Elles sont devenues essentielles pour répondre aux exigences croissantes en matière de consommation d'énergie, de réduction des coûts opérationnels et de respect des normes environnementales.

Le confinement en allées chaudes (Hot Aisle Containment) consiste à isoler l'allée chaude où l'air chaud est expulsé par les

équipements informatiques. Dans la configuration de confinement en allées froides (Cold Aisle Containment), l'air froid est isolé dans l'allée froide où les équipements informatiques aspirent l'air pour leur refroidissement. Dans les deux cas, le système empêche un flux dʼair de se mélanger avec lʼautre, de le contaminer, ce qui améliore l'efficacité du refroidissement, et permet également de réguler la température de manière plus précise. L'air froid est généralement distribué à travers un plancher surélevé, via des ouvertures (grilles) placées

stratégiquement, tandis que lʼair chaud sʼévacue par lʼarrière des serveurs et vers le haut. Le confinement peut également se décliner par cabine ou capsule (Rack-Based Containment), chaque rack étant équipé d'un confinement individuel. Mais si cette approche peut être considérée comme plus flexible, avec des modules configurables qui peuvent sʼadapter à différents environnements de data centers, elle se révèle moins performante en termes de refroidissement global par rapport aux confinements complets d'allées.

Avantages du confinement des data centers

Les avantages du confinement sont :

• La réduction de la consommation énergétique : en isolant les flux d'air chaud et d'air froid, le besoin de refroidissement est réduit, diminuant ainsi la consommation énergétique globale.

• Lʼamélioration de l'efficacité thermique : la température des serveurs est mieux contrôlée, évitant ainsi les surchauffes ou les inefficacités dans le refroidissement.

• Lʼaugmentation de la durée de vie des équipements : une meilleure gestion de la température permet de maintenir des conditions idéales pour les serveurs, prolongeant ainsi leur durée de vie.

Le principal inconvénient du confinement porte sur des considérations de coût et de restructuration, lʼinstallation peut être coûteuse et nécessite souvent une restructuration importante des infrastructures existantes, mais le RoI rapide vient largement le compenser.

RoI (retour sur investissement) du confinement

Qu'il s'agisse d'allées chaudes ou froides, le confinement permet de mieux contrôler la distribution de l'air et de réduire la charge sur les systèmes de refroidissement, ce qui se tra-

duit par des économies directes sur la consommation d'électricité des systèmes de climatisation.

Le confinement peut réduire la consommation énergétique de 20 % à 40 %, selon la configuration initiale du data center et le type de confinement mis en

place. Quant à lʼindicateur PUE (Power Usage Effectiveness), qui mesure l'efficacité énergétique des data centers, il peut être sensiblement amélioré. Une amélioration du PUE de 1,8 à 1,4 est souvent réalisable, ce qui signifie une utilisation plus efficace de l'énergie pour alimenter les équipe-

ments IT par rapport aux systèmes de refroidissement.

Les coûts de refroidissement peuvent représenter une part importante des dépenses opérationnelles dʼun data center. Le confinement permet de maintenir une température ambiante plus stable et réduit la surchauffe, ce qui allonge la durée de vie des systèmes de refroidissement et des serveurs. La diminution des coûts d'exploitation est également sensible, la réduction de la dépendance aux systèmes de climatisation (ventilation, refroidisseurs, etc.) permet aux data centers de réaliser des économies annuelles de 20 % à 30 % sur les coûts d'exploitation liés au refroidissement.

Si nous manquons dʼinformations sur le RoI associé à la flexibilité et à la modularité, on notera que les solutions de confinement modulaires modernes permettent dʼoptimiser les coûts initiaux et dʼaméliorer progressivement l'efficacité énergétique en fonction des besoins spécifiques. Une installation progressive réduit les dépenses initiales en étalant lʼinvestissement tout en

maximisant les gains d'efficacité dès les premières étapes.

Le confinement peut aussi contribuer à réaliser des économies indirectes. Comme de réduire des interruptions de service, moins de pannes dues à la surchauffe signifie moins de temps d'arrêt, ce qui améliore la disponibilité du service. Ou de réduire la maintenance, des températures plus stables réduisent le besoin de maintenance des systèmes de climatisation, entraînant des économies supplémentaires sur les coûts de support technique.

Enfin, le confinement permet de maintenir les serveurs à une température plus constante et adéquate, ce qui réduit le risque de pannes dues à la surchauffe. Cela prolonge la durée de vie des équipements IT. En maintenant une température stable, les serveurs et autres composants critiques du data center fonctionnent dans des conditions optimales, prolongeant leur durée de vie de 2 à 5 ans, selon les estimations, entraînant moins de remplacements d'équipement.

Le RoI des baies, des PDU et du confinement

Les baies jouent un rôle crucial dans lʼoptimisation de lʼespace, la gestion thermique, et la densité des équipements dans les data centers. Leur RoI est généralement évalué en fonction de la manière dont ils permettent d'optimiser l'efficacité opérationnelle, d'augmenter la capacité, et de prolonger la durée de vie de l'infrastructure. Il est influencé par la densité accrue des équipements. Les racks à haute densité permettent de maximiser lʼutilisation de lʼespace dans les data centers, en hébergeant plus de serveurs et d'équipements par mètre carré. Cʼest ainsi par exemple que lʼaugmentation de la densité

permet de retarder ou d'éviter la construction dʼun nouveau data center ou lʼexpansion dʼun centre existant, générant des économies importantes. Lʼintégration des systèmes de gestion de lʼair, comme des panneaux obturateurs, améliore la circulation dʼair et réduit les besoins en refroidissement, ce qui réduit la consommation dʼénergie liée à la climatisation, avec une économie substantielle à long terme. Quant aux coûts de maintenance, ils profitent des systèmesmodulairesquifacilitent lʼinstallation et la maintenance des équipements, ainsi que les gestes de proximité, réduisant les temps dʼarrêt et les coûts

de main-dʼœuvre associés aux interventions techniques.

• La mise à niveau des racks peut entraîner des économies dʼespace et dʼénergie significatives. Si les racks haute densité et modulaires peuvent coûter plus cher à lʼachat, les économies sur les coûts d'exploitation permettent de réaliser un RoI positif en 3 à 5 ans.

Du côté des PDU, leur RoI dépend de leur capacité à réduire les coûts énergétiques et à améliorer l'efficacité opérationnelle. La surveillance détaillée de la consommation électrique, lʼidentification des

surconsommations ou des équipements sousutilisés, et lʼoptimisation de la répartition de lʼénergie par les PDU intelligents contribuent à réduire le gaspillage énergétique, ce qui diminue les factures d'électricité. Les PDU intelligents et commutés permettent de contrôler les équipements à distance, réduisant les coûts liés aux interventions physiques dans le data center et améliorant la réactivité en cas de problème technique. En surveillant de près la charge électrique et en détectant les surcharges potentielles, ils réduisent le risque de panne et augmentent la disponibilité des équipements, ce qui améliore la continuité des opérations.

• Grâce à l'optimisation énergétique et à la réduction des coûts de maintenance, les PDU intelligents peuvent offrir un retour sur investissement rapide, de 1 à 3 ans. Les économies dʼénergie directes et la réduction des temps d'arrêt améliorent la rentabilité globale de lʼinfrastructure.

Qu'il s'agisse d'allées chaudes ou froides, le confinement permet de mieuxcontrôlerla distribution de l'air et de réduire la charge sur les systèmes de refroidissement, ce qui se traduit par des économies directes sur la consommation d'électricité des systèmes de climatisation. Si le retour sur investissement pour des technologies de confinement varie selon la taille du data center, le type de confinement installé, et lʼefficacité initiale du refroidissement, dans la majorité des cas, il est rapide.

• Le RoI typique du confinement se situe souvent entre 1 et 3 ans. Pour les grands data centers, lʼinvestissement dans des technologies de confinement dʼallées peut être amorti en moins de 2 ans grâce aux économies dʼénergie et aux gains d'efficacité.

Baies & Confinement, retour sur l’événement DCmag In Situ et R&M

Le jeudi 26 septembre 2024 sʼest tenu notre événement DCmag In Situ “Baies et confinement”, dans le nouveau showroom de R&M et en partenariat avec le Club OPEX. Le dossier qui précède accompagne cette matinée dʼéchanges et de partages, avec les experts de R&M, et entre pairs exploitants de datacenters.

Un événement DCmag In Situ se déroule en trois temps : 1 - visite du lieu avec les experts du partenaire qui nous accueille ; 2 - échanges et partages sur la visite, les technologies et les pratiques ; 3 - networking. Cʼest ce partage avec les experts et entre pairs exploitants de datacenters et de salles informatiques qui fait la richesse de nos événements.

Le prochain événement DCmag In Situ - Les Assises de la Chaleur Fatale - se tiendra le 12 décembre 2024 à Lille, en partenariat et dans un datacenter dʼEtix Everywhere en lien avec une boucle de chaleur locale. Pour plus dʼinformations : contact@datacenter-magazine.fr

L’automatisation des datacenters rejoint le Top 5 des priorités de dépenses informatiques des entreprises

Selon une étude dʼAvasant Research auprès de 371 entreprises en Amérique du nord au premier semestre 2024, 70% prévoient dʼaugmenter leurs budgets informatiques, et 48% augmenteront leurs dépenses dans lʼautomatisation des datacenters.

Lʼétude annuelle Computer « Economics IT Spending and Staffing Benchmarks 2024/2025 » de Avasant Research révèle que 70% des entreprises prévoient dʼaugmenter leurs budgets informatiques cette année ‒ en légère baisse par rapport aux 72 % en 2023.

Leur intention est dʼaugmenter leurs budgets de 3 %

Les secteurs dʼaugmentation des dépenses concernent :

• Intelligenceartificielle: 68%

• Analysededonnées/businessintelligence: 68 %

• Systèmeslegacy: 57 %

• Repriseaprèssinistre/continuitédesactivités: 48 %

• Automatisationdesdatacenters: 48 %

• Blockchain: 44 %

• Internetdesobjets: 42 %

• Réseautageavancé: 41 %

• Métavers: 37 %

• Réalitévirtuelle/réalitéaugmentée: 36 %

Le Top 10 des choses

où il ne faut pas se planter pour la construction d’un datacenter

Le cloud et lʼIA accélèrent la croissance du marché des datacenters. Mais si les projets se multiplient, la construction est impactée par de nombreux risques parfois mal maîtrisés. DCmag vous propose un Top 10 de ce qui impacte aujourdʼhui le marché, sur lesquels il ne faut pas se planter !

1 - Le refroidissement liquide

Et non, vous attendiez certainement lʼénergie à la première place de notre classement, mais la réalité est que nous disposons dʼélectricité, qui plus est assez largement décarbonée. Pour nous, la première place revient aux technologies de refroidissement, dont lʼimpact est grand sur la conception et la construction des datacenters. Et pour répondre à lʼaugmentation de la densité des infrastructures avec des puissances plus élevées, le refroidissement liquide, DLC et immersion, sʼimpose dès la conception.

2 - La durabilité

La durabilité est un piège, partagée entre la production et le stockage des énergies renouvelables et la consommation énergétique. Les acteurs du marché sont à la recherche des alternatives qui vont atténuer les inquiétudes : PPA, autoproduction dʼénergie, géothermie, réacteurs nucléaires SMR, stockage sur batteries modulaires, groupes de secours en production… Il sʼagit de prévoir sans rien lâcher sur la réduction de lʼempreinte carbone.

3 - La densité

La tendance est à la distribution de lʼénergie et du refroidissement sur des racks à haute densité. Et la charge de travail de lʼIA et du HPC ne cesse dʼaugmenter… Cʼest la fin de la stabilité des technologies, les porteurs de projets doivent revoir la conception et les plafonds pour apporter plus de puissance, tout en assurant la croissance de la connectivité.

4 - L’évaluation du site

Lʼimplantation dʼun site de datacenter est une réflexion prioritaire car elle détermine si lʼemplacement choisi réunit les éléments constitutifs du projet : localisation, foncier, énergie, ressources, communications, proximité métier, acceptabilité politique, etc. Cette évaluation peut avoir un grand impact sur le coût, lʼampleur et les délais du projet.

5 - Le territoire

Traditionnellement, les datacenters neutres sʼimplantent à proximité directe des grands hubs, comme Paris, qui sont également les grands centres numériques des pays. Les datacenters dʼentreprises sʼimplantent quant à eux dans ou à proximité de leurs entreprises. Mais avec la transformation digitale, le numérique concerne toutes les organisations, et se développent des implantations régionales et territoriales. Si lʼon ajoute les couches de lʼIA et de lʼIoT, avec la nécessité de réduire la latence, le datacenter se fait edge et les opportunités locales se multiplient. Enfin, pour répondre aux objectifs de souveraineté, les territoires deviennent des opportunités.

6 - La réalité virtuelle

Vous êtes contraints à lʼaccélération des processus de construction ? Avez-vous pensé à la réalité virtuelle et au jumeau numérique ? Associée aux processus de construction, la réalité virtuelle est un moyen de gagner du temps et de réduire les coûts. Mais aussi de documenter les projets et les modifications, et de résoudre les questions dʼopérabilité.

7 - La chaîne d’approvisionnement

Les retards continuent dʼaffluer sur les achats dʼéquipements, ce qui impacte les délais et les coûts. Aux Etats-Unis, les projets de construction sʼétalent souvent sur une année supplémentaire, et les délais de livraison sur des équipements secondaires essentiels peuvent parfois dépasser deux ans !

8 - La vitesse

Construire plus rapidement des datacenters, avec des exigences de délais et de coûts. La conception et les processus de construction, la modularité et lʼapprovisionnement sont autant de facteurs critiques à prendre aujourdʼhui en compte.

9 - La sécurité

Les datacenters sont les coffres forts de la donnée. La sécurité est une préoccupation de tous les instants, les investissements dans la sûreté sont indispensables. Mais sont-ils suffisants? Si la sûreté - protection contre les intrusions, gestion des identités, protection et intervention incendiesemble maîtrisée, le risque se déplace et devient cyber. Le datacenter est connecté, cʼest un point potentiellement faible de la cuirasse, il faut en avoir conscience.

10 - Le mirage aux alouettes

Le marché du datacenter attire les nouveaux entrants, et en particulier les investisseurs immobiliers. Se rendent-ils compte que lʼinvestissement dans un datacenter ne concerne pas seulement le foncier ? Cʼest ainsi que les acteurs du secteur se multiplient, consultants, experts, investisseurs en capital, développeurs, prestataires de services, etc. Mais les compétences sont rares et les coûts des spécialistes de lʼélectrique, du refroidissement, des infrastructures et autres spếcialités sʼélèvent au même rythme que celui des puissances dans les datacenters. La prudence sʼimpose…

Marseille focalise le pire des oppositions aux datacenters

On a rarement vu un secteur économique dʼavenir être au coeur de toutes les polémiques, et pourtant à Marseille toutes les oppositions se liguent contre les datacenters, accusés dʼêtre « les infrastructures du numérique techno-capitaliste dominant« .

Tribune de Yves Grandmontagne, DCmag

On a rarement vu un tel amalgame dʼoppositions au numérique et au datacenter, assemblage de demi-vérités vite oubliées au profit de fakes (pour céder à la mode), avec un unique leitmotiv : « lʼaccaparement des terres et des vies par le techno-capitalisme» .

Jusquʼoù ira « lʼauto-défense numérique » des opposants aux datacenter ? Certainement pas dans le sens dʼun « grand silence politique et médiatique » comme ils se plaisent à accuser les câbles sous-marins et les datacenters, car ce sont bien ces oppositions qui font grand bruit et occupent le devant de la scène médiatique régionale.

Il faut oser affirmer la « quasi-absence » des « enjeux environnementaux et territoriaux des infrastructures du numérique« . Et cʼest bien mal connaître lʼaccumulation des missions dʼévaluation des projets, des études, des dossiers, des avis et des approbations, sans oublier les actions permanentes dʼacceptabilité, de socialisation et environnementales menées par les acteurs du datacenter, de lʼinitiative des projets aux actions quotidienne de durabilité, et jusquʼà leur fin de vie.

Mais il semblerait que tout est permis pour sʼopposer au numérique et aux datacenters, comme dʼadopter le pire du numérique pour dénoncer le numérique et ses infrastructures…

Dernier avatar de cette opposition par trop souvent stérile ‒ qui en oublie des fondamentaux comme la création dʼun pôle industriel, la hauteur des investissements, la création dʼemplois, ou le potentiel du numérique associé à la création dʼactivités et de richesses -, les oppositions sʼamalgament autour dʼun collectif qui va organiser un festival de 3 jours pour tirer à boulets rouges sur le numérique et les datacenters.

Décidément, Marseille semble avoir le don de réunir le meilleur comme pire. Mais dans la ville phocéenne, ce sont les datacenters qui trinquent.

Eviden renforce pour la deuxième fois les performances du supercalculateur IA suédois Berzelius

Eviden, la ligne dʼactivités du groupe Atos leader dans le calcul avancé, annonce avoir remporté un contrat de plusieurs millions dʼeuros sur 4 ans pour augmenter la performance du supercalculateur Berzelius de lʼUniversité de Linkoping (Suède) pour la deuxième fois. En intégrant et en déployant davantage de technologies NVIDIA dans le supercalculateur, lʼéquipe dʼEviden ajoutera 512 PetaFlops de performance FP8 AI supplémentaires à Berzelius.

La demande croissante de puissance pour soutenir les calculs avancés en intelligence artificielle a atteint des niveaux sans précédent. Pour cela, le supercalculateur Berzelius dispose dʼinfrastructure nationale essentielle et accessible à tous les chercheurs de Suède et joue un rôle clé pour répondre à ces besoins croissants. Cette puissance de calcul unique a dʼores et déjà permis des avancées significatives dans divers domaines de recherche, dont la science des matériaux, lʼimagerie médicale et la perception visuelle.

Le supercalculateur Berzelius bénéficiera de lʼajout de 16 systèmes NVIDIA DGX H200, avec 128 GPU NVIDIA H200 Tensor Core au NVIDIA DGX SuperPOD, portant son architecture complète à 110 nœuds et 880 GPU pour un calcul accéléré efficace. En complément, lʼéquipe dʼEviden intégrera la plateforme de données VAST, afin de tirer parti de NAS, lʼoffre de VAST pour les entreprises certifiée NVIDIA DGX SuperPOD qui permettra au système Berzelius dʼatteindre une plus grande durabilité, une performance renforcée et une gestion des données hautement efficace.

Le supercalculateur IA Berzelius, financé par la Fondation Knut et Alice Wallenberg et installé à lʼUniversité de Linkoping (Suède), a déjà permis des avancées dans de nombreuses disciplines. Le système a, entre autres, été utilisé pour former le modèle de langage (LLM) suédois à grande échelle GPT-SW3, pour accélérer la recherche sur le repliement des protéines, entraîner de nouveaux systèmes de vision par ordinateur ou encore générer des images médicales synthétiques pour la formation des médecins.

Dr. Cédric Bourrasset, Directeur des activités HPC-AI et informatique quantique, Eviden, Groupe Atos a déclaré : « Nous sommes honorés par cette nouvelle marque de confiance de l’Université de Linkoping, qui s’appuie une fois encore sur nos équipes pour gagner en performance. Berzelius est un système clé en Europe pour favoriser la recherche en IA depuis 2020 et cette nouvelle montée en puissance permettra aux chercheurs de bénéficier d’une architecture GPU (processeurs graphiques) optimisée, contribuant à élargir les possibilités de percées scientifiques. »

Prof. Anders Ynnerman, Directeur du programme WASP[1], professeur de visualisation scientifique, Université de Linkoping a souligné « Dans le domaine de l’intelligence artificielle, secteur qui évolue rapidement, il est essentiel que les chercheurs aient accès à des ressources de pointe pour l’apprentissage automatique, intégrées dans l’infrastructure nationale de supercalcul. Je suis très impressionné par la rapidité avec laquelle cette mise à niveau de Berzelius s’est concrétisée et j’ai hâte de découvrir les résultats de recherche qu’elle permettra d’obtenir ».

«Pour la première fois dans l'histoire, il existe une technologie sous-jacente qui touche à tout : l'IA générative.»

«Nous voulons des data centers, mais nous ne pouvons pas vivre dans le Far West des data centers et des mineurs de cryptomonnaies qui perturbent notre réseau et éteignent les lumières.»

Lieutenant-gouverneur du Texas

«La robotique peut profondément transformer votre façon de penser les opérations des data centers, en les faisant évoluer beaucoup plus, tout en garantissant sécuritéetfiabilité.»

Dan Patrick

Ce que les acteurs des télécoms attendent de l’IA

MeriTalk a interpellé les dirigeants des entreprises de télécommunications (CSP) sur leur rapport à lʼIA (Intelligence Artificielle).

• 95 % des CSP sont engagées dans lʼIA

Pour la plupart, il sʼagit dʼun travail préliminaire et dʼefforts encore balbutiants.

48 % considèrent lʼIA comme la technologie qui transformera le plus le secteur au cours des cinq prochaines années

Qu’attendent les dirigeants de CSP de l’IA ?

• 60 % - Aider à optimiser les opérations

• 44 % - Réduire les coûts

• 35 % - Améliorer le service client

• 31 %

68 %

- Aider à atteindre les objectifs de chiffre dʼaffaires

des dirigeants de CSP estiment que leur entreprise peine à suivre le rythme intense de lʼévolution des technologies et des besoins clients.

Source : Rapport MeriTalk “Network Cloud Transformation ‒ Global Insights for CSPs”, commandité par Dell Technologies - mai 2024

Les chiffres qui interpellent : la consommation d’énergie d’un GPU

700 W

La consommation en pointe dʼun GPU Nvidia H100, le plus vendu dans le monde (3,5 millions dʼunités à fin 2024 selon son fabricant).

3

740 KWh

La consommation annuelle dʼun GPU Nvidia H100 pour une utilisation moyenne de 61%.

13

091 GWh

La consommation annuelle totale des 3,5 millions de GPU H100 livrés par Nvidia à fin 2024 selon lʼhypothèse précédente.

Vice President of International Armis

CLAIRE CHADOURNE

Directrice RSE pour la France, lʼItalie et la Grèce

Digital Realty

JULIEN COLAS

Directeur Développement Durable

ABB France

FRANK PONCHERI

Directeur des ressources humaines

Vertiv

CHRISTINA KEMPER

JEREMY DEUTSCH

Président

Vantage Data Centers APAC

DIDIER POULANGES

Directeur Activités Datacenter

Groupe Prométhéa

AUDREY CHESNEAU

Head of DC Operations

Telehouse France

MIKAËL CUPERMAN

Responsable des Opérations

PHOCEA DC

Dans une série de trois vidéos captées à Laval, enMayenne,nousvousprésentonsHyperion,société du Groupe Numains, qui développe une solution de refroidissement en immersion pour les datacenters. Cette première vidéo va à la rencontre de Nicolas Boulinguiez, fondateur et dirigeant d'Hyperyon.

Cette vidéo complète le dossier immersion paru sur Datacenter Magazine n°6.

https://youtu.be/DdOmdEGtrEg

Après la rencontre de Nicolas Boulinguiez, fondateur et dirigeant d'Hyperyon, et l'évocation de son projet de datacenter pour 2025, voici la seconde des trois vidéos captées à Laval, en Mayenne, qui vous présente le Lab Hyperion, société du Groupe Numains, où sont conçu, équipés et testés les bacs de refroidissement en immersion pour les datacenters, avant leur livraison et leur mise en production chez les clients.

https://youtu.be/5Q10j6H99Wg

Toujours en présence de notre guide Nicolas Boulinguiez, fondateur et dirigeant d'Hyperyon, et après deux vidéos où nous avons découvert le Groupe Numains et ses projets, ainsi que le Lab Hyperion où sont conçus, équipés et testés les bacs de refroidissement en immersion pour les datacenters, nous vous proposons de terminer notre visite par la solution en production dans une salle du futur datacenter du groupe.

https://youtu.be/ZU1jzu4b-cc

Présentation du nouveau campus Telehouse TH3 à Magny 2, en compagnie de notre guide Florent CRAGNOLINI, Datacenter Project and Design Manager.

Cette première vidéo nous permet de découvrir le campus qui offrira 12 000 m² de salles IT pour une puissance totale de 18 MW. Florent CRAGNOLINI nous décrit la composition du campus, puis nous invite à visiter la première salle IT opérationnelle, qui offre 1 000 m² et 2 MW. Il évoque également la sécurité jusqu'aux salles IT, ainsi que la détection et la suppression incendie.

https://youtu.be/ml-CJXMURoY

Nous prolongeons notre visite guidée exclusive avec Florent CRAGNOLINI, Datacenter Project and Design Manager.

Cette seconde vidéo nous mène sur la toiture terrasse, où sont regroupés les équipements de production frigorifique et de distribution, avec les groupes froid free chilling à paliers magnétiques, et le ballon tampon pour l'économie en frigories. L'engagement de Telehouse via l'hybridation des solutions retenues porte sur un PUE (Power Usage Effectiveness) à 1,3 et un WUE (Water Usage Effectiveness) proche de 0 L/KWh.

https://youtu.be/vbD2bpZqGlY

Florent CRAGNOLINI, Datacenter Project and Design Manager de Telehouse TH3 à Magny, évoque pour nous son parcours, de la formation aéronautique aux datacenters, l'histoire d'une passion. Il évoque également les métiers et les opportunités offertes par Telehouse.

Cette troisième vidéo fait suite à la découverte du nouveau campus Telehouse TH3 à Magny, et aux choix de Telehouse en matière de refroidissement et RSE. Nous terminons ainsi notre rencontre en évoquant les métiers du datacenter.

https://youtu.be/W6nFIEoW3Zw

Electricité, 3 MW IT par bâtiment, redondance, secours, carburant HVO100 et efficacité énergétique dans le campus Telehouse TH3 à Magny, quatrième étape vidéo de notre visite du dernier datacenter de Telehouse en compagnie de Florent CRAGNOLINI, Datacenter Project and Design Manager.

https://youtu.be/A11ZRjVSjVU

Nous continuons notre découverte du campus Telehouse à Magny, cinquième étape vidéo, avec la découverte de la MMR (Meet Me Room) peu ordinaire, lieu de toutes les interconnexions dont Telehouse est un acteur de premier plan, dans les galeries techniques du campus, également relié avec Telehouse Voltaire, le datacenter le plus connecté de France, en compagnie de Florent CRAGNOLINI, Datacenter Project and Design Manager.

https://youtu.be/gMy2jchtMOw

Pour terminer notre visite du nouveau campus Telehouse TH3 à Magny, en compagnie de Florent CRAGNOLINI, Datacenter Project and Design Manager, nous vous invitons à découvrir les travaux en cours de l'extension du campus de datacenters. Choix de structure, pilotage du projet, respect des délais, P2 sera opérationnel en 2025.

https://youtu.be/bktw-3WveZI

Datacenter Magazine et MD.C vous invitent à découvrir ciaprès la Restitution de lʼétude « LʼEFFICIENCE ÉNERGÉTIQUE dans les DATACENTERS » mandatée par lʼATEE, lʼADEME, et France Datacenter.

Pour Nathan Chiantaretto, Président de MD.C, société de conseil impliquée dans les CEE, les Certificats d'économies d'énergie : « Les datacenters sont le parent pauvre des CEE, avec des technologies peu ou pas valorisées. Ils n'ont pas de représentant, il est donc difficile de sensibiliser l’Administration. Seulement deux fiches CEE les concernant ont été mises en place ces dernières années : les onduleurs avec le Gimelec et les pompes à chaleur avec MD.C. Ils connaissent mal les obligations administratives et mobilisent mal les CEE, en particulier les plus petits. Idem pour le décret tertiaire, que 40% d’entre eux ne savent pas gérer. Pourtant les CEE sont un levier pour faire des investissements sur la filaire. »

L’EFFICIENCE ÉNERGÉTIQUE DANS LES DATACENTERS

Nathan Chiantaretto

Avant de parcourir lʼétude qui suit, nous partageons quelques résultats significatifs. Tout dʼabord, une projection : 2,30% de la consommation énergétique en 2020 a été absorbée par les datacenters, elle sera de 7% en 2035, ce qui est considérable. La moyenne du PUE est de 1,5, et le PUE sur le refroidissement liquide est entre 1,10 à 1,20. Autre enseignement,18à25%desopérateurs veulent intégrer DLC (Direct Liquid Cooling) et immersion sur leurs projets. Et 15% de la puissance électrique installée en 2035 sera équipée en DLC, soit 2 500 MW IT.

« Il y a matière à créer des fiches CEE, commente Nathan Chiantaretto. Notre approche est également que les fiches CEE interviennent sur le parc installé. Nous faisons le constat que ceux qui font le plus d’effort n’en bénéficient pas. L’objectif est également d’accompagner les premiers projets. »

Au cumul, le volume des primes projetées sur les pro-

jets déjà définis représente un potentiel de 140 millions dʼeuros, qui devrait accélérer avec la mise en place de nouveaux projets. Soit en 2035 la réalisation de 2 TWh/an dʼéconomies sur la filière, ou encore environ 8,4% dʼéconomie.

Pour autant, ces résultats ne profiteront aux acteurs du datacenter que sʼils sʼimpliquent pour porter les fiches. Lʼétude de MD.C confirme lʼexistence de plusieurs sources de réductions importantes de la consommation énergétique, comme le freecooling direct pour les petits sites, le free cooling mixte air/eau qui peut accompagner le rétrofit, le géocooling, ou encore la récupération de chaleur. Et Nathan Chiantaretto de lancer un appel : « Nous avons besoin de fournisseurs de solutions et d’opérateurs de datacenter pour remonter à l’ADEME la justification de la création de fiches. C’est pourquoi nous invitons ces acteurs à nous rejoindre et à travailler ensemble ».

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.