Fabrice Coquio, Président de Digital Realty France De Paris Digital Park à l’avenir des datacenters
Sécurité: une équipe française de haute volée chez Securitas Technology
Telehouse a annoncé 1 milliard € d’investissement lors de Choose France
vers une extinction des disques durs d'ici 2026 ?
Journée du datacenter 2024
800GE : un nouveau standard en matière de durabilité ,de performance et d'automatisation réseau
Rejoignez nous sur le CLUB OPEX :
Les politiques passent, mais Datacenter Magazine continue de remporter vos suffrages !
Déjà le numéro 5 de Datacenter Magazine, une saine lecture en attendant les vacances, ou pourquoi pas durant vos vacances, nous en serons très fiers.
Une grande fierté donc pour nous de vous proposer un complément que nous souhaitons riche à notre site web DCmag.fr. Ce nouveau numéro de Datacenter Magazine se veut plus éclectique, plus riche, reflet également de nos événements et de notre actualité, toujours expérimental à la recherche de la bonne formule, mais qui demeure proche de lʼécosystème du datacenter comme de nos valeurs. A vous de juger.
Nous vous donnons rendez-vous à la rentrée de septembre pour un Datacenter Magazine numéro 6 qui nous lʼespérons remportera de nouveau votre adhésion.
Bonne lecture et bonnes vacances
Yves GRANDMONTAGNE
Rédacteur en chef de Datacenter Magazine yves@datacenter-magazine.fr
Annoncez sur Datacenter Magazine
Couverture - Publicité - Annonce produit - Événement - Publi-rédactionnel
Datacenter Magazine n°5 - Mai / Juin 2024 Prix au numéro : 25 € 10 numéros par an - Impression PDF Une publication Human, Business & Technology (HBT)
CPPAP 1123 X 95016
Directeur de publication Sébastien GRANDMONTAGNE sebastien@datacenter-magazine.fr Edité par HBT, 5 rue Charles Maillier, 28100 DREUX
12 Sécurité : une équipe française de haute volée
Securitas Technology
Infranity conclut un accord avec Global Data
Group pour acquérir une participation
dans Etix Everywhere
la loi industrie verte pourrait accélérer le développement des datacenters
40 La quête énergétique des data centers
44 BESS : systèmes de stockage dʼénergie par batterie pour les datacenters
46 800GE : un nouveau standard en matière de durabilité, de performance et d'automatisation réseau
50 Les DSI continuent de privilégier le stockage dʼapplications critiques on premise
53 Vers une extinction des disques durs d'ici 2026?
56 Journée du datacenter
58 Le marché de la sûreté dans le datacenter et ses enjeux
60 Lʼacceptabilité des datacenters
62 Sécurité du datacenter : la conformité version hyperscale vs France
66 Projet WoodenDataCenter : des racks en bois par OCP
68 Sélection des meilleurs moments en vidéo
Les petites phrases
“ Personne n’a encore construit un seul datacenter Gigawatt. Je pense que ça va arriver, ce n’est qu’une question de temps… ”
“
Je pense que nous construirions probablement un cluster plus grand que ce que nous pouvons actuellement, si nous pouvions obtenir l’énergie pour le faire.”
Mark Zuckerberg, dans une interview accordée au podcaster Dwarkesh Patel.
“ Notre activité de générateurs est littéralement hors de contrôle. Nous sommes complets pour les deux prochaines années. ”
Joerg Klisch, directeur des opérations de l'usine Rolls-Royce MTU Aiken de Graniteville, en Caroline du Sud (USA), évoquant lʼinvestissement de 3 millions de dollars dans lʼaugmentation de la production de lʼusine liée au boom de la construction de datacenters alimenté par la croissance du cloud computing et de lʼIA.
“ 85% des charges de travail ne nécessitent pas un GPU. ”
Jeff Wittich, Chief Product Officer chez Ampere Computing, rappelant que la majorité des workloads ne sont pas liées à lʼIA et ne demandent donc pas le support dʼune infrastructure de calcul reposant sur lʼIA.
Telehouse a annoncé 1 milliard € d’investissement lors de Choose France
Sami Slim
Président
Telehouse France
Telehouse était présent le 13 mai dernier lors du sommet Choose France. En présence du Président de la République française, Telehouse a annoncé un milliard dʼeuros dʼinvestissements dans ses datacenters en France.
Nous avons rencontré Samy Slim, président de Telehouse France, pour évoquer ce projet.
DCmag : Telehouse a fait un annonce dʼampleur sur Choose France, de quoi sʼagit-il ?
Sami Slim : Effectivement, nous avons eu l'honneur d'être invités par le Président de la République le lundi 13 mai au sommet Choose
France. Et nous avons été mis à l'honneur en tant que tout premier et plus grand investisseur en data center pur. Car nous avons annoncé, et nous sommes engagés, sur un milliard dʼeuros d'investissements en France pour l'extension et la création de nouveaux data centers Telehouse. Sachant que les autres annonces, en tout cas dans leur majorité, incluaient non seulement le data center physique, mais également les équipements, les centres logistiques, etc. Cʼest vraiment du data center pur, des bâtiments que nous allons construire qui sont dans le scope de cette annonce. Ce qui nous a effectivement
valu un accueil extraordinaire de notre maison mère japonaise et de moi même à l'Elysée, avec le Président de la République, le Premier ministre, ainsi que plusieurs ministres qui ont témoigné du soutien de la France à l'implantation et au renforcement de l'implantation de Telehouse sur le territoire.
Vous auriez pu présenter cet investissement comme le soutien de Telehouse au déploiement des data centers et des infrastructures en France…
Il faut rester humble. Même si la réalité cʼest qu'effectivement les investisseurs dans ce domaine se comptent sur les doigts d'une main. Au niveau mondial, la France a le privilège d'attirer ces investisseurs là, et pas que nous, dont beaucoup investissent en France. Parce que la France est un pays attractif pour les datacenters. La première raison est la plus fondamentale, c'est la position géographique de la France. Typiquement, nos annonces concernent deux régions, la région Sud et la région Île-de-France. À elles seules, ces deux régions permettent de faire la jonction entre l'hémisphère nord et l'hémisphère sud de la planète. C'est quand même une chance incroyable qu'a la France de par sa géographie. Le deuxième élément différenciant de la France, cʼest bien entendu son énergie décarbonée, faite d'un mix équilibré entre le nu-
Telehouse Paris Voltaire - TH2
cléaire pilotable et les énergies renouvelables. Et enfin, le pôle de talents exceptionnels qui, en France, concerne aussi bien les métiers du datacenter que les métiers périphériques aux datacenters, tels que l'intelligence artificielle.
Vous avez évoqué un rapport Nord / Sud qui se construit. Nous pourrions évoquer également un rapport Est / Ouest, entre le Japon et la France.
Oui, cʼest l'une des raisons également pour lesquelles le gouvernement français nous a réservé un accueil extrêmement chaleureux. C'est que nos projets, nos data centers en France, s'inscrivent dans le cadre d'un rapprochement entre l'Union européenne et le Japon sur la data. Tous deux ont signé en 2014 le premier plus grand accord de libre échange de la données entre les deux blocs. Qui dit grosso modo que mes données personnelles de santé peuvent se balader entre Paris et Tokyo en étant protégé de la même manière juridiquement. Ce qui est une avancée considérable. C'est unique au monde, et à partir de cet accord il y a eu plusieurs accords bilatéraux entre les pays de l'Union européenne et le Japon pour renforcer le partenariat dans le numérique. Et notamment un accord très spécifique entre la France et le Japon, qui a été d'ailleurs signé, conclu et acté
par le Premier ministre japonais et le Président de la République il y a deux semaines, juste avant Choose France. Il dit que les capitaux étrangers que souhaite attirer le plus la France, ce sont les capitaux respectueux de la souveraineté française sur sa donnée. Qui signe ce genre d'accord de libre échange évite les problèmes dʼextra territorialité des lois étrangères qui s'appliquent à certains data centers, et donne un cadre de confiance aux data centers qui hébergent l'économie française. Donc, effectivement, il y a un focus particulier sur l'origine japonaise de nos capitaux.
Revenons sur cet investissement d'un milliard d'euros. Comment va-t-il se concrétiser ?
Très concrètement, cette enveloppe d'un milliard d'euros d'investissements se ventile de la manière suivante. Pour rappel, Telehouse dispose de deux campus de data centers, un dans le centre de Paris, TH2, et un dans les Yvelines qu'on appelle TH3. Ce sont de grands campus qui concentrent plusieurs bâtiments et qui font aujourd'hui l'activité française de Telehouse. C'est le fruit de l'histoire de 25 ans de Telehouse en France. Ce qu'on va construire avec ce milliard d'investissements, sur lequel encore une fois le groupe s'est engagé, c'est ce que nous avons fait en 25 ans, mais nous allons le faire en cinq ans. Nous allons rajouter deux nouveaux campus de datacenters, un en Île-de-France, un en région
Sud. Chacun fera environ une cinquantaine de mégawatts par campus. Et nous allons renforcer le campus de TH3 en rajoutant 20 mégawatts IT supplémentaires. C'est la ventilation concrète de cette enveloppe d'investissements sur laquelle Telehouse s'est engagé et que je vais moi-même, et mes 100 salariés en France maintenant, m'atteler à livrer.
Une question plus personnelle : vous êtes le patron de tout ce projet pour la France, et cʼest une charge bien particulière pour vous. Comment vous engagez-vous ?
C'est effectivement une charge particulière pour plusieurs raisons. C'est dʼabord un succès entrepreneurial que de pouvoir mobiliser des capitaux à la hauteur de l'ambition de ses équipes. Il faut savoir que moi, cʼest mes équipes qui me poussent à croître. Ils en veulent parce que les clients en veulent également, et le travail est là, la demande est là. Et donc si on arrive à aligner les capitaux derrière, c'est gagnant pour tout le monde, les salariés, les clients et les investisseurs. Le job d'un patron de boîte, c'est de faire l'arbitre entre les clients, les salariés et les actionnaires justement. Et finalement, la charge qui m'incombe derrière cette enveloppe d'un milliard d'euros dont je suis désormais responsable, c'est de trouver le bon équilibre, justement, de partage de la valeur entre les clients, les salariés et les actionnaires. Et ça, c'est une charge particulière. Effectivement. Et
maintenant, avec treize ans de métier dans la maison, j'arrive finalement à gérer plus ou moins correctement ce genre de pression.
L'autre charge, c'est aussi une forme de responsabilité. Cette enveloppe, c'est une responsabilité qui m'engage vis-à-vis de mon actionnaire parce qu'elle doit être à la hauteur du succès qu'on attend. Cette enveloppe m'engage auprès du gouvernement français qui m'a fait l'honneur de m'accueillir à Versailles lundi dernier, et qui, honnêtement, est très mobilisé derrière Telehouse en particulier, et dans la filière du data center en général. Je trouve qu'il y a une vraie écoute sur les problématiques de la filière et qu'il y a des choses de plus en plus concrètes qui sortent pour nous. Et puis enfin la responsabilité et le sens de la pression qui vient d'abord et avant tout
de nos clients. Nous avons des clients qui nous demandent de l'espace dans la région Sud, à côté de Marseille, en Île-de- France. Ces demandes là, finalement, elles sont liées à l'arrivée de certaines innovations technologiques de leur côté, par exemple l'intelligence artificielle. Donc, les clients reçoivent du hardware et des équipements quʼils doivent installer dans des datacenters de confiance. Et donc il faut livrer des datacenters dans la temporalité souhaitée par les clients. Et ça, c'est presque, j'ai envie de vous dire, la responsabilité la plus lourde : livrer dans les temps nos clients.
Merci Sami Slim. On retrouve également lʼintégralité de cette interview sur notre chaîne YouTube.
https://youtu.be/40NLkEsNN0o
La 7ème édition du Sommet Choose France, organisée le lundi 13 mai 2024 au château de Versailles à l'invitation du Président de la République, était placée sous le thème « France, terre de champions ». Le secteur du datacenter a particulièrement brillé lors de cette édition, avec l'annonce d'environ 5 milliards d'euros (lire "Choose France : 5 milliards € dʼinvestissements pour lʼIA et les datacenters"). Dont 1 milliard € alloués par le japonais KDDI à lʼextension des datacenters de Telehouse.
Sami Slim et l'investissement de Telehouse dans Choose France
Sécurité: une équipe française de haute volée chez Securitas Technology
Securitas Technology dispose dʼune équipe française entièrement dédiée à la sécurisation des Data Centers. Composée de plusieurs dizaines dʼexperts, lʼéquipe dirigée par Pierre Barret soutient des clients nationaux et internationaux dans leurs projets de sécurisation.
Une équipe pluridisciplinaire au service des Data Centers
La force de cette équipe est la pluralité des talents qui la composent. En effet, tous les métiers utiles à la bonne réalisation dʼun projet de sécurité de haut niveau sont représentés. Ainsi, Securitas Technology peut se targuer de compter parmi ses rangs plusieurs Ingénieurs avant-vente, Projeteurs dʼexécution, Acheteurs dédiés auprès des fabricants, Key Account Managers, Projects Managers, des
Experts supports et plus dʼune vingtaine de Techniciens pour les installations et la maintenance. Tous ces professionnels sont uniquement mobilisés sur les projets des Data Centers. Cette organisation au cordeau permet de répondre de manière réactive et pertinente aux demandes de sécurisation des Data Centers.
En outre, il est important de souligner que lʼensemble du territoire national est couvert par Securitas Technology. Cet atout permet aux clients multisites dʼavoir un interlocuteur unique au lieu de devoir faire appel à plusieurs partenaires selon lʼemplacement géographique du data center à protéger. Il sʼagit dʼun réel gain de temps, dʼénergie et de coût pour les Data Centers.
«Notre idée a été de créer une équipe spécialisée et dédiée au marché du Data Center. La combinaison d’une équipe à taille humaine avec la puissance du groupe Securitas nous permet d’avoir l’agilité d’un zodiac mais avec un moteur atomique. Enfin les 120 personnes de notre équipe Globale dédiée sont un extraordinaire support pour nos équipes et nous permettent de nous positionner sur des Data Centers internationaux.» Pierre Barret, Sales Director High Risk Markets Securitas Technology.
Des avantages multiples
Securitas Technology offre un panel de solutions et de services non négligeables lorsquʼil sʼagit de sécuriser des sites ultras sensibles tels que les Data Centers. En effet, avec un positionnement unique de fabricant et dʼintégrateur, Securitas Technology peut également se targuer dʼêtre installateur, mainteneur, télésurveilleur, coordinateur des partenaires externes et dʼavoir la capacité de déployer des agents de sécurité physique sur site.
Les outils et moyens spécifiques et adaptés pour les Data Centers (plan radar, techno-
centre, BIM…) témoignent de lʼexpérience et de la grande compétence technique des experts de lʼéquipe française qui disposent de nombreuses références prestigieuses parmi les leaders des Data Centers.
Securitas Technology sécurise actuellement plus de 40 Data Centers en France
De lʼanalyse de risques, à la conception, à lʼinstallation ou encore à la formation des équipes locales, Securitas Technology gère de bout en bout les projets de sécurité des Data Centers. Securitas Technology sʼinscrit comme un véritable partenaire de confiance sur lequel les Data Centers peuvent se reposer lorsquʼil sʼagit de leurs sécurités.
Des matériels éprouvés
Lʼentreprise a noué dʼétroites relations avec les fabricants les plus renommés du marché, ces partenariats sont un gage de qualité. Nous pouvons par exemple citer Amag, Lenel, Axis, Hanwha, Til, etc., qui sont des exemples de partenaires fiables sur ce marché et avec lesquels collabore Securitas Technology. Quʼil sʼagisse dʼintrusion, de contrôle dʼaccès, de détection incendie ou encore de vidéosurveillance, Securitas Technology installe chez ses clients Data Centers le meilleur de la technologie et leur assure dʼêtre à la pointe en bénéficiant des dernières innovations.
Les équipes techniques de Securitas Technology, qui maitrisent les standards data center, sont expertes sur les systèmes et méthodes ANSSI (Agence nationale de la sécurité des systèmes dʼinformation). En cas de besoin, une équipe de maintenance répond 24h/24 et 7j/7 aux clients.
Infranity conclut un accord avec Global Data Centre Group pour acquérir une participation co-contrôlante dans Etix Everywhere
Infranity, un investisseur européen de premier plan dans les infrastructures durables, a conclu un accord avec Global Data Centre Group (GDC) pour acquérir une participation co-contrôlante dans Etix Everywhere. Infranity rejoindra Eurazeo en tant quʼactionnaire clé dʼEtix avec lʼambition dʼaccélérer les plans de croissance dʼEtix. La transaction devrait être finalisée après les approbations réglementaires.
Etix est une plateforme paneuropéenne de edge data centers, exploitant actuellement un total de 15 sites, avec des positions de leader en France.
Depuis sa création en 2012, Etix est devenue lʼun des principaux acteurs des datacenters de proximité en Europe et un challenger rapide en Asie du Sud-Est, ayant démontré une croissance et une expansion constantes, à la fois organique et par une série dʼacquisitions au cours des dernières années. Etix devrait atteindre une capacité informatique installée de 30MW dʼici 2030.
Infranity a une exposition préexistante aux datacenters hyperscale et reconnaît les avantages de diversification dʼun investissement dans les datacenters edge. Cette transaction démontre encore la conviction dʼInfranity dans les datacenters, soutenue par la dynamique de marché attrayante.
Infranity a été actif dans les infrastructures numériques de manière plus large, avec plus de 4 milliards dʼeuros déployés dans le secteur à travers ses diverses stratégies depuis 2018. De plus, cette transaction est parfaitement alignée avec lʼorientation stratégique dʼInfranity dʼinvestir dans le segment coreplus des infrastructures européennes. Infranity a été conseillé par ODDO BHF Cor-
porate Finance (conseiller en F&A), Bird & Bird (avocat en F&A, due diligence juridique), Deloitte (due diligence financière, due diligence fiscale, audit de modèle), PMP (due diligence commerciale) et Via DC (due diligence technique).
GDC a été conseillé par Guggenheim Partners (F&A), Delsol Avocats (avocat en F&A), Alvarez & Marsal (due diligence financière) et Arsène Taxand (due diligence fiscale).
À propos dʼInfranity
Infranity est une société de gestion dʼactifs spécialisée dans les investissements en infrastructures durables. La société a été fondée par trois partenaires, Philippe Benaroya, Alban de La Selle et Gilles Lengaigne, dans le cadre dʼun partenariat stratégique avec le groupe Generali et gère plus de 9,9 milliards dʼeuros dʼactifs pour le compte dʼinvestisseurs institutionnels en mai 2024. Infranity fait partie de lʼécosystème des sociétés de gestion dʼactifs de Generali Investments et constitue un élément clé des capacités de Generali en actifs réels.
Les solutions dʼinvestissement déployées par Infranity reposent sur la résilience de la classe dʼactifs et ses rendements stables à long terme, ainsi que sur sa capacité à contribuer au développement durable. Elles visent à répondre aux grands défis de la société, tels que la transition énergétique, la mobilité verte, la transition numérique et lʼamélioration des infrastructures sociales dans les secteurs de la santé et de lʼéducation. Ce positionnement, combiné à un haut degré de sélectivité dans le processus dʼinvestissement, permet à Infranity de générer une valeur durable pour ses clients professionnels.
Romain Le Melinaidre
Directeur Exécutif des Investissements en Actions
Infranity
« Nous sommes ravis de soutenir Etix dans sa prochaine phase de développement aux côtés d’Eurazeo en tant que partenaire à long terme. Dirigé par une équipe de direction expérimentée, nous croyons qu’Etix est déjà un nom bien établi dans le secteur en pleine croissance des datacenters de proximité en Europe, et nous voyons un potentiel significatif d’expansion dans un avenir proche. »
David
Yuile
Directeur Général Lanrik Partners / GDC
« Ce fut un plaisir de soutenir la croissance d’Etix depuis l’investissement initial de GDC en décembre 2020.
Nous sommes très satisfaits du résultat de la transaction, qui est la deuxième cession conforme à la stratégie de réalisation de valeur déclarée du Groupe. »
Louis Blanchot
PDG
Etix Everywhere
« Nous sommes ravis d’accueillir Infranity à bord, ce qui nous permettra de continuer à développer nos plateformes de data centers grâce à la croissance organique et à des acquisitions stratégiques, et de devenir un acteur majeur de la périphérie en Europe. Soutenus par deux fonds européens de premier plan, Eurazeo et Infranity, nous pourrons offrir à nos partenaires informatiques européens une offre de colocation durable et souveraine tout en gagnant des parts de marché plus rapidement dans nos marchés cibles. »
Melissa Cohen Associée en Infrastructure Eurazeo
« Nous sommes heureux de commencer un nouveau chapitre pour Etix avec Infranity et de continuer notre plan de développement qui repose sur la croissance organique et externe, sous la direction d’une équipe de direction expérimentée. Nous sommes fiers de la trajectoire d’Etix depuis notre entrée début 2023, car la société est devenue un acteur de premier plan en France, tout en s’engageant dans une voie de décarbonisation. »
Quand la loi industrie verte pourrait accélérer le développement des data centers
Anne Petitjean
associée en immobilier
cabinet Herbert Smith Freehills
La loi n°2023-973 du 23 Octobre 2023 relative à l'Industrie Verte a introduit une série de dispositions destinées à faciliter l'implantation de sites industriels et de projets d'infrastructures en France.
Les data centers, dont la création connaît depuis ces dernières années une croissance exponentielle sur l'ensemble du territoire¹, sont à plusieurs égards directement concernés par son entrée en vigueur.
La loi Industrie Verte accélère et simplifie la procédure d'obtention de l'autorisation envi-
Jean-Baptiste Verlhac
avocat en immobilier
cabinet Herbert Smith Freehills
ronnementale requise pour l'implantation de la majeure partie des data centers à plusieurs égards :
La simplification de la procédure de l'autorisation environnementale
D'une part, et pour les data centers d'envergure nécessitant la saisine de la Commission nationale du débat public (CNDP), la loi mutualise les procédures préalables dites de "phase amont" (Débat public et de concertation préalable).
De plus, la loi rend concomitant le déroulement de la procédure de consultation du public avec la phase d'examen du dossier.
Par ailleurs, son article 4 crée de nouvelles modalités de consultation du public, laquelle sera réalisée sous forme essentiellement dématérialisée et sera moins complexe que les procédures de consultation actuellement applicables.
Ces mesures, dont les modalités doivent être précisées par des décrets d'application actuellement soumis à consultation publique, ont pour objectif affiché de diviser par deux le délai d'obtention d'une autorisation environnementale². Compte tenu des contraintes opérationnelles et des incertitudes souvent générées par cette procédure pour les porteurs de projet, il est à espérer que ces simplifications assureront, en pratique, un traitement véritablement accéléré des demandes d'autorisation environnementale des data centers.
Des implantations de data centers facilitées par l'amélioration de la remise en état des sites industriels
Les conditions de réhabilitation des sites ou friches industrielles susceptibles d'accueillir des data centers ont été améliorées par la loi Industrie Verte, qui assouplit le régime de la cessation d'activité des ICPE, facilite le recours au "tiers intéressé" à la remise en état du site et renforce les pouvoirs de sanctions du préfet à l'égard des anciens exploitants qui ne respecteraient pas leur obligation de remise en état.
Ces mesures, qui ont également vocation à être précisées par décret, constituent une étape attendue vers la simplification du traite-
ment des problématiques liés à la réhabilitation des sites industriels qui constituent, notamment en périphérie des centres urbains, des emplacements privilégiés par les porteurs de projets de data centers.
Des data
centers pouvant être
labellisés "projet d'intérêt national majeur"
Enfin, les projets de data centers de grande envergure pourront, sous certaines conditions, bénéficier du label de "projet d'intérêt national majeur" (PINM) dont le régime, prévu par l'article 19 de la loi Industrie Verte, permet de bénéficier de mesures administratives favorables pour leur implantation, comme la mise en compatibilité accélérée des documents d'urbanisme ou l'obtention de dérogations à l'interdiction de porter atteinte aux espèces protégées pour les projets concernés. Il est prévu que les projets éligibles à ce label soient identifiés par décret.
Ces mesures, qui s'inscrivent dans une volonté des pouvoirs publics de promouvoir le développement de ce type de projets en France, doivent encore être précisées par des décrets d'application afin de véritablement pouvoir en apprécier les effets sur le développement des data centers.
¹ De 250 data centers commerciaux existant en moyenne en 2022, la France devrait en comptabiliser le double d'ici 10 ans (Source : Baromètre EY-Parthénon sur les data centers, 14 septembre 2023).
² Le délai moyen d'obtention d'une autorisation environnementale est aujourd'hui de 17 mois (Source : Sénat, Avis n°731, Projet de loi relatif à l'industrie verte, 2022-2023).
La barre de l’hyperscale au gigawatt est en vue
Avec la multiplication des infrastructures dʼIntelligence Artificielle (IA), nous entrons dans lʼère des méga-campus de datacenters à lʼéchelle du gigawatt. Plus précisément les futurs projets se situeront entre 1 et 2 GW ! Ce qui impose de maintenir la course à lʼinnovation pour les rendre supportables.
Tribune
de Yves Grandmontagne,
Rédacteur en chef de Dcmag
Petit rappel historique : quʼest-ce qui a permis le développement de lʼimmense cluster cloud de la Virginie du Nord ? Il exploite lʼénorme infrastructure électrique de lʼancienne fonderie Alcoa Eastalco Works. Dès sa création, la Data Center Alley dʼAshburn a reposé sur une incroyable et presque unique disponibilité dʼénergie. Cette histoire qualifie les grands projets de datacenters dʼaujourdʼhui : de la surface et de lʼélectricité, au-delà de ce que nous avons connu jusquʼà présent.
Depuis quelques mois, afin de faire face à lʼexplosion de lʼactualité des datacenters dans le monde, DCmag a recentré la couverture de cette actualité sur la France, lʼEurope et lʼAfrique francophone, tout en suivant les grandes évolutions du marché au niveau mondial mais sans nous pencher sur les projets locaux. Et pourtant, ils méritent notre attention, en particulier aux Etats-Unis qui donnent le ʻlaʼ des tendances.
Que constatons-nous ? Les campus hyperscales, quʼils soient associés aux géants du cloud ou asservis par leurs supporters (à lʼimage de Compass Datacenters ou QTS Data Centers), sont désormais annoncés dans 300 à 400 MW. Mais la tendance vient à lʼéchelle du gigawatt. Concrètement, aux
Etats-Unis le marché retient son souffle dans lʼattente des premières annonces entre 1 et 2 GW.
Lʼhistoire que nous avons évoquée plus haut trouve son prolongement : les géants de lʼhyperscale recherchent de la surface et de la puissance électrique disponible. Si les EtatsUnis ne manquent pas du premier, le second est soit rare soit erratique. Cʼest pourquoi nous assistons à lʼémergence de projets situés soit à proximité soit directement dans lʼenceinte des sources dʼélectricité qui semblent les plus puissantes et les plus fiables : les centrales nucléaires.
Et peu importe que les énergies renouvelables peinent à suivre, la capacité de créer et contrôler la donnée prime sur tout autre considération ! Nous attendons que soit franchie la barre du gigawatt dans les campus de datacenters destinés à accueillir les infrastructure dʼIA, et probablement dans le datacenter lui-même lorsquʼil sʼagit dʼune ferme de crypto-monnaie. Mais cela crée aujourdʼhui un vrai hiatus entre les acteurs du marché qui ne cessent dʼavancer et les autorités qui doivent désormais légiférer pour protéger leurs sources dʼénergies.
Cʼest ainsi quʼun choix stratégique va très vite sʼimposer : le datacenter va devoir produire sa propre énergie, et non pas seulement sʼasso-
cier à des projets de production dʼénergies renouvelables en garantissant la ressource par des PPA. Un choix qui pourra également sʼimposer au reste du monde. Ce qui ne va pas sans poser quelques questions, dont celle du grid énergétique et de lʼévolution du statut du datacenter vers le producteur dʼénergie.
Si cette vision est acceptable dans les grands espaces américains ou sous les plans économiques chinois à long terme, elle risque fort de se révéler difficile à accepter dans nos contrées. De plus, si la demande de lʼIA pourrait bien imprimer un nouveau rythme à la construction comme à lʼexploitation des datacenters, la donnée et lʼénergie placées sous la seule coupe des géants du cloud est-elle acceptable ? Là encore le réglementaire pourrait imposer ses règles.
On imagine cependant de nouvelles voies, et lʼindustrie doit impérativement adopter voire accélérer lʼinnovation pour proposer de nouveaux axes alternatifs. Ainsi, la mise en cluster de petits et moyens datacenters capables de sʼintégrer dans les grids énergétiques sans imposer des pics de charge pourrait bien être un axe de réflexion à suivre. Certes, on ne pourra éviter le gigantisme des usines dʼIA qui engloutiront et sʼattribueront la majorité des nos données, mais des solutions alternatives devraient permettre de disposer dʼun traitement raisonné de nos données dans les limites dʼune production dʼénergie tout aussi raisonnable.
Les années à venir sʼannoncent riches dʼinvestissements, dʼexpériences et dʼinnovations…
Les chiffres du datacenter
18%
Augmentation annuelle du CapEx des datacenters
• Les investissements dans les infrastructures IA vont représenter le quart des dépenses CapEx des datacenters au cours des 5 prochaines années.
• 50% des investissements CapEx concerneront Amazon, Google, Meta et Microsoft.
Source : Etude DellʼOro Group
84,4%
Taux dʼoccupation des datacenters en constructions aux US
• La demande dʼespaces de datacenters est si forte que les futurs clients des datacenters en construction nʼhésitent pas à les pré-louer.
• Aux Etats-Unis, sur les marchés primaires (hubs), le taux dʼoccupation des datacenters en construction (pré-location) est de 84,4%. Cʼest un record, il était de 50% au préalable.
• Sur les marchés primaires américains, 3 GW de datacenters sont en construction, et 2,5 GW sont dʼores et déjà pré-loués.
Source CBRE
6%
Des actifs IT sont en fin de vie
28%
Des actifs IT manquent d'au moins un contrôle critique
• Un actif informatique sur 16 est en fin de vie, exposant potentiellement à des vulnérabilités connues mais non corrigées.
Source Sevco sur 1,2 million d'actifs informatiques analysés
92%
Des
données numériques européennes sont hébergées aux États-Unis
70%
Des données numériques françaises sont hébergées aux États-Unis
• Le CLOUD Act américain suscite des préoccupations majeures concernant la confidentialité des données sensibles et le risque d'espionnage industriel.
• Mais les données françaises et plus encore européennes sont déjà sous la dépendance de quelques fournisseurs majeurs américains.
Source : UBCOM
2,3 milliards kWh
Consommation électrique des datacenters dʼApple en 2023
• Consommation globale des datacenters dʼApple en propre ou en colocation (20,6%).
• Hors consommation du cloud, Apple est le plus gros client stockage de données de Google Cloud, puis dʼAWS.
Source : Apple
Fabrice Coquio, Président de Digital Realty France
De Paris Digital Park à l’avenir des datacenters
Digital Realty a invité DCmag à visiter son Digital Park de La Courneuve pour un reportage vidéo. Fabrice Coquio, Président de Digital Realty France, a assuré la visite et répondu à nos questions.
Fabrice Coquio - Nous sommes sur notre Digital Park de La Courneuve. Cela fait maintenant un peu plus de quatre ans que nous sommes en travaux pour réaliser ce plus grand campus à date de datacenters en région parisienne, 40000 m² de salles informatiques, 130 mégawatts de puissance totale. Un gros bébé construit en quatre phases. Nous avons déjà livré deux phases, nous livrons dans quelques semaines la troisième phase, et la dernière phase est pour l'année prochaine 2025. Nous aurons alors terminé en un peu plus de cinq ans ce travail, pas pharaonique, mais quand même très important, avec 1,15 milliard dʼeuros d'investissements.
DCmag - C'est le plus gros projet qui a été mené en France à ce jour. Mais ce n'est pas un data center lorsquʼon le regarde de l'extérieur, cʼest un bâtiment qui affiche une vraie volonté d'intégration dans la ville, dans l'environnement, dans le milieu industriel.
Cʼest le parti pris initial. Quand nous avons racheté l'usine d'Airbus Helicopters, qui était une vieille usine qui datait de 1904, nous avons souhaité tirer parti de la proximité de Paris. On est à quatre kilomètres à vol d'oiseaux du périphérique, dans la continuité de nos campus dʼAubervilliers, Saint-Denis et La Courneuve. Et donc de pouvoir jouer sur l'accessibilité pour nos agents, bien sûr, qui tournent 24 heures sur 24 sur le site, mais aussi et surtout pour nos clients. Et ça, ça a un prix. Le prix, c'est d'être dans un univers extrêmement dense, extrêmement urbain. Les
premières habitations et la circulation sont à proximité. Et donc le prix de s'intégrer dans de multiples dimensions. La première, l'insertion urbaine, visuelle tout simplement. D'où le choix de cet exosquelette circulaire avec un système de toiles qui n'ont aucune fonction, ni de protection au bruit, au feu ou quoi que ce soit, uniquement de cacher et de rendre plus agréable visuellement des blocs que sont des datacenters. Mais aussi l'intégration sûreté. Nous avons nous même, pour éviter de créer des problématiques logistiques, décalé des systèmes de refuges géants pour les camions et les espaces logistiques du site. Un site comme celui-ci, c'est à terme 500 à 600 personnes qui vont rentrer et qui vont sortir chaque jour, avec des contraintes, et ça c'est un véritable choix. Le choix également d'aller dans la vie des gens à proximité, d'affecter un hectare de nos obligations de végétalisation du site pour créer un parc pour les habitants de La Courneuve et au-delà s'ils veulent venir. Cela me réjouit de voir que, alors qu'on est encore en train de construire, nous avons le matin des étudiants, l'après midi des mamans avec leurs poussettes qui utilisent ces espaces de datacenter. Et d'ailleurs nous nʼavons eu, je ne sais pas si c'est une relation de cause à effet, aucune dégradation ou malveillance pendant la phase de chantier, et y compris depuis la phase d'exploitation désormais.
Le parc végétalisé semble jouer un rôle important pour l'intégration du projet dans le milieu social ?
De toute façon, de par les règles de PLU, nous avons des obligations de végétalisation. Chez Digital Realty, nous allons généralement un peu au-delà. Nous allons même plus loin puisque, sur la base de notre foncier, nous avons dédié et externalisé d'une certaine fa-
çon un espace vert pour les habitants. C'est un principe global, c'est une vision globale d'insertion. Ce n'est pas une activité qui se délocalise, nous sommes là pour 30, 40, 50 ans. Il va falloir effectivement que l'on soit intégrés dans ces quartiers. Et d'ailleurs, a priori, ça se passe plutôt bien.
Un projet de cette dimension sur le nord de la région parisienne... En toute logique, ce doit être le dernier qui aura cette taille ?
Pour deux raisons : nous sommes sur le territoire de Plaine Commune, qui a déjà décidé, comme c'est une très très grosse concentration de datacenters en Europe, peut être que ça allait s'arrêter là. La deuxième raison, tout simplement, c'est qu'il nʼy a plus de foncier. Il n'y a plus de ressources électriques pour faire 130 mégawatts d'alimentation. Ici, nous sommes quand même sur un septième de tranche nucléaire !
Digital Realty, de Marseille à l’Afrique
Fabrice Coquio : Digital Realty est d'ores et déjà, au moment où nous nous parlons, le numéro un en Afrique, avec une présence en Afrique du Sud, Terraco, Icolo au Kenya et en Tanzanie, et bien sûr notre présence au Nigéria et plus récemment au Ghana. Reste justement, peut-être, l'évaluation du besoin ou pas sur des pays francophones. On peut se poser la question sur la Côte d'Ivoire. Mais finalement, quand on est présent au Ghana et au Nigeria, est ce que ce n'est pas le même bassin ? On peut bien sûr se poser la question sur le Maroc. Mais le Maroc, c'est finalement aussi l'Espagne et la France à proximité immédiate, et des infrastructures. Donc, est-ce que la réponse ne serait pas plutôt une coordination qu'une présence? On verra bien. Nous regardons en tout cas ces pays de près. Le marché africain est extrêmement varié. L'Afrique du Sud à elle seule représente 45 % du marché. Et la totalité de l'Afrique, les 54 pays africains, est à peu près l'équivalent du marché suisse actuel. Donc, il y a une grosse croissance, mais ça ne va pas non plus être tout de suite. Et puis, il ne faut pas oublier que le datacenter tel qu'on le connaît, c'est l'enfant de la dérégularisation des télécoms. Tous les marchés africains ne sont pas dérégulés, si ce n'est dans les textes, dans la réalité. On voit bien les différentes dynamiques qui peuvent, au cas où, entraver le développement harmonieux des datacenters, en tout cas tel qu'on l'a connu dans les 25 à 30 dernières années en Europe.
Faisons un peu de prospective. Est-ce que lʼIA (Intelligence Artificielle) et le HPC (High Performance Computing - calcul) deviennent quelque chose d'important pour les opérateurs de datacenters comme vous.
Ça va devenir important, mais ça va surtout faire peut-être encore plus d'écarts entre les datacenters qui peuvent et ceux qui ne peuvent pas. Parce quʼil y a l'arrivée massive du HPC, de l'IA et du Cloud, et parce que tout se mélange un petit peu. Mais il y a une caractéristique commune, c'est des densités électriques beaucoup plus fortes. On monte jusqu'à 200 kW à la baie, et donc cela va nécessiter des systèmes de refroidissement qui doivent être conçus non pas ad-hoc, mais dans le design général du site, voire même préinstallés, comme on l'a fait ici sur le Digital Parc de La Courneuve. Encore une fois, pour simplifier la vie des clients, mais aussi pour abaisser le coût de CAPEX supplémentaire pour être compatible HPC IA sur ces systèmes de refroidissement. Et là, ça va créer une séparation entre les différents acteurs des datacenters. D'abord ceux qui sont capables de comprendre les enjeux et d'accompagner les clients. Mais aussi d'avoir à la fois les capacités financières et les capacités opérationnelles pour pouvoir gérer un environnement qui est du coup hybride. Parce que il ne faut pas se leurrer, à part de rares cas, il n'y aura pas que du full DLC ou full airflow, ça sera souvent des combinaisons hybrides. Il y a aujourd'hui, par exemple dans ce que nous avons déployé en IA sur un de nos sites, des équipements télécoms qui ne peuvent pas être refroidis par de l'eau, et donc il faut rester avec cette combinaison que l'on connaît bien de refroidissement par soufflage d'air. Donc il y a un certain nombre d'enjeux. Par contre, ce qui est clair et que lʼon voit très bien chez Digital Realty, avec bien évidemment notre pré-
sence massive aux États-Unis, c'est que cʼest en train d'arriver. C'est même plus quʼune vague, c'est un tsunami ! À quel moment ça va arriver de façon massive également en Europe ? C'est qu'une question de mois ou d'années, mais de toute façon, ça va arriver et là, tout le monde ne sera pas prêt.
Avec des projets qui sont de plus en plus importants, de plus en plus lourds et complexes, la question du financement est devenue extrêmement sensible. Digital Realty, sur un certain nombre de projets en Asie
ou aux Etats-Unis par exemple, met en place des partenariats avec des investisseurs. Comment cela se passe-t-il en France ?
En général, je ne sais pas comment font les autres acteurs. Nous, nous avons fait une annonce il n'y a pas très longtemps, nous avons fait une joint venture avec le premier fonds au monde, Blackstone, pour développer et accompagner l'effort d'investissement, notamment de notre campus des Ulis au sud de Paris, mais également un campus en Allemagne, à Francfort, et deux campus aux Etats-Unis. Et je pense très clairement que cette expérience va se renouveler, que ce soit en Inde, en Asie, en Afrique, en Europe même. Pour une raison extrêmement simple : la croissance des besoins fait que les capacités d'investissement ne sont pas illimitées et on doit pouvoir s'adosser à des gens dont c'est le métier. Donc Digital Realty garde bien évidemment la conception, la construction, les opérations, la commercialisation même de ses sites, et s'appuie sur un outil financier. Ça aurait pu être une augmentation de capital, ça
aurait pu être de la dette, ça aurait pu être autre chose. Et nous avons la chance d'avoir pu, de par notre cotation à la Bourse de NewYork et dʼy valoir quelques dizaines de milliards, effectivement, solliciter les différentes options. Surtout dans un environnement actuel de taux d'intérêts hauts qui pousse plutôt sur ce genre de solutions. Mais si les taux se détendent, peut être qu'on reviendra dans une autre dimension de financement. Tout le savoir faire d'un grand groupe mondial comme Digital Realty, premier acteur mondial avec plus de 320 datacenters dans le monde, c'est d'avoir justement plusieurs cordes à son arc, voire même de créer une REIT, Real Estate Investment Trust, à Singapour, rien que pour l'Asie.
Parlons partenariats et environnement. Digital Realty a annoncé lʼusage du HVO sur le secours, ou encore a signé des PPA (Power Purchase Agreement) sur lʼénergie. Est ce que ce datacenter en particulier sera 100% énergies renouvelables ?
Nous sommes 100% énergies renouvelables
depuis 2014, donc rien de nouveau sous le soleil, j'allais dire sous l'éolienne. Pour nous, ce qui change, c'est que nous avons choisi d'aller ailleurs, on va faire une annonce d'un PPA en France assez significatif. Il faut faire attention à ne pas aller simplement en se disant quʼil sʼagit de la nouvelle martingale, aller vers le PPA est un atout d'abord fondamental parce qu'il contribue à l'additionnalité des ressources renouvelables. Il a un autre atout, c'est de donner une prévisibilité sur les prix. On sort quand même de deux ou trois années où les clients ont été un peu chahutés au niveau des hausses des coûts de l'énergie de par les situations géopolitiques et économiques. Donc, il y a quand même des atouts très sérieux. Même sʼil y a quand même un inconvénient, c'est que, aujourd'hui, personne ne sait quel sera le prix de l'énergie dans deux ans, dans cinq ans, dans dix ans. Ce que je constate, c'est qu'en ce moment, le prix spot, au moment où nous nous parlons, est inférieur, et même largement inférieur au prix où on peut contracter un PPA. Nos clients, c'est tout à fait normal, quand ils ont été perturbés en 2022-2023 par les coûts de l'énergie, nous
ont demandé la stabilité. Maintenant, ils nous disent “Oui, c'est bien la stabilité, mais il ne faut pas qu'on paye trop cher non plus pour la stabilité”. Donc il y a à trouver peut-être le bon niveau, le juste niveau d'engagement PPA. Il se situe selon nous plutôt autour des 25 à 30 % de la consommation actuelle et future des sites. Aller au-delà, ça serait prendre un sacré pari sur l'efficience tarifaire pour nos clients. Il faut que l'on fasse quand même très attention à eux.
On le voit aux Etats-Unis, embarquent les gens qui sont du nucléaire. Est ce que vous commencez à penser à d'autres formes de sources d'énergie? Peut-être, pourquoi pas, que le datacenter soit lui-même producteur ?
Dans l'innovation, entre guillemets et par nature, il n'y a pas de limite. On peut toujours essayer des tas de choses, comme dans la création pure d'énergie renouvelable - comme on l'a fait à Marseille avec le River Cooling, on a créé 20 mégawatts de capacité dʼENRmais à quel horizon, dix ans, quinze ans ?
Nous avons une volonté ou une possibilité d'intégrer de nouvelles sources dʼénergie autour du nucléaire, si la réglementation et les modes opératoires évoluent dans le respect du principe de sécurité nécessaire. Pour une raison simple, c'est que, on le voit bien à travers non seulement toutes les villes d'Europe, mais également plus récemment aux ÉtatsUnis, y compris même à Ashburn, la Mecque, entre guillemets, des datacenters avec 2,5 gigawatts de capacité construite, même là il y a maintenant des limitations d'approvisionnement électrique. Et donc, quand on connaît le temps pour déployer à la fois des lignes à haute tension, enterrées ou aériennes, mais également les postes de raccordement amont et aval, c'est difficilement compatible avec les horizons temporels des datacenters et de leur développement. Donc, à un moment donné, on va sûrement devoir être quasiment forcés.
Si en plus on considère que les besoins risquent encore de doubler, on risque d'être sur des projets à 400 ou 500 mégawatts, donc une demi tranche nucléaire. Et là, il n'y aura sûrement que la solution du SMR pour pouvoir rester compatible dans le temps, dans le coût et dans la puissance. Demeure néan-
moins beaucoup de questions sur qui peut opérer une sorte de nucléaire civil ou qui ne soit pas maîtrisé par un acteur monopolistique de réseaux. Il y a encore beaucoup de questions. C'est pour ça que ce n'est pas près d'arriver tout de suite.
Les hyperscalers sʼapprochent dʼun gigawatt, voire des projets à 2,5 à 3 gigawatts. Certains en ont fait l'annonce. Est-ce que ça paraît raisonnable pour le marché français?
Il y aura de toute façon, à partir du moment où il y a le datacenter, une matérialité, des contraintes physiques, foncières, qui seront sûrement différentes en Europe. Si on regarde par exemple les espaces extrêmement denses comme les Pays-Bas, ça va être compliqué. Alors, je pense qu'il y a une autre dimension. Et d'ailleurs, il faut que l'on fasse attention, non pas pour critiquer, mais l'Europe et l'Union européenne en particulier, sont partis dans une direction plutôt restrictive sur la dimension environnementale en général et des datacenters en particulier, sans commune mesure avec ce qui se passe dans certaines
Qu'est ce qui fait rêver Fabrice Coquio ?
D'avoir peut être contribué et voir demain de nouvelles technologies toujours plus vertes, efficientes, pour accompagner quelque chose qui ne s'arrêtera sûrement, peut-être jamais. J'ai arrêté de le dire. Pendant des années, je disais à mes équipes “on a encore rien vu, c'est devant nous”. Et bon, là, maintenant, 25 ans plus tard, il faudrait peut-être que j'arrête de le dire…
autres parties du monde, pour ne pas les citer les États-Unis ou l'Asie. Et là, il faut qu'on fasse attention que l'Europe ne se retrouve trop seule. C'est à dire que si c'est un phénomène d'entraînement, et on pense que ça doit être le cas d'ailleurs chez Digital Realty, si on regarde avec beaucoup d'attention et parfois même d'envie ce qui se passe en Europe dans cette dimension là, il faut faire attention à ce qu'on ne soit pas complètement détachés du reste du monde. Parce que l'Europe, c'est important, mais ce n'est que l'Europe ! Et effectivement, ça pourrait créer à un moment potentiellement des difficultés d'installation des datacenters. Alors, je remarque que notamment l'Etat français espère faire passer a priori une loi à l'Assemblée et au Sénat pour pouvoir favoriser, simplifier, harmoniser la capacité de déployer des datacenters. Quand pour connaître un tout petit peu les détails des autorisations administratives et constructives des datacenters, il va y avoir un sacré boulot de simplification à faire, et donc je ne suis pas sûr que ça porte ses effets aussi rapidement qu'on pourrait l'espérer.
Les rapports avec le gouvernement sont essentiels. Il semble qu'aujourdʼhui il est plutôt favorable à l'implantation des datacenters, en particulier liés à l'IA...
Oui, je pense qu'il y a une réelle volonté. D'abord, il y a une prise de conscience. D'ailleurs, le rapport de la Commission sur l'IA mentionne très clairement l'enjeu primaire et fondamental, voire primordial du datacenter. Parce que sans datacenter, encore une fois, on ne peut rien construire dessus. Donc on ne fera pas d'IA. Mais il faut qu'on ne tienne pas rigueur à un gouvernement du fait qu'il est luimême coincé par un héritage des attentes des populations qui peuvent être contradictoires. On veut faire du déploiement de datacenters, mais on ne peut pas faire d'artificialisation de sols. On doit favoriser l'IA et le numérique, mais on veut faire attention à l'impact carbone du numérique. On doit faire de la protection environnementale, c'est du domaine de l'évidence. Mais d'un autre côté, est-ce qu'on ne va pas trop loin dans la protection fauneflore, alors que normalement la biodiversité doit effectivement passer en priorité ? Donc, il n'y a pas de bon ou mauvais, blanc ou noir sur ce sujet là, mais il y a effectivement des paradoxes, des situations contradictoires qui expliquent sûrement, pourquoi pas, que chez nous, en France, et loin de là, on a les mêmes débats en Allemagne, en Espagne ou ailleurs en Union européenne. Et bien ça peut commencer parfois à coincer entre l'intention d'une priorité et une réalité.
Datalok, marketplace pour espaces de colocation dans les datacenters
Jules Martin
Président
Datalok
Datalock est une start-up - il y en a trop peu dans le domaine du datacenter - découverte par DCmag. Cʼest une marketplace en construction visant la mise en relation dʼopérateurs de datacenters disposant dʼespaces de colocation disponibles, et des clients potentiels qui recherchent des espaces à louer. Nous avons rencontré Jules Martin, fondateur de Datalok.
DCmag : Jules Martin, quel a été votre parcours avant de créer Datalok ?
Jules Martin : Je viens du monde du cloud et
du datacenter. J'étais consultant pour AWS pendant quelques années, en tant qu'ingénieur avant vente. Après, je suis parti chez Scaleway, pareil côté avant vente technique, où j'ai monté des infrastructures cloud pour des clients. Ensuite, je suis parti plus sur la partie commerciale, à l'époque chez Scaleway les parties cloud et datacenter n'étaient pas divisées au sein de l'entreprise. C'est comme cela que j'ai mis le premier pied dans le monde du datacenter. Et j'ai quitté Scaleway en septembre 2023 pour fonder la société Datalok un mois plus tard.
Qui est Datalok?
Datalock, c'est la première marketplace pour espaces de colocation en datacenter. Ce que nous proposons, c'est de trouver en moins d'une minute le meilleur espace de colocation possible. Et de manière gratuite aujourd'hui, pour nos clients et pour nos acheteurs. Comment ça fonctionne ? C'est vraiment un système d'apporteur d'affaires pur, la marketplace elle-même est en développement. Ce que nous faisons, nous établissons des partenariats avec environ une trentaine de datacenters en France, avec qui nous avons discuté et analysé leur offre, la typologie de client, etc. A partir de là, soit nous allons chercher de nouveaux clients, soit, avec un portefeuille de clients que nous avons déjà sous la main, on va leur proposer l'offre la plus adaptée.
Demain, je dis demain c'est en septembre, je travaille avec des développeurs sur ce sujet, nous disposerons dʼune marketplace automatisée. Il y aura deux volets à cette marketplace. Côté acheteur, que ce soit des DSI, des CTO ou même des business units dédiées aux achats, parce que c'est souvent comme ça que ça se passe dans les grands groupes, vous allez pouvoir sélectionner suivant certains prérequis techniques et de prix, l'espace dont vous avez besoin avec le datacenter de votre choix, souvent lié à une localisation précise. Côté datacenter, nous avons vraiment à cœur de mettre à disposition le meilleur logiciel possible pour promouvoir son espace en datacenter. Dans un premier temps, ça passera par un système d'offre, que lʼon exposera le plus clairement possible. Vous choisirez bien sûr l'endroit où votre datacenter est situé, le nombre de baies disponibles, si vous voulez vendre de la baie, de la demi baie, du quart de baie, même du U pour certains datacenters, parce que ça commence à se faire. La densité
de vos baies, les opérateurs qui sont disponibles dans votre datacenter, toute une série de spécificités techniques, et vous pourrez manager votre datacenter et l'offre commerciale de votre datacenter grâce à cet espace.
Quel est votre business model ?
Aujourd'hui, cʼest très simple, celui dʼapporteur d'affaires. Nous prenons un pourcentage, une commission sur la vente totale finale de la transaction en cours. Qu'est ce que ça veut dire? Tout simplement, on vous met en relation si ça fonctionne, parce que, on le sait tous, le business du datacenter est assez compliqué. Quand on parle de dizaines ou de centaines de kilowatts, on peut mettre en relation, il peut y avoir une visite, voire plusieurs visites, une analyse technique de l'acheteur du datacenter, et ça peut se faire ou non. Si ça ne se fait pas, le datacenter ne doit rien à Datalok. Sʼil y a vente, sʼil y a un deal, nous prenons une commission. Demain, avec la marketplace, nous allons plutôt favoriser le modèle de lʼabonnement. C'est à dire que l'on va vraiment pousser un datacenter à mettre le plus d'informations possibles et le plus d'offres possibles en ligne via Datalok et ce sera un paiement tous les mois. Nous sommes en train de discuter avec plusieurs datacenters à ce sujet. Ce sera entre 100 et 200 euros par mois pour mettre autant d'offres que possible par datacenter.
Il y a une part de confidentialité dans les mises en relation et les contrats, mais qui sont vos partenaires aujourd'hui?
Je ne vais pas faire une liste exhaustive, parce qu'il y en a plus de 30 aujourd'hui. On a des hyperscalers très connus. On travaille avec les plus grands du marché en région parisienne comme en province, et on est très at-
taché aussi à travailler avec des datacenters plus petits et qui ne sont pas forcément situés sur le bassin parisien. C'est notamment comme ça que Datalok a été lancée initialement. C'est un peu ça qui m'a donné l'idée, de promouvoir l'offre commerciale des datacenters qui n'ont pas forcément la taille nécessaire pour embaucher de grandes équipes commerciales, et de mailler sur tout le territoire français. Nous avons toutes les régions, pas encore tous les départements, mais déjà une trentaine de datacenters situés un peu partout sur le territoire. Nous devrions également avoir une offre en Europe avec une quinzaine de datacenters en plus situés en Allemagne, aux Pays-Bas, en Pologne, Espagne, Portugal et Italie.
Et en France?
En France, bien sûr, nous continuons notre expansion française, et c'est le principal aujourd'hui. Mais il y a une tendance que je sens avec les clients qui passent par Datalok pour trouver des espaces, c'est d'avoir un acteur français pour aller chercher des espaces un peu partout en Europe. C'est une vraie difficulté pour les DSI, les CTO et les achats de trouver des espaces en dehors de la France pour installer leur infrastructure.
Également vers le reste du monde. On m'a parlé des Etats-Unis. Il y a surtout une vraie tendance qui se dessine vers l'Asie. Beaucoup de grands groupes français du CAC 40 souhaitent déployer des services de colocation en Asie pour différentes raisons de souveraineté et de prix. Ils ne veulent pas se déployer sur des clouds, que ce soit des clouds américains ou asiatiques en Asie, et ils cherchent des espaces de colocation. Aujourd'hui, c'est très compliqué pour eux de le faire. Ils n'ont pas les bons interlocuteurs, ils n'ont pas les sys-
tèmes adéquats. Donc on va essayer de mailler l'Asie avec le maximum de datacenters partenaires possibles.
Quels sont les avantages qu'apporte Datalok aujourd'hui et peut-être apportera demain ?
Côté acheteur, c'est assez simple. La première chose, c'est que le service est gratuit pour les acheteurs, que ce soit aujourd'hui pour l'intermédiation ou pour demain la marketplace. Dans le business model, j'ai prévu que ce soit le plus facile possible d'acheter des espaces en datacenter. Le réseau de partenaires est déjà tissé. Donc en fait, vous allez gagner beaucoup de temps sur l'analyse, sur la sélection, puis nous allons être capables de vous conseiller parce qu'on a déjà fait cette étude préalable. Côté datacenter, il y a deux grands avantages qui se dessinent. Le premier, tout simplement, c'est une question d'argent, c'est de remplir votre datacenter. On va vous aider à avoir plus d'offres, à augmenter votre chiffre d'affaires, tout simplement. Le deuxième, c'est vraiment se concentrer sur la partie, on va dire datacenter technique, et de ne pas perdre du temps à qualifier énormément de leads qui arrivent vers vous et qui au final ne correspondent pas à ce que vous offrez dans votre datacenter. Le principal problème que je rencontre, que ce soit avec les directeurs techniques des datacenters ou les directeurs commerciaux, c'est qu'ils reçoivent énormément de leads qui ne sont pas qualifiés. Le process de vente est long, compliqué, ils n'ont pas d'outils automatisés pour qualifier les leads qui arrivent vers eux. En fait, au bout de plusieurs semaines ou plusieurs mois, on se rend compte que ça ne correspond pas à ce que eux vendent. Nous, on veut totalement automatiser ça.
Datalok est une start-up. Où en êtes-vous aujourd'hui ? Levée de fonds, recherche de partenaires, etc. Et éventuellement, pour les gens qui nous lisent, comment pourront-ils vous aider ?
Je vais commencer par les partenaires, dans les prochaines années ils seront au cœur du modèle de Datalok. Je nʼai pas de datacenter en propre, ce n'est pas prévu que j'en ai. Je nʼai pas les fonds pour, et puis c'est un autre métier au final. Datalok se veut un service informatique, c'est une marketplace, ce n'est pas un Data Center Provider. Donc, je recherche un maximum de partenaires sur tous les points. Niveau investisseurs, je suis transparent sur ça. J'ai 100 % du capital. Sur 2024, il est totalement prévu que cela reste comme
ça. Tant que la marketplace n'est pas lancée, en septembre 2024, je préfère rester maître à bord du vaisseau.
Dès que la marketplace sera lancée, je suppose que comme n'importe quelle start-up j'aurai besoin de capitaux pour accélérer mon développement. Mais je veux avoir un premier produit, ça me tient vraiment à cœur d'avoir un premier produit à montrer, qui soit fonctionnel et qui aide les datacenters. Une fois que cette mission aura été accomplie, nous discuterons avec grand plaisir avec soit des VC, soit, et cʼest ce que je préférerais, des gens qui viennent du datacenter. Ce seraient mes investisseurs idéaux et qui pourraient m'apporter non pas seulement des fonds, mais aussi une expertise dans ce métier.
Datalok, marketplace pour datacenters de colocation Présentation par Jules Martin, fondateur
https://youtu.be/LvPdbJa5Z-w
Datalok est la première solution de marketplace permettant de trouver des espaces de colocation disponibles et adaptés dans les datacenters, et pour les datacenters de rechercher des clients pour leurs espaces de colocation disponibles.
Jules Martin, CEO et fondateur de Datalok.io, nous présente sa start-up.
LCL Data Centers construit un nouveau datacenter à Bruxelles
L'interview de Baudouin Corlùy
https://youtu.be/ny_wgoXDQA4
Dans un entretien exclusif avec Baudouin Corlùy, directeur commercial de LCL Data Centers, DCmag évoque la place de la Belgique dans le monde des datacenters européens, l'agrandissement de LCL Brussels-North, le complexe le plus connecté de la région. Un investissement total de 30 millions dʼeuros dans un nouveau datacenter dont la conception est déjà certifiée Tier III par lʼUptime Institute.
Philippe Charpentier, Directeur technique NetApp France, décrypte l'évolution du stockage de données
https://youtu.be/zNod7a8WNKM
NetApp a publié son premier observatoire DSI 2024, axé sur le stockage des applications critiques dans le paysage informatique français. Philippe Charpentier, Directeur technique NetApp France, décrypte l'étude. En particulier, les DSI affichent leur choix marqué pour des solutions on-premise. Et "il n'y a pas un seul de nos clients qui n'a pas un sujet IA, au moins autour de la DSI et du métier", même si le goulot d'étranglement reste la donnée. Dʼun point de vue général, une solide connaissance des usages et des outils est bien là, tous domaines dʼactivités confondus, avec une prédominance très nette de lʼon-premise. Mais des défis organisationnels restent encore à relever dans la gestion de lʼaccroissement des volumes de données ou dans les stratégies dʼautomatisation mises en place.
https://youtu.be/OctT6yTXpb0
https://youtu.be/g2Ccbuby33E
https://youtu.be/auWRJb59G7o
APL, bureau d'étude spécialisé dans le datacenter, a fêté ses 40 ans. A cette occasion, DCmag a rencontré Christophe Weiss, Directeur général, et Tristan Richard, Directeur général adjoint, pour évoquer 40 ans d'histoire du datacenter et d'APL. L'interview a été publiée en avant première lors de la Journée du datacenter 2024.
Au fil de ses 40 années, APL Data Center a développé sa stratégie à mission Organic Design : acceptabilité du datacenter, empreinte environnementale, redondance et sécurité, et collaborateurs. Avec Christophe Weiss, Directeur général, et Tristan Richard, Directeur général adjoint d'APL, le bureau d'étude qui fête ses 40 ans, dans une vidéo exclusive DCmag.
L'évolution des technologies a été majeure pour le datacenter et l'informatique au cours des 40 dernières années, comme ont pu le constater Christophe Weiss, Directeur général, et Tristan Richard, Directeur général adjoint d'APL, le bureau d'étude qui fête ses 40 ans. L'occasion également dans cette vidéo d'adopter une vision plus prospective sur l'innovation dans le datacenter.
Nominations
Aurore NICOLI
Associate Director France
CBRE Data Center
Solutions
Thierry BESREST
expert /formateur CFA, président BICSI France
Altetia
Olivier Karoutchi
Directeur général
Institut Data Center
Dung Ly
Directeur Général
Ikoula
Rémi
de Montgolfier
Directeur Edge
Datacenter
TDF
Mohamed Ait Moulay
Directeur
ABB Motion France
Brandon Spencer
Président de la Business Area Motion.
ABB
Giampiero Frisio
Président de la Business Area
Electrification
ABB
La quête énergétique des data centers
Comment assurer la capacité de production dʼénergie nécessaire aux datacenters et à lʼIA sur site, la plus propre possible et avec un délai de mise en service le plus court possible ?
Expert - Thierry Gougeot - E.S.D.C.
Distributeur Bloom Energy
La tendance la plus marquante pour les data centers en 2024 sera la croissance rapide de lʼadoption de lʼIA. À mesure que les capacités de lʼIA se développent, les cas dʼutilisation augmentent dans tous les secteurs. Les réseaux neuronaux avancés promettent de tout révolutionner, de la fabrication aux soins de santé. Mais ces innovations ont un coût : les modèles dʼIA complexes nécessitent de vastes données et une grande puissance de calcul.
International Data Corporation (IDC) estime que la consommation de données augmentera de 20% par an, entraînant une augmentation significative des charges de travail des data centers. Cette croissance exponentielle menace de paralyser les opérations en raison dʼune consommation dʼénergie qui monte en flèche avec une limite imposée par les infrastructures.
Plus important encore, lʼapprovisionnement en énergie propre sera essentiel pour répondre durablement aux besoins informa-
tiques de lʼIA. Les accords d'achat d'électricité (Power Purchase Agreement) pour les énergies renouvelables hors site se multiplient, des géants de la technologie comme Microsoft s'engageant à mener des opérations à bilan carbone négatif. La production sur site grâce à des panneaux solaires est également utile. Cependant, la nature intermittente des énergies renouvelables nécessite une technologie supplémentaire pour garantir une alimentation électrique stable et fiable.
Comment assurer la capacité nécessaire sur site, la plus propre possible et avec un délai de mise en service le plus court possible ?
Les piles à combustible à oxyde solide (SOFC)
Des solutions telles que les piles à combustible à oxyde solide (SOFC) peuvent permettre une alimentation propre en permanence. Les SOFC convertissent électro-chimiquement le carburant en électricité sans brûler de carburant, ce qui entraîne moins de polluants de gaz à effet de serre, ce qui en fait une option de production distribuée très efficace et flexible. Relier les systèmes SOFC aux microgrids permet aux data centers de maintenir des opérations 24h/24 et 7j/7, même lorsque le réseau principal fluctue. De telles architectures résilientes et à faibles émissions pourraient être essentielles pour faire progresser lʼIA tout en minimisant les dommages environnementaux.
Un cloud énergétique ?
Une autre transformation en cours est le passage à une infrastructure de data center distribuée. Alors que les data centers cloud hyperscale font la une des journaux, de nombreuses organisations se tournent vers des conceptions décentralisées.
Pour maximiser les avantages de lʼarchitecture distribuée, les data centers décentralisent également leurs sources dʼénergie. Lʼénergie solaire sur les toits fournit une énergie supplémentaire propre. Les batteries stockent lʼexcédent dʼénergie renouvelable pour une utilisation nocturne et en période de pointe. Les piles à combustible convertissent
efficacement le carburant sur site en électricité sans aucune particule nocive pour une utilisation fiable 24h/24 et 7j/7.
Les systèmes SOFC peuvent fonctionner comme alimentation de base principale pour les data centers distribués. Leur architecture modulaire s'adapte à n'importe quel endroit. Les SOFC permettent un déploiement plus rapide que les infrastructures de services publics. Ces fonctionnalités durables rendent ces piles à combustibles idéales pour renforcer lʼécosystème émergent des data centers distribués et décentralisés.
Sur site et intégrés aux batteries, les systèmes SOFC permettent aux data centers de
s'isoler du service public en cas de panne, maintenant ainsi des opérations ininterrompues. À mesure que lʼénergie solaire, éolienne, le stockage et la production distribuée se développent, les SOFC compléteront ces sources variables en tant quʼénergie propre, efficace et toujours active. Leur architecture modulaire rationalise également le déploiement du stockage aux côtés des piles à combustible pour répondre aux besoins énergétiques des data centers 24h/24 et 7j/7.
Time to Power
Un point crucial lié au développement des data centers est lié au délai nécessaire pour avoir la capacité de puissance disponible sur site. Les délais de fabrication des piles à combustible permettent dʼassurer la livraison des Bloom Energy Servers® dans des délais très courts (de lʼordre de 4 mois pour 5MW, 18 mois pour 100MW).
Bloom Energy
Bloom Energy est une société californienne qui conçoit, produit et commercialise des piles à combustibles et des électrolyseurs depuis plus de 20 ans. La plateforme innovante de Bloom Energy a révolutionné la façon dont les entreprises et les communautés accèdent à lʼénergie, offrant une alternative fiable, durable et rentable à lʼinfrastructure de réseau traditionnelle. Avec une empreinte mondiale de plus de 1,2 GW de serveurs d'énergie SOFC déployés sur plus de 1 000 sites, Bloom a produit environ 20 milliards de kWh d'énergie sans combustion et à faible émission de carbone. Les solutions de Bloom Energy, notamment les microgrids et les systèmes de captage du carbone, génèrent un potentiel de décarbonation profond, offrant de multiples voies pour atteindre la neutralité carbone. Grâce à son usine californienne dʼune capacité de production dʼun gigawatt de piles à combustible par an, Bloom Energy livre des unités de production d'électricité basées sur SOFC dans un délai de 75 jours, répondant ainsi aux besoins énergétiques immédiats tout en soutenant la transition vers un avenir décarboné. Bloom Energy reste déterminé à créer un monde durable, sain et avec une énergie abondante, en permettant aux entreprises et aux communautés de prendre en charge leur énergie de manière responsable.
BESS : systèmes de stockage d’énergie par batterie pour les datacenters
Les systèmes de stockage dʼénergie par batterie (BESS) font figure dʼalternative plus propre et plus efficace au diesel pour les datacenters. Ils stockent lʼénergie des sources renouvelables ou du réseau électrique, fournissant une alimentation de secours en cas de besoin et protégeant les données en cas de pannes électriques.
Le marché actuel des générateurs de secours pour les datacenters repose principalement sur le diesel. Ces générateurs diesel sont coûteux à entretenir et souvent sous-utilisés. Les systèmes de stockage dʼénergie par batterie, associés à des sources dʼénergie renouvelables comme le solaire ou lʼéolien, éliminent
les émissions nocives du diesel et contribuent à un avenir plus vert. Les BESS permettent également aux entreprises de respecter leurs objectifs environnementaux, sociaux et de gouvernance.
Concrètement, les BESS peuvent fournir une alimentation de secours en moins dʼune minute après le démarrage et sont moins bruyants que les générateurs diesel. Ils occupent également moins dʼespace. Les propriétaires de datacenters peuvent assurer la continuité des services essentiels, même en cas de pannes prolongées ou dʼinstabilité du réseau, en investissant dans des BESS.
Avantages des BESS :
• Réduction des émissions de gaz à effet de serre par rapport aux générateurs diesel.
• Faible coût dʼentretien et installation compacte.
• Déploiement rapide de lʼénergie (moins dʼune minute).
• Contribue aux objectifs environnementaux, sociaux et de gouvernance (ESG).
Cependant, la durée de vie des BESS est généralement de 25 à 30 ans, avec un besoin dʼaugmentation énergétique au bout de 10 ans. Les BESS ne remplacent pas complètement les alimentations sans interruption (UPS) mais peuvent être utilisés conjointement avec elles. De plus, les réglementations pour les BESS varient selon les États, car la technologie est encore nouvelle.
Défis des BESS :
• Durée de vie de 25-30 ans, avec nécessité dʼaugmentations dʼénergie au bout de 10 ans.
• Réglementations et processus de permis encore en développement.
• Dégradation de la batterie et risques dʼincendie nécessitant une maintenance régulière.
Différents types de BESS existent, les batteries lithium-ion étant les plus courantes en raison de leur densité énergétique élevée et de leur facilité de transport et dʼinstallation. Des chimies alternatives comme les batteries à flux de fer ou à base de zinc-brome commencent à apparaître, offrant des avantages en termes de coût et de durée de vie.
On notera que les datacenters peuvent également utiliser les BESS pour des fonctions de soutien du réseau, accélérant ainsi le retour sur investissement.
Malgré certains défis, les BESS représentent une technologie en évolution rapide. Face aux traditionnels générateurs diesel, ils sont une alternative prometteuse, durable et efficace. Pour les propriétaires et exploitants de datacenters, investir dans les BESS peut être une option prometteuse grâce à lʼutilisation dʼénergies renouvelables, à une fourniture rapide dʼénergie et à une résilience accrue en matière de sauvegarde des données. Ils constituent une option viable pour renforcer la résilience énergétique et soutenir la durabilité environnementale.
800GE : un nouveau standard en matière de durabilité, de performance et d'automatisation réseau
Jean-François Couturier Head of Sales Engineering
Juniper
Networks
Avec une augmentation prévue du trafic internet de 26% entre 2021 et 2026, les opérateurs sont contraints dʼaméliorer leurs réseaux pour faire face à la croissance des volumes. Ces réseaux de plus en plus massifs et complexes à opérer renforcent le besoin d'automatisation simplifiée pour optimiser les opérations et minimiser le risque dʼerreurs humaines. En parallèle, la hausse de la consommation d'énergie, ainsi que les coûts et les émissions de carbone associés, peuvent rapidement devenir difficiles à maîtriser. Il est donc essentiel de réaliser des économies opérationnelles partout où cela s'avère possible.
Les solutions de routage 800GE émergent sur le marché et proposent non seulement une durabilité pour un réseau respectueux de l'environnement, mais aussi des performances et des capacités d'automatisation inégalées, garantissant ainsi une expérience utilisateur supérieure. Ces aspects - performance, automatisation et durabilité - sont essentiels pour les organisations qui souhaitent répondre efficacement aux exigences des infrastructures de réseau modernes. Mais en quoi consiste exactement cette technologie, et comment les entreprises peuvent-elles en exploiter tout le potentiel ?
Qu’est-ce qu‘un réseau 800GE ?
800GE (800 Gigabit Ethernet) est la prochaine étape de la transmission de données à haut débit, doublant la bande passante des solutions 400GE. Il améliore lʼefficacité de la transmission des flux de données, répondant ainsi aux besoins croissants des datacenters, aux contraintes des charges de travail de lʼIA, et aux spécificités des réseaux d'agrégation, des infrastructures de peering comme à celles des cœurs de réseaux. Ce point d'inflexion technologique amène une capacité considérablement accrue, permettant aux opérateurs de réseaux de transporter davantage de données avec moins dʼéquipements, optimisant ainsi l'espace et l'utilisation de l'énergie.
Par rapport à la technologie 400G, le réseau 800GE représente un bond significatif en termes de débit et d'efficacité, qui répond ainsi à l'explosion de la demande en bande passante dans les datacenters cloud et le routage WAN. Si la technologie 400GE a posé les bases du réseau à haut débit, les solutions polyvalentes capables de gérer à la fois les technologies 400G et 800G vont encore plus loin : elles mettent l'accent sur la durabilité en réduisant la puissance électrique et l'espace consommés par bit transmis.
Le réseau 800GE va révolutionner l'industrie en s'appuyant sur trois principes clés : la durabilité, la performance et l'automatisation.
Tirer profit des avantages
Pour profiter pleinement des avantages de la technologie 800GE, il est nécessaire d'abandonner les modèles opérationnels anciens. Les solutions 800GE offrent une automatisation axée sur l'expérience afin de transformer l'expérience opérationnelle et l'expérience de
l'utilisateur final. Ces solutions sont compatibles avec tout type de système d'automatisation respectant les standards, quʼil provienne d'un éditeur ou dʼun développement maison. Cela permet une automatisation basée sur des modèles et facilite la planification des changements réseau afin d'augmenter la disponibilité et de réduire les coûts de maintenance. En outre, la technologie offre des fonctions de sécurité automatisées, notamment la validation de l'attestation matérielle et logicielle, ainsi que la sécurité des données grâce au chiffrement à la vitesse du média.
Pour une couche de défense supplémentaire, les opérateurs peuvent également intégrer des services de sécurité avancés.
Grâce à leur technologie avancée, ces plateformes sont à la pointe du secteur en matière de densité et d'efficacité des ports, et répondent aux exigences croissantes en matière de capacité et d'évolutivité. Qu'elles prennent en charge des cas d'utilisation nouveaux ou traditionnels, dans des architectures scale-up ou scale-out, les solutions 800GE sont en mesure de répondre aux besoins des opérateurs.
Avec plus d'efficacité et de flexibilité, les clients peuvent étendre la capacité de 400GE à 800GE partout où cela est pertinent, non seulement dans les cœurs de réseau et les points de peering, mais aussi dans l'ensemble du WAN et du datacenter. 800 GE répond aux besoins de très hauts débits en offrant capacité et efficacité maximales.
Une grande durabilité malgré les volumes de trafic
Les solutions 800GE doivent être conçues dans une optique de durabilité, ce qui fait écho au besoin croissant de réseaux respec-
tueux de l'environnement. Cependant, les solutions 800GE émergentes doivent offrir des avantages en matière de durabilité sans compromettre les performances, afin de garantir une efficacité maximale. Pour minimiser son impact environnemental, 800GE doit profiter des innovations en matière de silicium, de systèmes et de logiciels, et offrir une meilleure efficacité pour des réseaux économes en énergie. Pour renforcer la durabilité de l'ensemble du système, la plateforme doit utiliser des composants moins nombreux et plus efficaces. Il est également nécessaire que la conception du châssis et la gestion de l'alimentation soient efficaces sur le plan énergétique, pour que les « moteurs » soient mis hors tension lorsqu'ils ne sont pas utilisés.
La durabilité des systèmes 800GE repose sur l'automatisation, utilisée pour des opérations durables afin d'améliorer l'efficacité des systèmes et de réduire le coût total de possession. Grâce aux réseaux 800GE, les opérateurs ne se contentent pas de s'adapter aux demandes de capacité, mais redéfinissent également l'avenir des réseaux. Les solutions 800GE restent à l'avant-garde de la durabilité, de la performance et de l'automatisation.
800GE en action
Cette technologie est conçue pour prendre en charge une série de cas d'usages, notamment les opérations réseau des fournisseurs de ser-
vices, des fournisseurs de cloud hyperscalers et des datacenters de grandes entreprises.
Les fournisseurs de services utilisent le 800GE pour améliorer l'agrégation du réseau metro, le peering et les cœurs de réseaux. Cela permet de répondre à la demande croissante de services qui réclament une grande bande passante, de services d'entreprise, de streaming vidéo et de services de données mobiles. Utilisé par les fournisseurs de services, le 800GE peut améliorer l'expérience de l'utilisateur final et même faciliter de nouveaux services tels que la 5G, tout en optimisant l'efficacité du réseau et en garantissant la qualité de service.
Lorsqu'il est mis en œuvre par les opérateurs de réseaux de fournisseurs de cloud, le 800GE peut être utilisé dans les datacenters pour connecter les fermes de serveurs et les systèmes de stockage ou pour relier les Data Centers (Data Centre Interconnect). Cette configuration prend en charge le cloud computing, les services de stockage et les services en ligne à grande échelle. Ces acteurs ont besoin d'un réseau très haut débit pour répondre à la croissance des demandes du cloud computing et de stockage.
Pour ce qui est des grandes entreprises, le 800GE peut être utilisé pour répondre aux demandes IT internes, aux services du cloud computing et aux charges de travail à forte in-
tensité de données. Ces applications nécessitent des connexions robustes et à haut débit pour transférer efficacement de grands volumes de données au sein et entre les datacenters, ainsi que sur les campus et les sites distants.
Un réseau pour l’IA
La relation entre 800GE et l'IA consiste essentiellement à répondre aux besoins réseaux des environnements destinés à lʼentraînement de l'IA. Ces environnements nécessitent l'interconnexion de clusters de GPU haute performance pour le traitement de grands volumes de données générés par les charges de travail d'entraînement. Deux défis caractéristiques de ces environnements sont la bonne gestion des "elephant flows", ces transferts de données massifs, ainsi que la réduction des délais d'exécution. Pour gérer efficacement ces flux, il faut des solutions réseau qui offrent un débit élevé et conçues pour transporter de grandes quantités de données de manière efficace et sécurisée. Pour ces environnements dʼentraînement de l'IA, les nouvelles plateformes ne doivent pas juste être équipées de ports capables de transporter un grand nombre de données, mais aussi disposer de fonctionnalités telles que « high radix » et « deep buffer » pour gérer efficacement le trafic entre les clusters de GPU pour lʻentrainement des charges de travail IA. "high radix" fait référence au nombre de chemins parallèles que les données peuvent emprunter au sein du réseau, ce qui permet d'augmenter le nombre de connexions et donc d'éviter les embouteillages, lorsque les données sont envoyées sur le réseau. Les "deep buffers" permettent de conserver les données lorsque le réseau est occupé, évitant ainsi que les données ne soient perdues ou retardées.
Ces caractéristiques garantissent le bon fonctionnement des clusters de GPU, qui ont besoin d'un réseau rapide et fiable pour partager et transférer d'énormes volumes de données et d'instructions complexes. L'objectif de ces solutions est d'obtenir un débit élevé pour minimiser les retards (latence) et maximiser la vitesse de transfert des données, réduisant ainsi le temps nécessaire à l'entraînement des modèles d'IA.
La prochaine étape
Les besoins croissants en capacité pour le trafic vidéo, le trafic des charges de travail IA et d'autres demandes de données en pleine expansion sont des moteurs importants de l'adoption actuelle du 400GE et de l'intérêt précoce pour la transition vers les technologies 800GE. Avec une croissance sans précédent de la consommation de contenus vidéo, de services basés sur le cloud et dʼapplications pilotées par l'IA, les réseaux subissent une pression considérable pour prendre en charge des volumes de données plus importants à des vitesses plus rapides. Il nʼest pas seulement question de gérer les charges de travail actuelles. Il sʼagit aussi de se préparer aux exigences futures, car les demandes de charge de travail continuent d'évoluer.
Les DSI continuent de privilégier le stockage d’applications critiques on premise
Le Premier observatoire DSI 2024 NetApp / Adelanto sur le stockage des applications critiques chez les DSI en France révèle que les DSI disposent dʼune solide connaissance des usages et des outils, avec une prédominance très nette de lʼon-premise. Mais des défis restent à relever.
NetApp vient de rendre les conclusions du premier observatoire DSI 2024, axé sur le stockage des applications critiques dans le paysage informatique français. Mené en mars et avril derniers par le cabinet Adelanto, à travers une enquête en ligne ciblant un panel de 103 responsables IT du secteur privé ou public, cet observatoire dresse aujourdʼhui un bon état des lieux, des enjeux et des choix souvent bien tranchés des DSI français dans la gestion de leurs applications stratégiques.
Dʼun point de vue général, une solide connaissance des usages et des outils est bien là, tous domaines dʼactivités confondus, avec une prédominance très nette de lʼon-premise.
Mais des défis organisationnels restent encore à relever dans la gestion de lʼaccroissement des volumes de données ou dans les stratégies dʼautomatisation mises en place.
Une bonne connaissance des technologies de stockage et un choix marqué pour des solutions on-premise
Cʼest le premier enseignement de cette étude. 78% des sondés affirment avoir une bonne connaissance (et même 23% dʼentre eux une très bonne) de lʼéventail des solutions de stockage et de sauvegarde à leur disposition pour leurs applications critiques. Bref, la confiance est de mise et les choix méthodologiques bien marqués pour lʼassurer. Sur ce point, des solutions on-premise sont ainsi clairement privilégiées par les DSI pour leurs infra-
structures dʼhébergement avec le choix dʼun cloud privé à 49%, suivi de peu par des technologies en interne avec des data centers All-Flash à 48% ou des data centers hybrides à près de 44%. Autant dʼorientations stratégiques qui restent loin devant le cloud public ou le multicloud à seulement 15% et 8% !
Pour les typologies de réseaux de stockage, le choix des DSI interrogés va lui aussi clairement dans ce sens du « on-premise » avec en tête des solutions NAS à 71%, suivies de technologies SAN à 69% ou de serveurs « maison » à 60%. Le stockage cloud ne vient quʼaprès à 54%, mais loin encore devant des solutions basées sur des containers ou du stockage objet à 27% chacune. Si lʼon établit par exemple un parallèle avec le Baromètre du Cloud NetApp/IFOP, publié en juin 2021 et dans lequel la France était lʼun des pays sondés, cette prédominance du support physique sur le cloud en matière de stockage (notamment sur la question des données personnelles) reste dans la continuité des opinions exprimées alors.
Des acteurs bien identifiés pour répondre aux besoins des entreprises dans la gestion de leurs applications critiques
En matière de stockage et de sauvegarde dʼapplications critiques, la confiance dans les moyens déployés est bien sûr la première des conditions à remplir pour les entreprises. Concernant les fournisseurs de solutions hardware et software, cʼest ainsi NetApp qui arrive en tête avec 60% des sociétés mentionnées par les DSI interrogés. Quant aux hébergeurs de données actés pour lʼheure au sein des opinions exprimées, cʼest encore une fois une solution de data center en interne à 50% qui reste le choix privilégié, sui-
vie ensuite notamment de Microsoft Azure à 38% ou de AWS à près de 20%.
Pour autant, même si le déploiement dʼinfrastructures de stockage et de sauvegarde se fait plutôt auprès des sondés dans un esprit de logique interne, le STaaS (ou Stockage-asa-Service) apparaît comme ayant le vent en poupe dans la gestion des applications critiques. Au regard de cette étude, ce sont en effet plus de 45% des DSI consultés qui lʼenvisagent ou lʼutilisent déjà.
Des défis encore face à l’accroissement attendu des données et à ses risques associés
Toujours plus importantes en volumes de stockage, les données issues dʼapplications critiques seront en pente ascendante en 2024. Cʼest du moins le sentiment partagé fortement par 84% des sondés, et 44% dʼentre eux sʼattendent même à une hausse de plus de 20% ! Parmi ces applications gourmandes en ressources de stockage, les responsables IT interrogés placent déjà en tête lʼarchivage à 53% ou la virtualisation applicative à 50%, suivis ensuite de lʼERP et de la production à près de 30%, ou du développement informatique à 25%.
Face à cet accroissement, des défis seront là bien sûr pour continuer à assurer la bonne marche des applications. En tête de ces enjeux, la sécurité et la prévention (contre les ransomwares notamment) constitueront le risque numéro 1 pour 59% des DSI questionnés. Mais lʼobsolescence des systèmes et des infrastructures à 56%, ou le maintien de conformité aux normes réglementaires à 42% seront eux aussi de la partie. Pour y faire face, 66% des sondés ont déjà acté des projets dʼévolution ou de modernisation de leurs solutions de stockage, avec au rayon des
avantages attendus une meilleure protection de leurs données à plus de 66%, de meilleures performances pour leurs applications à près de 55%, ou bien encore une réduction de lʼespace occupé et de la consommation énergétique de leurs data centers à 53%.
Des stratégies d’automatisation des échanges encore à affiner dans certains domaines
Si aujourdʼhui un secteur comme la sauvegarde est en grande majorité, avec plus de 89% des sondés, totalement ou partiellement automatisé au sein des entreprises françaises consultées, ou bien encore la sécurité et la prévention de plus en plus tournées vers ce type de stratégie avec 65%, dʼautres domaines peinent encore à franchir le pas. Cʼest par exemple le cas de la recherche et analyse à 49% ou des PRA/PCA à 48% qui, selon les sondés, nʼapparaissent pas encore comme une priorité dans leurs stratégies dʼautomatisation.
Les progrès galopants réalisés ces dernières années par les solutions dʼintelligence artificielle auront très probablement de quoi uniformiser cette donne en débloquant les verrous techniques qui pourraient se présenter encore dans les choix stratégiques mis en place par les DSI. Avec à la clé pour eux un gain de sérénité certainement ! Au regard de la confiance qui lui est faite à travers cette étude, NetApp compte aujourdʼhui sur le marché parmi les acteurs de lʼIA capables de répondre efficacement aux nombreuses exigences demandées dans la gestion des applications critiques.
Vers une extinction des disques durs d'ici 2026 ?
Gabriel Ferreira Director of Sales Engineering Pure Storage
Le stockage des données a connu une réelle évolution au cours des quarante dernières années. D'une manière générale, l'ère moderne du stockage des données a commencé dans les années 90, avec la nécessité de s'éloigner du Direct Attached Storage (DAS), cʼest à dire des grappes de disques directement reliés à chaque serveur et utilisés exclusivement par chacun dʼentre-eux. Cela a conduit à un changement d'état d'esprit, moins préoccupé par les données résidant sur des serveurs spécifiques, ce qui a donné lieu aux débuts de la virtualisation des serveurs. Au cours des années 90, l'avènement des baies de stockage
centralisées sur réseau IP (Network Attached Storage) et SAN (Storage Array Network) sont devenues les supports de stockage dominant.
Le grand bouleversement suivant du marché du stockage des données a eu lieu en 2007, avec l'avènement du cloud public. Cette évolution a engendré la baisse des coûts du stockage des données sur l'ensemble du marché et, bien que le stockage à semi-conducteurs (SSD), ou stockage flash, ait été inventé à ce moment-là, les disques durs sont restés populaires, les fournisseurs de clouds publics étant les plus gros clients. C'est encore le cas
aujourd'hui et sans doute, la survie des fournisseurs des fabricants de disques durs dépend des clouds publics majeurs.
Nous entrons à présent dans une nouvelle ère de progrès, rendue possible par des avancées technologiques considérables qui permettront de passer à des disques flash à haute densité d'une capacité pouvant atteindre 300 To dans un avenir assez proche, et de mettre fin au stockage sur disque rotatif. À ce moment important pour l'industrie, il est opportun d'examiner l'évolution du stockage des données, les raisons pour lesquelles de nouveaux changements sont nécessaires et ce qu'ils signifient pour le secteur technologique.
Aujourd'hui, le marché du stockage de données a atteint un point d'inflexion et, en tant que technologie, les disques durs ont atteint leur apogée, tout comme l'innovation et l'investissement dans le secteur. Depuis 2015, il n'y a eu aucune société spécialisée qui est rentrée en bourse. La raison principale est que le stockage de données est sans doute le secteur technologique où il est le plus difficile de réussir, car les attentes des clients sont très élevées. En revanche, l'investissement et l'innovation dans le secteur des disques SSD se poursuivent à un rythme record.
D'un point de vue technologique, les disques SSD présentent de nombreux avantages par rapport aux disques durs, notamment en termes de durabilité, de fiabilité, de vitesse et de performance. De plus, dans les datacenters, les baies SSD consomment beaucoup moins d'énergie et occupent moins d'espace. Il s'agit d'un point très important à prendre en considération, compte tenu du fait que les datacenters consomment environ 3 % de l'alimentation électrique mondiale.
Jusqu'à présent, le principal obstacle à une adoption plus généralisée était le prix de la technologie par rapport aux disques durs. L'écart s'est toutefois considérablement réduit, grâce à une innovation continue, à une capacité d'utilisation supérieure et à une consommation d'énergie réduite. Ceci est important dans le contexte des coûts énergétiques élevés actuels et de la volonté des organisations de réduire leur consommation d'énergie et d'atteindre les objectifs Environnement, Société et Gouvernance (ESG). Le passage à l'utilisation de la technologie flash moderne dans les datacenters pourrait réduire leur consommation d'énergie de 80 %.
La demande de stockage de données étant appelée à se poursuivre sans relâche, le sec-
teur comprend largement la nécessité de disposer de disques plus capacitifs. Bien qu'il soit possible d'augmenter encore la densité des disques durs actuels, il existe une limite physique à la quantité d'informations pouvant être stockées sur un support magnétique. Les possibilités d'innovation dans le domaine des disques SSD sont tout simplement beaucoup plus importantes.
L'augmentation de la densité des disques SSD est largement similaire à celle du développement des disques durs. La différence réside dans la capacité à augmenter les quantités de puces sur un support, sans endommager physiquement celui-ci. Aujourd'hui, l'augmentation de la densité grâce à la superposition des puces est amplifiée par un nouveau processus : la création de "plaques" plus grandes sur lesquelles résident les puces, ce qui permet d'obtenir une capacité de stockage beaucoup plus importante, encore améliorée par la superposition de celles-ci.
La voie de l'innovation et de la croissance des disques SSD devient évidente. Pour créer des disques SSD encore plus puissants, il est possible d'utiliser des modules flash directs (DFMs), ce qui améliore considérablement leur efficacité. Par essence, cette approche permet aux puces de travailler de manière plus coordonnée et de façon plus optimisée.
Outre leur capacité à réduire le coût par gigaoctet de stockage, leur efficacité énergétique et la possibilité d'innover, les disques SSD plus denses présentent d'autres avantages, notamment en termes de performances et de résilience. La technologie Flash permet des temps de reconstruction plus rapides, ce qui signifie que moins de bits doivent être consacrés à la résilience, d'où un meilleur rapport coût-efficacité. Les systèmes SSD sont égale-
ment beaucoup plus fiables car ils ne comportent pas de pièces mobiles. Ils tombent moins souvent en panne, ce qui entraîne moins de remplacements, moins de temps pour remplacer les composants défaillants, moins de risques et pas de coûts de maintenance qui montent en flèche. Tout cela se traduit par un coût total de possession moins élevé.
La NAND fait l'objet d'un grand nombre d'innovations, tous les grands fabricants de flashs ayant fait preuve d'une augmentation significative de la densité cette année. Dans certains cas, nous voyons plus de 200 couches de NAND 3D empilées, ce qui fera baisser le coût de la NAND. La mémoire flash NAND devient plus compétitive en termes de coûts, le prix par bit diminuant plus rapidement que celui des disques durs.
Les organisations de toutes sortes valorisent de plus en plus leurs données nouvelles et historiques, ce qui impose des exigences de plus en plus élevées en matière de stockage de données. Les disques SSD plus denses sont parfaitement adaptés pour répondre à ce problème. L'évolution rapide des disques SSD, sous l'impulsion de l'industrie de la NAND, devrait remodeler le marché du stockage des données - et c'est déjà le cas. Un disque de 300 téraoctets sera commercialisé dans environ trois ans. Il s'agira alors du plus grand disque SSD disponible, mais dans l'intervalle, plusieurs étapes importantes : la disponibilité de disques SSD de 75 To et de 150 To. Nous approchons rapidement la fin du débat sur le coût du stockage SSD. En conséquence, les hyperscalers des clouds publics vont probablement cesser de dépendre de la technologie des disques durs, les conduisant ainsi à leur extinction.
4e édition - Jeudi 23 mai 2024
La 4ème édition de la Journée du datacenter, qui sʼest tenue le 23 mai 2024, placée sous les signes de lʼacculturation, de lʼacceptabilité et de lʼinnovation, a été un double succès :
• Par la qualité des experts qui sont intervenus tout au long de la Journée.
• Et par la fréquentation du site, qui a doublé le nombre de visiteurs par rapport à lʼédition 2023 !
Parmi les thèmes liés aux datacenters ont été évoqués : lʼaccessibilité ; 40 ans dʼhistoire ; la sûreté ; les territoires et les PME ; lʼIA (Intelligence Artificielle) ; le DCIM ; lʼinfogérance et les gestes de proximité ; la formation et les techniciens ; lʼinnovation et le futur.
Nos experts Journée du datacenter 2024
Pierre Barret, Mehdi Ouzini et Frédéric Laouti de Securitas Technology - Bruno Brottier de Carrier / Nlyte Software - Olivier Karoutchi de lʼInstitut Datacenter - Julliette Guillot de Nexeren - Didier Personnic de Kapsdata - Dominique Gatto de SBLM Ventures - Eric Boutonnet et Anthony Alonso de Metaline - Sami Slim de Telehouse - Fabrice Coquio de Digital Realty - Christophe Weiss et Tristan Richard dʼAPL - Adrien Boulongne de Data Centre World Paris - François Tournesac de lʼOCP - Yves Grandmontagne de DCmag.
Le marché de la sûreté dans le datacenter et ses enjeux
Pierre Barret
Sales Director of High Risk Markets
Securitas Technology France
A lʼinvitation de DCmag, Pierre Barret - Sales Director High Risk Markets (Datacenter, Defense, Luxury, Prison) de Securitas Technology France - évoque sa vision du marché de la sûreté dans le datacenter.
DCmag - Quelle est la vision de Securitas Technology du datacenter ?
Pierre Barret - De notre point de vue, nous voyons depuis quelques années une explosion du marché de la sûreté du datacenter, en particulier du marché français. Nous savons que le marché européen et nord européen était déjà extrêmement actif, mais nous constatons que le marché français est en pleine explosion. Nous pouvons l'expliquer par la qualité des infrastructures françaises, mais aussi par le risque, beaucoup d'acteurs spécialistes nous parlent depuis quatre ou cinq ans dʼun
risque de ne plus pouvoir construire de nouveaux datacenters. Nous avons vu ce qui s'est passé en Irlande. Et nous avons lʼimpression que cela pourrait aussi nous arriver. C'est le sentiment qu'il y a une sorte de course à l'armement, qu'il faut vite construire du datacenter. Nous voyons même des groupes qui n'étaient pas forcément spécialisés dans ce domaine qui se positionnent. Parce qu'une fois qu'on aura le datacenter, on aura aussi la possibilité soit de le conserver, soit de le revendre, peut être avec des tarifs intéressants.
Et votre vision plus spécifiquement du marché de la sûreté ?
Chez Securitas Technology, nous voyons une accélération de deux typologies de marché : la partie cloud souverain datacenter français et la partie datacenters internationaux. Nous
assistons également à des changements de stratégie chez certains GAFAM qui ne construisent pas eux-mêmes leurs datacenters. Aujourd'hui, cela ne va pas assez vite, dʼoù leur volonté de changer de stratégie. C'est pour cela que nous nous disons quʼil faut être présent maintenant. Nous avons devant nous quatre ou cinq ans de projets d'installation de nouveaux bâtiments. Donc, c'est extrêmement important pour nous que l'on soit présents d'ici là. On peut aussi imaginer un marché peut-être un peu plus étroit de rétrofit du datacenter déjà existant, où on vient moderniser les installations et la maintenance. Donc bien évidemment notre objectif est de poster nos équipes sur site afin de pouvoir traiter les besoins des différents clients.
Quelles sont les particularités du marché français ?
Si on parle du marché, notre vision est que le gros de notre marché, 80 %, ce sont les hébergeurs, aussi bien souverains quʼinternationaux. Il y a aussi le marché des datacenters privés, qui sont aujourd'hui minoritaires, mais certains clients ont leur propre datacenter. Et pour nous, c'est aussi un marché important.
Si on parle de la concurrence, nous avons aujourd'hui trois typologies de concurrents. Notre principal concurrent, étonnamment, ce sont des petits intégrateurs spécialistes français, présents la plupart du temps en région parisienne, là où sont la plupart de nos projets. Ils ont l'avantage, la force d'être flexibles, d'avoir beaucoup d'adaptabilité, peu de frais de structure, donc ils sont forcément assez compétitifs. Leur faiblesse, à l'inverse, c'est quʼétant de petites structures, ils sont parfois limités pour se positionner sur certains projets ou doivent s'associer à de plus gros acteurs. Nous avons ensuite la concurrence sur
le sol français des intégrateurs spécialisés anglais. LʼAngleterre a énormément d'intégrateurs spécialisés dans le marché des datacenters, et ils viennent répondre à des projets du marché français. Leur force, c'est qu'ils ont l'expérience et les reins solides. Leur faiblesse, c'est qu'aujourd'hui ils nʼont pas ou peu de structures en France, donc ils sont limités dans leurs actions. Et enfin, la troisième typologie de concurrents provient des intégrateurs classiques, principalement des électriciens, qui ne sont pas spécialisés.
Comment Securitas Technology se positionne-t-elle en France ?
Aujourd'hui, nous constatons qu'il y a deux grosses zones d'activité nous concernant. La partie parisienne, 80 % du business est sur Paris et en région parisienne, et de plus en plus on parle de Marseille. Mais nous constatons également que dʼautres régions émergent, comme lʼAlsace, le Sud Ouest ou la Bretagne. Donc pour pouvoir être pertinent sur ce marché, on ne peut pas avoir uniquement des équipes à Paris. Nous devons disposer dʼéquipes partout sur le sol français. Cʼest pour cela que nous disposons de 40 agences, réparties sur le sol français, ce qui nous rend capables d'assurer la plupart de nos besoins. Cʼest le positionnement Securitas Technology : Global Team. Et nous travaillons avec nos collègues internationaux pour pouvoir répondre au mieux dans un groupe puissant, qui nous permet d'être positionné, référencé et agile chez l'ensemble de nos clients. Et c'est le plus important. Nous ne voulons pas être un paquebot, mais le petit zodiac avec un moteur atomique. Nous sommes vraiment agiles, nous nous adaptons complètement à nos clients. Ça, c'est vraiment l'objectif premier pour être pertinent sur la partie service.
L’acceptabilité des datacenters
Sami Slim
Président de Telehouse France
DCmag - Quel est le point de vue du Président de Telehouse sur les problématiques d'acceptabilité des datacenters ?
Sami Slim : C'est effectivement une problématique, c'est à dire que la société, au travers de ses élus, souhaite avoir une discussion avec la technologie de manière générale, pas que le datacenter, pour savoir quelle est la place de la technologie au niveau local, au niveau des communautés. Je dis la technologie sciemment, parce que là on va parler de datacenter, bien entendu, mais en réalité ce débat existe également pour la 5G, également pour les vaccins ARM messager, etc. Toute nouvelle technologie pose débat. Donc, il est important de rappeler qu'il n'y a pas que le datacenter qui pose ce débat là. Le numérique a le vent en poupe et donc le numérique nécessite des usines qui transforment l'électricité en usages numériques. Ces usines là s'implantent sur un territoire qui pose des questions et dit pourquoi ici, pourquoi pas ailleurs, etc. C'est tout à fait normal. La question est comment finalement assainir ce débat ? Comment en faire un échange d'idées qui ne soit
pas un combat, qui ne soit pas un totem ? Et c'est là où l'écosystème du datacenter, et Datacenter Magazine en fait partie, doit finalement poser les bases d'un débat sain entre toutes les parties prenantes. Parce que nous avons tous à y gagner. Nous avons tous intérêt à réindustrialiser notre pays sur le numérique. Et la réindustrialisation passera forcément par la construction de datacenters sur nos territoires.
Concrètement, comment cela peut-il se passer sur le terrain ?
Ce qu'on fait chez Telehouse, depuis 25 ans en France. Avant d'acquérir un terrain, on discute avec les communes, les élus, les représentants des associations, des terrains où nous ciblons des constructions de datacenters. Parce que la méthode que l'on voit dans d'autres pays, ou par d'autres entreprises parfois, qui est d'acquérir le foncier et puis de dérouler comme si c'était un acquis, nous trouvons que c'est justement contre productif et que c'est se mettre en opposition stérile avec une communauté qui peut-être ne veut
pas de nous. Si bien que même dans des communes, dans des zones extrêmement denses, comme à New York, comme à Londres, comme à Paris ou comme au Japon, nous avons réussi à implanter des datacenter en plein cœur de la ville. Et donc on y va ! On discute avec les élus locaux, on discute avec les associations de quartier, c'est-à-dire que lʼon va à des niveaux extrêmement terrains en termes de voisinage et on parle de tout. De qu'est-ce que c'est que ce bâtiment ? À quoi va-t-il ressembler ? Est ce qu'il y a du bruit ? Est ce que... Il y a beaucoup de mythes, beaucoup de symboles qui entourent ce datacenter, et on essaye finalement de déconstruire ces mythes par des choses simples. Par exemple, nous leur disons que finalement, le datacenter ne fait pas du tout de bruit. Ils nʼont qu'à venir visiter les nôtres. Parfois, on leur fait visiter et puis ils vont le voir. Le datacenter, ce n'est pas des allers-retours de camions matin, midi et soir. Vous voyez, il y a des exemples très concrets à apporter qui permettent finalement aux communautés locales d'être rassurées par les projets industriels et qui permettent finalement un climat apaisé sur l'arrivée de nos bâtiments.
Telehouse a également un projet dans Paris qui est un datacenter ancien que vous allez rénover. Est-ce que cela change les conditions ?
Absolument. Là, les autorités locales sont finalement en demande de ce genre d'améliorations, parce que c'est de l'amélioration que l'on apporte. On change la génération et les technologies de nos datacenters pour installer des technologies plus performantes, moins impactantes sur l'environnement, etc. Et donc au contraire, les autorités locales veulent qu'on s'engage sur ce chemin là, celui du rétrofit des datacenters anciens. Mais ce qui est
quand même important, c'est que même dans ces phases là, même sur des datacenters existants, il faut cultiver la proximité, avec notamment le voisinage. Parce que sur les phases de travaux ou sur les phases d'installation, on doit informer, on doit tenir les gens au courant. Ces mêmes gens qui nʼont pas envie d'avoir une grue qui s'installe devant eux sans qu'il y ait des explications. Et donc finalement, il est fini le temps où le datacenter est une boîte noire, où personne ne sait ce qu'il y a dedans. Il faut cultiver une forme de transparence, presque de lisibilité sur ce qu'on fait sur notre technologie et sur notre activité.
Un dernier point : vous êtes également très engagé sur l'humain. pour vos équipes, mais aussi vous participez à l'insertion.
Oui, la chance des datacenters, c'est quʼils sont un pourvoyeur d'emplois peu ou pas qualifiés et non délocalisables. C'est-à-dire que le bassin d'emplois pour un datacenter, c'est littéralement le voisin. Nous, si on pouvait embaucher tous nos voisins, cela nous arrangerait parce qu'on a besoin de proximité avec le datacenter, on doit intervenir vite, etc. Et ça, c'est une chance énorme parce qu'on vient avec nos emplois sur place. En plus, le mythe selon lequel le datacenter n'emploie que des bac plus 18 n'existe pas. Les métiers du datacenter, ce sont les métiers de lʼélectricité, de la fibre, de la plomberie, du chauffage, de l'eau, du cuivre, de la sécurité. Ce sont des métiers de terrain sur lesquels effectivement on peut former des jeunes. Et nous avons également des modules avec l'association des Plombiers du numérique pour former un jeune en trois mois, et avec un CDI à la clé chez Telehouse pour travailler sur les datacenters.
Sécurité du datacenter : la conformité version hyperscale vs France
Frédéric Laouti
key account manager clients France
Securitas Technology France
Mehdi Ouzini
key account manager clients internationaux
Securitas Technology France
La sûreté des datacenters varie selon leur typologie, leur origine internationale ou française (souveraineté), leur taille (hyperscale), etc. Securitas Technology - avec Mehdi Ouzini, key account manager clients internationaux, et Frédéric Laouti, key account manager clients France - fait le point sur la conformité de la sûreté du datacenter selon la typologie des clients.
DCmag : Messieurs, merci de vous présenter.
Mehdi Ouzini - Je suis Key Account Manager dédié Data Center et j'ai en charge dans mon portefeuille les clients dits internationaux Data center qui s'installent en France.
Frédéric Laouti - Je suis sur les marchés à hauts risques et plus spécifiquement les data centers. Ma mission est d'accompagner les projets de datacenters souverains, donc les entreprises françaises ou les groupes européens qui ont des projets spécifiques sur le territoire national.
On a l'impression que la démarcation entre les grands projets souverains et les grands projets internationaux commence à s'amenuiser. Il y a également des grands projets dans les deux sens.
Frédéric Laouti - Oui, complètement. Il y a d'énormes projets dans les deux sens je pense. La différence est plus dans le fonctionnement et dans la méthodologie de l'accompagnement du projet où les hyperscalers ont des standards bien établis, avec lesquels ils ont l'habitude de travailler. Et pour les gros projets souverains, il y a bien sûr toutes les notions de qualification ANSSI, de certification, mais aussi l'accompagnement sur la technologie, sur les solutions, voire être force de proposition sur les marques déployées. Et nous, en tant que spécialiste, en tant qu'intégrateur, on se doit d'être en maîtrise sur l'ensemble de ces technologies, de ces marques, mais aussi dʼêtre force de proposition.
Nous sommes impatients de connaître quelles sont les formules de conformité que vous imposent vos grands clients internationaux ?
Mehdi Ouzini - Tout d'abord, ils nous imposent une catégorie de produits qu'on ne trouve pas forcément en France et donc nous appelons à l'aide notre service achat pour pouvoir les trouver, les référencer et les déployer sur le sol français. Donc aujourd'hui, il y a des standards bien établis pour chaque groupe connu dans le datacenter, et ces standards sont définis dans un cahier des charges. Ils sont très stricts, on nʼa pas le droit de dévier ne serait ce qu'à la toute petite résistance que l'on doit mettre en place sur une boîte de jonction. Il faut qu'on puisse déployer un système et quʼil soit identique déployé en Irlande, déployé en France, déployé en Italie, déployé
en Grèce, et j'en passe. Et ça, c'est le cas pour beaucoup d'acteurs connus du marché aujourd'hui.
Est ce qu'ils imposent des niveaux de sécurité particuliers, des pratiques particulières ?
Mehdi Ouzini - Oui, ils imposent des niveaux de sécurité particuliers, contrairement à certaines installations qu'on a pu voir en France. Ils misent sur une protection physique de tout ce qui est câblerie des équipements. C'est quelque chose qu'on n'a pas forcément l'habitude de voir en France, que ce soit dans les industries, que ce soit dans le retail ou que ce soit dans d'autres verticales. Mais c'est quelque chose qu'on a appris à maîtriser depuis quelques années maintenant pour cette topologie de clients.
Il semblerait que parfois ils imposent des choses qui ne peuvent pas être pratiquées en France. Comment vous adaptez-vous, pouvez-vous négocier avec eux ?
Mehdi Ouzini - Pour être sincère, je ne suis pas encore tombé sur ce type de situation. Jusqu'à maintenant, tout ce qui nous a été demandé et imposé via le cahier des charges, nous avons pu y répondre et satisfaire le client.
Tournons-nous vers le pendant français. Sur les questions de conformité, nous avons un organisme en France qui est un guide en la matière, cʼest l'ANSSI.
Frédéric Laouti - Oui, complètement. En effet, ces notions de cyber, de protection de la donnée, sont stratégiques et fondamentales. On va pas reparler de la légitimité aujourd'hui des datacenters, mais c'est quand même bien
de rappeler qu'aujourd'hui on voit que tous les enjeux de la souveraineté - et ce n'est pas la situation géopolitique actuelle qui va nous dire le contraire - sont fondamentaux. Tous les grands groupes ont donc pris des décisions ou sont en train de prendre des décisions sur la gestion de leurs données. Elle est fondamentale, elle est stratégique aujourd'hui. C'est comment, encore une fois, on va les accompagner, on va leur donner des outils et on va prendre en compte les points des qualifications ANSSI de la certification, en tenant compte des critères, des équipements... Ils ont leur fonctionnement et leur structure informatique. Notre métier c'est d'abord les équipements et leur fonctionnement, et la gestion des alarmes dans leur PC de sécurité. Mais bien sûr, et de plus en plus, la demande nous est faite de faire le lien de plus en plus étroit entre leur architecture informatique et les notions et leurs problématiques et la protection des questions de cybersécurité, même si c'est pas au départ notre métier de prédilection. C'est vrai qu'on est obligé de monter en compétence avec nos structures, nos équipes support pour les accompagner dans ces architectures.
Il y a également des choses qui poussent vers une élévation des niveaux de sécurité. On parle de SecNumCloud par exemple, qui est toujours de l'ANSSI. Le rôle d'accompagnant qui est le vôtre, c'est un point important vis-à-vis de vos clients ?
Frédéric Laouti - Oui, c'est toujours le levier absolu, c'est l'accompagnement, c'est partir de l'analyse des besoins du client, de son fonctionnement, de sa stratégie, de la prise en compte de ses données. Entre la direction générale d'une entreprise et la direction informatique, ce nʼest pas toujours aussi fluide que ça peut paraître. L'objectif, c'est que nos ex-
perts en interne puissent arriver à communiquer, à rendre cela audible, compréhensible pour tous, pour ajuster en fait les missions, la prise en compte de où on commence et où on s'arrête. Est ce qu'on prend la toute part ? Est ce qu'on prend une part infime ? Mais en tout cas que tout cela soit fluide et sécurisé, encore une fois. Nous en parlions sur la question précédente, cette gestion de données, elle est stratégique, donc elle doit aujourd'hui être rapatriée dans des datacenters structurés, c'est la clé. Sans compter sur la compréhension pour le grand public du positionnement du datacenter... On sera toujours plus efficient, on sera toujours plus efficace si on est regroupés en experts au sein d'un datacenter plutôt qu'un gros groupe, aussi gros soit-il, isolé dans son coin à mettre en place une infrastructure gigantesque qui va consommer beaucoup, qui va être peut-être moins pertinente en terme d'équipements, ou qui va être équipée pour aujourd'hui et des années à venir, alors que dans un datacenter il va y avoir cette flexibilité, cette agilité, à structurer le besoin, à le dimensionner, à faire bénéficier toute l'expertise qui a été développée au niveau des technologies, au niveau de la consommation énergétique, etc. Tout ça va être ajusté. Et de la même façon, nous sommes des experts, des intégrateurs de la sûreté, et nous allons les accompagner de la même façon et trouver la bonne articulation pour répondre le plus spécifiquement possible et le plus parfaitement possible au niveau de besoins de notre client.
Les grands acteurs internationaux, quand ils débarquent dans un pays comme la France, sont confrontés aux mêmes règles locales. Securitas Technology peut-elle également accompagner ses clients pour s'adapter à ces environnements ?
Mehdi Ouzini - Clairement, oui. Souvent nous a été posée la question “est-ce qu'il y a des normes particulières à devoir respecter en France, notamment sur les installations de sûreté ?”. Nous avons un devoir de conseil, donc nous expliquons qu'Il y a certaines normes, qu'il y a l'ANSSI, la RGPD, enfin plein de normes qui entrent en compte justement pour la gestion de ces données. Ce qu'il faut savoir, c'est qu'aujourd'hui, chez les clients internationaux que je traite en particulier, on vient s'intégrer dans leur réseau. Ils ont un réseau qu'ils ont pris le soin de sécuriser par eux mêmes. Et on s'en rend bien compte quand on vient pour intégrer une caméra ou une UTL (Unité de Traitement Locale dans le contexte du contrôle d'accès - NDLR).
C'est tout un protocole pour pouvoir la déclarer et la mettre en place sur le réseau et la faire fonctionner. Donc déjà, il y a ce point cybersécurité qui je pense est traité peut-être pas comme on le fait en France, mais avec encore une fois des standards internationaux qui conviennent aux utilisateurs finaux du site. Par la suite, ils nous imposent aussi des produits. J'ai un exemple en tête où il nous a été imposé d'installer une espèce de caméra de comptage pour pouvoir faire de l'unicité de passage. Donc on trouvait que le produit qui était demandé, qui était imposé, n'était pas forcément efficient pour l'utilité que souhaitait le client. Et donc nous avons pu être force de proposition et lui proposer une installation différente qui intègre un peu d'IA pour pouvoir faire justement du comptage de personnes.
sur mes collègues des autres pays qui eux ont une grande expérience sur le monde du datacenter. Et cette expérience, nous arrivons justement aujourd'hui à la mettre en place en France et avec notre équipe dédiée avec laquelle nous travaillons main dans la main. Nous sommes conscients des standards qui sont demandés, que ce soit pour les datacenters souverains ou internationaux, et on essaye de s'y conformer.
Frédéric Laouti - C'est exactement ça. C'est vrai que, plus on pratique en fait, plus on communique, plus on est baigné dans ce segment. Bien sûr, on s'inspire aussi des marchés à haut risque dans leur ensemble, puisque ce niveau de criticité fait que des demandes particulières arrivent. Et plus on est précis, plus nous sommes disponibles pour être force de proposition et accompagnateur des projets, que ce soit lié à des contractants généraux à l'origine, à des exigences du client au départ, à des bureaux d'études spécialisés en France. Ces gens-là aujourd'hui nous connaissent et s'appuient sur nous pour justement que l'on puisse, accompagner les clients dans leur réalisation et par la suite dans le fonctionnement quotidien de leurs datacenters.
Et ça a convaincu le client malgré que ce soit imposé au cahier des charges. Et il a pu accepter cette dérive et aujourd'hui nous en sommes très contents. La chance que j'ai c'est quʼaujourd'hui Securitas Technology est un groupe international et j'arrive à m'appuyer
Projet WoodenDataCenter : des racks en bois par OCP
François Tournesac
co-fondateur dʼImpleon et membre dʼOCP
Parmi les projets portées par lʼOCP (Open Compute Project) figure le WoodenDataCenter Open Rack v3 (ORv3), le datacenter en bois.
LʼOpen Compute Project (OCP) est une organisation dont le but est de partager des concepts et des techniques de conception de datacenters dans une vision open source du hardware. Lʼinitiative a été lancée en 2011 par un groupe dʼingénieurs de Facebook, et il a été rejoint depuis par la majorité des acteurs de lʼhyperscale.
Nous avons rencontré François Tournesac, co-fondateur dʼImpleon et membre dʼOCP, qui participe au projet ORv3 de lʼOCP, le WoodenDataCenter Open Rack v3.
Ce projet porte sur la conception et la construction de racks pour serveurs à ossature bois. Il prend en charge le montage dʼéquipements de 19 pouces, standard pour les baies modernes dans les datacenters ʻclassiquesʼ, ou 21 pouces, le standard des hyperscalers, dont les hauteurs et largeurs sont plus importantes pour accueillir des serveurs open source OCP, et qui disposent dʼoptions pour le liquid cooling.
Les PoC (Proof of Concept) de WoodenDataCenter concernent principalement les racks 21 pouces avec rear door heat exchanger (RDHx), autrement dit des baies destinées aux hypercalers et aux serveurs OCP, avec échangeurs thermiques en porte arrière. Lʼair chaud produit par les serveurs est refroidi au travers de la porte équipée de systèmes de refroidissement plutôt que dʼutiliser le flux dʼair du datacenter. Le Woodendatacenter permet également lʼintégrations du refroidissement liquide (liquid cooling).
« Nous souhaitons générer des projets OCP visant la promotion green et durable qui changent les règles du jeu sur un marché européen où le rack OCP est absent, indique François Tournesac. Le bois a la même résistance que le métal qui compose les racks classiques, mais il est plus flexible et son transport est facilité » . Le bois est également négatif en carbone, sa production et son exploitation génèrent moins de carbone quʼelles nʼen consomment.
ment vrai dans les pays où le bois est une industrie de premier plan. On notera par ailleurs que le bois retenu sur les PoC est de classe protection du feu F120 sécurité physique Tier 4.
« Nous voulons standardiser une couche hardware ouverte, avec beaucoup d’options, qui correspond à la majorité des besoins, et innover au dessus. C’est une ouverture à l’innovation pour l’accélération de l’adoption de l’OCPet des déploiements ‘cost effective’. Mais en France, personne n’a envie de faire du hard… »
Le projet WoodenDataCenter Open Rack v3 est accessible sur la marketplace de lʼOCP.
Dans lʼinfrastructure du datacenter, les racks représentent 20 à 30% de lʼinvestissement. Les expérimentations menées en Finlande auraient montré une réduction de coût de lʼordre de 80% avec le bois. Cʼest certaine-
Journée du datacenter 2023
sélection des meilleurs moments en vidéo
SSD 300 To pour datacenter et IA
Le sud coréen SK hynix a présenté un énorme disque SSD de 300 To destiné à équiper les serveurs de stockage de données des datacenters qui hébergent des infrastructures d'Intelligence Artificielle.
Allemagne - Colt construit un 3ème datacenter à Francfort
• Colt DCS continue dʼétendre son empreinte en Europe.
• Colt Frankfurt Three, troisième installation en Allemagne, sera située à Sossenheim.
• Dʼune superficie de 12 600 m² avec 32,4 MW.
Allemagne - PGIM Real Estate entre en lisse à Munich
• Cʼest via son fonds European Value Partners II que PGIM Real Estate a acquis un terrain de Unterschleißheim, proche de Munich.
• Le projet est de transformer la propriété en datacenter, mais le bénéficiaire nʼa pas été dévoilé (PGIM a déjà travaillé avec Equinix, Digital Realty et Amazon).
• La puissance disponible serait de 30 MW.
Allemagne - Maincube a terminé FRA02 à Francfort
• Le deuxième datacenter de Maincube à Francfort est entré en production.
• Il offre 7,4 MW sur 4 700 m² de salles informatiques.
• Murs de refroidissement et UPS rotatif (stockage inertiel à volant cinétique).
Espagne - Amazon va investir 15,7 milliard € en Aragon
• Amazon va construire des datacenters en Aragon.
• Lʼinvestissement sera de 15,7 milliards € sur les 10 prochaines années.
Espagne - Microsoft va investir 6,7 milliards € à Saragosse
• Microsoft va développer de nouveaux datacenters en Aragon, au nord-est de lʼEspagne.
• Microsoft a déposé une demande de permis de construire à Saragosse.
• Un investissement annoncé de 7,16 milliards $ (6,7 milliards €).
Espagne
- Oracle va investir 1 milliard $ à Madrid
• Oracle va investir 1 milliard de dollars dans un datacenter à Madrid.
• Lʼobjectif est dʼouvrir une troisième région cloud dans la capitale espagnole.
Espagne - Création de Solaria Data Center
• Lʼénergéticien Solaria crée une filiale dans le datacenter : Solaria Data Center.
• Le développeur de fermes solaires affirme disposer dʼun accès à 150 MW pour des datacenters. Et il négocierait 860 MW supplémentaires.
Espagne - Prime Data Centers construit un hyperscale à Madrid
• Prime Data Centers, acteur mondial de lʼhyperscale et de la colocation, va construire un datacenter à Alcobendas, Madrid.
• Dʼune surface de 26 000 m², il disposera de 40 MW.
Projets
Espagne - Nabiax sécurise 10 MW supplémentaires à Madrid
• Data4 Mil2 sera un campus de 8 datacenters .
• Le développement est destiné à satisfaire la demande de deux hyperscalers.
• Un investissement de 47 millions € pour porter la capacité du campus à 36 MW.
Espagne - Un datacenter en sous-sol à Barcelone
• La Mairie de Barcelone a approuvé un projet de datacenter sous un terrain de football.
• Dʼune surface de 10 600 m², sa capacité électrique serait de 12 à 15 MW.
• Le datacenter devrait alimenter un réseau de chauffage et de refroidissement.
Portugal - Equinix construit un datacenter IBX à Lisbonne
• Equinix construit son deuxième datacenter IBX à Lisbonne.
• Le nouveau datacenter LS2 International Business Exchange (IBX) sera situé à côté du site LS1 d'Equinix.
• Lʼinvestissement représent 50 millions € pour plus de 2 000 m² d'espace de colocation.
Italie - Data4 projette un nouveau campus à Milan
• Data4 Mil2 sera un campus de 8 datacenters sur un terrain de 77 000 m² proche de Milan.
• Ce sera le second investissement de Data4 en Italie, 500 millions €.
Finlande - L’énergéticien Fortum développe un campus
• Lʼénergéticien finlandais Fortum développe un campus de datacenter à Jyväskylä, au centre de la Finlande.
• Les terrains, sur 20 ha, qui appartiennent au gouvernement, seront proposés aux opérateurs de datacenters.
• La zone de Seppälänkangas à Jyväskylä abrite dejà plusieurs datacenters, dont Jyväskylä Datacenter et Datavault Kanavuroi de TNNet.
Finlande - Telia ajoute 4 MW à son datacenter d’Helsinki
• Lʼopérateur télécoms Telia va agrandir son campus dʼHelsinki, 34 000 m² et 24 MW..
• 4 MW seront ajoutés au site, dont la capacité pourrait être portée à 100 MW..
• Le campus alimente le réseau de chauffage urbain et ses UPS sont connectés en secours du réseau finlandais
Finlande - Google investit dans la récupération de chaleur
• Google va investir 1 milliard dʼeuros dans la modernisation de son datacenter dʼHamina, refroidi à lʼeau de mer.
• Lʼinvestissement portera principalement sur la récupération de chaleur.
• Ce serait le premier investissement de Google dans ce domaine.
Pays-Bas - Un nouveau datacenter à Amsterdam
• Peakside Capital a vendu un immeuble de bureaux à un “opérateur et investisseur mondial de data centers” anonyme.
• Situé à Schiphol-Rijk, lʼimmeuble Tupolevlaan 28-46 offre une surface de 6 500 m².
Pays-Bas - Switch Datacentres construit à Amsterdam
• Switch Datacentres a annoncé AMS4, un nouveau datacenter 15/18 MW à Amsterdam.
• De conception modulaire, il disposera dʼun système de refroidissement en boucle fermée.
• Une technologie de captage de chaleur sera distribuée en réseau de chauffage urbain.
Pays-Bas - Un second datacenter NorthC à Eindhoven
• ʻThe High Tech Gatewayʼ est le deuxième datacenter de NorthC à Eindhoven.
• Le bâtiment de 4 000 m² offre 2 500 m² de salles IT.
• De conception Tier III, il dispose de 4,5 MW.
Suède
- Microsoft va investir 3,2 milliards $
• Microsoft va réaliser son plus gros investissement historique en Suède, 3,2 milliards $ dans ses datacenters.
• Lʼobjectif est dʼaméliorer ses trois datacenters existants en ajoutant 20 000 GPU.
Norvège - AQ Compute agrandit AQ-OSL1 à Oslo
• AQ Compute va agrandir son campus AQ-OSL1 à Hønefoss, près d'Oslo.
• Deux datacenters, AQ-OSL1B et AQ-OSL1C, apporteront chacun 15 MW.
• Le campus devrait ainsi atteindre une capacité de 171 MW.
Norvège - Bulk va doubler sa capacité IT à Oslo
• Bulk Infrastructure a lancé l'extension de son campus Oslo Internet Exchange (OS-IX), datacenter le plus connecté de Norvège.
• Trois nouvelles salles informatiques vont être construites, pour 5,5 MW, ce qui va doubler sa capacité actuelle.
Irlande - Un 3ème datacenter Google à Grange Castle
• Google veut construire un troisième datacenter sur son campus de Grange Castle, à Dublin.
• Cet agrandissement devrait étendre les salles serveurs de 72 400 m².
Irlande
- Sisk va construire le campus Vantage de Dublin
• Sisk est nommé à la tête du projet de construction du campus de datacenters de Vantage Data Centers DUB1 à Dublin.
• La construction se déroulera en deux phases, 32 MW puis 20 MW.
Grande-Bretagne
- CBRE achète un datacenter dans les Docklands
• CBRE Investment Management a acheté un datacenter proche de Canary Wharf dans les Docklands de Londres.
• Le vendeur est Abrdn, pour 48,65 millions de livres sterling.
• Le bâtiment héberge un Digital Realty Hub.
Grande-Bretagne - Goldacre veut acquérir un datacenter
• Lʼinvestisseur Goldacre sʼest associé à Legal and General pour acquérir lʼun des datacenters britanniques les plus puissants.
• La zone de Nzwham (Londres) est citée, sans autre indication.
• Le projet pourrait fournir entre 77 et 90 MW.
Grande-Bretagne - Ada Infrastructure, 210 MW dans les Royals Docks
• Ada Infrastructure a obtenu un permis de construire pour un campus de datacenters à London Docklands
• Le campus a réservé 210MW, avec une sous-station, et un premier bâtiment proposera 64 000 m² et 70 MW
• Ada Infrastructure est détenue par GLP (GLP Capital Partners)
Grande-Bretagne - Méga projet de Iver refusé
• Deuxième refus du Buckinghamshire Council pour un projet de méga datacenter à Iver.
• Le premier projet de 163 000 m² avait été ramené à 72 000 m².
• 63 lettres d'objections ont influencé la décision, dont celles du conseil paroissial d'Iver.
• Le projet était porté par la branche britannique d'Altrad (le milliardaire franco-syrien Mohamed Altrad) et Greystoke Land.
Grande-Bretagne - Segro autorisé à construire à Slough
• Le conseil municipal de Slough a autorisé Segro (immobilier logistique) à construire deux datacenters.
• Les datacenters couvriront environ 80 000 m².
• Pour autant, le projet est situé dans le prolongement de celui dʼIver, refusé !
Grande-Bretagne - Permis de démolir pour Vantage au Pays de Galles
• Vantage Data Centres a soumis un permis de démolir pour lʼancienne usine Ford de Brigdend, au Pays de Galles.
• Vantage a récemment acquis lʼusine de moteurs Ford fermée en 2020.
• Vantage exploite déjà deux datacenters à Cardiff.
Grande-Bretagne - Un datacenter ARC ultra-sécurisé à Corsham
• Le Wiltshire Council a donné son accord pour la construction dʼun datacenter ultra-sécurisé sur le campus Spring Park dʼArk.
• Le campus dispose déjà de 5 datacenters, qui subissent lʼopprobre des habitants du village voisin Neston...
Grande-Bretagne
- Un campus au Silicon Sands de
Blackpool
• Le Blackpool Council veut son campus de datacenters sur le Silicon Sands, un site avec ferme solaire et boucle de chaleur.
• Lieu stratégique, Blackpool abrite le câble Internet Celtix-Connect2, qui relie la ville à New York, Dublin et l'Europe du Nord dans le cadre de la boucle nord-atlantique, qui transporte jusqu'à un tiers du trafic Internet mondial.
Grande-Bretagne - BT construit un datacenter au sud de Londres
• Le géant britannique des télécoms BT Group va construire un nouveau datacenter de 930 m² dans le sud de Londres.
• Un investissement de 27 millions $ qui devrait faire lʼobjet dʼextensions.
• BT réorganise la plupart de ses 70 datacenters au Royaume-Uni.
Grande-Bretagne - Un méga-datacenter dans le Lincolnshire
• Un méga-datacenter hyperscale à plus de 3 milliards £ est en projet à South Killingholme, dans le Lincolnshire.
• 300 000 m² de bâtiments accueilleront 3 datacenters IA et 387 MW.
• Le site sera en partie alimenté par le parc éolien Hornsea One.
Grande-Bretagne - Blackstone finalise le rachat du site Britishvolt
• Blackstone a finalisé le rachat de l'ancien site Britishvolt dans le Northumberland.
• Avec sa filiale QTS, il prévoit de construire une série de datacenters dʼIA.
• Un projet à 10 milliards £, dont 110 millions £ pour la ville.
Ghana - Africa Data Centres partenaire d’Onix Data Centres
• A Accra, Ghana, Africa Data Centres sʼassocie à Onix Data Centres pour construire un datacenter.
• Lʼaccord entre dans le financement de 500 millions $ obtenu par ADC, également financé par IDFC (International Development Finance Corporation) de lʼadministration américaine.
Afrique du Sud - 2 milliards de rands pour Africa Data Centres
• Africa Data Centres a débloqué 2 milliards de ZAR.
• Le financement doit apporter 20 MW supplémentaires pour lʼhyperscale.
• Africa Data Centres est une entreprise du groupe Cassava Technologies.
Cameroun - 3 datacenters en Afrique francophone par ST Digital
• Fournisseur d'infrastructures et de services cloud au Cameroun, ST Digital va construire 3 datacenters en Afrique francophone.
• Sont concernés la Côte dʼIvoire, le Gabon et le Togo.
Congo - Construction du premier datacenter fibre optique
• La République du Congo construit le premier datacenter en fibre optique dʼAfrique centrale.
• Le financement de 66,55 millions d'euros est assuré pour 52,47 millions par la Banque africaine de développement et 14,50 millions par le gouvernement du Congo.
• Datacenter futuriste, il est associé au déploiement de 600 km de fibre optique vers le Cameroun et la République centrafricaine via le fleuve Congo..
Mozambique - Raxio MZ1, premier datacenter certifié Tier III
• Raxio Data Centres a ouvert son premier datacenter au Mozambique, Raxio MZ1.
• Cʼest le premier datacenter Tier III de la région.
• Plus de 80 % de l'électricité provient de sources renouvelables locales, hydroélectrique et solaire.
Kenya
- Un datacenter géothermique par Microsoft
• Microsoft et G42 (IA) des Émirats arabes unis financent à hauteur dʼun milliard $ la construction dʼun datacenter au Kenya.
• Il sera alimenté par l'énergie géothermique renouvelable.
• Microsoft y héberge une nouvelle région cloud dʼAfrique de lʼEst.