31 minute read

pilot geyser-project in mediatoren roermond van start

Alticom wordt energieleverancier

Pilot GEYSER-project in mediatoren Roermond van start

Advertisement

“op een gegeven moment is het gewoon op”, zo vat ed boerema, de ceo van alticom, de

voorraad aan fossiele brandstof samen. tel dit gegeven op bij de eis van de europese unie om

de uitstoot van co 2 in 2020 met 20 procent - ten opzichte van 1990 - terug te hebben

gedrongen, dan is het niet meer dan logisch dat alticom vol overtuiging in het europese

geyser-project is gestapt. ondersteund door green it amsterdam, start in september een pilot in de mediatoren van roermond. datacenterworks sprak over dit initiatief met ed boerema van alticom en jaak vlasveld van green it amsterdam.

“In feite passen wij al sinds 1960 het principe van vrije luchtkoeling toe”, zo zegt Boerema. De CEO van Alticom kan zover teruggaan in de tijd, omdat vijfenvijftig jaar geleden in Hoogersmilde de eerste zendmast van Nederland in gebruik werd genomen. “Vanaf dat moment werd er gebruik gemaakt van de bestaande omstandigheden die de hoogte van onze masten met zich meebrengen. We waren dus al duurzaam voordat het woord überhaupt was uitgevonden”, zo gaat Boerema verder.

lagere energiekosten “Alticom steekt niet onder stoelen of banken dat deze aanpak zijn vruchten oplevert. Het is zeer ineffectief om de DX machines voltijds te laten draaien om te koelen. Sinds 2009 koelen we dan ook met lucht. De 24 datacenters van Alticom hebben momenteel een gemiddelde PUE van 1.2 - dat garanderen we onze klanten ook - waarbij ook een PUE waarde van 1.07 mogelijk is. Kijken we naar onze energiekosten dan is slechts 9 tot 17% van deze energiekosten toe te schrijven aan koeling. Die lagere energiekosten zien onze klanten natuurlijk ook weer terug.” “Het viel ons op”, vervolgt Boerema, “dat het kennisniveau als het gaat om het terugdringen van energieverbruik te wensen overliet. Daarom zijn we in 2010 gestart met regionale bijeenkomsten waar dit onderwerp aan de orde kwam. Tijdens een dergelijke bijeenkomst zijn we ook in contact gekomen met Green IT Amsterdam en zijn we partners geworden.” Jaak Vlasveld zegt hierover: “Green IT Amsterdam had in die tijd de flexibilisering van energie reeds op de agenda gezet en we waren al flink bezig om dit te promoten. De wens leefde om datacenters een rol te geven als energieleverancier (ook wel genoemd ‘prosument') zoals de glastuinbouw dat al geruime tijd op zich heeft genomen.”

Volgens de directeur van Green IT Amsterdam past GEYSER dan ook perfect als deelproject in het Europese Smart City-plan. “Op het moment dat de oproep vanuit de Europese Commissie kwam om GEYSER te lanceren binnen Smart City, zijn we met onze partners aan de slag gegaan. Het sluit ook prima aan bij de Topsector Energie om dit regionaal uit te rollen.”

samenspel “Alticom is graag meegegaan in dit vooruitstrevende samenspel tussen Europa, Nederland en de regio”, vervolgt Boerema. “We gaan natuurlijk graag door op de weg van energie-efficiëntie om zo onze klanten nog scherper van dienst te kunnen zijn. Het managen van energie zoals wij dat doen, vergt wel de nodige aandacht. Zo zullen we de inkomende lucht op niveau moeten bevochtigen. Het managen van energie binnen ons datacenter vergt de nodige flexibiliteit, ook bij onze klanten. Buitenlucht kan warmer zijn dan men gewend is. Communicatie is daarbij extreem belangrijk.” Boerema vervolgt: “Onlangs is een GEYSER-delegatie in Roermond op bezoek geweest om de techniek te bekijken om zo de koppeling te kunnen maken tussen de GEYSER optimizer en het DCIM van Alticom. De bedoeling is dat de resultaten en de concrete tools hiervan ook beschikbaar komen voor andere partijen. Het gezamenlijke doel is het terugdringen van energieverbruik. In het najaar van 2016 moet de pilot het resultaat gaan verzilveren. In Roermond kijken we uit op een energie-verdeelstation, mooi dat we straks energie terug kunnen leveren. Alticom Roermond staat letterlijk in een woonwijk, dus maakt de afkorting van GEYSER: Green nEtworked data centers as energY proSumErs in smaRt city environments helemaal waar.”

Ed Boerema Jaak Vlasveld efficiënter energiebeheer GEYSER is gericht op het ontwikkelen van besturingssoftware dat efficiënter energiebeheer in datacenters mogelijk moet maken, waarbij datacenters uiteindelijk ook leveranciers worden van energie. Het belangrijkste doel van het project is om datacenters nieuwe instrumenten te verschaffen om optimaal te functioneren binnen vier innovatieve scenario’s. Als onderdeel van deze scenario’s zal een innovatief ruimtelijk ontwerp voor datacenters worden opgeleverd, met speciale aandacht voor de koppeling tussen het datacenter en de omgeving. Verder worden de mogelijkheden voor microgrids op basis van wisselspanning en gelijkspanning verkend en zal het realtime verplaatsen van rekenlast naar datacenters waar hernieuwbare energie beschikbaar is, worden gefaciliteerd. Deze scenario’s creëren op hun beurt weer nieuwe kansen voor smart cities , zoals die worden ontwikkeld in de regio Amsterdam. Datacenters zijn momenteel grootverbruikers van energie, vooral toe te schrijven aan de inzet van ICT en de daarvoor benodigde koelinstallaties die hier worden gebruikt. Het multidisciplinair projectteam GEYSER moet datacenters duurzamer gaan maken. Hiervoor wordt besturingssoftware voor het interne klimaat van datacenters ontwikkeld. Het project wordt door de Europese Unie gesteund met een subsidie van 2,97 miljoen euro. Met name kleinschalige datacenters, zoals de toren van Alticom in Roermond met 80 vierkante meter en 16 racks, zijn geschikt voor het testen van deze software. Alticom biedt de mogelijkheid de impact van deze nieuwe software snel te testen. GEYSER - een internationaal consortium van tien bedrijven en universiteiten en een van de zes speerpunten van de Europese Commissie - is onlangs gestart met het vinden van oplossingen voor het integreren van datacenters in duurzame energienetwerken en in smart cities. Het consortium heeft hiervoor 2,97 miljoen euro financiering toegewezen gekregen via het Zevende Kaderprogramma (KP7) van de Europese Commissie. De stichting Green IT Amsterdam is onderdeel van dit consortium en heeft onder meer de taak om de Nederlandse datacenterindustrie en beleidsmakers te betrekken bij dit project. “In toe-

nemende mate raken ICT en energie met elkaar verbonden. Dat biedt mooie kansen om een omgeving te ontwikkelen waar datacenters een flexibel en actief energie-element zijn van smart grid-toepassingen. Het GEYSER-project heeft de potentie om deze ambitie kracht bij te zetten”, stelt Vlasveld.

visie van het project Het project benadert dit onderzoek vanuit een geïntegreerde visie waarin datacenters actief onderdeel zijn van het energiesysteem, en in het verlengde hiervan, van smart city-ontwikkelingen. Zij zullen hierbij zowel consument als leverancier (‘prosument’) zijn van elektriciteit en energie (warmte en koude). Hoofdaspecten van dit onderzoek zijn het flexibel kunnen managen van zowel energie als ICT-inzet binnen een zeer dynamische energie-infrastructuur: het selectief gebruiken van ICTapparatuur op een tijdstip en locatie om de duurzaamheid van een heel energiesysteem te optimaliseren. Een onderdeel hiervan is het aansluiten van datacenters op een energiemarkt.

innovatie Binnen het consortium van deelnemers van Green IT Amsterdam bevindt zich een groot aantal organisaties met producten, diensten en een visie die naadloos aansluit op het onderzoeksgebied van GEYSER. Green IT Amsterdam verwacht dat de vele innovatieve bedrijven in Nederland de kansen die hierdoor ontstaan kunnen grijpen en mede kunnen helpen realiseren. Mede door de aanwezigheid van de expertise op gebied van ICT, energie en engineering zijn er binnen de Nederlandse datacenter sector al volop oplossingen toegepast om de energie-efficiëntie van datacenters, in het bijzonder in de regio Amsterdam, sterk te verbeteren. Het GEYSER-project laat een ambitieuze volgende stap zien op de innovatieladder.

validatie Technologie die binnen het GEYSER-project ontwikkeld wordt, zal een concreet antwoord geven op hoe synergie te realiseren is tussen datacenters en smart cities. Datacenters zijn niet ontworpen voor een flexibele energievraag, maar kunnen deze flexibiliteit in de toekomst ontwikkelen. Dit stelt hen in staat om energieverbruik en kosten zeer efficiënt en effectief te beheren en tegelijkertijd positief bij te dragen aan de doelstellingen van de energiehuishouding van de stedelijke omgeving. GEYSER-technologieën zullen worden gevalideerd in vier operationele datacenters in de stedelijke omgeving op verschillende internationale locaties. Voor Nederland is Amsterdam hiervoor aangewezen, waarbij de resultaten verkregen vanuit de Roermondse pilot in het datacenter van Alticom worden ingezet in een Smart City. De groene potentie van datacenters worden hierdoor nog eens goed belicht. Green IT Amsterdam werkt al jaren aan de vergroening van datacenters, samen met meer dan 50 deelnemers en partners. Het GEYSER-project en de geplande pilots zijn helemaal in lijn met de ambitie van Green IT Amsterdam, om kennis en innovatie te ontwikkelen die kan bijdragen aan een duurzame datacenter sector in de regio Amsterdam en daarbuiten. ■

jos raaphorst uitgever datacenterworks

Koeling in Nederlandse datacenters: Houd ook het hoofd koel

als we het over datacenters hebben, hebben we het vandaag de dag al snel over het

energieverbruik. met mooie rekensommen over hoeveel ton co 2 -uitstoot geproduceerd

wordt door populaire filmpjes op youtube, wordt de ‘duistere kant’ van de

datacenterwereld onthuld. en als we het over energieverbruik van datacenters

hebben, hebben we het al snel over de power usage effectiveness. want aangezien multitenant datacenters niet zoveel over het energieverbruik van de apparatuur te zeggen hebben die in hun racks worden geplaatst, ligt hun taak vooral in het beperken van het energieverbruik van de fysieke omgeving van het datacenter. en daar speelt koeling een glansrijke hoofdrol.

Het hanteren van de PUE als maatstaf voor de energiezuinigheid kent zijn beperkingen, maar is als stuurcijfer zeker waardevol. Zo rapporteren veel datacenters de zogenaamde ‘design PUE’, wat vergelijkbaar is met het door de fabriek afgegeven benzineverbruik van een nieuwe auto. In het ‘Dutch Datacenter Report 2015’, een onderzoek dat Pb7 Research in opdracht van de Dutch Datacenter Association heeft uitgevoerd, komt de gemiddelde PUE volgens eigen opgave uit op 1.31. Dat is bijna gelijk aan de ‘strenge’ richtlijn die de Gemeente Amsterdam met de lokale datacenters heeft afgesproken. De gerealiseerde gemiddelde PUE kan echter een stuk hoger liggen, doordat de ideale situatie voor de design PUE zich niet zo snel voordoet. Ook dat heeft weer voor een belangrijk deel met de koeling te maken, waar het altijd nog wat efficiënter kan. Om de stroomkosten voor de koeling omlaag te brengen, begint het uiteraard bij het ontwerp van het datacenter en vervolgens met de selectie van energiezuinige apparatuur. Op het moment dat het datacenter wordt opgeleverd, ziet dat er meestal prima uit, maar na enkele jaren heeft de techniek de praktijk toch meestal wel weer ingehaald. Op dat moment staat

‘OP HET MOMENT DAT HET DATACENTER WORDT OPGELEVERD, ZIET DAT ER MEESTAL PRIMA UIT, MAAR NA ENKELE JAREN HEEFT DE TECHNIEK DE PRAKTIJK TOCH MEESTAL WEL WEER INGEHAALD’

een datacenter voor een keuze: niets doen, nieuwbouw of nieuwe apparatuur. Aangezien datacenters meestal toch wel meer dan een decennium meegaan, is nieuwbouw zelden een optie. Zelfs bij multi-tenant datacenters denkt maar de helft dat ze binnen vijf jaar een nieuw datacentrum gaan bouwen (zie Dutch Datacenter Report). Maar aangezien ook het vervangen van de koelsystemen in een datacenter geen sinecure is en gepaard gaat met behoorlijke kapitale investeringen, zijn de meeste datacenters terughoudend en doen ze vaak uiteindelijk zo lang mogelijk niets. Dat zien we ook terug in ‘Datacenter Transformatie 2015’, een onderzoek dat Pb7 Research in opdracht van SPIE-ICS heeft uitgevoerd. In dat onderzoek zegt maar 1 op de 10 datacenters dat de huidige koeling niet voldoet. De meesten zeggen zelfs dat ze meer dan voldoende hebben: logisch, want de bezettingsgraad

van de meeste datacenters ligt beduidend onder de 100%. Maar het idee dat een koelsysteem gemiddeld tien jaar op vervanging moet wachten is zorgelijk (en waarschijnlijk ook wat overdreven). Als datacenters vooruit kijken, naar de komende 5 jaar, neemt het aantal datacenters toe dat verandering noodzakelijk acht: 46% geeft aan in koeling te moeten gaan investeren….en de andere helft dus niet. Maar dat de koeling efficiënter kan, heeft zeker niet alleen met de lange vervangingscyclus van koelapparatuur te maken. In veel datacenters worden bijvoorbeeld racks en zelfs ruimtes (mee)gekoeld, die niet in gebruik zijn. Het structureel inzetten van bijvoorbeeld panels om lege ruimte niet te koelen, is op veel plaatsen niet of niet afdoende ingeburgerd. In de fysieke ruimte valt er dus nog wel het nodige te doen om de koeling efficiënt in te zetten. Een ander punt is dat je goed moet meten om

de juiste mate van koeling aan te bieden. Daarvoor geldt dat op hoe meer plekken je meet, hoe beter je in staat bent om naar behoefte te koelen. Dan wordt het wel belangrijk dat je een goed management systeem hebt, waarin je een goed overzicht hebt en van afstand de koeling – bij voorkeur natuurlijk automatisch – op detailniveau kan bijstellen naar behoefte. Veel leveranciers zijn daarop ingesprongen door het aanbieden van Datacenter Infrastructure Management-oplossingen (DCIM). DCIM-oplossingen kunnen ervoor zorgen dat er meer grip komt op de koeling, maar trap niet in de valkuil om een DCIM-oplossing voor een koelprobleem aan te schaffen. Het is prima als een koelprobleem de aanleiding is om DCIM te onderzoeken, maar houdt er rekening mee dat je waarschijnlijk (uiteindelijk) een DCIM-oplossing wil hebben die de continuïteit van het datacenter waarborgt en dus ook in ieder geval snel diverse infrastructuurincidenten moeten kunnen signaleren. En dat mag geen bijzaak worden in de selectie van de juiste oplossing. De afgelopen jaren zien we dat beheersystemen na energie efficiëntie bovenaan het investeringslijstje staat van de datacenter beslisser voor de korte termijn. Voor de lange termijn, staat DCIM wat lager. DCIM staat nu hoog op de agenda, omdat veel datacenters nu worstelen met de stuurbaarheid van hun datacenter wat een directe impact heeft op de continuïtsrisico’s. Doordat ze over te weinig realtime stuurinformatie beschikken, duurt het te lang voor problemen worden geïdentificeerd en opgelost. En dan kan het ook nog helpen bij het optimaliseren van het energieverbruik. Dat koeling onderdeel moet zijn vanuit de continïteitsgedachte is meer dan logisch. Als er een probleem is met de koeling, kan de impact im-

mers groot zijn. Maar het biedt ook mogelijkheden om maatwerk in koeling te bieden. Daarmee wordt uiteindelijk die besparing gerealiseerd.

conclusie De ontwikkelingen op het gebied van datacenterkoeling gaan snel. Hoewel de tijd van grote energieslagen wel een beetje voorbij is, zijn er nog veel datacenters die deze slag ge-

mist hebben. Wie wel mee is gegaan, merkt dat er na enkele jaren nog efficiëntere apparatuur op de markt is gekomen die ze zouden kunnen gebruiken om de PUE verder te verlagen. Maar heel vaak wordt de business case voor vernieuwing nooit gedaan en wordt er jaren over de goedkeuring van een budget gesoebat. In de tussentijd kunnen datacenters kritisch naar de inrichting van het datacenter kijken. Er zijn vaak voldoende mogelijkheden om

met kleine aanpassingen in de computerruimten de koeling efficiënter te maken. Ook is het verstandig om de koeling prominent mee te nemen in de DCIM-exercitie. Zo krijgen we ook de gerealiseerde PUE onder de 1.30. ■

peter vermeulen directeur van pb7 research

Een nieuwe ring voor Amsterdam

Metro en Tram Amsterdam verbindt glasvezelring met datacenters

met het voltooien van de noord/zuidlijn en de renovatie van de oostlijn beschikt amsterdam binnenkort over één van de meest geavanceerde openbaar vervoersystemen ter wereld. het amsterdamse metrosysteem vervoert 1,5 miljoen mensen per dag en moet non-stop operationeel zijn. moderne informatietechnologie speelt daarin een belangrijke rol.

In opdracht van Metro en Tram Amsterdam realiseerden Unica en Strukton twee nieuwe datacenters op verschillende locaties aan de Oostlijn van het metronetwerk. Deze datacenters vervullen belangrijke taken bij de afhandeling van de logistieke processen, de implementatie van het nieuwe CBTC systeem (Communication Based Train Control) en de verwerking van de vier ICT-contracten NMA (Netwerk Metro Amsterdam ), OVCP (Openbaar Vervoer Chip Poorten, CBI (Centrale Bediening Installaties) en Stat sys (Stations Systemen). Technologiepartner Rittal verzorgde de levering en de installatie van de IT-infrastructuur.

Rittal Cube oplossing uitdagingen De twee nieuwe datacenters verbinden het glasvezelnet dat geheel Amsterdam omsluit. De ringstructuur van het glasvezelnetwerk en de strategische ligging van de datacenters dragen bij aan de redundante beschikbaarheid en fail-safe-installatiestructuur van het IT-systeem. Volgens Raymond van den Tempel, technisch consultant datacenters bij Strukton Worksphere, was het project in meerdere opzichten een uitdaging. Van den Tempel: “De tijd die voor het realiseren van de computerruimten ter beschikking stond was beperkt. Bovendien verschillen de omstandigheden op de locaties nogal van elkaar. De ene ruimte moest in het Logistiek Centrum Metro (LCM) nabij Businesspark Amstel worden ondergebracht en de andere in een technische ruimte op de tussenverdieping tussen Noord/Zuidlijn en metro-uitgang Schreierstoren (onder de Kamperbrug nabij het Centraal Station). Dienst Metro en Tram Amsterdam benaderden ons in de zomer van 2014 met de opdracht om beide ruimten uiterlijk in december 2014 op te leveren, zodat het glasvezelnet in januari 2015 in gebruik kon worden genomen. Van alle partijen die IT-apparatuur in deze ruimten onderbrengen ontvingen wij IT-load gegevens op basis waarvan wij de ligging en de dimensies van de ruimten en het aantal benodigde racks

Peter Wessels (l) en Raymond van den Tempel

en koel-units konden bepalen. Samen met projectleider Peter Wessels, die namens Strukton Systems optrad en afkomstig is uit de railinfra- en telecomwereld, hebben we diverse technische en logistieke opties de revue laten passeren. Uiteindelijk kozen we voor de beste, snelste, meest betrouwbare en flexibele oplossing van Rittal. Voor de technische ruimte op Amsterdam Centraal Station kozen we voor gesloten Rittal TS8-racks in combinatie met rack based Rittal LCP-koeling en voor de LCM locatie was een Rittal Cube oplossing het meest geschikt.”

Peter Wessels: “Beschikbaarheid en flexibiliteit waren de belangrijkste redenen om voor Rittal te kiezen. Op Amsterdam Centraal Station beschermen de gesloten racks de kwetsbare netwerkcomponenten tegen stofdeeltjes en ijzervezels die bij het remmen van de metro en het slijpen van de metrorails kunnen vrijkomen. In de kantooromgeving van Logistiek Centrum Metro biedt de Rittal Cube alle voordelen van energie-efficiëntie en geluidsdemping. Dienst Metro en Tram Amsterdam maakt al vele jaren gebruik van Rittal-behuizingen, vooral omdat Rittal altijd trouw is gebleven aan het basisconcept dat aan al hun systeemproducten ten grondslag ligt. Rittal blijft innoveren, maar de maatvoering is consistent, waardoor Dienst Metro en Tram Amsterdam verzekerd is van een optimale investeringszekerheid en compatibiliteit. Daarnaast heeft Rittal zich ook bij het plaatsen van de behuizingen en de koelunits weer bewezen als een loyale en meedenkende projectpartner.”

trapgat De metro is continu in bedrijf en dat legde beperkingen op aan de operationele en logistieke bewegingsvrijheid van Strukton en Rittal. Wessels: “Onze planning was tot in de puntjes verzorgd en doordacht, maar elk project kent ook momenten waarop de betrokkenen partijen

‘UITEINDELIJK KOZEN WE VOOR DE BESTE, SNELSTE, MEEST BETROUWBARE EN FLEXIBELE OPLOSSING’

flexibiliteit en creativiteit moeten tonen. Dat was ook hier aan de orde. De racks en de LCP-units moesten door het trapgat naar de ruimte op de 2e verdieping onder maaiveldniveau ( -9 meter) worden getransporteerd, maar we hadden berekend dat de units niet door het trapgat zouden passen. Rittal, de transporteur en Strukton kwamen gezamenlijk op het idee om een deel van de trap tijdelijk te verwijderen, een hijsoog aan het plafond te bevestigen en de racks met een takel veilig en onbeschadigd door het trapgat te laten neerdalen.”

toegevoegde waarde Dienst Metro en Tram Amsterdam ging met de creatieve aanpak akkoord en was content dat het toepassen van tijdsintensieve mechanische bewerkingen en beschermend verpakkingsmateriaal (dat naderhand weer uit de ruimte zou moeten worden afgevoerd) kon worden voorkomen. Van den Tempel: “Rittal heeft zowel op uitvoerings- als op productniveau een duidelijke toegevoegde waarde geleverd. Die waarde zit in de details. Neem bijvoorbeeld dat nieuwe Rittal Flex-Block sockelsysteem voor het transporteren en plaatsen van de racks - dat niemand dat eerder heeft bedacht - zo eenvoudig en zo handig. Een goede samenwerking tussen alle projectpartners voegt waarde toe voor de eindklant - en daar doen we het allemaal voor.” ■

Uitwijklocatie helpt Deltares veilig over te stappen All IT Rooms bouwt serverruimte voor Deltares

wie een bestaand datacenter wil slopen en vervangen voor een nieuw datacenter op dezelfde locatie staat voor een uitdaging. je kunt de bestaande locatie immers niet slopen voordat het nieuwe datacenter is gebouwd. dit nieuwe datacenter kan echter niet gebouwd worden voordat het oude pand is gesloopt. voor deze uitdaging stond onderzoeksinstituut deltares.

Samen met ICT-dienstverlener All IT Rooms heeft Deltares besloten stapsgewijs te slopen en bouwen. Dit is echter onvoldoende om de beschikbaarheid van het datacenter volledig te kunnen waarborgen tijdens het project. De oplossing is gevonden in een nieuwe serverruimte die All IT Rooms voor Deltares in Delft heeft gerealiseerd. Deze serverruimte doet dienst als uitwijklocatie en zorgt ervoor dat het project kan worden uitgevoerd zonder impact op de bedrijfsvoering van Deltares. “Deltares is een onderzoeksinstituut voor water en infrastructuur in deltagebieden. Met ons onderzoek richten we ons op allerlei terreinen, variërend van integraal waterbeheer, watervei-

ligheid, waterkeringen, waterbouw en bodemdaling tot operationele waarschuwings- en beheersystemen”, legt Han van Veldhuizen, ICT manager bij Deltares, uit. “Bij ons werk wordt veel software gebruikt en worden allerlei modellen gemaakt om bijvoorbeeld de impact van een ontwikkeling te kunnen berekenen. Deze simulaties zorgen voor een enorme vraag naar rekencapaciteit en tegelijkertijd een stortvloed aan data. Hiervoor beschikken wij over een eigen reken- en datacenter.”

‘vraag naar rekenkracht en opslagruimte is fors gegroeid’ “We maken sinds 2008 gebruik van een eigen datacenter dat op het terrein van onze vestiging in Delft staat. Ook dit datacenter is toen gebouwd door All IT Rooms. De vraag naar rekenkracht en opslagruimte is de afgelopen jaren echter fors gegroeid, waardoor we inmiddels uit dit datacenter zijn gegroeid. We hebben er daarom voor gekozen het bestaande pand op termijn te vervangen door een volledig nieuw te bouwen datacenter”, zegt Han van Veldhuizen. “Een groot datacenter bouwen kost echter tijd. Dit is dan ook geen project dat in enkele weken kan worden afgerond. Met name het aanvragen van alle benodigde vergunningen neemt veel tijd in beslag. All IT Rooms heeft voor ons in 2013 een klein datacenter gebouwd op de bovenste etage van ons pand in Delft. Deze ruimte was vooral bedoeld als uitwijklocatie voor de missiekritieke applicaties die in ons datacenter draaien, zodat die bij uitval van het datacenter beschikbaar blijven. We gaan het datacenter nu echter ook dienst laten doen als uitwijklocatie. De serverruimte moet de tijdelijke groei in vraag naar zowel reken- als storage capaciteit opvangen tot de nieuwbouw is voltooid.”

uitwijklocatie voor nieuwbouwproject “Ons tweede datacenter gaat daarnaast een belangrijke rol spelen in de migratie van het oude datacenter naar de nieuwbouwlocatie. Het nieuwe datacenter wordt namelijk op dezelfde locatie gebouwd als het oude datacenter, wat betekent dat het oude pand moet worden gesloopt. De nieuwe locatie wordt daarom stapsgewijs gebouwd, waarbij telkens een klein deel van de ICT-voorziening wordt gemigreerd naar de nieuwbouwlocatie. Het tweede datacenter doet hierbij dienst als uitwijklocatie en

zorgt dat de eindgebruiker niets van deze verhuizing zal merken.” Om dit mogelijk te maken is het datacenter op de bovenste etage van het pand in Delft door All IT Rooms onlangs flink onder handen genomen. “Het datacenter had voorheen zes RimatriX kasten van Rittal. Dit jaar heeft All IT Rooms de serverruimte flink uitgebreid. In totaal zijn tien extra RimatriX kasten in het datacenter geplaatst. Doordat All IT Rooms ons in 2013 al adviseerde te kiezen voor een modulair concept kon de serverruimte nu relatief eenvoudig worden uitgebreid, wat veel tijd heeft bespaard. Het datacenter is zonder downtime uitgebreid, dat is een groot voordeel van een modulair concept. Iedere kast is voorzien van 20kW koelvermogen en wordt gekoeld met behulp van InRack koeling”, legt Han van Veldhuizen uit. ‘inrack koeling is een logische keuze’ De keuze voor deze koeling was volgens Ronald Kok, directeur van All IT Rooms, een logische stap. “Als je met een koelvermogen per kast van 20kW wilt werken is de keuze in koeloplossingen beperkt. Je komt dan al snel uit op InRack koeling. Je kunt gericht koelen, wat de enige manier is om de warmte op efficiënte wijze af te voeren en daarnaast veel energie te besparen ten opzichte van andere koelsystemen”, zegt Ronald Kok. “In totaal kan 240kW aan vermogen worden onderge-

bracht in het datacenter. Om zeker te stellen dat hiervoor voldoende vermogen beschikbaar is, hebben we de elektrische voorziening onder handen genomen. De helft van deze nieuwe kasten is inmiddels in gebruik. De overige kasten bieden de mogelijkheid de capaciteit in de toekomst verder uit te breiden. Als onderdeel van de upgrade van de serverruimte stapt Deltares ook over op een nieuw rekencluster. Het cluster had voorheen in totaal 600 cores. In totaal beschikken we nu over 928 bare metal cores en 128 gevirtualiseerde cores. Het totale rekencluster bestaat hierdoor dus uit ruim 1050 cores”, legt Han van Veldhuizen uit. “Daarnaast hebben we geïnvesteerd in nieuwe opslag. In totaal beschikken we over 1,4 Petabyte aan netto opslagruimte. We hebben ervoor gekozen onze volledige dataopslag te virtualiseren met de elastische softwarematige laag Scale I/O. Doordat we van een Linux georiënteerde authenticatie overstappen naar Windows Active Directory moeten zowel de nieuwe storage omgeving als het rekencluster gelijktijdig in gebruik worden genomen. We zijn daarom op dit moment bezig met het migreren van alle data. We verwachten in augustus volledig over te kunnen stappen.”

data center infrastructure management

“De omgeving wordt beheerd vanuit een Data Center Infrastructure Management (DCIM) oplossing All-BaaS van All IT Rooms gebaseerd op iTracs. Deze Beheer-as-a-Service oplossing geeft ons gedetailleerd per rack inzicht in de serverruimte”, zegt Han van Veldhuizen. Ronald Kok vult aan: “Vanuit de All-BaaS oplossing kunnen we het datacenter nauwlettend in de gaten houden. We kunnen per rack de belasting aflezen, de koeling monitoren en de PDU’s in de gaten houden. Mocht er dus onverhoopt iets fout gaan zien we direct waar het probleem zit, zodat we gericht te werk kunnen gaan en het probleem zo snel mogelijk kunnen oplossen. Daarnaast kunnen we feilloos zien wat de capaciteitsbenutting in het datacenter is en dus hoeveel spare capaciteit er nog is voor mogelijke uitbreidingen.” De informatie die met de DCIM oplossing wordt verzameld helpt niet alleen de prestaties van de nieuwe serverruimte te waarborgen, maar levert ook een schat aan informatie op waar All IT Rooms en Deltares uit kunnen putten voor het nieuwe datacenter. Deltares hoopt nog dit jaar te kunnen beginnen met de bouw van de nieuwbouwlocatie, die gefaseerd zal worden uitgevoerd. Naar verwachting kan in de loop van 2016 worden begonnen met de migratie naar de nieuwe locatie. ■

wouter hoeffnagel freelance journalist

Londense metro kiest voor standaardisatie en draadloos monitoren Huawei levert UPS’en voor ondergrondse computerruimtes

ondergrondse datacenters en computerruimtes voorzien van een noodstroomvoorziening is op zich al een uitdaging. maar in het geval van de londense metro komt daar nog een extra complicatie bij in de vorm van gebouwen en ruimten die vaak al anderhalve eeuw oud zijn. london underground deed grondig onderzoek naar onder andere de kans op rookontwikkeling en brand en ging uiteindelijk met huawei in zee. daardoor vindt beheer en monitoring nu in veel gevallen draadloos plaats.

Transport of London (ToL) is een van de oudste aanbieders van metroverbindingen ter wereld. De eerste lijnen kwamen al beschikbaar in 1864 en een groot deel van het ondergrondse netwerk aan tunnels en ge-

bouwen stamt dan ook uit de negentiende eeuw. Bovendien maakt het bedrijf voor het zeer uitgebreide netwerk van energie- en communicatiekabels gebruik van vaak zeer kleine ruimtes. Transport en plaatsing is dan vaak een probleem, maar ook ventilatie en brandveiligheid. In figuur 1 is een schematische weergave te zien van de ‘ringleidingen’ die ToL toepast om transport en communicatie binnen het verzorgingsgebied mogelijk te maken.

acht jaar oud Ondergronds werken stelt sowieso extra eisen aan een systeem voor energievoorziening. Dat geldt ook voor het vervangen van UPS-systemen die ToL toepast in zijn ondergrondse IT-infrastructuur, een project dat het Londense bedrijf onlangs heeft opgestart. De bestaande UPS-systemen kennen inmiddels een leeftijd van acht jaar. Dat is op zich al een moment waarop grootonderhoud nodig is. Iedere acht jaar dienen immers de condensatoren in een UPS te worden vervangen.

Er was echter meer aan de hand. De technici van ToL maakten zich met name zorgen over drie problemen. Een aantal van die problemen hebben te maken met het feit dat men in de loop van de tijd met meerdere leveranciers in zee is gegaan. Daaronder bevinden zich aanbieders als Chloride (inmiddels overgenomen door Emerson) en Emerson Network Power, maar ook AEG, Bardic (onderdeel van Honeywell) en Merlin Gerin (tegenwoordig een merknaam van Schneider Electric). Brandveilig werken is in ondergrondse ruimten van cruciaal belang. Het probleem voor ToL was echter dat alleen de UPS-installaties die Emerson heeft geleverd ook daadwerkelijk voldoen aan de eisen die de Britse overheid stelt ten aanzien van brandveiligheid. Het draait hierbij om de brandveiligheid

zelf, maar uiteraard ook om eisen die gesteld worden aan rookontwikkeling en het vrijkomen van giftige stoffen. Met name de printplaten die gebruikt werden in de oude UPS’en en de stroom- en communicatiekabels vormden hierbij een probleem. Aanpassen en opnieuw certificeren van de installaties bleek lastig, omdat dit het stilleggen van delen van de noodstroomvoorziening met zich mee zou brengen, terwijl ook het gebrek aan ondergrondse ruimte grootschalig onderhoud en revisie lastig maakt. Overigens speelde ook nog een aantal problemen met het voldoen aan de EMC-richtlijn.

drie hoofdproblemen Gebrek aan ruimte speelt sowieso een grote rol bij alles wat er gebeurt rond de Londense metro. Standaard UPS-systemen zijn vrijwel niet door de vaak zeer nauwe gangen te transporteren. Ook de ruimtes waarin de systemen opgesteld dienen te worden, zijn vaak klein en staan overvol met andere apparatuur die bovendien niet verplaatst kan worden - ook niet tijdelijk. Het laatste probleem bestond in feite uit twee aan elkaar gerelateerde issues. De eerste

Figuur 1

Transport of London kent een zeer uitgebreid communicatienetwerk.

De Huawei UPS 5000E UPS.

is dat de onderhouds- en beheermethoden van alle oude UPS-systemen sterk van elkaar verschillen. Sommig oude systemen kenden bijvoorbeeld geen mogelijkheden voor remote monitoring, waardoor bediening en monitoring ter plekke diende te gebeuren. Hierdoor - en dat is het tweede probleem - was in de loop van de jaren een wirwar aan procedures ontstaan waarbij veel taken en activiteiten ook nog eens min of meer handmatig werden uitgevoerd.

oplossingen Transport of London besloot een aantal leveranciers te vragen om technische oplossingen voor deze complexe problemen te bedenken. Gekoppeld aan de kosten die hieraan door de aanbieders werden verbonden, besloot ToL met Huawei Technologies in zee te gaan. Hoe heeft deze aanbieder de drie hiervoor genoemde problemen weten op te lossen? Allereerst het probleem van de brandveiligheid en het niet voldoen aan de EMC-richtlijn. Huawei heeft voorgesteld om apparatuur te gebruiken die zonder uitzondering aan de eisen van ToL ten aanzien van brandveiligheid en EMC-bescherming voldoet. Waar nodig zijn PCB’s ofwel printed circuit boards aangepast. Hierdoor is de plastic laag die bij brand veel rook veroorzaakt en giftige dampen voortbrengt vervangen door een veel minder gevaarlijk materiaal. Hetzelfde geldt voor kunststof onderdelen die in de UPS-systemen zijn toegepast. Het concern besloot bovendien om alle bekabeling voor stroomvoorziening en communicatie bij Britse leveranciers aan te schaffen. Op die manier kan iedere twijfel of deze kabels voldoen aan de Britse eisen worden uitgesloten. Bovendien heeft Huawei ervoor gezorgd dat alle UPS-systemen (zie kader ‘Honderden UPS’en voor de Londense metro’) een EMC-certificering voor de gehele installatie hebben ontvangen.

draadloos monitoren Dan het gebrek aan ruimte. Standaard UPSsystemen zijn vrijwel onmogelijk naar de ondergrondse ruimtes te transporteren. Huawei besloot daarom een maatwerkoplossing te creëren. In feite zijn hierdoor fysiek kleine en modulair opgebouwde systemen die slechts de helft van de ruimte van een standaard systeem innemen. Het gaat bovendien om volledig geïntegreerde UPS-systemen waarbij alles in één kast is geplaatst: van power-distributie tot batterijen tot maintenance bypass. Met als gevolg dat zowel transport door de vele gangenstelsels als plaatsing relatief eenvoudig te realiseren is. Standaardisatie op één leverancier en het gebruik van op Modbus en SNMP gebaseerde monitoring leverde tenslotte de oplossing voor het derde probleem. Een deel van de monitoring gebeurt nu bovendien draadloos via een standaard in de UPS-systemen ingebouwd modem. De gehele monitoring gebeurt nu in realtime, zodat beheer-op-afstand vanuit een centrale controlekamer kan worden gerealiseerd. ■p

honderden ups’en voor de londense metro Transport of London beheert 3402 kilometers aan metrolijnen en 270 stations. Iets meer dan de helft van deze metrolijnen bevinden zich bovengronds. De onderneming schaft over een periode van vijf jaar voor een bedrag van 34 tot 40 miljoen pond nieuwe UPS-systemen aan: - 479 sets (2 - 80 kVA) voor de Jubilee-,

Northen- en Picadilly-lijnen - 355 sets (1 - 60 kVA) voor de

Bakerloo, Central en Victoria-lijnen - 302 sets (2 - 80 kVA) voor de Metropolitan-, District- en Circle-lijnen

Waar moet je op letten? ‘Hot swappable’-PDU’s

marketeers benadrukken in hun communicatie steeds vaker dat ‘hot swappable’ een onmisbare functionaliteit van een pdu is. het gaat dan over een elektronische module die vervangen (swappable) kan worden, zonder de stroom van de pdu te onderbreken (hot).

Vrijwel iedere PDU-fabrikant heeft inmiddels wel een ‘hot swappable’-model. En dat is niet gek. Het belooft immers dat een PDU niet in z’n geheel vervangen hoeft te worden als er iets in deze module defect raakt. Een korte ingreep op locatie is voldoende. Maar is dat ook echt zo? Vaak wordt de illusie gewekt dat je alle elektronica in de PDU kunt vervangen en dat is niet juist. Meestal gaat het hier slechts om de mogelijkheid om de communicatie-interface te vervangen en blijft de rest van de elektronica in de PDU achter. Waar moet je dan op letten bij het kiezen een ‘hot swappable’-PDU? Hieronder volgen drie punten die u kunnen helpen bij uw keuze.

1. Elektronica is per definitie minder betrouwbaar dan mechanische koperverbindingen.

Een printplaat bestaat uit honderden componenten die, stuk voor stuk, moeten opereren binnen een optimale bandbreedte. Als ook maar één component of een enkele verbinding (vaak slechts enkele micron breed) niet optimaal functioneert, is de werking van de module al verstoord. Het is veelal de elektronica die in een PDU als eerste storingen vertoond. Daarom is het belangrijk om een PDU zo te ontwerpen dat een fout in de meetelektronica geen invloed heeft op de primaire taak van een PDU: stroomverdelen.

2. Een PDU moet vele malen langer mee gaan dan de apparatuur die er op aangesloten wordt.

De elektronica in de PDU moet ongeveer driemaal langer meegaan dan een gemiddeld IT-apparaat. De elektronica is de ‘weakest link’ in de PDU. Het is dus heel praktisch als je dit, in geval van nood, kunt verwisselen zonder de stroom te onderbreken. Dat is de reden waarom Schleifenbauer enkele jaren geleden al met het Definilink-systeem op de markt kwam. Bij dit eerste ‘hot swappable’-model is de volledige elektronica fysiek gescheiden van de stroomverdeling van de PDU . Het enige dat bij een ‘swap’ nog in de Definilink-PDU achterblijft zijn de (passieve) meetspoelen, die zonder problemen de Mean Time Between Failures (MTBF) van de elektrische verbindingen evenaren. Alle actieve elektronische componenten (dus ook de meetelektronica) zitten in de Definilink-module. Als er dan iets misgaat, kan deze eenvoudig losgekoppeld worden en vervangen door een andere.

3. Als je uitwisselbare elektronica aanbiedt, moeten ook alle actieve componenten vervangen kunnen worden.

Er zijn nu nog maar weinig PDU-leveranciers die geen ‘hot swappable’-model aanbieden. Wie deze modules echter goed bekijkt, ziet dat het ‘hot swappable’-gedeelte meestal maar een kleine subset van de elektronica omvat. Veelal kan alleen de controller-module worden uitgewisseld, terwijl het overgrote deel van de meetelektronica in de PDU achterblijft. Deze kan niet vervangen worden en een storing in deze elektronica leidt dan weer onherroepelijk tot het vervangen van de complete PDU. Bovendien toont de realiteit dat weinig mensen zich comfortabel voelen bij het openschroeven en vervangen van componenten in een werkende PDU. Meestal is deze zo geplaatst dat men er lastig bij kan en de lichtomstandigheden doorgaans erg middelmatig zijn. Niet de juiste omstandigheden voor een precisieklusje als het uitwisselen van elektronische componenten (denk aan EMC-bescherming en dergelijke). De speurtocht die moet leiden naar een hogere beschikbaarheid van de applicaties die in een datacenter draaien kan slechts gedeeltelijk ingevuld worden met betere infrastructuur. De ontwikkelingen gaan steeds meer in de richting van ‘software-resilience’, wat inhoudt dat software niet meer afhankelijk is van de werking van één apparaat. In gedistribueerde omgevingen hoeft een enkelvoudig probleem niet meer tot downtime te leiden. In dat licht zijn ‘hot-swappable’-PDUs, die geen volledige uitwisseling van elektronica biedt door middel van een eenvoudige handeling, feitelijk een marketing gizmo zonder toegevoegde waarde. ■

ronald timmermans

marketing director schleifenbauer products

This article is from: