
25 minute read
abb ziet goede kansen voor e-housing
de eerste grote commerciële datacenters zijn reeds aan boord, maar abb ziet nog veel meer mogelijkheden voor zijn oplossingen door middel van e-housing. “zeker voor datacenters met een vermogensvraag van 5 tot pakweg 20 mw biedt dit concept uitstekende mogelijkheden”, meent robert daems, account manager power products & power systems bij abb.
Voor power-voorziening (middel)grote datacenters
Advertisement
ABB ziet goede kansen voor e-housing
ABB begeeft zich de laatste jaren meer en meer op de markt voor datacenters. “Dat klopt”, zegt Robert Daems. “Zeker een divisie als Power Products & Power Systems heeft veel kennis in huis die van nut kan zijn voor datacenters. Daarbij speelt uiteraard ook een rol dat veel ondernemers en datacenterspecialisten de naam 'ABB' kennen van grote overheidsprojecten en bijvoorbeeld de petrochemie. Projecten die vaak groot en complex zijn en die vragen om leveranciers die heel goed weten wat zij doen. Die reputatie is voor ons erg belangrijk. Juist voor een sector die economisch steeds belangrijker wordt, is het van cruciaal belang dat zij kunnen werken op basis van kwalitatief hoogwaardige en uiterst betrouwbare oplossingen.”
breed definiëren Een van de producten – misschien is het woord 'oplossing' een betere omschrijving – waarvoor het concern in de datacentermarkt goede kansen ziet, is ehousing. Het gaat hierbij letterlijk om behuizingen die bedoeld zijn voor met name het egedeelte van datacenters. “We leveren al jaren ehousing aan bedrijven in bijvoorbeeld de olie en gaswereld en de chemie. Dergelijke klanten willen graag modulair werken waarbij zij de voorzieningen die nodig zijn voor de energievoorziening van bijvoorbeeld een petrochemische plant graag scheiden van de feitelijke productieinstallatie. Het woord 'housing' moet je dan breed definiëren. Zeker bij projecten waarbij de vermogensvraag aanzienlijk is, wordt al gauw een apart gebouw neergezet om alle powerapparatuur in te kunnen plaatsen.”
“Het hoeft bij ehousing echter zeker niet altijd om vaste gebouwen te gaan. We leveren bijvoorbeeld ook oplossingen waarbij de powerapparatuur in een stalen container is geplaatst. Dat is zeker voor datacenters een interessante en bekende aanpak, waarbij we nadrukkelijk kunnen inspelen op de behoefte aan modulariteit. Je kunt dan immers de powervoorzieningen in lijn met de opgestelde ITcapaciteit in stappen laten meegroeien. Daarmee smeer je dus de benodigde investeringen uit over een langere periode, zodat je als bedrijf minder risico's loopt en minder kosten behoeft te maken. Bovendien kan een compleet ingericht gebouw op deze manier snel en flexibel worden geplaatst.”
meer dan alleen power We moeten niet de fout maken, meent Daems, om ABB te zien als een aanbieder die enkel en alleen poweroplossingen te bieden heeft. “We hebben al een reeks van projecten gedaan waarbij we ehousing hebben gerealiseerd waarbij in de speciale behuizing die we hebben ontworpen en gebouwd naast power ook koeling is opgenomen. Maar waarin bijvoorbeeld ook ruimte is voor besturingspanelen, inclusief alle bekabeling en dergelijke die daarbij komt kijken. In eerste instantie ging het dan bijvoorbeeld om een chemiebedrijf dat de systemen
voor energievoorziening separaat wilde plaatsen, maar daar ook de besturing van zijn productieproces in wilde onderbrengen. In feite praat je dan over een complete computerruimte waarin bedrijfskritische applicaties draaien.”
Gezien de reputatie van ABB als partij die vooral gericht is op grote en complexe projecten is het logisch dat de eerste serieuze datacenterprojecten ook in de hoek van de grote commerciële partijen gezocht moeten worden. “Dit zijn partijen die een stevige vermogensvraag hebben en die bovendien graag een directe aansluiting hebben op het hoogspanningsnet. Dan komen oplossingen op het gebied van ehousing compleet met schakelstations en transformatoren om de hoek kijken. Nu is de vraag of we aansluiten op het laag of desnoods middenspanningsnet dan wel het hoogspanningsnet binnen de datacenterwereld nog een onderwerp van discussie, maar wij zien wel degelijk grote voordelen voor een rechtstreeks aansluiting op het hoogspanningsnet. Voor partijen die daar echter de omvang niet voor hebben, kunnen we ook ehousing realiseren die een koppeling kent met het middenspanningsnet.” ehousing uit tjechië De mobiele oplossingen van ABB voor ehousing zijn gebaseerd op containers die worden gebouwd in Tjechië. De samenstelling van een ehouse varieert per project. In bijgaand schema is een overzicht gegeven van een aantal componenten die in een dergelijke behuizing kunnen worden opgenomen.
samenwerking De ehousingoplossingen van ABB sluiten goed aan op de modulaire datacenteroplossingen die momenteel erg in de belangstelling staan. “Ook dat zijn natuurlijk erg interessante oplossingen. Soms voor het tijdelijk uitbreiden van capaciteit, maar zeker ook voor partijen die een voorkeur hebben voor modulair werken en vraag en aanbod op het gebied van ITcapaciteit graag zorgvuldig en in stapjes op elkaar afstemmen.” Toch verwacht Daems dat ehousing in de Nederlandse datacentermarkt vooralsnog vooral in de belangstelling zal staan van wat wel ‘de bovenkant van de markt’ wordt genoemd. “We introduceren dan ook niet zozeer een kantenklare reeks van producten voor ehousing. Het gaat hier toch om een redelijk kennisintensieve manier van werken, waarbij we weliswaar met standaard componenten werken, maar waarbij het feitelijke ontwerp toch maatwerk per datacenter is. Op termijn zie ik deze aanpak echter wel degelijk ook interessant worden voor kleinere datacenters.”
hans vandam journalist



17 november IT Room Infra Event - Congrescentrum 1931 (Brabanthallen) - Den Bosch Optimaliseer de prestaties van uw IT-infrastructuur en reduceer de kosten
er is veel energie nodig om een it-omgeving op een zo goed mogelijke manier draaiende te houden. uptime, betrouwbaarheid, veiligheid, capaciteit en tco zijn it-onderwerpen die vaak op management niveau besproken worden en waarop veelal verschillende mensen antwoord moeten geven (vaak it-manager of facilitaire manager). dit geeft al direct de complexiteit aan om een it-omgeving zelf op een goede en overzichtelijke manier te managen.
Om op bovenstaande onderwerpen snel en goed antwoord te geven, investeren bedrijven steeds vaker in uitgebreide management en beheersoftware. Via een dashboard zijn de kengetallen dan direct beschikbaar. Maar wanneer blijkt dat er problemen zijn, is de kans groot dat de fysieke infrastructuur aangepast dient te worden.
Wanneer de ITinfrastructuur niet meer voldoet zijn er drie mogelijkheden. Nieuwbouw, verbouwen of outsourcen. Om vooraf zekerheid te hebben over beschikbaarheid en capaciteit kiezen bedrijven steeds vaker voor het outsourcen van de omgeving. Het

bouwen van een eigen ruimte kan totaal goedkoper zijn maar hier is dan wel specialistische kennis voor nodig. Specialistisch technologische kennis over de laatste technologieën om zo efficiënt mogelijk een omgeving te bouwen is niet makkelijk als er om de vijf jaar geïnvesteerd wordt. De technologieën en inzichten veranderen snel waardoor het huiswerk van een aantal jaar geleden opnieuw gedaan kan worden. Dit is de reden dat er ook tussenvormen ontstaan en integrators bijvoorbeeld aanbieden om een eigen computerruimte ‘as a service’ af te nemen.
Om te outsourcen of zelf te bouwen is een strategische keuze waarbij onderbuikgevoel vaak ook een belangrijke rol speelt. Betrouwbaarheid en beheerskosten worden als argumenten gebruikt om de IT zelf te beheren of om het juist uit te besteden. Om de bezoeker zo goed mogelijk in te lichten en zo compleet mogelijk te informeren is er tijdens IT Room Infra een track genaamd IT/cloud transitie. Bezoekers krijgen stap voor stap uitgelegd welke keuzes er gemaakt moeten worden bij het (gedeeltelijk) outsourcen van de ITomgeving. Uiteraard is er ook veel aandacht voor het bouwen en verbouwen van ruimtes. Welke nieuwe technologieën zijn er beschikbaar en op welke manier kan het beste rendement uit ruimtes worden gehaald. Speciale aandacht is er deze editie ook voor de colocatie datacenters. Welke technologieën en bouwstrategieën zijn er toegepast? Zo geven KPN en Alticom een presentatie over recente ontwikkelingen.

Patrick Eshuys spreekt namens KPN over het recent geopende datacenter op de High Tech Campus in Eindhoven. Onlangs heeft dit datacenter een Tier IVcertificering ontvangen van het Uptime Institute. Het datacenter is CO2 negatief, honderd procent groene stroom en aansluiting op een bestaande warmtering.
Het Europese Geyserproject ontwikkelt een koppeling tussen smart grids en energieefficiënte datacenters. Het doel is om energieverbruik en milieubelasting te verminderen door het gebruik van speciale managementsoftware. Vraag en aanbod van datacenter en de omgeving waarin deze is gevestigd kan hiermee op elkaar afgestemd worden. Ed Boerema van Alticom vertelt over het testen van een prototype van dit systeem op drie locaties.
Erik Jan van Vuuren van Microsoft Nederland sluit het uitgebreide programma af (32 lezingen). Erik Jan van Vuuren, Azure Lead bij Microsoft Nederland neemt u mee in de snelle ontwikkelingen van datacenters van Microsoft die snelle groei van de meer dan 200 cloud diensten van Microsoft mogelijk maken. In deze presentatie besteedt Erik Jan aandacht aan de snelle ontwikkelingen, groei, het energieverbruik, connectivity, operations en de toekomst van de wereldwijde datacenteroperatie van Microsoft Global Foundation Services.
Naast het lezingenprogramma is er op de beursvloer veel te zien. 62 exposanten laten de laatste technische mogelijkheden zien en gaan graag met de bezoeker in discussie. Om de interactie tussen bezoekers te stimuleren is er dit jaar tijdens IT Room Infra een Datacenter Café. In dit café worden discussies gevoerd met sprekers en bezoekers die interesse hebben in het onderwerp. Uiteraard kunnen er ook zelf onderwerpen aangedragen worden.■
Ga voor meer informatie naar www.itroominfra.nl
harm wijsman branchemanager it room infra
toegangsbeleid Toegang is gratis voor beheerders, managers, eigenaren, technisch consultants en installateurs van datacenters/computerruimtes (en overige decision makers m.b.t. de aanschaf van infrastructuur). Leveranciers, werving & selectie consultants en alle overige commerciële functies zijn welkom vanaf 15.30 uur, voor de laatste plenaire sessie en de afsluitende borrel.
op 20 oktober organiseert bicsi de eerste mainland europe district conferentie in het krasnapolsky hotel in amsterdam. wie is bicsi en wat heeft deze wereldwijde vereniging voor ict-professionals te bieden?
BISCI start ontwikkeling van Mainland Europe District BICSI organiseert internationaal datacenter-congres
BICSI is al meer dan 30 jaar een vereniging van en voor professionals op het gebied van communicatieinfrastructuren. Met als missie kennis te delen en leveranciersonafhankelijk te certificeren. Begonnen in het tijdperk van de telecomnetwerken en tegenwoordig betrokken bij alle technische infrastructuurontwikkelingen, met name ook in datacenters. Kennisdeling vindt plaats door leden met elkaar in contact te brengen tijdens conferenties en regionale bijeenkomsten. Maar ook door het organiseren van diepgaande technische opleidingen, het publiceren van handboeken en standaarden, en
conferentie bicsi mainland europe in amsterdam De BICSI Mainland Europeconferentie 2015 vindt op 20 oktober plaats in het Krasnapolsky hotel in Amsterdam. Als sponsoren treden onder andere op Fluke Networks, Le Grand, AssetGen, Extron Electronics en Networks Centre. Hou de websites van DatacenterWorks en BICSI in de gaten voor updates over sprekers en het programma van de conferentie. Voor meer informatie over deze internationale conferentie kunt u contact opnemen met Robbert Hoeffnagel, +31 651 28 20 40. uiteraard ook via (social) media. DatacenterWorks is de mediapartner van BICSI in de Benelux. Het leveranciersonafhankelijk certificeren gebeurt op basis van wereldwijd erkende titels, waarvan de Registered Communications Distribution Designer (RCDD), de meest bekende en begeerde is. RCDD’s worden namelijk bij steeds meer projecten ingeschakeld voor het ontwerpen van computerruimtes en datacenters. BICSI heeft ook internationaal erkende certificeringen voor Installers en Technicians voor de medewerkers van installerende bedrijven.
mainland europe district BICSI is begonnen in de Verenigde Staten en mede daardoor het sterkst gegroeid in alle Engelstalige landen. Inmiddels telt de organisatie ruim 23.000 leden. Tot begin dit jaar vormde het vaste land van Europa en het Verenigd Koninkrijk één BICSI District, waardoor ook in deze regio jarenlang de meeste aandacht is besteed aan de Engelstalige landen. Omdat de vraag naar internationaal erkende kennis toeneemt, heeft BICSI besloten de Europese regio in tweeën te splitsen en het Mainland Europe District vanaf 2015 te laten uitbouwen door eigen leden en een eigen bestuur. Daarvoor gaan Gautier Humbert uit Slovakije en Joop Ierschot uit Nederland samen de kar trekken, als respectievelijk Chair en Vice Chair. Ondersteund door country managers in de verschillende landen, een rol die Robbert Hoeffnagel (hoofdredacteur van DatacenterWorks) voor Nederland invult. Samen hebben zij besloten om de verdere ontwikkeling van BICSI in het nieuw gecreëerde Mainland Europe District te starten met een ééndaagse conferentie op dinsdag 20 oktober in Amsterdam.
vraag naar rcdd’s Nu de economische crisis achter de rug lijkt te zijn, gaan bedrijven weer meer investeren in hun communicatieinfrastructuur. Omdat ze deze investeringen een aantal jaren hebben uitgesteld of willen profiteren van de kansen die ontstaan door cloud computing, Big Data en het Internet of Things. Verder blijven Amerikaanse en Aziatische bedrijven vestigingen openen op het Europese vasteland of gebruik maken van ICTserviceproviders, die daarvoor hun capaciteit moeten uitbreiden.
BICSI Mainland Europe District Vice Chair Joop Ierschot, die zelf al 15 jaar RCDD is, signaleert in Europa een toenemende vraag naar RCDD’s. “Vanuit Deerns werk ik aan de datacenters voor vliegvelden en grote ondernemingen. Een voorbeeld daarvan is het nieuwe internationale vliegveld van Istanbul, met een capaciteit van 150 miljoen passagiers per jaar, dus drie keer groter dan Schiphol. In het bestek daarvoor worden RCDD’s geëist voor het ontwerpen van de ICTinfrastructuur. Die zijn er in heel Turkije echter maar vier. Verder vragen ook grote ondernemingen als Coca Cola, Google, Heineken, Nike, Reebok en dergelijke naar RCDD’s.”
conferentie bicsi mainland europe Op dinsdag 20 oktober krijgen ICTprofessionals de laatste ontwikkelingen te horen op het gebied van datacenters, campusen kantoorbekabeling, koeling en voeding en draadloze netwerken. Gepresenteerd door collegaprofessionals en BICSIleden. Behalve
Links op de foto Dr. Heinz Jürgensen (Director of Application Engineering and Product Performance) voor het delen van kennis is er die dag uiteraard ook volop gelegenheid om onderling te netwerken en de voordelen van het BICSIlidmaatschap te ervaren.
opleiding datacenterontwerp Verder wordt er in dezelfde week tevens een BICSIopleiding in het ontwerpen van datacenters verzorgd (DC102: Applied Data Center Design and Best Practices).
Meer informatie over het conferentie en opleidingsprogramma is te vinden op bicsi.org, onder de menukeuze events & conferences. Net voor de zomer heeft BICSI tevens de ANSI/BICSI 0062015, Distributed Antenna System (DAS) Design and Implementation Best Practices standard gepubliceerd, voor draadloze infrastructuren. Wie op 20 oktober de conferentie in Amsterdam bezoekt, hoort en ziet in één dag de belangrijkste technische ontwikkelingen op bekabeld en draadloos netwerkgebied en het testen daarvan! ■
peter gloudemans secretaris van bicsi benelux

Eigen architectuur maakt van dc één grote server
Google geeft inzicht in datacenter-infrastructuur
google heeft onlangs vier 'research papers' gepubliceerd waarin het een beschrijving geeft van de manier waarop het concern de technische infrastructuur binnen zijn datacenters heeft opgezet. interessant is dat de papers aangeven hoe de diverse generaties van deze infrastructuur ontstonden als gevolg van de almaar groeiende behoefte aan bandbreedte, inclusief enkele misstappen.

Het is een publiek geheim dat Google in zijn datacenters nauwelijks nog commercieel verkrijgbare hardware en software gebruikt. Vrijwel alles van besturingssystemen tot netwerkmanagementsoftware en van servers tot switches is intern ontwikkeld. In een blogpost schrijft Google Fellow Amin Vahdat dat in de beginjaren het bedrijf nog 'offtheshelf' hardware kocht bij de bekende fabrikanten van server en netwerkapparatuur. De enorme vraag naar zoekdiensten maakte echter al gauw duidelijk dat dit een eindig verhaal was. In figuur 1 is een schema weergegeven hoe de diverse architecturen elkaar vervolgens in de loop van de tijd opvolgden.
misstappen Inmiddels is men bij een aanpak genaamd 'Jupiter' aangekomen. Deze architectuur maakt het mogelijk dat 100.000 servers met een totale bandbreedte (Google noemt dit: 'biscetion bandwith') van 1 Petabyte per seconde met elkaar kunnen samenwerken. In de praktijk betekent dit dat iedere server met iedere server kan 'praten' en daarvoor een bandbreedte ter beschikking heeft van 10 Gb per seconde. Dat getal van 100.000 is niet willekeurig gekozen. Dat is namelijk het aantal servers dat zich binnen de zeer sterk gestandaardiseerde datacenters van het bedrijf bevindt. Jupiter maakt het voor Google mogelijk deze 100.000 servers per datacenter te gebruiken alsof het om één gigantische computer gaat. Anders gezegd: ieder datacenter wordt binnen het bedrijf gezien als één groot uitgevallen server.

Chronologische ontwikkeling van de netwerktechnologie die Google intern toepast.

Het heeft wel even geduurd voordat Google op deze manier van werken uitkwam, schrijft Amin Vahdat in zijn blogpost. Zoals uit figuur 1 blijkt, heeft men inmiddels al heel wat generaties achter de rug en daar zaten hier en daar ook wel wat misstappen tussen. Zo heeft Google in de beginjaren geprobeerd om de switchingfunctionaliteit van het netwerk te integreren in zijn servers. Op zich lukte dat wel, ware het niet dat de beschikbaarheid van individuele servers hierdoor aanzienlijk omlaag ging.
eigen hardware In 2005 gebruikte het bedrijf nog standaard serverhardware. Dat was in de tijd dat Gmail al was gelanceerd, maar men YouTube nog niet had gekocht. Intern was men al wel aan het kijken naar mogelijkheden voor optimalisatie van het datacenter, wat de naam Firehose mee kreeg. De bisection bandwith lag in die jaren op 1 Gbps bij een datacenter dat toen al 10.000 servers omvatte. Firehose was ook de architectuur waarin Google probeerde om servers en switches met elkaar te integreren. Zonder succes dus.
Met Firehose 1.1 kwam de eerste volledig intern ontwikkelde wat het bedrijf noemt 'datacenter cluster fabric'. Zeg maar: de architectuur van Google's datacenters. Voor de netwerkinfrastructuur betekende dit een aanpak zoals weergegeven in figuur 2. Alles kan met alles 'praten'. Dat betekende dat er meer dan tienduizend switches nodig waren. Dat ging niet met de standaard apparatuur van vendoren, dus koos men voor een toen net ontwikkeld concept genaamd: software defined networking. Alles werd hierdoor anders: van switchinghardware tot netwerkprotocollen. Traditionele switches leren op dynamische wijze hoe het netwerk is opgebouwd. Op basis van die informatie sturen zij datapakketjes door. Dat gebeurt met standaard protocollen die weliswaar robuust zijn, maar die wel redelijk veel overhead met zich meebrengen. Met andere woorden, een flink gedeelte van de beschikbare capaciteit is voor netwerkadministratie en dergelijke nodig en kan dus niet gebruikt worden voor het transporteren van data zelf. Bovendien werden switches in dergelijke omgevingen nog grotendeels handmatig beheerd en dat kost tijd en maakt de kans op fouten onacceptabel groot zeker bij de aantallen en de beschikbaarheidseisen waarmee Google werkt.
De netwerktopologie binnen de datacenters van Google. broadcastprotocol Om een voorbeeld te geven van de problemen waar Google tegenaan liep: als zich wijzigingen in het netwerk binnen het datacenter voordoen

wat bij het bedrijf natuurlijk dagelijks gebeurt worden deze aanpassingen in een traditioneel netwerk via een broadcastprotocol aan alle switches bekend gemaakt. Dit protocol werkt goed, maar is relatief traag. Het kan dus even duren voordat de wijzigingen overal in het netwerk bekend zijn. Dat is te traag voor een bedrijf als Google. Dan kan het gebeuren dat de ene wijziging nog niet overal bekend is, terwijl de volgende wijziging alweer in gang is gezet. Daarom koos Google voor een andere aanpak. Het keek niet meer naar individuele servers en switches maar naar het totale datacenter. Iedere switch speelt hierin een eigen en duidelijk omschreven rol. Men bouwde voor het volledige datacenter een centrale configuratie van het netwerk op en 'pusht' deze vervolgens naar alle switches. Iedere switch haalt uit deze configuratie de info die het nodig heeft om de eigen rol binnen het datacenter te kunnen spelen. Dit is schematisch weergegeven in figuur 3.
Dit is het principe waarmee Google nog altijd binnen zijn datacenters werkt. Na Firehose 1.1 volgde een WatchTower geheten aanpak met 10 GB fiber in plaats van klassieke bekabeling. Totale bisection bandbreedte: 87 Tbps. WatchTower werd opgevolgd door Saturn en de bisection bandwith groeide naar 207 Tbps. Saturn heeft het drie jaar volgehouden voordat Google opnieuw in capaciteitsptoblemen kwam. Inmiddels is men met Jupiter naar 40 Gbps en een bisection bandwith van 1 Pbps gegroeid, waardoor het bedrijf ieder datacenter nu inderdaad als één computer kan aansturen.
nieuwe startups Wat erg interessant is om te lezen, is de lans die het bedrijf breekt voor het met elkaar integreren van operations en researchteams.
De routing-structuur die Google toepast. Engineers die dagelijks bezig zijn met het beheer van de datacenters hebben nauw samengewerkt met R&Dtechnici én studenten om gezamenlijk nieuwe ideeën uit te werken en te onderzoeken. Dat is een bewuste keuze van het bedrijf geweest om daarmee niet alleen alle betrokken medewerkers bij dit soort trajecten te kunnen betrekken, maar ook om radicale ideeën een kans te geven.
Met het publiceren van de vier papers geeft Google nu inzage in de huidige stand van zaken binnen zijn datacenters. In het verleden heeft het bedrijf al vaker research papers gepubliceerd. Die hadden steevast tot gevolg dat een serie startups met de ideeën die in de papers werden beschreven aan de slag ging en nieuwe producten ontwikkelde die ook interessant zijn voor andere datacenters die minder grote eisen stellen. Die startups werden niet zelden opgezet door medewerkers die daarvoor nog bij Google in dienst waren en aan deze interne projecten werkten. Analisten gaan er van uit dat we ook ditmaal eenzelfde ontwikkeling zullen gaan zien.
De blogpost van Amin Vahda over de vier research papers en de documenten zelf zijn hier te vinden: http://googleresearch.blogspot. nl/2015/08/pullingbackcurtainongooglesnetwork.html■
robbert hoeffnagel hoofdredacteur

om klanten te kunnen informeren over hun eigen energieverbruik - en aan het einde van de maand een accurate rekening te kunnen presenteren - is het noodzakelijk om de energieconsumptie per rack inzichtelijk te hebben. “met de nieuwe branch circuit monitoringoplossing (bcm2) die raritan eind dit jaar op de markt brengt, kan een datacenter via één ip-adres het energieverbruik van 768 racks single phase of 256 racks met driefasenaansluiting monitoren”, aldus paul bekema, sales engineer bij raritan.
Nieuwe generatie Branch Circuit Monitors Honderden serverkasten uitlezen via één IP-adres
Een goede bewaking van de verdeling van de stroom van een datacenter biedt meerdere voordelen. “Zo kun je hotspots identificeren, puur door het meten van de stromen naar de racks”, zo stelt Ron Kuperus, Area Sales Manager Benelux bij Raritan. “Met die informatie kun je gericht stappen ondernemen die bijdragen aan een hogere efficiëntie van het datacenter. Maar je kunt klanten ook beter informeren over hun eigen energieverbruik en factureren per kast die de klant afneemt.” Binnen wat Kuperus ‘traditionele infrastructuren’ noemt, waarbij de stroom naar de racks wordt verdeeld vanaf een ‘groepenkast’, zijn er meerdere oplossingen denkbaar om de energieconsumptie per rack te meten. Zo kan een ‘inline meter’ worden geplaatst tussen het aansluitpunt onder de vloer en de serverkast. “Maar het plaatsen van een traditionele inline meter is zeker geen eenvoudige zaak. Om zo’n meter te kunnen plaatsen, moet je vloertegels lichten, vervolgens een datakabel aanleggen om de meter uit te kunnen lezen en ook de stroom zal even van de unit af moeten. Al met al een tijdrovende en kostbare operatie.”
meten op het distributieboard Raritan staat met de Branch Circuit Monitoringoplossing een andere benadering voor waarbij – in het geval van ‘traditionele infrastructuren’ – de ‘afgaande stromen’ direct op de distributieboards worden gemeten. “Op het distributiepaneel breng je ‘split core’spoelen aan over de bestaande verbindingen heen”, zo legt Kuperus uit. “Die verbindingen kunnen ook 0leidingen zijn, of de hoofdlijn die het distributieboard binnenkomt.” Die spoelen worden binnen de BCMoplossing aangesloten op meters die de gegevens doorspelen naar een centrale controller. Vanaf dat punt kunnen de gegevens via SNMP of MODBUS worden uitgelezen. “Op die manier kun je je bestaande energieinfrastructuur vanaf één centraal punt gaan monitoren, zonder ingrijpende operaties op de zaal”, concludeert Kuperus.
meten in aftakboxen Bij busbarsystemen, waar moderne datacenters steeds vaker gebruik van maken, ziet de aanpak er iets anders uit. Daar worden de meters van Raritan geplaatst in de ‘aftakboxen’ waarop de racks worden aangesloten. Kuperus: “Door in de aftakbox spoelen om de leidingen heen te plaatsen, kunnen we de stromen en spanningen meten en weten we wat er per aftakbox wordt afgenomen. Op die manier is ieder rack heel eenvoudig te bemeteren. Ook komen we het te weten als een zekering defect is.” “De trend is busbar”, vult Paul Bekema aan. “In de toekomst zullen we dan ook met busbarfabrikanten gaan samenwerken om te komen tot een ontwikkeling van een standaard aftakbox met daarin onze meter. Dan is onze BCMoplossing beschikbaar in drie verschillende varianten: als een bouwpakket, geïntegreerd in een busbarsysteem of als kantenklare Raritanbox.”
bcm2 Raritan’s huidige Branche Circuit Monitoringoplossing is al enkele jaren op de markt. Eind dit jaar komt er echter een nieuwe versie beschikbaar (‘BCM2’) die volgens Kuperus en
Bekema geschikt is voor bevestiging op een DINrail en een stuk schaalbaarder zal zijn dan de oorspronkelijke oplossing. “BCM1 had voor sommige type installaties de beperking dat je met één controller tot maximaal 24 meetspoelen kon uitlezen”, legt Bekema uit. “Met BCM2 is dit aantal veel hoger. Als de BCM2 wordt geplaatst op een distributieboard, kunnen met één controller en één metermodule totaal 96 meetspoelen worden uitgelezen. “96 afgaande lijnen meten met een apparaat dat maar acht zekeringeenheden breed is, dat is een unicum in de meettechniek”, stelt Kuperus. Bekema lachend: “En je kunt tot maximaal acht meetmodules aan elkaar koppelen waardoor je 768 meetpunten via één IPadres kunt uitlezen. Dat komt overeen met 256 racks met een driefasenaansluiting.” Met de BCM2 zal het tevens mogelijk zijn om binnen een busbaropstelling tot zeventig meters uit te lezen met één controller, en dus via één IPadres. Met twee controllers zijn dus 140 meters uit te lezen via twee IPadressen.
bekende raritanfeatures BCM2 is gebaseerd op de derde generatie pdu’s, pducontrollers en pdumetertechnologie van Raritan. “Dat betekent dan ook dat BCM2 de metingen met een grote nauwkeurigheid uitvoert”, verzekert Bekema. “Nauwkeurig meten is echt een ‘Raritandingetje’; onze meters hebben een afwijking van maximaal één procent.”
OPSTELLING VAN RARITANS BRANCH CIRCUIT MONITORING 2

“Daarnaast beschikt de controller binnen onze BCMoplossing ook over de bekende Raritanfeatures die klanten zeer waarderen op onze pdu’s”, besluit Bekema. Een goed voorbeeld daarvan is de mogelijkheid om bijvoorbeeld een tablet via USB aan te sluiten op de controller. Een beheerder kan staande bij het rack of distributieboard direct de meetwaardes uitlezen en de configuratie van de BCM2 raadplegen of aanpassen. “Ook beschikt de controller over mogelijkheden om extra sensoren aan te sluiten voor bijvoorbeeld het meten van de temperatuur, luchtvochtigheid, airflow en waterlekkage. Zeker waterlekkage is in een groepenkast relevant om te monitoren.” Al deze gegevens kunnen weer worden geanalyseerd met Data Center Infrastructure Managementoplossingen zoals Raritan’s Power IQ. ■
ferry waterkamp freelance journalist

Osmium, het element met de grootste dichtheid in de natuur, straks ook in het datacenter?
Waar moet je op letten?
iedereen weet dat het in een datacenter allemaal om dichtheid draait. waarom dan niet gaan voor het element met de grootste dichtheid dat in de natuur te vinden is?
Eerlijk gezegd kende ik het chemische element Osmium niet, totdat men mij erop wees. Ik dacht eigenlijk dat Irdium de grootste dichtheid had. Blijkbaar heb ik vroeger op school niet goed opgelet of ik ben het gewoon vergeten. Misschien komt dat wel door mijn leeftijd. Wie weet?
In eerdere blogs schreef ik over de transitie van de rekenkracht van de supercomputer naar de mobiele telefoon binnen een tijdsbestek van ongeveer 15 jaar. Natuurlijk moeten we nog heel veel bereiken op technologisch gebied om deze transitie te kunnen maken. In principe moeten we een gebouw vol met apparatuur reorganiseren tot in uw mobiele

toestel. Het vergroten van het apparaat is geen optie, tenzij de component een scherm is. Ik zie tegenwoordig mensen lopen met kleine tablets tegen hun hoofd aan…
Zoals gezegd, in het datacenter draait alles om dichtheid! Dichtheid is niet alleen een technische vereiste geworden, maar wordt ook sterk gedreven door de keiharde economie die winstgevende inkomsten wil genereren. Het hebben van meer apparatuur in uw datacenter leidt simpelweg naar het genereren van meer winstgevende mogelijkheden per kW, per kast en per opgesteld chassis. Als we kijken naar de fysieke laag binnen het datacenter, moet de focus op de dichtheid duidelijk bij het patching chassis liggen. Dit is de plaats waar de netwerkbekabeling wordt samengevoegd en doorgegeven aan de actieve apparatuur. Als er op dit punt geen maximale dichtheid is, kan dat zeer kostbaar zijn. De meeste glasvezeloplossingen met een hoge dichtheid voor datacenters bieden plaats aan 144 LCpoorten (of 72 duplex LCpoorten) per rekeenheid (RU). Het hoge dichtheidsysteem Osmium is nu beschikbaar op de markt en geeft een densiteit van 210 LCpoorten (of 105 duplex LC) per rekeenheid (RU) en is te verkrijgen in 2RU of 4RU versies. Dit niveau van dichtheid is te danken aan het slanke ontwerp van de microcassettes en de blades. Het geeft een verbetering van 45 %. U kunt hier meer over te weten komen als je TE Osmium in uw browser intypt. Maar nu is de vraag... is dit de grootst mogelijke dichtheid? Voorlopig zeg ik ja gebaseerd op de LCinterface connector. Het komt in elk geval heel erg dicht in de buurt. Patching en unpatching van de LC is een uitdaging en in principe niet mogelijk als de blades niet naar voren worden gebracht. Dus ik zou zeggen dat hier zeker aandacht aan moet worden geschonken.
Vervolgens zou de MPO multiglasvezel interconnect of de MPOptimate gebruikt kunnen worden voor lage demping en voor nog meer patching. Wij gaan deze kant al op met bandbreedten hoger dan 40 Gb/s in één kabelaansluiting. Dus nu moet het aantal vezels per interconnect en het aantal multivezels per rekeenheid (RU) worden verhoogd. Dit eerste is al gedeeltelijk gedaan door van 12 naar 24 vezels per MPOptimate te gaan. Heel waarschijnlijk zullen er versies met 32 vezels voor de 400Gb/s communicatie komen. Het tweede, multivezels per RU, moet op basis van nieuwe ontwerpen worden gedaan. Dit zou zeker mogelijk moeten zijn, gebaseerd op reeds eerder gebruikte technologieën met Osmium... ■
willy rietveld te connectivity
