10 minute read

Het datacenter van de toekomst

Next Article
Vancis

Vancis

Algemeen | Michiel van Blommestein

Doorbraak van vier technologische trends

Het datacenter van de toekomst

Door het bedrijfskritische belang dat ICT bij veruit de meeste bedrijven heeft, is innovatie een grote uitdaging voor datacenters. Op papier althans, want in de praktijk ontwikkelt de technologie zich zeer snel. Dat moet ook wel. De explosie aan gegevens in combinatie met de steeds strengere eisen aan stabiliteit en snelheid zorgen ervoor dat iedere mogelijke prestatiewinst nauwkeurig wordt uitgemeten door leveranciers en andere ontwikkelaars. In dit Datacenter & Cloud Dossier gaan we in op enkele van de technologische ontwikkelingen die langzamerhand tractie beginnen te krijgen in de markt.

Hoe vervelend het ook mag lijken; de ICT-sector zoals we die nu kennen loopt ontegenzeggelijk tegen zijn limieten aan. Enkele jaren geleden is IPv6 nog maar nét op tijd ingevoerd om het explosief groeiende aantal IP-adressen op te kunnen vangen. Eerder dit jaar verklaarde de MIT Technology Review, het huisorgaan van het Massachusetts Institute of Technology, de Wet van Moore dood. En wat betreft efficiency komen steeds meer omgevingen akelig dicht bij de PUE-waarde van 1.1.

Dat is de reden dat steeds meer concepten van ‘out of the box’ nadrukkelijker in de schijnwerpers komen te staan. Wat volgt zijn vier voorbeelden van technologieën die tractie beginnen te krijgen in de datacentermarkt en waarvan verwacht mag worden dat ze een rol van betekenis gaan spelen in deze markt. Wat al deze ontwikkelingen gemeen hebben is dat ze op zich geruime tijd geleden zijn bedacht, maar dat ze om allerlei redenen nu aan een doorbraak beginnen.

NVMe Een goed voorbeeld daarvan is Non Volatile Memory Express (NVMe), waarvan de eerste specificatie al in 2011 is gepubliceerd. Sterker nog, de interface waarop NVMe is gebaseerd, NVMHCI, heeft zijn 1.0 publicatie al in 2008 zien verschijnen. Het werk van NVMe Inc., het consortium dat zich over de technologie ontfermt, gaat ondertussen stug door. Dit jaar is een specificatie voor NVMe over Fibre Channel gepubliceerd.

NVMe is SSD-opslag dat is aangesloten op de PCI-Express sleuf in een PC of server, in plaats van op een SATAof SAS-verbinding. Dit zorgt voor een veel hogere I/O van gegevens, waardoor NVMe voor flinke snelheidswinsten kan zorgen, omdat NVMe veel meer instructies parallel kan uitvoeren dan SATA. De snelheidswinst ten opzichte van conventionele bussen ligt op minstens een viervoud van wat we van SSD op SATA gewend zijn.

CPU performance De ondersteuning voor NVMe is al enkele jaren rap aan het toenemen. “Toen wij anderhalf jaar geleden onze dertiende generatie servers lanceerden, had je al brede NVMe-ondersteuning”, vertelt Ruud Koster, Product Business Manager van de Infrastructure Solutions Group bij Dell EMC. “Maar je ziet nu dat de vaart van de standaardisatie enorm toeneemt. Het is nog te vroeg om te voorspellen of we in de nabije toekomst inderdaad all-NVMe servers gaan krijgen. Alleen zien we wel dat de adoptie van standaard flashdrives enorm snel gaat. En we zien diezelfde trend ook bij NVMe ontstaan.”

Door de opkomst van SSD-opslag is de interesse in NVMe flink toegenomen

Dat NVMe populair wordt, ligt dus vooral aan de toegenomen populariteit van SSD-drives. Een bijkomstigheid met SSD is geweest dat de bottleneck opeens elders is komen te liggen. Waar bij een conventionele ‘spinning’ harddisk de schijf zelf voor de vertraging zorgt, is het bij SSD de verbinding geworden met de rest van het systeem: de bus. Mede daardoor is de interesse in een techniek

die op zich al een redelijke tijd op de tekentafel lag toegenomen. “Een paar jaar geleden spraken we nog met klanten over de CPU performance”, schetst Koster. “Nu vraagt bijna geen klant hier meer naar, tenzij het om een HPComgeving gaat. Zelfs in een zwaar gevirtualiseerde omgeving is de CPU voor hooguit 40 tot 50 procent belast. Het hele vraagstuk rond bottlenecks is veel meer naar de I/O verlegd.”

Een andere barrière voor de marktadoptie van NVMe, de prijs, is ook steeds minder een probleem. Die prijs is immers sterk afhankelijk van de prijs van SSD’s, en deze is geleidelijk aan het dalen. “Ik denk dat de groei van NVMe in de pas gaat lopen met de groei van SSD”, zegt Koster. “Daar zagen we binnen twee jaar tijd een verdubbeling. De adoptie is, denk ik, binnen anderhalf jaar wel een feit. Dan praat ik er over dat over anderhalf jaar een op de twee servers een NVMe-disk bevat.”

Koster vervolgt: “Natuurlijk verkopen we nog steeds spinning disks, al zie je een verschil ontstaan tussen de bulkdata die op spinning disk wordt gezet, terwijl het daar waar performance nodig is naar de SSD-laag gaat. Je kunt een stukje tiering in de server zelf doen, en daarin speelt NVMe een belangrijke rol. Je kunt je servers helemaal hot-swappable maken.”

Edge computing Een andere uitdaging is de stortvloed aan data die datacenters moeten verwerken. Of, om precies te zijn: de groei van die stortvloed. Want hoe meer apparaten er verbonden zijn, des te meer data wordt gegenereerd. Hoe meer van die data kan worden verwerkt, des te meer kunnen bedrijven hun processen verbeteren en concurrerender worden. Gecombineerd met Big Data is Internet of Things (IoT) daarom een enorme aanjager geworden voor de vraag naar datacenterdiensten. Dat aandeel zal ook alleen maar stijgen. Het probleem is alleen dat de data van ‘het ding’ naar de cloud (en dus een datacenter) moet worden verplaatst om te worden verwerkt. Na verwerking moeten de resultaten weer terug worden gevoed aan ‘het ding’ om eventuele correcties te maken. En dat alles moet eigenlijk meteen. Het vormt een enorme last voor datacenteromgevingen, die qua connectiviteit en rekenkracht hun beste beentje voor moeten zetten.

Algemeen | Michiel van Blommestein

Een medewerker van HPE legt uit welke berekeningen The Machine kan maken.

Maar waarom zou je dat alles doen als je de data ook ter plekke kunt crunchen? Edge computing doet precies dat. Het brengt rekenkracht zo dicht mogelijk naar de logische extremen van het netwerk, dus naar de ‘dingen’ van the Internet of Things. Het gaat daarbij meer om een concept dan om een technologie. Het concept bestaat al een tijdje, maar is met IoT weer helemaal actueel. Zo actueel, dat Hewlett Packard Enterprise er afgelopen zomer een geheel nieuwe productlijn voor heeft opgericht onder de naam Edgeline.

Mini-datacenter “We hebben een deel van het datacenter naar de edge gehaald”, vat Dr. Tom Bradicich, vice president en general manager voor Servers en IoT systems van HPE, het samen. Hij trekt over edge computing jegens cloud computing de parallel met een restaurant. “Als je een restaurant runt, wil je niet dat mensen thuis eten. Cloudleveranciers willen dat gebruikers hun taken uitbesteden naar de cloud. Dat gezegd hebbende: ik heb helemaal niets tegen de cloud, of tegen uit eten gaan. Wij leveren ook clouddiensten. Maar thuis eten heeft ook zijn voordelen, en daar komt de edge om de hoek kijken.” Door een soort ‘mini-datacenter’ in een behuizing vlakbij een systeem te plaatsen, kan heel veel werk voor het datacenter worden afgevangen. Het datacenter blijft natuurlijk wel van belang, zo legt ook Bradicich uit. “Je kunt alles op de Een edge-apparaat kan al snel met 64 Xeon-cores werken, en ook de overige benodigdheden als storage kunnen op de locatie zelf beschikbaar zijn. “Uiteindelijk zijn er zeven redenen om berekeningen op de edge uit te voeren”, zegt Bradicich. “Latency en snelheid, vermijden van bandbreedteverbruik, kosten

Edge computing brengt rekenkracht zo dicht mogelijk naar de logische extremen van het netwerk

edge bewerken en alleen het antwoord terugsturen. Je kunt ook niets op de edge doen omdat de verwerking zo complex is dat je een volledige omgeving nodig hebt. En dan kun je een mix van de twee hebben.” Nu heeft edge computing nog het nadeel dat het prima kan werken voor relatief lichte berekeningen waarvoor wel een snel antwoord nodig is, maar dat het voor zwaardere, diepere analyses nog niet heel ver komt. Die tijden lijken echter langzaamaan te veranderen. besparing op de cloud, security omdat de gegevens minder worden verplaatst, vermijding van duplicatie, vermijden van datacorruptie en compliance en beleid.”

Memory Driven Computing We blijven even bij HPE, want het volgende voorbeeld is iets dat het bedrijf twee jaar geleden prominent heeft verkondigd. Hoewel het past in een bredere trend, is HPE Memory Driven van al deze genoemde technologieën de meest ingrijpende en, op dit moment, het minst

concrete. Nog dit jaar hoopt HPE met een prototype te komen van wat het bedrijf ‘The Machine’ noemt. In de kern gaat het om een model waarbij de data altijd in werkgeheugen staat en daarmee altijd beschikbaar is voor de processoren om hier berekeningen op uit te voeren. “Iedere computer op de markt is nog steeds gecentreerd rond de processor”, legt Jaap Suermondt, Vice President en Directeur van het HPE Analytics Lab, uit. “Daar is niets mis mee, het concept werkt sinds de jaren veertig van de vorige eeuw goed en je kunt willekeurige aantallen bij elkaar in clusters zetten. Maar laten we een stap terug doen. Tegenwoordig gaat het steeds meer over de data waarmee je werkt, in plaats van de rekenkracht die je erop loslaat. Als je daarvan uitgaat, en je ziet al die scale-out architecturen, dan kun je je afvragen: gaat dit om het doorgeven van stukjes data van processor naar processor, of gaat het erom dat je een grote verzameling data hebt en dat je processorkracht erop loslaat zonder dat je die data moet verplaatsen? “

Rol van doorgeefluik Suermondt gaat verder en legt uit dat HPE probeert om de processor te ontdoen van de rol van doorgeefluik. “Voor mij als softwareman is het een enorme bevrijding dat ik al het geheugen als één groot fabric kan zien en ik me geen zorgen hoef te maken waar het precies staat. Opeens hoef ik, als ik zoiets doe als graph-berekeningen, me niet te bekommeren over hoe ik de graph verdeel. Ik hoef me immers geen zorgen te maken over hogere latency als ik naar een andere board ga. Dat is erg belangrijk, want je bent heel veel tijd kwijt bij kwesties als hoe dingen gepartitioneerd moeten worden, hoe verdeel ik de last, hoe groot is de last als ik de load verplaats naar een andere processor, hoeveel ops ben je kwijt voor een berekening.”

Omdat het een radicaal ander concept betreft, heeft HPE nog wel wat werk te doen als het gaat om de ontwikkeling. Daarna volgt het lange proces van Daarom wordt ook al jaren met de gedachte gespeeld om servers maar gewoon in een vloeistof onder te dompelen. Eerder dit jaar ging Microsoft zelfs zo ver dat het experimenteerde met ‘datacenter-capsules’ in de oceaan. Feit is dat het onderdompelen van

Microsoft experimenteerde met het plaatsen van een datacentermodule in de oceaan

marktadoptie, maar uitgerekend daar maakt Suermondt zich weinig zorgen om. “Sommigen willen puur op de OSlaag werken, en kunnen met dit nieuwe model overweg zolang niet te veel met Linux wordt geschoven”, zegt hij. “Anderen willen kunnen programmeren in C++ en willen slechts een extra library. Weer anderen willen de SQL-laag behouden, zelfs wanneer ze geen database hebben. En weer anderen willen puur werken in Apache Spark en zijn niet geïnteresseerd in hoe de data wordt opgeslagen. Zolang je mensen deze API-connecties geeft is de disruptie minimaal.”

Emersed cooling We maken om af te sluiten een uitstapje naar de fysieke infrastructuur, want de strijd om de lagere PUE-waarde is nog steeds hevig. Vrije koeling, waarbij de buitenlucht wordt aangewend, is daarbij erg populair, maar zelfs dan zijn apparaten nodig om de lucht rond te pompen. Bovendien is de serverdichtheid steeds hoger, waardoor de lucht minder ruimte heeft om te stromen en warmte af te voeren. Om maar te zwijgen van het feit dat lucht geen al te beste warmtegeleider is. servers zowaar tractie begint te krijgen in de markt. Nu is een PUE van 1.3 tot 1.2 nog de standaard, met onderdompeling van servers kan je al snel 1.1 of zelfs beter behalen. Water is daarbij natuurlijk ouderwets en om allerlei redenen niet praktisch, dus wordt voor deze koelingstechnieken gebruik gemaakt van speciale olie.

Natuurlijk heeft ook emersed cooling nog wat obstakels te overwinnen. Om te beginnen zijn de servervaten alleen van boven te bereiken, wat schaalbaarheid en uitbouw naar boven ietwat in de weg zit. Het retrofitten van het datacenter kan kostbaar zijn. En dan zorgt onderhoud waarbij fysieke toegang tot de server nodig is ook nog eens voor een enorme rommel.

Uiteraard zijn er nog veel meer technologieën en trends die het datacenter kunnen transformeren. Ongetwijfeld hebben we enkele belangrijke over het hoofd gezien. Tips zijn altijd welkom en kunnen gestuurd worden aan redactie@channelconnect.nl

This article is from: