20 minute read

Inspelen op de snel groeiende behoefte aan meer snelheid

Kies een toekomstbestendige bekabelingsinfrastructuur Inspelen op de snel groeiende behoefte aan meer snelheid

Lee Funnell van Siemon onderzoekt in dit artikel hoe ethernetapplicaties zich in het datacenter ontwikkelen. Ook vraagt hij zich af welke bekabelingsinfrastructuur nodig is om aan de behoefte aan hogere snelheden te kunnen voldoen.

Advertisement

Het Internet of Things (IoT) produceert iedere dag nieuwe apparaten die verbinding maken met en communiceren via het netwerk. Volgens schattingen van Gartner zijn er dit jaar maar liefst 14,2 miljard aangesloten apparaten in gebruik. Al deze apparaten produceren enorme hoeveelheden gegevens die met steeds hogere snelheden moeten worden verzonden, verwerkt en opgeslagen. Daarmee neemt de druk op de IT om aan deze netwerkeisen te voldoen steeds verder toe.

In het datacenter - zowel aan de randen (beter bekend als ‘edge’) als in de backbone - zien we dat de toepassingssnelheden snel moeten toenemen om deze IoT-ontwikkeling te kunnen ondersteunen. Maar wat betekent dit voor de bekabelingsinfrastructuur? Hoe kan de bekabelingsinfrastructuur aan deze almaar toenemende eisen en wensen tegemoet komen? En wat moet er worden geïnstalleerd?

Aan de rand (edge)

Aan de rand van het datacenter worden nu switch-naar-serversnelheden van meer dan 10 Gb/s bereikt. Deze snelheden groeien de komende tijd naar 40 Gb/s en hoger om aan de almaar groeiende behoefte aan connectiviteit tegemoet te kunnen komen. Dit heeft geresulteerd in de ontwikkeling van 25GBASE-T en 40GBASE-T ethernet-toepassingen voor dit deel van het datacenter.

De 2 GHz bandbreedte die nodig is om 25 Gb/s en 40 Gb/s doorvoer te ondersteunen, heeft geleid tot een nieuwe generatie bekabeling. Het gaat om Categorie 8 klasse I (opgebouwd uit categorie 8.1 met gebruikmaking van RJ45-componenten) en klasse II (opgebouwd uit categorie 8.2 met gebruikmaking van niet-RJ45-componenten) met afgeschermde bekabeling van categorie 8 (opgebouwd uit categorie 8-componenten). Deze ondersteunen bandbreedtes tot 2 GHz en channel-afstanden van 30 meter waarbij in het channel niet meer dan 2 connectoren zijn opgenomen.

Deze kanalen en de nieuwe 25G/40GBASE-T-toepassingen die zij ondersteunen, zijn specifiek gericht op de inzet aan de ‘rand’ van het datacenter waar de verbindingen tussen servers en switches worden gemaakt. Ontwerpers van datacenters die hun rack- en kastindelingen zodanig kunnen kiezen dat zij met maximaal 30-meter kanaalverbindingen kunnen werken, zullen in de toekomst eenvoudig kunnen migreren naar 25G/40GBASE-T.

{‘Welke bekabelingstechnologie kan de migratie naar deze toekomstige toepassingen efficiënt

ondersteunen?’

In de afgelopen maanden is de industrie begonnen met het op de markt brengen van Categorie 8-technologie. Categorie 8.2 wint aan kracht, waarbij de Siemon TERA-connector (zonder enige vorm van herontwerp sinds de release in 1989) het eerste commercieel uitgebrachte Categorie 8.2-systeem is.

Rechtstreekse aansluitingen voor ToR-toepassingen

Voor datacenters die gebruikmaken van een top of rack (ToR) architectuur, bieden HST-oplossingen (High Speed Interconnect) een effectieve manier om actieve apparatuur aan te sluiten. Deze point-to-point-kabels zijn bedoeld voor zowel switch-to-switch-, switch-to-server- of switch-to-storage-toepassingen. Deze kabels ondersteunen verschillende snelheden, van 10Gb/s tot 100Gb/s. Datacenter managers doen er goed aan op zoek te gaan naar leveranciers die deze kabels in verschillende kleuren aanbieden, om bijvoorbeeld A- en B-routes te onderscheiden en het kabelbeheer te vereenvoudigen. HSI’s die beschikbaar zijn in stappen van 1 meter zullen het kabelbeheer en de luchtstroom verbeteren. Ze zorgen bovendien voor een netter uiterlijk in tegenstelling tot de kabels die normaal gesproken in lengtes van 5 of 7 meter worden geleverd.

In de backbone

In de backbone zien we nu snelheden van 200 Gb/s en binnenkort zelfs 400 Gb/s ethernet-snelheden om toepassingen in dit deel van het datacenter die veel bandbreedte vereisen te ondersteunen. Het IEEE 802.3bs-amendement specificeert de eerste generatie 400 Gb/s-glasvezeltoepassingen voor gebruik via single-mode (400GBASE-DR4, 400GBASE-FR8 en 400GBASE-LR8) en multimode (400GBASE-SR16) bekabeling. Ondertussen ontwikkelen de IEEE P802.3cm 400 Gb/s over Multimode Fibre, IEEE P802.3ct 100 Gb/s en 400 Gb/s over DWDM-systemen, en IEEE P802.3cu 100 Gb/s en 400 Gb/s over SMF bij 100 Gb/s. De Wavelength Task Forces werken aan efficiëntere implementaties van 400 Gb/s single-mode en multimode.

In het licht van deze ontwikkelingen dienen datacenter managers zich nu een belangrijke vraag te stellen: welke datacenterbekabelingstechnologie kan de migratie naar deze toekomstige toepassingen efficiënt ondersteunen?

Zowel 200 als 400 Gb/s toepassingen zullen data verzenden over aantallen vezels die deelbaar zijn door 2 of 8. In bestaande installaties vinden we echter vaak 12-vezelige MTP-connectiviteit. Als 12-vezelige MTP-connectiviteit wordt gebruikt om huidige en toekomstige 8-vezelige toepassingen te ondersteunen, zullen slechts 8 van de 12 vezels in gebruik worden genomen. Vier vezels ofwel 33% van de vezels worden dan niet gebruikt, wat leidt tot een aanzienlijke verspilling van de aanwezige vezelcapaciteit.

8-vezel/MTP-oplossingen kunnen dit probleem oplossen en worden ten zeerste aanbevolen voor gebruik in nieuwe datacenterimplementaties. De reden is dat 8-vezelige MTPbackbonebekabeling en 8-vezelige MTP-jumpers een 100 procent benutting van de beschikbare vezelcapaciteit opleveren. Ze bieden niet alleen de meest efficiënte, kosteneffectieve en best presterende optie voor de huidige 8-vezelige 40 en 100 Gigabit toepassingen zoals 40GBASE-SR4 en 100GBASE-SR4. Ze bieden bovendien ook een zeer belangrijk en eenvoudig migratiepad naar de volgende generatie 200 Gb/s en 400 Gb/s toepassingen.

Voor datacenterfaciliteiten die al 12-vezel MTP-oplossingen hebben geïnstalleerd en die op zoek zijn naar ondersteuning voor huidige en toekomstige 8-vezelige toepassingen, kunnen conversiekabels of -modules toepassen. Deze maken de overgang van twee 12-vezelige MTP’s naar drie 8-vezelige MTP’s mogelijk, zodat 100 procent van de vezels kan worden gebruikt. Het is echter belangrijk erop te wijzen dat conversiekabels en -modules een complexere manier zijn om 100 procent vezelbenutting te bereiken in vergelijking met het gebruik van 8-vezel MTP-oplossingen. Het inzetten van conversiekabels betekent dat 3 poorten offline moeten worden gehaald in het geval van een beschadigde kabel, terwijl conversiemodules extra verliezen (‘insertion loss’) in het kanaal introduceren. Dit beïnvloedt in de regel de algehele prestaties op een negatieve manier - een nadeel dat vaak over het hoofd wordt gezien of niet in overweging wordt genomen.

Bovendien wordt de speelruimte om insertion loss op te lossen steeds kleiner. Zeker nu datacenters naar hogere snelheden migreren. Om een goede ondersteuning van applicaties te waarborgen, is mijn advies dan ook om glasvezeloplossingen met een laag verlies in te zetten.

Het lijdt geen twijfel dat het Internet of Things om steeds hogere snelheden vraagt. Deze trend zal zich in de nabije toekomst voortzetten. Datacenter managers doen er goed aan een bekabelingsinfrastructuur te kiezen die kan voldoen aan zowel de huidige behoefte als aan de vraag naar toekomstige functies.

www.scos.cloud Secure Managed File Transfer

Hosted in West Europe – Middenmeer/The Netherlands. Ipswitch MOVEit Cloud is a SaaS version of MOVEit Transfer

Ipswitch MOVEit Cloud delivers the company’s industry-leading Managed File Transfer (MFT) system with all the benefits of cloud computing, including: • reliability • elasticity • and rapid deployment

In an era of high-visibility security violations, scos.cloud leads the industry in security and integrity.

scos.cloud protects your most valuable asset – your data – by incorporating essential security measures for cloud services.

Hosted at a world-class data center facility (ISO/IEC 27001 ) compliant that is engineered to incorporate multiple levels of security and redundancy for optimal • reliability • availability • business continuity and it’s all managed by MOVEit experts.

Start your Cloud MFTaaS now with one of our MFT experts.

Secure MFT • Secure Email • Ad Hoc Transfer • Automate File Transfer • MFTaaS

Europees OCP Experience Center

Testomgeving voor open source datacenter hardware

Om de Smart Economie werkelijkheid te laten worden, zijn Internet of Things-platformen en -ecosystemen nodig die voortbouwen op de krachtige basis van moderne colocatie-datacenters. Maar om ervoor te zorgen dat deze fundering van datacenters altijd voldoet aan de eisen die aan hen worden gesteld in hun ontwikkeling, richt het Open Compute Project (OCP) zich op de continue verbetering van datacenter-hardware. Het eerste Europese OCP Experience Center in maincubes’ AMS01 Datacenter biedt een demo- en testomgeving die zich op dit idee heeft toegelegd. Geïnteresseerden kunnen hier de hardware van morgen voor datacenters testen en ontwikkelen.

Digitale platforms en ecosystemen zijn alleen optimaal als de leden actief in de ontwikkeling ervan deelnemen en elkaar ondersteunen. Datacenterexploitanten en -ontwerpers kunnen in onderzoek en ontwikkeling volgens vergelijkbare principes handelen en doen dat in toenemende mate dankzij het in 2011 gelanceerde Open Compute Project. Wat twee jaar geleden begon als initiatief van enkele Facebookingenieurs, is inmiddels uitgegroeid tot de non-profit OCP Foundation. Sindsdien zijn talloze projecten gerealiseerd, variërend van nieuwe serverontwerpen die speciaal voor Intel- en AMD-processoren zijn ontworpen, tot rack designs met hogere capaciteiten en betere ventilatie tot oplossingen voor een efficiëntere stroomvoorziening.

Onder de leden van de OCP Foundation bevinden zich ook verschillende Europese bedrijven, waaronder de Duitse fabrikant Rittal en de Nederlandse OCP Solutions Provider Circle B. In juli 2019 verhuisden de twee IT-specialisten het eerste Europese OCP Experience Center, dat voorheen in een ander datacenter gevestigd was, naar het AMS01-datacenter van maincubes in Amsterdam. De huidige locatie beschikt over de infrastructuur voor het testen van OCP-technologieën en het demonstreren van OCP-hardwareconcepten. Het datacenter wordt onder andere gekenmerkt door prestatieverhoudingen tot 2,0 kW per vierkante meter, maximale betrouwbaarheid en meerdere certificeringen zoals ISO 27001:2013 en ISAE 3402 (Q3-2019). Terwijl maincubes de colocatie-omgeving biedt voor het Europese OCP Experience Center, biedt Circle B kant-en-klare systemen en omgevingen op basis van het OCP-ontwerp. Rittal ontwikkelt racks en koeloplossingen op basis van OCPontwerpen.

Europese hotspot

Een van de belangrijkste principes van de OCP Foundation is de open uitwisseling van ideeën en dus van ontwikkelingsgegevens, ontwerpen en technische achtergronden. Onder dit motto staat het European OCP Experience Center ook open voor bezoekers en geïnteresseerden - als democentrum, maar ook als testomgeving. Hierdoor kunnen andere Europese datacenter operators niet alleen kennismaken met de laatste hardware ontwikkelingen, maar ook direct deelnemen en hun eigen ideeën naar voren brengen. maincubes biedt hiervoor een volledig functionele OCP-omgeving. Dit betekent dat er niet alleen individuele, afzonderlijke componenten beschikbaar zijn, maar ook een complete infrastructuur inclusief servers, racks, processoren, koeling en stroomvoorziening. De prestatietests kunnen immers alleen realistische gegevens opleveren in combinatie met andere componenten.

Hoewel het idee achter OCP in 2009 in de VS begon met de bouw van een nieuw Facebook-datacenter in Prineville, Oregon, met de opening van het Experience Center in Amsterdam, werd Europa een pionier in de implementatie van publiek toegankelijke

laboratoria. Pas in 2019 volgden de VS met een eigen testomgeving in San José, Californië. Een van de voordelen van de Amsterdamse locatie is de centrale ligging. Het maincubes datacenter, waarin het OCP Experience Center is gevestigd, is gelegen in de directe omgeving van Schiphol. Geïnteresseerden uit heel Europa kunnen op afspraak binnen enkele uren het lab bereiken. Exploitanten en aanbieders hoeven geen middelen aan hun eigen centrum uit te geven.

Wendbaardere prestaties

OCP-datacenters zijn efficiënter en duurzamer dan traditionele datacenters. Ze vertegenwoordigen dus als het ware een slankere versie van eerdere concepten. Als in eerdere datacenters bijvoorbeeld veel ruimte

moest worden gebruikt voor het koelen van het systeem met water of lucht, dan is dit niet nodig in het OCP-concept. Nieuwe, luchtgekoelde units met een bovengemiddelde PUE van 1,02 en betere en geoptimaliseerde maatregelen, zoals efficiënte warm/koude-gangeninstallaties, maken het niet langer nodig om ruimteintensieve koelers of koeltorens te installeren. Bovendien is dankzij de open source-software die in de OCP-datacenters wordt gebruikt tot 80 procent minder server-hardware nodig om dezelfde workloads te kunnen ‘draaien’. Dit heeft uiteraard een zeer positieve impact op zowel ruimtebeslag als energiegebruik.

De noodstroomvoorziening wordt bij OCP-datacenters eveneens anders aangepakt. Er wordt volop gebruikgemaakt van gedistribueerde UPS-systemen die gemakkelijker zijn te transporteren, te installeren en te verplaatsen dan centraal opgestelde UPS’en. Hun ruimtebehoefte is ook veel kleiner. Intelligent beheer zorgt er echter voor dat ze net zo betrouwbaar, schaalbaar en stabiel zijn als centrale UPS’en.

OCP-racks

In het lab van het AMS01 datacenter van maincubes bevinden zich momenteel racks volgens de OCP-specificatie versie 2, waarin noch de server noch het geheugen een eigen voeding hebben. In plaats daarvan worden de componenten rechtstreeks gevoed via in de kasten geïntegreerde busbars. Hierdoor kan het totale stroomverbruik met ongeveer vijf procent worden verminderd. De benodigde ruimte is ook aanzienlijk kleiner. Met een buitenafmeting van 600 millimeter en een binnenafmeting van 21 inch kunnen de OCP-racks tot drie componenten (zeven inch elk) naast elkaar worden geplaatst. De klassieke kasten bieden slechts 19 inch interne ruimte met dezelfde buitenafmetingen.

Doordat de componenten relatief dicht bij elkaar liggen, ontstaat er meer restwarmte die nog beter moet worden afgevoerd. Ook hier is de oplossing de modulaire gelijkstroomrails, die in plaats van een bedradingsbundel voor de stroomvoorziening zorgt. Hierdoor kan de uitlaatlucht ongehinderd naar achteren stromen. Bovendien kunnen dankzij de eenvoudige stekkerverbindingen systemen min of meer letterlijk blindelings worden toegevoegd of verwijderd - de zogeheten ‘blind mate connection’. Versie 3 van de OCP-specificatie voor racks wordt momenteel ontwikkeld en richt zich vooral op verdere verbetering van de koeling. De reden hiervoor is de steeds hogere prestatie-eisen, bijvoorbeeld voor het hosten van online games of virtuele en augmented reality (VR/AR) applicaties. Drie varianten zijn momenteel in ontwikkeling: voor- en achterzijde van een rek hardware direct omgeven is door een koelvloeistof

Toenemende populariteit

Hyperscalers vertrouwen met name op OCP-technologieën om hun datacenters up-to-date te houden. Dit is niet verrassend. Hun business is gebaseerd op het feit dat ze elkaar ondersteunen door hun servers horizontaal in een netwerk op te nemen, om zo een betere schaalbaarheid en hogere rekenkracht te bereiken. Tegelijkertijd zijn het energieverbruik en de kosten lager en zijn de gebruikers flexibeler. OCP-servers verbruiken bijvoorbeeld tot 50 procent minder energie dan eigen servers. Dit wordt ook onderstreept door praktische voorbeelden uit de dagelijkse praktijk van maincubes. Een OCP-gebruiker in het datacenter in Amsterdam was in staat om zijn energieverbruik met 40 procent te verminderen ten opzichte van klassieke blade servers. Opmerkelijk is ook dat de kapitaaluitgaven (CAPEX) bij een OCPgebied met maximaal 75 procent kunnen

directe waterkoeling van de processoren geïntegreerde warmtewisselaars aan de immersion-koeling, waarbij de server-

worden verminderd. Steeds meer Europese bedrijven en zelfs overheden erkennen de bovengenoemde voordelen van samenwerking - duurzaamheid, het vermogen om gezamenlijk ideeën te ontwikkelen en zo wederzijds voordeel te halen uit elkaar. Als gevolg daarvan neemt ook de vraag naar OCP-technologieën toe. Volgens een marktvoorspelling van de analisten van IHS zal hun verkoopvolume in 2022 naar verwachting ongeveer 10,7 miljard dollar bedragen. Het Europees OCP Experience Center creëert hierbij transparantie door niet alleen ruimte, instrumenten en infrastructuur te bieden, maar ook de kennis en ervaring met connectiviteit.

Antje Tauchmann en Joris te Lintelo zijn werkzaam bij maincubes

Smartdc en i3D.net:

Low latency en connectiviteit in online gaming

Achter het robuuste uiterlijk van de iconische Van Nelle Fabriek in Rotterdam gaat een bijzondere wereld schuil. In de fabriek zelf zijn talloze bedrijven gehuisvest die een breed scala aan producten en diensten leveren. Een deel van die bedrijven doet ‘iets’ met internet. Een van die bedrijven is Smartdc, een modern datacenter wat zich bevindt in het voormalig distributiecentrum van de Van Nelle Fabriek. In dit datacenter worden onder andere gameservers gehost door zusterbedrijf i3D.net. Via deze servers kunnen dagelijks miljoenen gamers de grootste game-titels zoals FIFA, The Division en Rocket League met elkaar online spelen. i3D.net heeft wereldwijd duizenden servers staan, verdeeld over bijna 40 locaties. De miljoenen gamers in West-Europa komen virtueel tezamen in het datacenter van Smartdc.

Het is 2008 als de eigenaar van i3D.net, Stijn Koster, samen met Richard Boogaard het plan opstelt om in Rotterdam een eigen datacenter te bouwen gericht op gamehosting en low latency. Tot nog toe werd er ruimte gehuurd bij andere datacenters voor de duizenden gameservers in Nederland. Na veel gesprekken, verbouwingen en onderhandelingen is het dan op 27 oktober 2009 zover, Smartdc opent zijn deuren. In de jaren die volgen breidt het datacenter zich uit op basis van vraag. In 2013 volgt ISO- en NEN-certificering en in 2016 wordt een tweede powerhouse ingericht vanuit het uitgangsprincipe dat alle hardware een keer stuk kan gaan en dus redundant uitgevoerd moet worden. 2018 staat in het teken van een grote esthetische verbouwing. Nieuwe vergaderruimtes, een nieuwe breakroom voor klanten en een

nieuwe entree voorzien van de laatste technische snufjes. De beloning voor Managing Director Richard Boogaard en CEO Stijn Koster volgt in 2019, als Smartdc en i3D.net worden overgenomen door de Franse speluitgever Ubisoft.

Ingericht voor gamehosting

Een veelgehoorde term in het datacenter van Smartdc is low latency. Een absolute noodzaak voor het hosten van videogames. Latency kan omschreven worden als de vertraging tussen het invoeren van een actie tijdens het gamen en de actie die op het scherm wordt weergegeven. Als een speler in FIFA via zijn toetsenbord een bal over het veld schiet, dan is dat een signaal dat van het toetsenbord, via de computer uiteindelijk in het datacenter

terechtkomt waar die betreffende game draait. Daar wordt de actie uitgevoerd waarna de gameserver een signaal terugstuurt naar de pc van de gamer. Dat signaal wordt vertaald naar beeld zodat de gamer kan zien dat de bal ook echt geschoten wordt en aankomt bij een andere speler. Zo’n signaal gaat via routers, kabels, verbindingskastjes, switches, hubs, poorten, knooppunten en datacenters heen en weer. Ondanks dat het signaal met de snelheid van het licht heen en weer gaat, neemt het tijd in beslag. Tijd, vertaald naar latency in milliseconden, die voor een optimale game-ervaring zo laag mogelijk moet zijn: low latency.

Waarom draait een game in een datacenter?

Game-publishers en game-ontwikkelaars hosten hun videogames op dedicated servers. Dit zijn servers die maar één taak hebben: het hosten van die ene videogame. Zo’n server is dus 100% dedicated (ingezet) voor dat betreffende spel. Bij gamehosting worden gameservers op verschillende locaties via een netwerk met elkaar verbonden, zodat spelers vanaf verschillende locaties online videogames met elkaar kunnen spelen. Een datacenter is er op ingericht om dataverkeer met elkaar te verbinden. Daarom is een datacenter bij uitstek geschikt voor het hosten van een videogame. Helemaal als dat datacenter is ingericht op low latency, zoals Smartdc.

Always up, never down

Naast latency is downtime een belangrijke pijler voor een datacenter. Of nog beter, het voorkomen van downtime. Of klanten van Smartdc nu een online gaming-platform bouwen, games ontwikkelen of games publiceren, ze hebben altijd een betrouwbare, wereldwijde, snelle infrastructuur met een hoge beschikbaarheid nodig. Downtime in een datacenter betekent ‘game over’ en is catastrofaal voor zowel de gamer als het datacenter. Voor de gamer is het spel afgelopen en de reputatie van het datacenter wordt geschaad, wat uiteindelijk kan leiden tot verlies aan inkomsten. Voor gamehosting is een oplossing die hoge performance, low latency en optimale uptime combineren daarom essentieel. Geen enkele gamer wil vertraging in het spel. Het is een van de grootste frustraties van gamers.

Die latency wordt beïnvloed door verschillende aspecten. De eerste twee zijn al kort aan bod gekomen: • Snelheid van de bekabeling. • De route waarover signalen heen en weer worden verstuurd. • Het type server en de hardware in de server. • Softwareperikelen in de game zelf. • Snelheid van de bekabeling

De eerste latency-factor heeft te maken met de snelheid van het dataverkeer via het internet. Dit wordt beperkt door de snelheid van het licht. De bekabeling van het internet bestaat uit glasvezel. De

{‘Voor gamehosting is een oplossing die hoge performance, low latency en optimale uptime combineert essentieel’

data wordt omgezet in een lichtsignaal dat door de glasvezelkabels wordt geschoten. Het laatste stukje naar woningen van mensen of bedrijven kan ook glasvezel zijn, maar ook nog kabelinternet of telefoonlijn. Dit is in wezen de bovengrens van hoe snel data verstuurd kan worden op dit moment.

Netwerkcongestie

De tweede factor die invloed heeft op latency is netwerkcongestie. Het internet is een enorm netwerk van onderling verbonden netwerken. Er zijn meerdere manieren om van het ene punt naar het andere op het netwerk te komen. Het Border Gateway-protocol (BGP), dat een beetje lijkt op de verkeersregelaar van het internet, neemt deze beslissingen. Het BGP stuurt het overgrote deel van het internetverkeer over het kortste pad. Maar omdat al het verkeer over

het kortste pad gaat, kan dit leiden tot congestie. Dit resulteert in verkeersknelpunten en frequente vertragingen van internetverkeer

Afstand

Latency komt nog scherper in beeld wanneer spelers op verschillende afstanden van een bepaalde gameserver in een datacenter tegen elkaar spelen. Spelers die dichter bij een gameserver-locatie zijn, ervaren een lagere latency en hogere responsiviteit met de server tijdens het spelen omdat er een kortere afstand overbrugd moet worden. Terwijl degenen die verder weg zijn, hogere latency en lagere responsiviteit zullen ervaren. Als zodanig hebben spelers dichter bij een gameserver een duidelijk voordeel ten opzichte van spelers die verder weg zijn. Dit wil echter niet zeggen dat een server in de buurt van de gamer gegarandeerd een betere spelervaring biedt. Spelservers kunnen overbelast en verstopt raken tijdens verkeerspieken. Dit leidt tot een verslechterde spelervaring. Een van de redenen waarom netwerkcongestie ontstaat, is het routeringsbeleid van internet. Wat op zijn beurt tot langzamere gameplay leidt.

Acceptabel prestatieniveau

De uitdaging voor gamehosting-partijen is om alle spelers een acceptabel prestatieniveau te bieden. Dit prestatieniveau moet worden gehandhaafd, ongeacht de locatie van de speler. Onderzoek heeft aangetoond dat vertragingen van slechts 100 ms de gameplay zodanig kunnen verslechteren dat deze niet speelbaar is (Claypool, 2007*). Alles op 100 ms of minder wordt acceptabel geacht voor gaming. 20 tot 40 ms is echter optimaal.

Het netwerkteam van Smartdc (en i3D.net) heeft een dagtaak aan het zoveel mogelijk beperken van netwerkcongestie. Zodra er klachten worden geconstateerd van gamers (bijvoorbeeld via sociale media) wordt er meteen actie ondernomen om het verkeer om te leiden via een snellere route. Dat is een van de grote voordelen van een specialisatie in de gamehosting. Het is een servicelaag, richting de klanten, die voor een datacenter ongekend is.

Type server en hardware

Vaak wordt door de game-ontwikkelaar aangegeven welk type server er gebruikt moet worden en welke hardware daarin moet zitten zodat de game goed draait. Vanuit de invalshoek van i3D.net wordt er dan ook nog eens gekeken naar de performance. Zo worden er aanbevelingen gedaan om de server verder te optimaliseren zodat dit uiteindelijk de prestaties van de server ten goede komt. Dit levert weer een verbetering op voor de gamers.

Softwareperikelen

Dit is een factor waar de engineers van Smartdc en i3D.net geen rol in kunnen hebben. De programmatuur van het spel. Tenminste, als het aankomt op de software van het spel zelf. Zodra er een component in zit waar connectiviteit een rol in speelt, dan kunnen de engineers meekijken en wellicht verbeteringen adviseren.

Het netwerk van i3D.net

Een goed netwerk is dus ook van essentieel belang voor de beste spelervaring. i3D.net beheert een eigen 1 TB+ wereldwijd netwerk (AS49544). Het netwerk gaat over meerdere intercontinentale verbindingen; trans-Atlantisch, trans-Pacific en naar het MiddenOosten. Het netwerk staat in de top 10 van beste netwerken ter wereld. Low latency en beschikbaarheid zijn de essentie van het i3D.net-netwerk. Het netwerk bestaat uit meerdere Tier-1 providers en connecties met de grootste Internet Exchanges ter wereld. i3D.net is fysiek aanwezig op bijna 40 datacenter-locaties verdeeld over 6 continenten. Door aanwezig te zijn op locaties die zo dicht mogelijk bij de spelers zijn, wordt de latency geminimaliseerd omdat het verkeer over zo kort mogelijke afstanden verstuurd wordt. i3D.net heeft daarnaast ook veel peering-verbindingen met internet providers over de hele wereld, om ervoor te zorgen dat verkeer op de snelst mogelijke manier wordt gerouteerd om optimale gaming-prestaties te garanderen. Doordat i3D.net een eigen netwerk bezit, hebben de engineers zelf de controle over het verkeer binnen het netwerk. Door deze verbindingen kan i3D.net netwerkcongestie voorkomen door het verkeer over andere routes te versturen. Verkeer wordt gerouteerd op basis van de vertraging die wordt ondervonden via elke netwerkroute in plaats van de afstand. Beslissingen over netwerkrouting zijn gebaseerd op de latency van netwerkroutes. Deze mix van verschillende transit-aanbieders en

This article is from: