Weet je nog dat een Terabyte aan data klonk als iets uit science fiction? Het was nog maar een paar jaar geleden, maar nu kun je een Terabyte-schijf kopen in een winkel met een high street computer.

Welnu vorig jaar bereikte het wereldwijde jaarlijkse datacenterverkeer vorig jaar 2,6 Zetabytes (ZB) - dat is 2,6 miljard miljoen Gigabytes of 2,6 x 10 ^ 15 Megabytes aan verzonden gegevens. Maar er is meer; Er wordt voorspeld dat het datacenter-verkeer volgend jaar 4.1ZB zal treffen en in 2016 zal het met 250 procent stijgen naar 6.6ZB.

Dergelijke enorme verkeersstijgingen kunnen niet plaatsvinden zonder datacenter en netwerkinfrastructuur, waarbij industrieën de uitdaging aangaan. En dat betekent niet alleen meer datacenters, maar ook veranderingen in de onderling verbonden infrastructuur - glasvezel en koper - die worden ingezet binnen de groeiende wereldbevolking van datacenters.

Dus wie is toonaangevend, vraag of technologie?

Voordat we ingaan op de bekabelingsdetails, laten we eens kijken naar wat deze geplande groei in gegevens stuurt - en onthoud dat we het hebben over de hoeveelheid gegevens die wordt verzonden, niet de opgeslagen hoeveelheid.

Er zijn twee dingen die het verkeer van de gebruikerssfeer (zowel consumenten als bedrijven) stimuleren. Ten eerste de groei van mobiele apparaten met internet, zoals smartphones en tablets.

Het totale aantal verkochte mobiele internetapparaten heeft het aantal verkochte pc's in 2011 overtroffen - en tegen 2016 zullen er twee keer zoveel mobiele apparaten zijn als pc's en laptops.

Deze groei in apparaten wordt dan gecompliceerd door de tweede - de groei in gebruikersvideo.

Een datacenter CIO, sprekend op een DCD Intelligence-conferentie, zei bijvoorbeeld dat hij had berekend dat hij tijdens een popconcert mensen bezocht die foto's delen met Facebook en MySpace, livevideo streamden naar vrienden en uploaden naar YouTube met 5 TB aan gegevens - allemaal moest worden verzonden naar en via datacenters. En dat was een enkele 90 minuten durende gebeurtenis!

In de bedrijfsruimte verandert de architectuur. Er is een belangrijke stap gezet van "fat" -clients (waarbij de applicaties op de pc van de gebruiker worden uitgevoerd) in combinatie met lokale servers - tot thin clients voor gebruikers en servers verbannen naar enorme datacenters waar energiekosten kunnen worden gehalveerd, veerkracht gegarandeerd en uptime gegarandeerd door sterk gesystematiseerde operationele controles en processen.

Of dit nu public cloud, private cloud of externe servers in co-locatiedatacenters is, het effect is vergelijkbaar - er is nog steeds veel client-serververkeer, maar dit is nu via het WAN en een enorme toename van server-serververkeer binnen de datacenter.

Volgens Cisco was in 2011 17 procent van het verkeer afkomstig van datacenters tot gebruikers, zeven procent van datacenter tot datacenter en een enorme 76 procent verkeer binnen het datacenter..

Niet alleen is er een enorme toename van het verkeer binnen het datacenter, het groeiend gebruik van virtualisatie betekent dat elke fysieke servernetwerkinterface nu het verkeer van 8, 10 of misschien 12 virtuele servers moet vervoeren.

Dit geeft aan dat 10Gbps Ethernet (10GbE) connectiviteit, die nu pas in woede wordt uitgerold, niet voldoende capaciteit heeft voor de komende jaren.

Een recente voorspelling van Cisco geeft aan dat 2013 het grootste deel van de servers in de wereld met elkaar verbindt door 10 GbE, waarbij GbE bijna volledig is uitgefaseerd en een klein percentage 40GbE gebruikt. Tegen 2017 zullen er niet alleen veel meer servers zijn, maar tweederde zal ook worden geleverd met 40GbE-connectiviteit volgens Intel en Broadcom.

2020 is bijna getuige van een verdubbeling van het aantal servers van vandaag - alle aangesloten op 40GbE of 100GbE. Dit alles betekent dat het een echte race voor infrastructuurtechnologie is om gelijke tred te houden met de groeiende vraag naar interconnectiegegevens.

Een patroon

Interessant genoeg hebben we nu genoeg iteraties van Ethernet-snelheidsupdates doorlopen om het patroon te zien dat waarschijnlijk van toepassing is in de volgende update - van 10 Gbps tot 40 Gbps - en dit is het volgende:

Vroege gebruikers met krachtige computervereisten zullen eerst 40 & 100 Gbps nodig hebben en zij zullen vezel- en kortbereik-coax-oplossingen gebruiken voordat een BASE-T-bekabelingsoplossing beschikbaar is.

De 40 & 100 Gbps-oplossingen voor connectiviteit met een hoge dichtheid gebruiken multi-lane coax, maar alleen aan de bovenkant van het rack (ToR) omdat het maximale bereik slechts 7 meter is. De implementatie van 40 GBps is feitelijk 4 x 10 Gbps 'rijstroken' naast elkaar, dus de time-to-market was snel en is nu beschikbaar.

De elektronica om dergelijke hoge datasnelheden te multiplexen is complex en de kabels zijn omvangrijk en erg duur - dus het is zeer veel een 'early adopter' oplossing alleen.

Vooral als u er rekening mee houdt dat de lengtebeperking betekent dat elk rack een ToR-switch (top of rack) moet hebben met high-speed glasvezelverbindingen naar de hogere niveauschakelaars.

Het installeren van een switch-per-rack is uiteraard duur in termen van kapitaalkosten, onderhoudscontracten en stroomverbruik. Het is ook moeilijk te beheren.

De aantrekkingskracht van hogere benutting van de havens in gecentraliseerde schakelaars met behulp van een vezelimplementatie is duidelijk. Het inzetten van ToR-switches verspilt ook 2U of 3U in elk rack dat anders zou kunnen worden gebruikt voor productieservers - mogelijk een grote opportunitykost.

Een aantal 40 Gbps glasvezeloplossingen zijn al beschikbaar voor langere links, maar de kostenvoordelen van een BASE-T-koperen oplossing (wanneer deze beschikbaar is) zullen waarschijnlijk nog steeds de oplossing naar keuze maken, via glasvezelverbindingen, zodat de server kan schakelen.

Ondertussen, terwijl deze early-adopter installaties worden uitgerold, bereidt de Ethernet-gemeenschap zich voor op het starten van een 40 Gbps over "categorie" bekabelingsstandaard - hoewel op het moment van schrijven IEEE nog geen werkgroep heeft gevormd om een ​​dergelijke standaard-.

Als we kunnen aannemen dat de IEEE-groep is gevormd, dan kunnen we speculeren dat we fatsoenlijke, vooraf standaard 40 Gb / s-categorieoplossingen kunnen zien eind 2014, gevolgd door een gestandaardiseerde 40GBASE-T in 2015.

Is 40 Gbps Ethernet het waard?

Je kunt je afvragen of het de moeite waard is om 40 Gbps Ethernet te ontwikkelen als het pas twee jaar later beschikbaar zal zijn? Het antwoord is er een van eenvoudige economie.

Terugkijkend op 10 Gbps kost een fiber-server-naar-server-koppeling, inclusief netwerkinterfaces, patchcords etc. binnen het datacenter oorspronkelijk ongeveer $ 1000. Een equivalente short-reach coax-oplossing was $ 700 (maar daarbovenop waren de kosten van alle benodigde extra switches). Toen 10GBASE-T echter in gebruik werd genomen, daalden de kosten naar $ 400.

Voor 40 Gbps, hoewel de kosten allemaal hoger zullen zijn, kunnen we een vergelijkbaar patroon verwachten. Aangezien de meeste "productie" datacenters tussen 2016 en 2022 slechts 40 GBps serververbindingen in grote volumes nodig hebben, is 40GBASE-T waarschijnlijk de oplossing die economisch het meest logisch is.

Momenteel eisen datacenternormen zoals EN51073-5 en ISO / IEC 24764 dat elke "zone" in het datacenter wordt uitgerust met een "zone-distributeur" (ZDA). Dit kan een ToR-schakelaartabel of patchpaneel zijn, een middelste rij (MoR) of een einde van een rij (EoR), schakelaart of patchframe.

Voor de huidige build-out van 10GBASE-T adviseren we meestal MoR of EoR edge switches met glasvezel trunks terug naar het hoofddistributiekader, (Fig. 5) hoewel sommige gevallen verschillende benaderingen vereisen om aan de bedrijfsbehoefte te voldoen.

Moeten we de topologie voor 40GBASE-T wijzigen? Het waarschijnlijke antwoord is ja. Een beetje.

Op dit moment lijkt het onwaarschijnlijk dat 40GBASE-T in staat is tot 100m links in tegenstelling tot alle vorige BASE-Ts. Het huidige gesprek duurt 30 meter. Maar onderzoek dat we hebben uitgevoerd voor onze 10 Gbps zonekabel, gaf aan dat 50 m ongeveer 90 procent van alle lengte van de datacenterkoppeling afdekt, dus het is niet moeilijk om links te plannen die ruim onder deze lengte liggen.

Een mogelijke verandering is dat gecentraliseerd schakelen niet zo populair zal zijn als het was (tenzij single-mode glasvezel wordt gebruikt) en de inzet van EoR & MoR-switches de voorkeursparameters zullen zijn.

Runkbekabeling van EoR- en MoR-switches naar de centrale MDF en kernschakelaars kunnen 40/100 Gbps OM4 multimode fiber zijn - hoewel dit acht vezels per link vereist voor 40 GbE en twintig fibers voor elke 100 GbE-link.

Dit kan de voorkeur hebben voor co-locatiedatacenters die CapEx willen bevatten, omdat de multimodus-optische interfaces aanzienlijk goedkoper zijn dan single-mode.

Het nadeel is natuurlijk dat er veel meer vezels nodig zijn om van 10G naar 40G te gaan en vervolgens naar 100G - met als gevolg verstoring en het gevaar van onderbreking van de service.

Dit vanuit een oogpunt van flexibiliteit en geminimaliseerd verstoring bekeken, kan de voorkeur hebben om rechtstreeks naar oplossingen voor één modus te gaan op basis van duplexconnectiviteit met panelen met hoge dichtheid die cross-connect bieden naar server- en switchverbindingen.

Single-mode vereist slechts twee vezels per koppeling, ongeacht of deze op 1 Gbps, 40 Gbps of 100 Gbps werkt. Dit betekent dat de 10 tot 40 tot 100 Gbps switchinterface-upgrades kunnen worden uitgevoerd zonder dat de backbone van het datacenter hoeft te worden gewijzigd.

Links van de zone-gelokaliseerde switches naar de hogere niveauschakelaars en servers zullen een gebruikerskeuze zijn. 40GE over glasvezel is al beschikbaar en hoewel 40GBASE-T waarschijnlijk minder duur zal uitkomen, is er nog steeds een vraag wanneer en of het commercieel beschikbaar zal zijn.

Ons advies is dus om vezels te gebruiken als uw vereiste moet worden geïmplementeerd voordat de beschikbaarheid van 40G koper duidelijk is.

Al met al betekent de groei van het internet- en datacenterverkeer in de komende jaren dat we in zeer opwindende tijden leven met de vraag die technologie mogelijk inhaalt en aanzienlijke druk uitoefent op bekabelingsinfrastructuurfabrikanten en integrators om voorsprong te houden in de race.

Voor de arme datacenterbeheerders, wiens toekomstbestendigheidsdoel en prognosetaak nooit gemakkelijk zijn geweest, moet ik helaas zeggen dat het alleen maar moeilijker is geworden.

Ik adviseer managers van datacenters sterk om hun plannen in een zeer vroeg stadium te bespreken met de belangrijkste kabelfabrikanten om hun projecten en investeringen zo veel mogelijk te beperken.

  • Ken Hodge is de CTO van Brand-Rex en is betrokken bij ontwerp, NPD en nieuwe technologie, het promoten van het bedrijf en zijn producten en het behartigen van onze belangen in de internationale standaardiseringsarena.