Nvidia's nieuwste supercomputer is als 'een datacenter in een doos'
NieuwsBeweeg over, Watson - als je dat nog niet hebt gedaan. Nvidia heeft zojuist de DGX-1 onthuld, de 's werelds eerste deep-learning supercomputer', gebouwd op de pas aangekondigde Pascal-architectuur van het bedrijf.
De DGX-1 is ontworpen om de machine-learning en artificiële intelligentie-inspanningen van bedrijven te ondersteunen door GPU-versnelde computing toe te passen. De doorvoercapaciteit is gelijk aan die van 250 servers met Intel Xeon-processors.
Concreet kan de DGX-1 170 teraflops pompen - dat is 170 biljoen zwevende bewerkingen per seconde - met zijn acht 16 GB Tesla P100 grafische chips. Ter vergelijking, en hoewel gebouwd voor een ander doel, wordt IBM's Watson-supercomputer geklokt op 80 teraflops.
"Het is net alsof je een datacenter in een doos hebt", zei Nvidia CEO en mede-oprichter Jen-Hsun Huang op het podium tijdens zijn GPU Technology Conference (GTC) keynote address.
Huang gebruikte bijvoorbeeld de tijd die nodig was om AlexNet op te leiden, een populair neuraal netwerk voor computerbeeldherkenning ontwikkeld door Alex Krizhevsky, afgestudeerd aan de universiteit van Toronto. Deze neurale netwerken moeten door krachtige computers worden "getraind" om beelden - of wat hun primaire functie ook is - op hun eigen manier te herkennen.
Voor de 250 servers die op Intel Xeon-chips draaien, zou dat 150 uur rekentijd kosten. De DGX-1 kan het werk in twee uur uitvoeren met zijn enkele cluster van Tesla P100-chips.
De implicaties die dit heeft voor het vermogen van onderzoekers om sneller hun bevindingen in AI, 3D-mapping of zelfs beter zoeken naar afbeeldingen op Google te testen, is - eerlijk gezegd - verbazingwekkend. Nou ja, in ieder geval totdat Nvidia zichzelf volgend jaar weer overtreft met een factor 10.
(De DGX-1 is 12 keer zo krachtig als Nvidia's vorige GPU-gebaseerde supercomputer, onthuld tijdens GTC 2015.)
Voel de kracht van Pascal
Vernoemd naar nog een andere legendarische bijdrage aan de wetenschap, vindt Nvidia's nieuwste grafische verwerkingsarchitectuur, Pascal, zijn eerste thuis binnen de DGX-1 als de Tesla P100 datacenter-accelerator. Die systeemversneller is natuurlijk gebaseerd op de Pascal GP100 GPU van Nvidia.
Pascal voegt niet alleen meer toe aan wat de vorige Maxwell-architectuur deed, maar maakt het eerder efficiënter. De streaming-multiprocessors (SM's) van de Pascal-chip hebben bijvoorbeeld de helft minder CUDA-computerkernen dan de vorige modellen: 64 CUDA-kernen en vier textuureenheden. (Dat maakt 3.840 computerkorrels en 240 textuureenheden voor de GP100.)
Omdat Pascal echter meer dan tweemaal zoveel SM's als voorheen bevat, is het op zijn beurt krachtiger dan eerdere generaties.
Kortom, supercomputers of servers die op de door Pascal gevoede Tesla P100 draaien, kunnen meer uit zichzelf halen dan voorheen, wat mogelijk betekent dat er kleinere - of op zijn minst efficiënter - datacenters en gemakkelijker benaderbaar neuraal netwerk en AI-ontwikkeling zijn.
Huang verwacht in het eerste kwartaal van 2017 servers te zien van IBM, Hewlett Packard Enterprise, Dell en Cray, en een verkoopt voor een koele $ 129.000 (ongeveer £ 91,130, AU $ 171,161).
Wat zal Pascal betekenen voor mensen zoals jij en ik? Nou, later dit jaar kunnen we een nieuwe sprong in grafische chips van consumentenklasse verwachten, waarschijnlijk gericht op het efficiënter van stroom voorzien van een echte virtual reality van hoge kwaliteit dan het gooien van een paar Titans erop en het een dag te noemen.
- Dit zijn de beste VR-laptops op dit moment
Lead Image Credit: Nvidia Corporation (Flickr)