Beste hoge resolutie en multi GPU grafische kaarten 10 beoordeeld
NieuwsWilt u die £ 829 grafische kaart die u zojuist hebt gekocht, rechtvaardigen? Moet je uitvinden hoe je dat enorme scherm op je creditcard moet smelten? Welnu, het enige realistische antwoord is een game met ongelooflijk hoge resolutie of een configuratie met meerdere GPU's die je PSU zou kunnen smelten, evenals je persoonlijke rijkdom.
Het probleem is dat, ondanks het feit dat grafische hardware de afgelopen paar jaar enorm is geëvolueerd, de paneel- en gametechnologie niet echt is bijgehouden. Sinds de consoles van de laatste generatie eraan kwamen, mikten de meesten van ons op resoluties van 1080p.
In het begin was dat een prijzenswaardig doel en het voelde als een tijdperk voordat het de standaardresolutie werd. Maar nu is het zo, met de Steam-hardware-enquête die beweert dat ongeveer een derde van de gebruikers een primaire display heeft die loopt op 1.920 x 1.080. Bij die resolutie zijn zelfs minder dan £ 100 grafische kaarten meer dan in staat om de meeste nieuwe titels op relatief hoge instellingen uit te voeren, tegen afspeelbare framesnelheden.
Om je moderne midrange / high-end grafische kaarten echt te pushen, moet je de resolutie verhogen en helaas staan de 30-inch panelen van de laatste vijf jaar - met hun 2.560 x 1.600 resoluties - nog steeds aan de top van de tech-boom, kloppen rond het £ 1.000-teken. Er zijn 27-inch schermen met de 16: 9 resolutie van 2.560 x 1.440, en deze zijn waarschijnlijk de beste keuze voor high-res gaming op een relatief verstandig budget.
De volgende stap is om een aantal schermen samen te binden in een soort surround-opstelling met breedbeeld. We hebben het over resoluties van ongeveer 5.880 x 1.080 wanneer u drie 1080p-schermen koppelt in liggende modus met randcorrectie. En met die extra pixels die je ogen vullen, heb je misschien een tweede GPU nodig om alles aan te kunnen.
Toen ik aan dit hele langdradige testproces begon, was ik van mening dat de vierkante peg van surround-schermgamen moeite had om in hetzelfde ronde gat als 3D te passen. Ik dacht dat beide resource-intensieve frame rate hogs waren - beperkend de trouw van je spel, zonder veel toe te voegen aan je ervaring.
En om eerlijk te zijn, die mening is niet veranderd. Je hebt een aantal ongelooflijke grafische grunt nodig om het meeste uit een array met drie schermen te halen, en voor het grootste deel betekent dit dat je je ziel aan de duistere god van multi-GPU-gaming verkoopt.
Pas echter op, op die manier ligt gekte. De resoluties die betrokken zijn bij multi-screen arrays in-game stellen hoge eisen aan je beschikbare GPU-vermogen, maar als we beginnen aan het schijnbaar lange onverharde pad naar 4K-gaming, is dit misschien iets dat we serieus moeten overwegen..
Het koppelen van een paar monitoren aan een paar GPU's is de enige realistische manier voor ons om resoluties te bereiken die hoger liggen dan wat ons gezegende 30-inch Dell-paneel kan renderen, wat de enige manier is om de nieuwste en beste grafische chips door hun hoge resolutie te plaatsen schreden.
Als een oefening om te zien hoe ver we de moderne GPU's van deze generatie kunnen duwen - en zien hoe dicht we bij machines staan die in staat zijn om 4K te gamen - zijn de hoge resoluties die betrokken zijn bij de opstelling van surroundschermen nuttig. Maar als een game-ervaring op dit moment zijn ze gewoon een aflaat, met een enorme hoeveelheid verspild schermvastgoed en een enorme premie op frame rates.
De hele deal met surround-schermgaming is om een omslag te maken van je gamewereld, met een paar panelen aan weerszijden van een centraal scherm dat in essentie werkt als je perifere visie. Als extra schermen werden weggegeven - en de frame rate hit was niet echt de prestatie halveren - dan zou het een leuke extra zijn om te hebben, wat een beetje onderdompeling in je ervaring toevoegt.
Maar dat is niet de manier van surroundgaming. In het beste geval kijk je naar schermen rond de £ 100, dus je voegt nog eens £ 200 toe aan je gaming-setup voor een paar panelen die je per definitie niet echt zou moeten bekijken. De vervormde beelden die zich uitstrekken over de randschermen zijn niet mooi, maar zijn er om de hoek van je oog te vangen terwijl je je meeste aandacht richt op wat er vlak voor je gebeurt.
In een first-person shooter kan zo'n breedbeeldvisie nuttig zijn om te zien wie er op je afkomt en in racespellen draagt het zeker bij aan het gevoel van snelheid, maar het biedt zelden een echt, tastbaar voordeel. Een extra scherm hebben is netjes, maar zeker niet genoeg om zo'n stevige uitgave te rechtvaardigen.
De ellende van setup
En dan is er de angst voor het instellen. Het gelijktijdig uitvoeren van drie schermen kan een hele klus zijn, hoewel mijn eerste ervaringen relatief positief waren. Ik begon mijn testsloep met de Nvidia-kaarten, waarbij elk van de vijf verschillende setups onmiddellijk de drie 1080p DVI-schermen herkende. Hierdoor kon ik de verbindingen over de kaarten in de multi-GPU-sets verspreiden, of alle drie van een kaart met de Titan en GTX 690 uitvoeren.
Het was ook eenvoudig om het bureaublad over de array met drie schermen te verspreiden, door het Nvidia-configuratiescherm in te dippen en de randcorrectie en dergelijke in een handomdraai aan te passen.
De AMD-kaarten, die voorstanders van gamen met meerdere beeldschermen via het Eyefinity-initiatief, waren meer een abjecte les in instellingsangst. Om redenen die het meest bekend zijn bij zichzelf, is AMD geobsedeerd door DisplayPort.
Deze obsessie betekent dat als u drie schermen van de kaarten wilt uitvoeren, een van die monitors moet worden uitgevoerd vanaf een van de DisplayPort-verbindingen op de eerste kaart in de array. Met onze DVI-schermen bleek dat op zijn zachtst gezegd een struikelblok te zijn.
Met de Nvidia-kaarten konden we een tekort aan DVI-connectoren op één kaart aan, door de belasting over een SLi-paar te spreiden - iets dat niet mogelijk is in CrossfireX. Het is dus een geval van aanpassen of falen, waarbij meestal één scherm moet worden aangesloten via een DVI-kabel, een ander via een HDMI-adapter en het derde en laatste displayPort-hongerige scherm via een DP-adapter.
Dit zou eenvoudig zijn, ware het niet dat er zowel actieve als passieve adapters beschikbaar zijn voor DisplayPort, en het kan moeilijk zijn om te weten welke in staat zijn om de klokken in de adapter actief te veranderen, zodat de kaart denkt dat het een DP-monitor voedt. Met een passieve adapter krijgt u altijd maar twee schermen tegelijkertijd te zien.
Gelukkig was Sapphire goed genoeg om ons een goed functionerende optie te bieden na twee mislukte pogingen door onze IT-instanties en een lange trawl door de stad om lokaal een spoor te vinden.
Nvidia is dus de koning van multiscreen-setups, met zijn gebruiksgemak en het feit dat hij niet afhankelijk is van DisplayPort om de volledige reeks surround-schermen samen te stellen. Maar gezien de extra kosten en het gebrek aan tastbare voordelen, dwalen we hier echt af naar het koninkrijk der blinden.
Grootte doet er toe
Het feit blijft dat als je de beste high-res ervaring wilt, je de grootste monitor moet kopen die je maar kunt. Je kunt een fatsoenlijk 27-inch paneel van 2.560 x 1.440 ophalen voor minder dan £ 500, maar de 30-inch 16:10 panelen zijn nog steeds onbetaalbaar.
Een grotere enkele monitor kan ook gemakkelijker vanaf een enkele GPU worden uitgevoerd, wat betekent dat u niet hoeft te lijden onder de ellende van multi-GPU-setups. Zelfs een enkele HD 7870 XT zal vrijwel alles draaien op afspeelbare snelheden van 2.560 x 1.440.
Toch hebben onze tests aangetoond dat gamen met een hoge resolutie beslist niet buiten het bereik van de hedendaagse hardware valt. We zijn misschien niet helemaal op het niveau van volledige 4K gekomen met onze multi-scherm array, maar we zijn niet ver weg en met wat fatsoenlijke prestaties van huidig silicium.
Dat is geluk want de huidige generatie GPU van AMD zal de hardware van de gaming-toekomst in de next-gen consoles gaan gebruiken - en voor hen is de 4K-roadmap van vitaal belang.
Op de volgende pagina bekijken we de GPU-setups.