AMD vs. NVIDIA: Wer altert besser?

5 min

avsn

Im Januar hatte ComputerBase einen großen Testaufwand betrieben, um den Leistungsgewinn verschiedener Architekturen herauszuarbeiten, jedoch finde ich dies nicht das Interessanteste an den Benchmarks (1, 2, 3, 4). Aus diesem Grund werfen wir nun einen Blick auf die älteren Modelle beider GPU-Hersteller und vergleichen wie sich diese untereinander in neueren Blockbustern gegenüber ihrer »Release-Performance« schlagen.

Da mir bewusst ist, dass ein Beitrag mit »AMD vs. NVIDIA« im Titel schnell für mehr Dislikes sorgt als ein Video in dem Julius Busch auftaucht, kommt hier noch einmal der Hinweis, dass dieser Blog kein Hate gegen einen der beiden Hersteller darstellen soll und ich mich lediglich auf objektive Ergebnisse von GameStar und ComputerBase stütze.

28nm-Fossile unter der Lupe

Beginnen möchte ich unsere Zeitreise im Jahre 2012 mit der Radeon HD 7870 (erschienen am 19.03.), eine Karte die ich selbst seit mittlerweile vier Jahren besitze (»Pfui… AMD-Fanboy!«, ertönt es aus dem Lager der Grünen). Zeitliche Konkurrenz wäre die GTX 660Ti, da sich im ComputerBase-Vergleich jedoch nur die 660 und 760 befinden, tritt die am 25.06.2013 veröffentlichte GTX 760 an.

Beim Test auf GameStar erreichte diese Grafikkarte in Skyrim unter FullHD stolze 119,4 fps, bzw. 9% mehr als die HD 7870. Mit etwas anderen Einstellungen sind es im Jahre 2017 fast gleichgebliebene 8% Vorsprung. Ähnliches gilt für Anno 2070, soweit so unspannend. Auf alle damals getesteten Spiele war das nVidia-Modell sogar 14% schneller.

Doch wie sieht es mit Spielen aus, die zwei oder drei Jahre später erscheinen werden?

Betrachte man nur die 6 Titel des CB-Benchmarks welche 2015 oder 2016 erschienen sind (namentlich: The Witcher 3, Call of Duty [das ältere der beiden], Fallout 4, Rise of the Tomb Raider, Deus Ex: Mankind Divided und Battlefield 5 1), dann offenbart sich etwas Verwunderliches; plötzlich ist das Radeon Exemplar ganze 16% schneller als das nVidia Pendant!

nVidia GTX 760 vs. AMD HD 7870

2013 2017 GTX 760 HD 7870 GTX 760 HD 7870 114% 100% 100% 116%

Hier relativiert sich dann auch der oftmals hohe Energieverbrauch von AMD, auf ComputerBase finden sich nämlich ebenfalls Werte zum Gesamtverbrauch. Ziehen wir 100W für das restliche System ab, verbraucht die Radeon lediglich 9% mehr und ist folglich heute effizienter als die um über ein Jahr modernere GeForce.

Doch keine voreiligen Schlüsse, vergleichen wir noch die R9 290X mit der GTX 780Ti. Beide erblickten mit nur wenig Tagen unterschied das Licht der Welt gegen Ende 2013. Schaut man wieder in den GS-Test ergibt sich ein Vorsprung in Skyrim – diesmal bei 1440p – von 2% für die 780Ti. Ebenso ist sie in diesem Spiel noch heute diese 2% besser. Insgesamt war aber diesmal die 290X 1% bei 1xAntiAliasing/1xAnisotropeFilterung und 8% bei 4xAA/8xAF besser.

Schon bei den 2014ner Titeln Ryse und Far Cry 4 ergeben sich ein 17% Vorsprung, damit ist der 12% höhere Verbrauch wieder ausgebügelt. Bei späteren Spielen stagniert es jedoch und mit den sechs Spielen von 2015/16 sind es 15% Vorsprung (lässt man den schlecht laufenden Tomb-Raider-Teil weg, ergeben sich immerhin wieder 17%).

nVidia GTX 780Ti vs. AMD R9 290X

2013 2017 GTX 780Ti R9 290X GTX 780Ti R9 290X 100% 105% 100% 117%

Ein kleiner Grund dafür könnte das Wegfallen von Multisampling sein, denn die meisten neuen Releases kommen nur noch mir Postprocessing-Kantenglättung und Auflösungsskalierung daher. Bei den Release-Titeln machten 4xAA immerhin zusätzliche 7% Vorsprung aus (und ja, ich ignoriere hier bewusst den Einfluss von Anisotroper Filterung, denn dieser ist so gut wie nicht vorhanden).

NVIDIA vs. NVIDIA – AMD vs. AMD

Vergleicht man nun je beide Modelle der Hersteller untereinander, so war die GTX 780Ti zu Release in den GS-Spielen bei 1440p 23% schneller als die GTX 760 @ FullHD. Bei den sechs aktuellen CB-Games sind es schon ganze 42% (gar 49% ohne den Ausreißer Fallout 4). Bei der Release R9 sind es 39% und bei den aktuellen Titeln fast identische 37% (ohne Fallout wieder 39%).

nVidia GTX 760 vs. nVidia GTX 780Ti

2013 2017 GTX 760 @1080p GTX 780Ti @1440p GTX 760 @1080p GTX 780Ti @1440p 100% 123% 100% 149%

Damit wurde die 780Ti durchaus noch ausgereifter als es die 760 tat, während sich die 290X prozentual aber kaum gegen die 7870 durchsetzen kann. Ansonsten wäre auch heute ihr Vorsprung zur 780Ti deutlicher. Dieses »verschenkte Potential« zeigt sich auch beim Blick auf die RX 480, denn diese setzt sich im Verhältnis zur 7870 bei neuen Titeln ganze 19% besser durch.

Man beachte aber, dass sie beim Zurückgehen zu älteren Spielen wiederum den Vorteil gegenüber nVidia verliert. So verhält sich eine 480 ähnlich der 7870 und die 1060 wie eine 760. Sprich, in den älteren Titeln verliert die RX 480 mal mehr, mal weniger deutlich gegen die GTX 1060 (entsprechend ihres Radeon-HD-Vorgänger). Dagegen ist sie leistungsmäßig in den neusten sechs Spiele (selbst unter DirectX 11) gleichauf.

alte Spiele neue GTX 760 HD 7870 GTX 760 HD 7870 GTX 1060 RX 480 GTX 1060 RX 480

RX 480 vs. GTX 1060

Moment, identisch? In den meisten Reviews war doch die 1060 (klar) besser. Blicken wir auf die Ergebnisse der RX 480, bei ihrem Release erreichte sie im CB-Test 43,4 fps. Beim Release der GTX 1060 wurde sie nochmals mit neuen Treibern getestet und liegt dort mir 44,9 fps schon vor der 1060. Bei dem aktuellsten Test sind es nun 45,5 fps, eine 5% Steigerung.

Die genaue Entwicklung wurde auch bei HardwareCanucks dokumentiert, im Benchmark-Sortiment des Dezembers 2016 finden sich auch Titel, die erst nach dem Launch von 480 und 1060 erschienen sind. So schrumpfte der Vorsprung der nVidia-Karte im Durchschnitt der DX11-Titel unter FullHD von 12% auf 2% herab, bzw. in WQHD von 8% auf Gleichstand. Im ohnehin durchwachsenen DX12 und Vulkan Feld verliert die grüne weiterhin von -3%, bzw. -4% auf jeweils -6%. Selbst über solch kurze Zeit scheint sich also AMD schon zu verbessern.

nVidia GTX 1060 vs. AMD RX 480

2016 (DX11) 2017 GTX 1060 RX 480 GTX 1060 RX 480 112% 100% 102% 100%

Abschließende Worte

Man sollte somit sagen, dass obwohl GPUs altern, die Treiber mit der Zeit reifen. Und zur Erinnerung; nur, weil AMD hier wohl die Leistung über die Zeit steigern konnte, heißt das nicht, nVidia würde irgendwie schlechter werden. Viel mehr schafft es AMD nicht die komplette Leistung ihrer Grafikkarten zu entfesseln und startet mit suboptimalen Day-One-Treibern. Naja, wenigstens crashen die WHQL-Versionen nicht mein komplettes System, so wie das bei anderen Herstellern der Fall ist (»Steinigt ihn!!!«, schreien die tobenden nVidia-Jünger).

Als High-End-Käufer der aktuellsten Generation sollte man sich keine Gedanken über das Thema machen. Wer aber plant seine preiswerte GPU drei oder vier Jahre lang zu verwenden, sollte hingegen generell immer nach Benchmarks mit aktuellen und optimierten Treibern suchen, besonders bei AMD. Dies garantiert aber noch lange nicht, dass sich beispielsweise eine RX 480 wie die HD 7870 steigern wird, vor allem da DirectX 12 bisher nur schlecht implementiert zu finden ist und sich deshalb wenig über die zukünftige Leistungsentwicklung sagen lässt. Vielleicht liegt es auch nicht an den Grafikkarten, sondern viel mehr an den Spieleentwicklern, die – durch den Fakt, dass AMD APUs in PS4 und XB1 verbaut sind – als Nebenprodukt der besseren Current-Gen-Leistungsoptimierung »versehentlich« auch alte Karten verbessern.

Im Juli 2018 angekommen, scheint sich jedoch an der Entwicklung von 480 und 1060 nicht mehr viel getan zu haben. Liegt es an dem Mining-Problem, war der Release-Treiber von AMD doch nicht mehr so unausgereift wie frühere GCN-Iterationen oder ist nVidia so dominant, dass Spieleentwickler nicht mehr gerne mit AMD arbeiten? Oder sind am Ende doch wieder die Konsolen schuld? Wenn man sich Vega anschaut, dann scheint es so, als würde es immerhin nur maximal ein paar Monate dauern (anstatt wie früher Jahren), bis die Treiber ausgereift sind.