Nvidia GeForce RTX 2060 FE im Test – setzt diese Karte neue Maßstäbe in der Mittelklasse?

Vorbemerkung

Der heutige Launch war nicht ganz so einfach als Artikel zu realisieren, aber am Ende hat es dann doch geklappt. Die Folge der etwas limitierten Sample-Lage ist, dass ich auch diesmal (wie schon bei der GeForce RTX 2070) vorerst auf die Daten und die Karte meines US-Kollegen Chris Angelini zurückgreifen musste und wir alle technischen Verbindungsmöglichkeiten genutzt haben, um trotz Zeitverschiebung wie gewohnt zu kooperieren.

Es wird in jedem Fall Follow-Ups geben, darauf gebe ich mein Wort. Nur eben nicht hier und heute, das muss ich leider voranstellen. Aber wir haben bereits heute umfangreiche Gaming-Benchmarks und viele andere Tests der neuen Karte parat, die wir in gewohnter Form mit der eigenen Interpreter-Software aufbereitet haben. Dabei wird es interessant sein, auch die Frame Times, die Varianzen und den Unevenness-Index für jede Einzelkarte zu betrachten.

Dinge, wie die weiterführenden Platinendetails bzw. die Komponentenanalyse, die wirklich exakte Leistungsaufnahme unter verschiedenen Bedingungen, sowie die thermischen Tests in verschiedenen Aufbauten (offener Benchtable vs. geschlossenes Gehäuse) sowie die Frequenzspektren aus der Audio-Chamber, muss ich dann zeitnah mirt einer eigenen Karte in einem zweiten Teil nachreichen. Boardpartner-Karten kommen ja eh noch, aber der Vergleich zu Referenz wäre halt schon interessant.

 

Quo Vadis RTX?

Die Kontroverse um Nvidias Turing-Grafikarchitektur scheint die Anwender in zwei Lager zu spalten. Einerseits sind die Kritiker generell unzufrieden darüber, wie sich die Karten der GeForce RTX 20-Serie im Vergleich zu Boards der vorherigen Generation preislich positionieren. Oder sie sind andererseits unzufrieden damit, dass Nvidia so viele Ressourcen für vielleicht zukunftsweisende Funktionen aufgewendet hat, die unter Umständen nicht die umwerfende optische Wirkung haben oder generell reibungslos funktionieren, außer vielleicht bei den bei Ultra-High-End-Modellen.

Die GeForce RTX 2060 könnte nun gut geeignet sein, diese Meinungen an beiden Fronten zu ändern. Mit einer UVP von 369 Euro liegt sie unter dem damaligen Startpreis der GeForce GTX 1070. Und doch zeigt der geometrische Mittelwert ihrer durchschnittlichen Bildraten, dass die GeForce RTX 2060 schneller ist als die GeForce GTX 1070 Ti und sich eher in Richtung GeForce GTX 1080 bewegt! Darüber hinaus machen die jüngsten Updates von Battlefield V Nvidias hybrides Rasterisierungs-/Echtzeit-Raytracing-Konzept auch auf Mittelklasse-Hardware spielbar. Die Benchmarks werden dies später zeigen.

 

Der TU106-300 der GeForce RTX 2060

Der TU106-300 der GeForce RTX 2060 wird gegenüber der Vollvariante TU106-400 auf der RTX 2070 auf nunmehr noch 1920 CUDA-Kerne, 240 Tensorkerne, 30 RT-Kerne, 120 TMUs und 48 ROPs reduziert. Die Karte wird Taktfrequenzen im Bereich von 1365 MHz (Basistakt) und 1680 MHz (Boost) aufweisen und damit gleichzeitig bis zu 6,5 TFLOPs Rechenleistung liefern können. Da die Karte sechs RT-Kerne weniger als die RTX 2070 hat, kann sie mit etwa 4-5 Giga-Rays pro Sekunde an Raytracing-Leistung liefern.

Da uns Nvidia auch bei den Unterlagen erstaunlich kurz gehalten hat, muss ich für das Blockschaltbild des TU106 auf ein eigenes „Meisterwerk“ zurückgreifen, bei dem ich im Blockschaltbild des vollständigen TU106 einfach die nicht mehr vorhandenen Bereiche rot hervorgehoben habe, um den Unterschied zur RTX 2070 deutlich zu machen. Wir sehen neben den abgetrennten Einheiten auch einen von 4 MB auf nunmehr 3 MB reduzierten L2-Cache.

Unbeschnitten behält der TU106 den gleichen 256-Bit-Speicherbus wie der TU104 bei. Aber die GeForce RTX 2060 verliert zwei der 32-Bit-Speichersteuerungen des Grafikprozessors, was zu einem aggregierten 192-Bit-Bus mit 6 GB von 14 Gb/s GDDR6-Modulen führt, die bis zu 336 GB/s bewältigen können. Trotz der reduzierten Konfiguration bietet die GeForce RTX 2060 ihrem Prozessor mehr Speicherbandbreite als die GeForce GTX 1070 Ti der letzten Generation.

Mit der Deaktivierung dieser Speichercontroller schaltet Nvidia auch ein Paar ROP-Partitionen und zwei der 512KB Slices des L2-Cache aus. Was im TU106-400 der GeForce RTCX 2070 als GPU mit 64 ROPs und 4MB L2 beginnt, wird jetzt beim TU106-300 der GeForce RTX 2060 auf 48 ROPs und 3MB Cache reduziert. Wie bei der GeForce RTX 2070 ist die NVLink-Unterstützung in dieser Preisklasse längst nicht mehr gegeben. Ein Schelm, der Böses dabei denkt.

Obwohl der TU106 die bisher am wenigsten komplexe Turing-basierte GPU ist, enthält sein 445 mm² Chip nicht weniger als 10,8 Milliarden Transistoren. Das ist immer noch enorm für das, was Nvidia einst als die Mitte ihres Portfolios betrachtet haben könnte. Im Vergleich dazu war der GP106, also der „Midrange Pascal“, ein kleiner 200 mm² Chip mit 4,4 Milliarden Transistoren.

Basierend auf frühen Benchmark-Ergebnissen in Battlefield V mit aktivierter DXR schien es am Anfang, als wäre ein Echtzeit-Raytracing mit Modellen unterhalb der GeForce RTX 2070 undenkbar. Eine Kombination aus massiver Optimierung von EA DICE und den relativ geringen Einschränkungen beim TU106-300 bedeuten jedoch, dass die GeForce RTX 2060 die spielbare Leistung in dem einen Spiel beibehält, das derzeit noch die meisten der neuen Features unterstützt.

Wenn es um die Speicherspezifikationen geht, bietet die Karte 6 GB GDDR6-Speicher zusammen mit einer 192-Bit-Busschnittstelle, was mit 14 Gbit/s zu Buche steht. Dies würden dann 336 GB/s als Bandbreite für diese Karte bedeuten, also sogar mehr noch als die 10 Gbit/s der GeForce GTX 1080 mit den 8GB GDDR5X. Doch der beschnittene Speicherausbau könnte, zumindest in höheren Auflösungen, in einer nicht allzu fernen Zukunft auch schon mal zum potentiellen Flaschenhals werden.

 

Unboxing und technische Daten

Da ich noch keine eigene Karte für einen Test erhalten habe, muss ich gezwungenermaßen auf Nvidias Render-Bilder zurückgreifen. Die Bildergalerie könnte auch exemplarisch für die RTX 2070 stehen, denn es ist mit der PG160 die gleiche Platine und auch der Kühleraufbau ist identisch.

Selbstverständlich werde ich später eigene Bilder, die echten Einbaumaße und Dinge wie das Gewicht noch nachliefern. Ansonsten gilt, was bereits zur GeForce RTX 2070 FE und deren Launch geschrieben wurde. Den Rest bietet uns GPU-Z:

Statt einer eigenen Analyse habe ich aber wenigstens die technischen Daten im Überblick, für die man keine physikalisch vorhandenen Testobjekte braucht:

  GeForce GTX 1060 FE GeForce RTX 2060 FE GeForce RTX 2070 FE
GeForce GTX 1070 FE
Architektur (GPU)
Pascal (GP106) Turing (TU106) Turing (TU106) Pascal (GP104)
CUDA Cores
1280 1920 2304 1920
Tensor Cores
N/A 240 288 N/A
RT Cores
N/A 30 36 N/A
Textureinheiten
80 120 144 120
Base Clock Rate
1506 MHz 1365 MHz 1410 MHz 1506 MHz
GPU Boost Rate
1708 MHz 1680 MHz 1710 MHz 1683 MHz
Speicherausbau
6GB GDDR5 6GB GDDR6 8GB GDDR6 8GB GDDR5
Speicherbus
192-bit 192-bit 256-bit 256-bit
Bandbreite
192 GB/s 336 GB/s 448 GB/s 256 GB/s
ROPs
48 48 64 64
L2 Cache
1,5 MB 3 MB 4MB 2MB
TDP
120 W 160 W 185W 150W
Transistoren
4,4 Mrd. 10.8 Mrd. 10.8 Mrd. 7.2 Mrd.
Die-Größe
200 mm² N/A 445 mm² 314 mm²
SLI
Nein Nein Nein Ja (MIO)

Testsystem und Messmethoden

Das Testsystem und die -methodik haben wir im Grundlagenartikel “So testen wir Grafikkarten, Stand Februar 2017” (Englisch: “How We Test Graphics Cards“) bereits sehr ausführlich beschrieben und verweisen deshalb der Einfachheit halber jetzt nur noch auf diese detaillierte Schilderung. Wer also alles noch einmal ganz genau nachlesen möchte, ist dazu gern eingeladen. Mittlerweile nutzen die US-Kollegen und ich eine CPU mit gleicher Taktrate und einen nahezu identischen Testaufbau einschließlich der anderen Rahmenbedingungen, so dass wir vergleichbare Ergebnisse liefern (und austauschen) können.

Interessierten bietet die Zusammenfassung in Tabellenform schnell noch einen kurzen Überblick:

Testsysteme und Messräume
Hardware:
Intel Core i7-8700K @5 GHz
MSI X370 Gaming Pro Carbon AC
2x 8GB KFA2 HoF DDR4 4000 @3200
1x 1 TByte Toshiba OCZ RD400 (M.2, System SSD)
2x 960 GByte Toshiba OCZ TR150 (Storage, Images)
Be Quiet Dark Power Pro 11, 850-Watt-Netzteil
Kühlung:
Alphacool Eisblock XPX
5x Be Quiet! Silent Wings 3 PWM (Closed Case Simulation)
Thermal Grizzly Kryonaut (für Kühlerwechsel)
Gehäuse:
Lian Li PC-T70 mit Erweiterungskit und Modifikationen
Modi: Open Benchtable, Closed Case
Monitor: Eizo EV3237-BK
Leistungsaufnahme:
berührungslose Gleichstrommessung am PCIe-Slot (Riser-Card)
berührungslose Gleichstrommessung an der externen PCIe-Stromversorgung
direkte Spannungsmessung an den jeweiligen Zuführungen und am Netzteil
2x Rohde & Schwarz HMO 3054, 500 MHz Mehrkanal-Oszillograph mit Speicherfunktion
4x Rohde & Schwarz HZO50, Stromzangenadapter (1 mA bis 30 A, 100 KHz, DC)
4x Rohde & Schwarz HZ355, Tastteiler (10:1, 500 MHz)
1x Rohde & Schwarz HMC 8012, Digitalmultimeter mit Speicherfunktion
Thermografie:
Optris PI640, Infrarotkamera
PI Connect Auswertungssoftware mit Profilen
Akustik:
NTI Audio M2211 (mit Kalibrierungsdatei)
Steinberg UR12 (mit Phantomspeisung für die Mikrofone)
Creative X7, Smaart v.7
eigener reflexionsarmer Messraum, 3,5 x 1,8 x 2,2 m (LxTxH)
Axialmessungen, lotrecht zur Mitte der Schallquelle(n), Messabstand 50 cm
Geräuschentwicklung in dBA (Slow) als RTA-Messung
Frequenzspektrum als Grafik
Betriebssystem Windows 10 Pro (1809, alle Updates), Treiber Stand 10.11.2018

 

 


Kommentare (107)

  • MopsHausen schrieb am
    Dark_Knight hat gesagt
    Das Feature von RTX, das ja an sich sicher gut ist, ist ja auch nicht das Problem was wir im Moment haben. Sobald die Entwickler soweit mit RT eingearbeitet sind, wird es sicher gute Ergebnisse geben. AMD ist ja auch dran RT ein zu binden. Das Problem ist einzig bei nVidia zu suchen, die eine neue Technik verbauen, die noch keiner der Spieleentwickler nutzt bis jetzt. Es wurde aber auf der Gamescon schon groß angekündigt (als wenn es schon nutzbar wäre) und auch mit solchen Marketingsprüchen wie "It just work's" befeuert. Hätte nVidia entweder den Entwicklern (gibt ja genügend nVidia unterstützte Studios) mehr Zeit gegeben (also in dem Fall einfach mal 6 Monate eher die Technik offen gelegt) oder RT mit der nächsten Generation gebracht, dann hätten sicher alle mehr davon gehabt. So zahlt man als RTX Käufer eben ein Feature was zum Launchzeitpunkt gar nicht oder nur bedingt nutzbar war. Und daran hat sich jetzt auch Monate später nichts geändert. Jetzt im neuen Jahr, kommen nach und nach Spiele raus, die die neuen Features nutzen wollen. Aber ob die Umsetzung diesen dann endlich im vernünftigen Rahmen gelingt, steht halt auch noch in den Sternen. Und wenn man dann eine RTX 2060 hat mit nur 6GB VRAM, die aber RTX und/oder DLSS nutzen soll, wird es doch schon eng. Vor allem da ja gerade RTX mehr Leistung kostet und halt auch den VRAM ebenso benötigt. Wird interessant ob die 6GB dann noch ausreichen, oder ob bei RTX On dann einfach Ende mit der doch so guten Leistung der Karte ist.
    Das ist quasi das Henne - Ei Problem das kann man ewig so weiter drehen .
  • Dark_Knight schrieb am
    Das Feature von RTX, das ja an sich sicher gut ist, ist ja auch nicht das Problem was wir im Moment haben. Sobald die Entwickler soweit mit RT eingearbeitet sind, wird es sicher gute Ergebnisse geben. AMD ist ja auch dran RT ein zu binden. Das Problem ist einzig bei nVidia zu suchen, die eine neue Technik verbauen, die noch keiner der Spieleentwickler nutzt bis jetzt. Es wurde aber auf der Gamescon schon groß angekündigt (als wenn es schon nutzbar wäre) und auch mit solchen Marketingsprüchen wie "It just work's" befeuert. Hätte nVidia entweder den Entwicklern (gibt ja genügend nVidia unterstützte Studios) mehr Zeit gegeben (also in dem Fall einfach mal 6 Monate eher die Technik offen gelegt) oder RT mit der nächsten Generation gebracht, dann hätten sicher alle mehr davon gehabt. So zahlt man als RTX Käufer eben ein Feature was zum Launchzeitpunkt gar nicht oder nur bedingt nutzbar war. Und daran hat sich jetzt auch Monate später nichts geändert. Jetzt im neuen Jahr, kommen nach und nach Spiele raus, die die neuen Features nutzen wollen. Aber ob die Umsetzung diesen dann endlich im vernünftigen Rahmen gelingt, steht halt auch noch in den Sternen. Und wenn man dann eine RTX 2060 hat mit nur 6GB VRAM, die aber RTX und/oder DLSS nutzen soll, wird es doch schon eng. Vor allem da ja gerade RTX mehr Leistung kostet und halt auch den VRAM ebenso benötigt. Wird interessant ob die 6GB dann noch ausreichen, oder ob bei RTX On dann einfach Ende mit der doch so guten Leistung der Karte ist.
  • arcDaniel schrieb am
    Ich kann mir gut vorstellen, dass Entwickler begeistert sind. Ich denke eher das Problem ist, dies ist natürlich nicht Nvidia exklusiv, ist, dass der 0815 Gamer für Hardware Features mit zahlt, welcher er nie benutzen wird oder gar kann. Der Falls RTX floppen würde oder kein Spiel, welches mir gefällt, erscheint was die Features nutzt, habe ich definitv zuviel gezahlt (eigentlich auch jetzt schon, Nvidia Steuer....)
  • Igor Wallossek schrieb am
    Beim Gaming, nun ja - erst mal abwarten. Im Pro-Bereich haben die ersten Renderfarmen dicht gemacht und diverse Aktien sind im freien Fall. Es ist wirklich effizienter, am Tag sieben Plots durchzurendern und zu beurteilen, als nach drei Tagen ein Ergebnis zu sehen, zu verwerfen und noch einmal rendern zu lassen. Time is money. Ihr vergesst immer, dass die RTX eigentlich abgespeckte Quadros sind. ich habe in Kanada auch mit einigen Unreal-Machern reden können - die sind alle aus dem Häuschen. Ich bin mir durchaus sicher, dass da noch was geht. Und wenn nicht, geht Jensen :D
  • Railgun schrieb am
    Abwarten, ich denke das raytracing genauso ein Flop wird wie physix...

Ebenfalls interessant...