Nvidia GeForce RTX 2060 FE im Test – setzt diese Karte neue Maßstäbe in der Mittelklasse?

Tensor-Kerne und DLSS

Obwohl die Volta-Architektur im Vergleich zu Pascal auch sonst voller bedeutender Änderungen steckte, war die Hinzufügung von Tensor-Kernen der wichtigste Hinweis auf den eigentlichen Zweck des GV100: die Beschleunigung von 4×4-Matrixoperationen mit FP16-Input, die die Grundlage für das Training und das Inferenzieren (Argumentation, um aus impliziten Annahmen explizite Aussagen zu machen) neuronaler Netze bilden. Die Tensor-Kerne des TU106 sind jedoch etwas langsamer. Sie unterstützen zwar FP32-Akkumulationsoperationen, wie sie für das Deep-Learning-Training verwendet werden, jedoch nur mit der halben Geschwindigkeit der FP16-Akkumulationsoperationen. Das macht natürlich Sinn, denn der GV100 wurde für das Training neuronaler Netze entwickelt, während der TU106 ein Gaming-Chip ist, der in der Lage ist, bereits trainierte Netze für das Inferenzieren zu nutzen.

Die meisten von Nvidias aktuellen Vorhaben und Planungen für die Tensor-Kerne betreffen neuronale Grafiken. Aber man plant auch einige andere Anwendungen aus dem Bereich des Deep-Learning auf diesen Desktop-Grafikkarten. Intelligente Feinde zum Beispiel würden die Art und Weise, wie Spieler Endboss-Kämpfe angehen, völlig verändern. Sprachsynthese, Spracherkennung, Materialverbesserung, Cheat-Erkennung und Charakteranimation sind alles Bereiche, in denen KI bereits im Einsatz ist oder in denen Nvidia zumindest ordentliches Potenzial dafür sieht.

Aber natürlich steht auch Deep Learning Super Sampling (DLSS) im Mittelpunkt der GeForce RTX. Der Prozess, mit dem DLSS implementiert wird, erfordert Entwicklerunterstützung durch die NGX-API von Nvidia. Aber Nvidia verspricht auch, dass die Integration ziemlich einfach sei – lassen wir uns von der weiteren Akzeptanz und die Implementierung auf Seiten der Spieleentwickler überraschen.

Diese für DLSS benötigten Modelle werden über den Nvidia-Treiber heruntergeladen und über die Tensor-Cores auf jeder GeForce RTX-Grafikkarte aufgerufen. Nvidia meint, dass jedes KI-Modell nur wenige Megabyte groß sein wird, was es relativ leicht macht, derartige Inhalte bei Bedarf (einmalig) nachzuladen. Wir hoffen nur, dass DLSS nicht explizit and GeForce Experience gebunden sein wird und somit einen Registrierungs- und Installationszwang schafft.

 

Raytracing und RT-Cores

Was wohl das vielversprechendste Kapitel in der ganzen Turing-Story darstellt, ist der RT-Kern, der an der Unterseite jedes SM in TU106 verankert ist. Die RT-Kerne von Nvidia sind im Wesentlichen reine Beschleuniger mit fest „vorverdrahteter“ Funktion für die Auswertung von Quer- und Dreiecksschnitten der Bounding Volume Hierarchy (BVH). Beide Operationen sind für den Raytracing-Algorithmus unerlässlich. Kurz gesagt, diese BVH bilden Boxen mit Geometrieinhalten in einer bestimmten Szene.

Diese Boxen helfen, die Position von Dreiecken einzugrenzen, die Strahlen durch eine Baumstruktur schneiden. Jedes Mal, wenn sich ein Dreieck in einer Box befindet, wird diese in mehrere weitere Boxen unterteilt, bis die letzte Box in Dreiecke unterteilt werden kann. Ohne BVHs wäre ein Algorithmus gezwungen, die gesamte Szene zu durchsuchen, indem er Tonnen von Zyklen absolviert, die jedes einzelne Dreieck auf eine mögliche Kreuzung testen.

Die Ausführung dieses Algorithmus ist mittlerweile mit den Microsoft D3D12 Raytracing Fallback Layer APIs möglich, die mit Hilfe von Compute Shadern DirectX Raytracing auf Geräten auch ohne native Unterstützung emulieren (und auf DXR umleiten, wenn die Treiberunterstützung erkannt wird). Auf einer Pascal-basierten GPU zum Beispiel erfolgt der BVH-Scan auf programmierbaren Kernen, die jede Box holen, dekodieren, auf Schnittpunkte testen und feststellen, ob sich eine weitere, untergeordnete Box oder Dreiecke im Inneren befinden.

Der Prozess wiederholt sich, bis Dreiecke gefunden werden, an deren Stelle sie auf Schnittpunkte mit dem Strahl getestet werden. Wie man sich vorstellen kann, ist dieser Vorgang sehr hardwaremordend in der Ausführung als reine Software-Emulation, so dass ein reibungsloser Ablauf des Echtzeit-Raytracing auf den heutigen Grafikprozessoren fast schon verhindert wird. Durch die Erstellung von derartigen Beschleunigern mit fester Funktion für die Kreuzungsschritte zwischen Box und Dreieck sendet die SM einen Strahl mit einem Ray-Generation-Shader in die Szene und übergibt diese Struktur an den RT-Kern. Alle Schnittpunktauswertungen erfolgen dadurch natürlich viel schneller und die anderen Ressourcen der SM werden für das Shading freigegeben, genau wie bei einer traditionellen Rasterung.

Doch Ray Tracing ein an sich sehr weit gesteckter Begriff, denn allein nur die Verfolgung eines Strahles sagt noch nicht viel aus. Wichtiger ist dann schon, was man mit Hilfe dieser Funktionen gleich noch mit umsetzen kann. denn die so gewonnenen Informationen lassen sich sehr vielseitig verwenden, um Dinge wie AO, Reflektionen, Global Illumination uvm. zu verbessern bzw. überhaupt erst möglich zu machen.

 

 


Kommentare (107)

  • MopsHausen schrieb am
    Dark_Knight hat gesagt
    Das Feature von RTX, das ja an sich sicher gut ist, ist ja auch nicht das Problem was wir im Moment haben. Sobald die Entwickler soweit mit RT eingearbeitet sind, wird es sicher gute Ergebnisse geben. AMD ist ja auch dran RT ein zu binden. Das Problem ist einzig bei nVidia zu suchen, die eine neue Technik verbauen, die noch keiner der Spieleentwickler nutzt bis jetzt. Es wurde aber auf der Gamescon schon groß angekündigt (als wenn es schon nutzbar wäre) und auch mit solchen Marketingsprüchen wie "It just work's" befeuert. Hätte nVidia entweder den Entwicklern (gibt ja genügend nVidia unterstützte Studios) mehr Zeit gegeben (also in dem Fall einfach mal 6 Monate eher die Technik offen gelegt) oder RT mit der nächsten Generation gebracht, dann hätten sicher alle mehr davon gehabt. So zahlt man als RTX Käufer eben ein Feature was zum Launchzeitpunkt gar nicht oder nur bedingt nutzbar war. Und daran hat sich jetzt auch Monate später nichts geändert. Jetzt im neuen Jahr, kommen nach und nach Spiele raus, die die neuen Features nutzen wollen. Aber ob die Umsetzung diesen dann endlich im vernünftigen Rahmen gelingt, steht halt auch noch in den Sternen. Und wenn man dann eine RTX 2060 hat mit nur 6GB VRAM, die aber RTX und/oder DLSS nutzen soll, wird es doch schon eng. Vor allem da ja gerade RTX mehr Leistung kostet und halt auch den VRAM ebenso benötigt. Wird interessant ob die 6GB dann noch ausreichen, oder ob bei RTX On dann einfach Ende mit der doch so guten Leistung der Karte ist.
    Das ist quasi das Henne - Ei Problem das kann man ewig so weiter drehen .
  • Dark_Knight schrieb am
    Das Feature von RTX, das ja an sich sicher gut ist, ist ja auch nicht das Problem was wir im Moment haben. Sobald die Entwickler soweit mit RT eingearbeitet sind, wird es sicher gute Ergebnisse geben. AMD ist ja auch dran RT ein zu binden. Das Problem ist einzig bei nVidia zu suchen, die eine neue Technik verbauen, die noch keiner der Spieleentwickler nutzt bis jetzt. Es wurde aber auf der Gamescon schon groß angekündigt (als wenn es schon nutzbar wäre) und auch mit solchen Marketingsprüchen wie "It just work's" befeuert. Hätte nVidia entweder den Entwicklern (gibt ja genügend nVidia unterstützte Studios) mehr Zeit gegeben (also in dem Fall einfach mal 6 Monate eher die Technik offen gelegt) oder RT mit der nächsten Generation gebracht, dann hätten sicher alle mehr davon gehabt. So zahlt man als RTX Käufer eben ein Feature was zum Launchzeitpunkt gar nicht oder nur bedingt nutzbar war. Und daran hat sich jetzt auch Monate später nichts geändert. Jetzt im neuen Jahr, kommen nach und nach Spiele raus, die die neuen Features nutzen wollen. Aber ob die Umsetzung diesen dann endlich im vernünftigen Rahmen gelingt, steht halt auch noch in den Sternen. Und wenn man dann eine RTX 2060 hat mit nur 6GB VRAM, die aber RTX und/oder DLSS nutzen soll, wird es doch schon eng. Vor allem da ja gerade RTX mehr Leistung kostet und halt auch den VRAM ebenso benötigt. Wird interessant ob die 6GB dann noch ausreichen, oder ob bei RTX On dann einfach Ende mit der doch so guten Leistung der Karte ist.
  • arcDaniel schrieb am
    Ich kann mir gut vorstellen, dass Entwickler begeistert sind. Ich denke eher das Problem ist, dies ist natürlich nicht Nvidia exklusiv, ist, dass der 0815 Gamer für Hardware Features mit zahlt, welcher er nie benutzen wird oder gar kann. Der Falls RTX floppen würde oder kein Spiel, welches mir gefällt, erscheint was die Features nutzt, habe ich definitv zuviel gezahlt (eigentlich auch jetzt schon, Nvidia Steuer....)
  • Igor Wallossek schrieb am
    Beim Gaming, nun ja - erst mal abwarten. Im Pro-Bereich haben die ersten Renderfarmen dicht gemacht und diverse Aktien sind im freien Fall. Es ist wirklich effizienter, am Tag sieben Plots durchzurendern und zu beurteilen, als nach drei Tagen ein Ergebnis zu sehen, zu verwerfen und noch einmal rendern zu lassen. Time is money. Ihr vergesst immer, dass die RTX eigentlich abgespeckte Quadros sind. ich habe in Kanada auch mit einigen Unreal-Machern reden können - die sind alle aus dem Häuschen. Ich bin mir durchaus sicher, dass da noch was geht. Und wenn nicht, geht Jensen :D
  • Railgun schrieb am
    Abwarten, ich denke das raytracing genauso ein Flop wird wie physix...

Ebenfalls interessant...