Nvidia GeForce GTX Titan X im Test: Kommt eine einzelne GPU mit 4K klar?

Ich habe mal gehört, Selbstvertrauen soll sexy sein.

Nvidia beweist eine Menge Selbstvertrauen, denn sie schickten uns eine einzelne Karte und mit dem Acer XB280HK bprz den ersten G-Sync-Monitor mit 4K-Auflösung. Erwartet Nvidia, dass das neue Single-GPU-Flaggschiff bei einer Auflösung von 3840 x 2160 Pixeln noch Performance-Reserven hat? Wie cool wäre das denn? Chris’ kleiner, außer Sicht versteckter Tiki könnte dann in Ultra-HD durch die anspruchsvollsten Spiele pflügen! Dabei hatte er erwartet, mit dem Kleinen ewig bei einer Auflösung von 2560 x 1440 Pixel festzuhängen.

Die GTX 980 war nicht in der Lage, mit nur einem Grafikprozessor den Ansprüchen einer 4K-Auflösung mit einer Detailtiefe gerecht zu werden, die einen Enthusiasten begeistert. Aber die GeForce GTX Titan X basiert auf der GM200 und setzt sich aus acht Milliarden Transistoren zusammen. Acht. Milliarden. Das sind beinahe drei Milliarden mehr als bei der GM204-GPU der Geforce GTX 980 und eine Milliarde mehr als bei der GK110, dem Herzstück der ursprünglichen Geforce GTX Titan.

In ihrer finalen Form manifestieren sich diese Transistoren als ein 601 mm² großes Stück Silizium; das sind etwa neun Prozent mehr als bei der GK110. Die GM200-GPU wird in der gleichen 28nm High-K Metal Gate-Prozesstechnik gefertigt und ist folglich einfach nur ein größerer und komplexerer Chip. Und dennoch ist die maximale Energieaufnahme immer noch mit 250 Watt angegeben. Bei höherem Takt, wohlgemerkt. Und mit doppelt so viel Speicher. Oberflächlich betrachtet scheint dies einfach nicht zusammenzupassen. Tut es aber.

Das Innenleben der GM200

Ebenso wie die GeForce GTX 980 und 970, die letzten September vorgestellt wurden, basiert die GM200-GPU auf Nvidias energieeffizienter Maxwell-Architektur. Anstelle der vier Graphics Processing Cluster (GPC) der GM204 bekommt man bei GM200 sechs. Und bei vier Streaming-Multiprozessoren pro SMM ergibt das 24 SMMs auf der ganzen GPU. Multipliziere das mit 128 CUDA-Kernen pro SMM und man kommt bei der GeForce GTX Titan X auf eine Gesamtsumme von 3072 CUDA-Kerne. Acht Textureinheiten pro SMM ergeben insgesamt 192 – bei einem Basistakt von 1000 MHz sind das 192 GTex/s (die ursprüngliche GeForce GTX Titan war mit 188 GTex/s angegeben, obwohl sie über mehr Textureinheiten verfügte).

Wie die SMMs der GM204 haben die der GM200 96 KByte Shared Memory und 48 KB Textur-/L1-Cache – das Doppelte der GM107 der GeForce GTX 750 Ti. Die anderen Elemente der Architektur sind allerdings ähnlich. Jeder SMM besteht aus vier Blöcken mit jeweils eigenem Instruktionspuffer, Warp Scheduler und einem Paar Dispatch Units. Tatsächlich wird so viel übernommen, dass die Double-Precision-Berechnung immer noch mit 1/32 der FP32-Rate spezifiziert ist, obwohl die  GM200 das Familienoberhaupt der Maxwell-Familie ist. Übrigens teilt die kommende Quadro-Karte, die auf derselben GPU basiert, das gleiche Schicksal. Wenn die FP64-Leistung wirklich wichtig ist, würde Nvidia mit Sicherheit eine ihrer Tesla-Karten empfehlen.

GeForce GTX Titan X GeForce GTX 980 Radeon R9 290X GeForce GTX Titan
Prozesstechnik: 28 nm 28 nm 28 nm 28 nm
Transistoren: 8 Milliarden 5,2 Milliarden 6,2 Milliarden 7,1 Milliarden
GPU-Takt: 1000 MHz 1126 MHz bis zu 1 GHz 837 MHz
Shader: 3072 2048 2816 2688
Textur-Einheiten: 192 128 176 224
Textur-Füllrate: 192 GT/s 172,8 GT/s 176 GT/s 188 GT/s
ROPs: 96 64 64 48
Pixel-Füllrate: 96 GP/s 72 GP/s 64 GP/s 40 GP/s
Speicher-Interface: 384 Bit 256 Bit 512 Bit 384 Bit
Speicher: 12 GByte GDDR5 4 GByte GDDR5 4 GByte GDDR5 6 GByte GDDR5
Speichertransferrate: 7 GT/s 7 GT/s 5 GT/s 6 GT/s
Speicherbandbreite: 336,5 GB/s 224,4 GB/s 320 GB/s 288 GB/s
Board Power: 250 Watt 165 Watt 250 Watt 250 Watt

Die vier ROP-Partitionen der GeForce GTX 980 wurden bei der GeForce GTX Titan X auf sechs erhöht. Bei jeweils 16 Einheiten sind das bis zu 96 32-Bit-Integer-Pixel pro Takt. Den ROP-Partitionen sind 512 KByte große L2-Cache-Bereiche zugeteilt, was bei der GM200 in Summe drei MByte ergibt. Als Nvidia die GeForce GTX 750 Ti vorstellte, erklärte sie den großen L2-Cache als Maßnahme gegen den Flaschenhals des mit 128 Bit relativ schmalen Speicher-Interfaces. Bei der GM200 sollte das angesichts ihrer Speicherbandbreite von 384 Bit und dem 7 Gb/s schnellen Speicher kein Problem sein. Der maximale Durchsatz von 336,5 GByte/s entspricht dem der GeForce GTX 780 Ti und übertrifft den von GeForce GTX Titan, Geforce GTX 980 und AMDs Radeon R9 290X.

GM200 auf der GeForce GTX Titan X

Nvidia pflanzt die GM200 auf eine 26,7 Zentimeter langes PCB, das anderen High-End-Boards der letzten Jahre ähnelt. Modellspezifische Unterschiede sind bei näherem Hinsehen natürlich offensichtlich, aber im Endeffekt sprechen wir hier über die gleichen Abmessungen, was den Job von Systemintegratoren beim Bau neuer PC-Systeme zweifellos vereinfacht.

Wir finden auch die gleiche Anzahl Single-Die-Speicher-ICs um die GPU herum. Jedoch sind es jetzt vier Gigabit (512 Megabyte) große Pakete von SK hynix’ schnellstem GDDR5-Speicher, was einen Gesamtspeicher von 12 Gigabyte ergibt. Das ist selbst für 4K ein ziemlicher Overkill. Nvidia sagt, sie würden hier auf Zukunftssicherheit setzen und falls zukünftig mehrere Ultra-HD-Bildschirme von drei oder vier Titan X-Karten im SLI-Verbund angesteuert würden, wären sechs Gigabyte einfach nicht ausreichend.

Auf dem PCB sitzt eine Platte, die die auf der Oberfläche angebrachten Komponenten kühlen soll. Darauf ist eine große, aus Kupfer gefertigte Vapor Chamber montiert, auf der wiederum ein zwei Slots hoher Aluminium-Kühlkörper sitzt. Nvidias Referenzdesign bleibt dem Zentrifugallüfter treu, der Luft aus dem Gehäuse ansaugt, über die Platine und durch den Kühlkörper leitet und dann nach hinten aus dem Gehäuse bläst. Obwohl blasende Lüfter gewöhnlich mehr Lärm machen als Axial-Lüfter, haben wir genügend auf diesem Konzept basierende Karten gesehen um zu wissen, wie geräuscharm sie laufen können. Die Geforce GTX Titan X ist da keine Ausnahme.

Ein Aluminium-Gehäuse verbirgt die inneren Teile. Es hat mehr Struktur als in der Vergangenheit und Nvidia hat es zudem schwarz lackiert. Erinnert ihr euch vielleicht noch an dieses Bild aus dem folgenden Artikel unserer US-Kollegen: The Story of How GeForce GTX 690 And Titan Came To Be? Es sieht ganz ähnlich aus – bis auf die fehlende grüne Beleuchtung unter den Kühllamellen.

Außerdem fehlt die Backplate, die noch bei der GeForce GTX 980 vorhanden war. Ein Teil der 980er Backplate war entfernbar, um den Luftstrom zwischen mehreren 980ern zu verbessern. Allerdings hat die Titan X einen größeren Energiebedarf. Um mehreren, einander angrenzenden Karten möglichst viel Platz zum Atmen zu geben, hat Nvidia sie komplett weggelassen. Chris vermisst sie ja nicht, aber ich bevorzugte den eleganten, professionellen Look.

Die GeForce GTX Titan hat die gleichen Ausgänge wie die GTX 980 – also einen DVI-Anschluss (Dual-Link), einen HDMI 2.0-fähigen Anschluss und drei DisplayPort-Ausgänge voller Größe. An diesen fünf Anschlüssen können bis zu vier Displays gleichzeitig angeschlossen werden. Und falls man mehrere Displays mit G-Sync nutzt, macht das DisplayPort 1.2-Trio Surround möglich.

Die Zukunft im Blick

Abgesehen von den 12 Gigabyte DDR5-Speicher betont Nvidia auch eine Reihe von GPU-Features, die für eine größere Zukunftssicherheit sorgen sollen.

Während der diesjährigen GDC hat Microsoft erwähnt, dass 50 Prozent der heutigen Grafik-Hardware von DirectX 12 unterstützt wird und dass die Quote zu Weihnachten auf zwei Drittel steigen wird. Das heißt, dass ein Großteil der Grafikkarten mit der API funktionieren wird. Allerdings werden die Funktionen von DirectX 12 in zwei Gruppen eingeteilt: 12.0 und 12.1. Laut Microsofts Max McMullen enthält DX 12.0 einen Großteil der CPU-orientierten Performance-Vorteile, während DX 12.1 Conservative Rasterization und Rasterizer Ordered Views (ROVs) für noch leistungsstärkere Rendering-Algorithmen einführt.

Wie man es von einer GPU erwarten kann, die auf Zukunftssicherheit setzt, unterstützt die GM200 die Funktionen von DirectX 12.1 (ebenso wie die GM204). Alles Ältere – inklusive der GM 107, auf der die GeForce GTX 750 Ti basiert – ist auf den Funktionsumfang von DirectX 12.0 begrenzt. Wir haben auch bei AMD angefragt, ob seine CGN-basierten GPUs DirectX 12.0 oder 12.1 unterstützen; ein Vertreter des Unternehmens antwortete uns, dass er dies zu diesem Zeitpunkt nicht kommentieren könne.

Die Maxwell-Architektur enthält eine Reihe anderer Funktionen, von denen einige schon heute genutzt werden, während andere noch auf Unterstützung und Nutzung durch die Entwickler warten. Für weitere Informationen über Dynamic Super Resolution, Multi-Frame Samples Anti-Aliasing (übrigens eine gute Methode, um die Geschwindigkeitseinbußen durch Anti-Aliasing bei 4K-Gaming auf der Titan X zu minimieren), VR Direct und Voxel Global Illumination sollte man sich diese Seite in unserem Launch-Artikel zur GeForce GTX 970 und GTX 980 zu Gemüte führen.

Ebenfalls interessant...