GeForce RTX 2080 Ti – Warum Wasserkühlung wichtiger ist als manuelle Übertaktung und diese herzlich wenig bringt | igorsLAB

Ich habe mich immer wieder gewundert (und am Ende auch geärgert), warum sich die GeForce RTX 2080 Ti beim manuellen Übertakten so divenhaft unwillig verhält und warum letztendlich die Founders-Edition, würde man sie wirklich richtig kühlen, gleichzeitig mit Ihrem Power Target die Grenze des Sinnvollen darstellt. Das Schielen nach der Karte mit dem höchsten Power Target ab Werk und dem maximalen Firmware-Grenzwert ist eigentlich recht albern, denn Nvidia weiß nur zu genau, was man macht, besser lässt oder gleich ganz unterbindet.

Nach dem Test der Founders Edition zum Launchtag und dem Review der MSI GeForce RTX 2080 Ti Gaming X Trio ist mir schnell klargeworden, dass der Chiphersteller für sich bereits glasklar ausgelotet hat, wo die Grenzen des Sinnvollen und des gerade noch Vertretbaren liegen. Alles andere kann man ohne physikalische Eingriffe bzw. ohne das Mitwirken von Eingeweihten schlicht vergessen, denn es geht einfach nicht. Gut gekühlt, ist wie bei der MSI Trio knapp unterhalb 350 Watt Schluss, egal was man als Power Target eingestellt hat. Da kann man sich meinetwegen auch auf den Kopf stellen. Es ändert eh erst einmal nichts.

Auch wenn es natürlich bereits einige Tests gibt, dass auch eine normale Wasserkühlung kaum in der Lage ist, damit die 2,1-GHz-Barriere stabil überspringen zu können, bietet sie doch durchaus einige Vorteile, über die es sich nachzudenken lohnt! Da hier gerade ein passender Prototyp eines Fullcover-Blocks zur Hand war, habe ich exakt diesen auch genutzt, um mal überlegt auszuloten, welche Vorteile man außerhalb der Extremübertaktung von so einer Kühlung haben könnte. Wenn überhaupt.

 

Doch mit dem Chiller allein ist das als Vergleich über das gesamte Temperatur-Spektrum kaum machbar. Deshalb habe ich die Karte im Werkszustand und manuell übertaktet zunächst mit dem originalen Kühler protokolliert, danach mit einer guten Custom-Loop Wasserkühlung und verschiedenen Wassertemperaturen (50, 40, 30 Grad), sowie dem Chiller mit einer Wassertemperatur von 20°C. Das Ergebnis ist in verschiedener Hinsicht verblüffend und durchaus bemerkenswert.

Die gelbe Kurve zeigt die Karte im Auslieferungszustand, die weiße mit maximal eingestelltem Takt, höchstem Power Target und einer kleinen Spannungsspritze. Vergleicht man nun den tatsächlich erzielten Boost-Takt mit der Temperaturkurve, dann sieht man sehr schnell, dass man allein durch niedrigere Temperaturen bereits einen sehr hohen Zugewinn erzielt. Der Taktunterschied zwischen Werks-OC und manuellem OC wird umso größer, je kühler die Karte betrieben wird, logisch.

Das liegt schlicht und ergreifend daran, dass die Karte stets und ständig ins Nvidia-gegebene Power Target rennt. Doch es kommt noch viel schlimmer, wenn man sich mal emotionslos ansieht, wie teuer man die manuelle Übertaktung erkaufen muss! Die ersten 150 MHz mehr erhält man quasi kostenlos durch eine konsequente Kühlung, wobei die 3 Watt mehr geradezu preiswert erscheinen. Gibt man dem Affen Zucker und erhöht das Power Target, die Spannung und den Takt, dann geht es noch einmal ca. 200 MHz schneller. Doch um welchen Preis?!


Für gerade mal 200 MHz mehr muss man im Mittel bis zu 60 Watt mehr Steckdosengold verscherbeln, was am Ende wirklich sinnlos scheint. Je nach Spiel gewinnt man dann noch einmal ca. 6 bis 8% mehr Performance hinzu, was bei so einer Karte eigentlich schon reichlich überflüssig ist. Vergleicht man die insgesamt möglichen 350 MHz durch bessere Kühlung UND die manuelle Übertaktung, dann sieht es zwar etwas besser aus, aber am Gesamtfazit ändert es erst einmal nichts. Turing ist nett und neu, aber ein Übertaktungswunder sieht wirklich anders aus. Zuträglich für den üblichen Volkssport ist dies aber alles nicht, damit wird man wohl leben müssen.

Es lohnt sich allemal, diese Karten unter Wasser zu setzen und vom gestiegenen Boost quasi for free zu profitieren. Der Rest gerät zum Eiertanz um die glühende Steckdose. Ob man das wirklich möchte oder braucht, wird wohl jeder mit sich selbst ausmachen müssen. Ich persönlich würde es eigentlich lassen.

Update vom 30.09.2018

Ich habe mittlerweile eine KFA2 (Galax) RTX 2080 Ti testen können, die ebenfalls mit einem in der Firmware eingetragenen Power Limit  von 380 Watt zum Kunden kommt (126% per Regler möglich). Damit waren bei 82°C Chiptemperatur dann immerhin auch real gemessene 1980 MHz möglich. Kühlt man diese GPU aber ordentlich auf ca. 50°C herunter, dann sind wir auch wieder nur bei ca. 350 Watt. Die nunmehr „fehlenden“ 27 Watt könnte man also durchaus mit Leckströmen erklären.

Interessanterweise stieg aber der Takt nicht mit sinkender Leistungsaufnahme signifikant an, sondern lief auch dann noch in die gleiche Barriere bei ca. 2025 bis 2040 Mhz, wie andere Karten auch. Am Ende verhilft einem das größere Power Limit nur bei schechten Kühlern zu ennähernd gleichen Taktraten, wie man sie bei besser gekühlten Karten ohne der Mehreinsatz von elektrischer Leistung sowieso schon vorfindet. Eine höhere Übertaktung bringt das also nicht, sondern nur einen ähnlichen Takt bei höheren Betriebstemperaturen.

Teaser: ich werde nach eintreffen weiterer Wasserkühlungsblöcke auch einmal einen Vergleich der Kühler und der jeweiligen GPU- bzw. Platinentemperaturen machen. Der Block von EKWB ist bereits im Zulauf, andere sind bereits angefragt

 

Testsystem und Messmethoden

Das neue Testsystem und die -methodik haben wir im Grundlagenartikel “So testen wir Grafikkarten, Stand Februar 2017” (Englisch: “How We Test Graphics Cards“) bereits sehr ausführlich beschrieben und verweisen deshalb der Einfachheit halber jetzt nur noch auf diese detaillierte Schilderung. Wer also alles noch einmal ganz genau nachlesen möchte, ist dazu gern eingeladen. Allerdings haben wir CPU und Kühlung erneut verbessert, um für diese schnelle Karte mögliche CPU-Flaschenhälse weitgehend auszuschließen.

Interessierten bietet die Zusammenfassung in Tabellenform schnell noch einen kurzen Überblick:

Testsysteme und Messräume
Hardware:
Intel Core i7-6900K @4,5 GHz
MSI X99S XPower Gaming Titanium
G.Skill TridentZ DDR4 3600
1x 1 TByte Toshiba OCZ RD400 (M.2, System SSD)
2x 960 GByte Toshiba OCZ TR150 (Storage, Images)
Be Quiet Dark Power Pro 11, 850-Watt-Netzteil
Kühlung:
Alphacool Eisblock XPX
5x Be Quiet! Silent Wings 3 PWM (Closed Case Simulation)
Thermal Grizzly Kryonaut (für Kühlerwechsel)
Gehäuse:
Lian Li PC-T70 mit Erweiterungskit und Modifikationen
Monitor: Eizo EV3237-BK
Leistungsaufnahme:
berührungslose Gleichstrommessung am PCIe-Slot (Riser-Card)
berührungslose Gleichstrommessung an der externen PCIe-Stromversorgung
direkte Spannungsmessung an den jeweiligen Zuführungen und am Netzteil
2x Rohde & Schwarz HMO 3054, 500 MHz Mehrkanal-Oszillograph mit Speicherfunktion
4x Rohde & Schwarz HZO50, Stromzangenadapter (1 mA bis 30 A, 100 KHz, DC)
4x Rohde & Schwarz HZ355, Tastteiler (10:1, 500 MHz)
1x Rohde & Schwarz HMC 8012, Digitalmultimeter mit Speicherfunktion
Thermografie:
Optris PI640, Infrarotkamera
PI Connect Auswertungssoftware mit Profilen
Akustik:
NTI Audio M2211 (mit Kalibrierungsdatei)
Steinberg UR12 (mit Phantomspeisung für die Mikrofone)
Creative X7, Smaart v.7
eigener reflexionsarmer Messraum, 3,5 x 1,8 x 2,2 m (LxTxH)
Axialmessungen, lotrecht zur Mitte der Schallquelle(n), Messabstand 50 cm
Geräuschentwicklung in dBA (Slow) als RTA-Messung
Frequenzspektrum als Grafik
Betriebssystem Windows 10 Pro (1803, alle Updates)

Kommentare (74)

  • Dark_Knight schrieb am
    Okay. War für mich zwar in dem Diagramm erst gar nicht interessant, aber gut zu wissen, was ihm da gefehlt hat um es zu verstehen.
  • Derfnam schrieb am
    Er hat es wie beim 1. Vesuch gespiegelt und die Temperaturen mit einbezogen. Letztere fehlen in Igors Grafik und waren, soweit ich da kmuehos Probleme damit verstanden habe, wohl für selbige verantwortlich.
  • Dark_Knight schrieb am
    Und wo ist da jetzt der Unterschied? Sorry aber ich sehe ihn nicht. o_O
  • DedSec schrieb am
    Leute, es ist jetzt mal gut mit dem Hin und Her, ich-verstehe-es-besser-wenn... Es erinnert mich an die lange zurück liegenden Schulzeiten. Da gab es auch welche, die hatte Probleme mit x- und y-Achsen oder 3D-Erkennung. Das waren keine Dummen. Ihr Gehirn verarbeitete Informationen eben anders. Igor wird sich anpassen. Damit dürfte die Sache ausgepaukt sein.
  • kmueho schrieb am
    Igor Wallossek hat gesagt
    ... X-Achsen-Zwangspressung ...
    не преувеличивай! Bedeutet auf russisch "Nicht übertreiben" :)
    ... bis auf eine Ausnahme...
    Mit mir sind es jetzt doppelt so viele :) Natürlich wirkt "meine" Grafik wegen der vielen Hilfslinien erst einmal komplex, aber es lässt keine Fragen offen, wie es denn zu interpretieren sei. Sowas ist wissenschaftlicher Standard. Oder sind wir hier bei den Marketing-Mufties?

Ebenfalls interessant...