Monat: Dezember 2016

Xiaomi hat bei der YI 4K richtig zugeschlagen: Trotz aller Funktionalität is es eine noch recht günstige Action-Kamera, die sogar 4K-Videoaufnahmen bei ordentlichen 30 Bildern pro Sekunde erlaubt.

Der Lieferumfang der aktuell bei Gearbest.com für unter 190 Euro erhältlichen Kamera (zum unproblematischen Import schreiben wir später noch etwas) fällt allerdings etwas schmal aus. Außer einem dünnen Handbuch und einem sehr kurzen USB-Ladekabel findet man in der Verpackung nur noch den Akku, sonst nichts.

Die gelieferte Kamera der zweiten Generation misst gerade mal 6,5 x 4,2 x 2,1 cm und ist mit ihren 95 Gramm ein echtes Leichtgewicht, dass man am Helm kaum spüren dürfte und das auch die meisten Quad-Copter noch sicher stemmen können. Die Kamera ist in Weiß, Schwarz (hier getestet) und Rosé-Gold erhältlich.

Wer (trotz Regionenumstellung auf Deutschland) mit einer englischsprachigen Menüführung leben kann, bekommt momentan für die Häfte des Kapitaleinsatzes (immerhin kosten GoPro Hero4 und Hero5 noch weit über 400 Euro) bereits das an sich rundere Produkt. Alles ist selbsterklärend und so richtig spezielle Sprachkenntnisse wird man kaum brauchen.

Technik und Funktionalität

Doch zurück zur Kamera: Die YI 4K setzt im Gegesatz zur GoPro Hero4 zwar auch auf einen Ambarella A9, jedoch in der verbesserten Version A9SE, die stromsparender und damit auch kühler arbeitet. Ein eigener, einstündiger Dauertest in unserer 40°C-Hotbox wurde jedenfalls klaglos und ohne Abschalten absolviert, während die zum Vergleich mitlaufende Sony RX100 Mark III hier bereits nach 17 Minuten aus thermischen Gründen abschaltete.

Als Sensor kommt bei der Action-Cam ein neuerer Sony Exmor IMX377 zum Einsatz, während bei der Hero4 noch der ältere IMX177 herhalten muss. Die unterschiedlichen Aufnahmemodi unterstützen neben Ultra-HD/4K (3840 x 2160 Pixeln, 2160p) auch Full-HD (1920 x 1080 Pixel, 1080p @ 120 fps) und HD-Ready (1280 x 720 Pixel, 720p @ 240 fps).

Fotos können mit bis zu 12,35 Megapixeln geschossen werden, was mit dem älteren Sensor der Hero4 allerdings auch gelingt. Wir möchten an dieser Stelle auch noch einmal explizit auf die Bedeutung der richtigen Speicherkarte hinweisen.

Wir haben verschieden schnelle Karten getestet und müssen unterstreichen, dass für 4K-Aufnahmen – vor allem in hoher Qualität – sowie den Burst-Modus mit bis zu 30 Einzelbildern pro Sekunde die beste Karte gerade gut genug ist. Als brauchbar haben sich bei den günstigeren Karten die Samsung Evo+ mit 64 sowie 128 Gigabyte erwiesen, während diverse Karten von Sandisk trotz passender Leistungsklasse im Gesamttest spätestens beim Video scheiterten.

Ein 2,19 Zoll großes Retina-Touchdisplay mit ordentlichen 330 ppi (640 x 360 Pixel) erlaubt nicht nur die Kontrolle der Aufnahme(n), sondern auch das Abspielen bestehender Aufzeichnungen (egal ob Bilder oder Videos). Die Bedienung der Touchoberfläche ist vorbildlich, denn die mit Gorilla-Glas geschützte Oberfläche reagiert ausgesprochen flink und empfindlich genug auf unsere Eingaben.

Der mit 1400 mAh deutlich leistungsstärkere Akku der Y1 4K soll laut Xiaomi über zwei Stunden permanente Videoaufzeichnung durchhalten, wobei wir im Dauertest dieses Ziel nicht ganz erreicht haben. Allerdings dürfte der Akku auch mit den erreichen 109 Minuten Laufzeit noch deutlich standfester sein als das, was GoPro in der Hero4 verbaut hat.

Im Batteriefach der Kamera befindet sich neben dem einfach einsetz- und herausziehbaren Akku auch das Speicherkartenfach, welches sich mit eingesetztem Akku jedoch nicht komfortabel genug erreichen lässt. Für den Kartenwechsel- muss der Akku an der Lasche herausgezogen werden, die man besser nicht entfernt – sonst bekommt man den Akku nie wieder heraus.

Die Schließmechanik dieses Batteriefachs ist übrigens erstaunlich solide für eine ansonsten so minimalistische Bauweise.

An der Oberseite sehen wir die beiden Mikrofonöffnungen, die Lautsprecheröffnung für die Wiedergabe und den kombinierten Ein-/Aus- bzw. Auslöse-Button mit integrierter Status-LED.

Am Boden finden wir neben dem bereits erwähnten Batteriefach noch den asymmetrisch angeordneten Gewindering, der die Montage auf handelsüblichen Stativen erlaubt. Sonstiges Zubehör – beispielsweise Helmbefestigungen und wasserdichte Gehäuse – muss man extra kaufen, bekommt es aber in vielen China-Stores recht günstig.

.

Eine elektronische Bildstabilisierung ist eingebaut, die auf alle sechs Achsensensoren von Gyroskop und Beschleunigungssensor reagiert und in der Praxis vor allem bei Serienbildern (Burst Mode) eine gute Figur macht. Doch dazu gleich mehr.

Zunächst vergleichen wir noch die Kamera mit der GoPro Hero4, was durchaus einge Überraschungen bereit hält:

YI 4K Action Camera

GoPro Hero4 Black

Prozessor Ambarella A9SE Ambarella A9
Sensor Sony IMX377 12MP 1/2.3″ Sony IMX117 12MP 1/2.3″
Display: 2,19 Zoll, Retina-Touchscreen
640 x 360 Pixel (330 ppi)
WLAN und
Download-Rate:
Broadcom BCM43340 (Dual-Band),
802.11a/b/g/n
2,4 und 5 GHz (bis zu 3 MByte/s)
Atheros QCA6134X (Single-Band)
802.11b/g/n,
2,4 GHz (bis zu 1,5 MByte/s)
Akku: 3,85 Volt, 1400 mAh, 5,39 Wh 3,8 Volt, 1160 mAh, 4,4 Wh
Laufzeit Videoaufnahme: bis zu 120 Minuten 4K/30 bis zu 65 Minuten 4K/30
Gyroskop/G-Meter: 3-Achsen-Beschleunigungsmesser
3-Achsen-Gyroskop
Mikrofon: duales Mikrofon einzelnes Mikrofon
Fernsteuerung: Bluetooth WLAN
Systemstart: 3 Sekunden 5 Sekunden
Timer: Countdown
Zeitlupe: 1/8, 1/4 und 1/2 in Echtzeit
ohne Nachbearbeitung
Zeitraffer: 0,5/1/2/5/10/30/60s Intervalle
Besonderheiten: Lens Distortion Correction (LDC)
Elektronische Bildstabilisierung
Optik: 7-teilig, 155° Weitwinkel
Video:   max. 4K/30fps und 720p/240fps
Foto: max. 12 Megapixel
Serienbilder: 30 Bilder/s
Endlosaufnahme: Unterstützt
Beleuchtungskorrektur: Erkenung niedriger Beleuchtung und automatische Anpassung der Frameraten
Preis: ca. 180-220 Euro
(aktuell mit Angebotsaktion)
über 400 Euro

Die Salami-Scheibchen stapeln sich fröhlich weiter und wir dürfen heute endlich auch etwas mehr über die kommende CPU-Generation Zen schreiben. Doch Stopp! Ein wenig hat AMD dann doch die Wortspielkasse gefüllt und Zen ist am Ende nur ein Teil des wirklichen Namens. Zen, Ryzen, new Horizon? Oder gar Ryzen = Risen?

Klanglich ziemlich identisch in den Ohren liegend würde es quasi die Wiedergeburt leistungsstarker und konkurrenzfähiger AMD-CPUs verkünden, was die Anwesenden bereits auf dem Technology Summit in Sonoma mit einem wissenden Lächeln quittierten. Welche Molekularverbindungen seinerzeit erst einmal konsumiert werden mussten, um sich hier so galant ums Eck zu schlängeln, weiß natürlich nur AMDs Marketing-Abteilung allein. Wir dürfen dafür auf das Ergebnis gespannt sein, denn nur der Erfolg zählt.

Doch erinnern wir uns noch kurz zurück! Es war 2011, als AMD verbal mit Bulldozer erst alle anderen platt machen wollte und es dann doch nur für sich selbst gereicht hatte. So reflektiere AMDs CEO, Dr. Lisa Su, dann am Donnerstag letzter Woche in Sonoma recht treffend und vor allem selbstkritisch: “[…] we believe that there has been no innovation in desktops over at least the last five years.” Womit sie natürlich nicht Unrecht hat, denn bis auf ein paar kosmetische Änderungen hat sich am eigentlichen Grundproblem der Architektur ja nichts geändert.

Nun soll und muss es also Ryzen richten, eine CPU-Generation, die AMD im High-End-Desktop- und Server-Markt sieht und die am Ende auch den mobilen Sektor erreichen und beispielsweise in Notebooks zum Einsatz kommen soll. Das Unternehmen hat uns bereits mitgeteilt, dass sein Top-Modell ein Acht-Kern-Design mit echter Multi-Threading-Unterstützung sein würde (analog zu Intels SMT), so dass 16 Threads die Ressourcen des Prozessors besser nutzen können.

Frühe Leaks zeigten zunächst Engineering-Samples (ES) mit 2,8 GHz. Später zeigte AMD einen Blender-Benchmark mit einer auf drei GHz laufenden Summit-Ridge-CPU, die gegen einen auf ebenfalls 3 GHz beschränkten Intel Core i7-6900K ein Unentschieden erreichte. Und jetzt, beim Technology Summit in Sonoma, zeigte man uns einen Ryzen mit 3,4 GHz Basistakt, dessen Boost laut AMD jedoch noch nicht aktiviert war.

Das lässt hoffen, denn in einem erneuten Benchmark, diesmal war es das relativ gut über alle Threads skalierende HandBrake, konnte die gleiche Intel-CPU, die zudem Out-of-the-Box (3,2 GHz Basis, Turbo Boost bis zu 3,7 GHz) lief, sogar hauchdünn geschlagen werden. Ein klassisches Kopf-an-Kopf-Rennen also. Außerdem zeigte AMDs Einblendung eine um über 20 Watt niedrigere Leistungsaufnahme, wobei wir nicht einschätzen können, wie viel der Differenz dabei auf die unterschiedlichen Mainboards und deren Spannungswandlerverluste entfiel.

Abgesehen davon hätten wir es natürlich auch gern gesehen, dass AMD Ryzen mit Skylake und / oder Steamroller in anderen Situationen und in rein IPC-dominierten Benchmarks getestet hätte. Nicht nur deshalb, um Klarheit über die IPC-Verbesserungen zu schaffen, sondern auch um zu sehen, ob es dem Unternehmen gelungen ist, die generellen Schwachstellen von Bulldozer zu überwinden.

Erste technische Details von Ryzen

Bei den Hot Chips 28 im August dieses Jahres zeigte AMDs Architekturbriefing bereits, dass jeder Kern seinen privaten L2-Cache mit jeweils 512 KByte Größe besitzt. Somit würde ein sogenannter CPU-Komplex (CCX), der aus jeweils vier Kernen zusammengesetzt ist, insgesamt zwei MByte L2- und acht MByte L3-Cache besitzen, die aus vier Teilen bestehen. Eine Acht-Kern-CPU wie die hier vorgestellte besteht somit aus zwei CCXen, was am Ende in der Summe vier MByte L2- und satte 16 MByte L3-Cache, also 20 MByte für die gesamte CPU ergäbe.

Im direkten Vergleich zum aktuellen Mitbewerber-Portfolio sieht das erfreulich aus, denn der getestete Intel Core i7-6900K (Broadwell-E) besitzt insgesamt nur 18 MByte, während die kleineren Consumer-CPUs maximal sogar nur noch bis zu 9 MByte Cache aufweisen. Das macht dann Naples, die professionelle Variante von Summit Ridge, sogar richtig servertauglich, zumal der L2-Cache doppelt so groß ausfällt wie der auf den aktuellen Intel-CPUs.

Der zuständige Mitarbeiter in der Namensfindungsabteilung bei AMD muss wirklich einen sehr kreativen Lauf gehabt haben, denn es hagelte bei der Präsentation nur so von neuen Schlagworten und Bezeichnungen. Unter dem Oberbegriff SenseMI schnürt AMD verschiedene neue Technologien zu einem Paket zusammen. Drei der neuen Features sind darauf ausgerichtet, vor allem die Effizienz zu optimieren oder die Leistungsfähigkeit in den (thermischen und elektrischen) Grenzbereichen des Prozessors zu maximieren. Zwei weitere Highlights stecken in der künstlichen Intelligenz, die diese Architektur inhärent schneller machen sollte.

Das erste Feature, Pure Power, ist ein modernes Regelungssystem, das in der Lage ist, Temperaturen, Taktraten und Spannungen in einer neuen Qualität zu überwachen. AMDs CTO Mark Papermaster sagte uns, es gäbe Hunderte von Sensoren in verschiedensten Teilen des Chips. Diese Sensoren führen die ermittelten Telemetriedaten zu einer Managementeinheit (Arbitrator), die alle notwendigen Anpassungen fein abgestuft und in Echtzeit vornehmen kann. Dieses sehr umfangreich gegliederte Regelsystem von Pure Power soll dabei helfen, die Leistungsaufnahme bei jedem geforderten Leistungsniveau noch schneller und optimaler anpassen zu können. Es soll also am Ende nur noch das geliefert werden, was wirklich benötigt wird.

Im Umkehrschluss zielt Precision Boost darauf ab, die jeweilige Taktrate innerhalb dieses Regelkreises so zu maximieren, dass die Gesamtleistungsaufnahme nicht überschritten wird. Auch der Algorithmus dafür ist neu, der nunmehr quasi “on-the-fly” feinste Frequenzanpassungen in 25-MHz-Schritten ermöglicht. Oder anders gesagt: Man nutzt den verbleibenden Spielraum innerhalb eines momentanen Lastzustandes aus, um den Takt und damit auch die Performance unter Einhaltung aller Spezifikationen so hoch wie möglich zu halten.

Da der Volkssport des Übertaktens natürlich auch an AMD nicht unbemerkt vorbeigeschlichen ist, stellt man Enthusiasten auf der passenden Plattform entsprechende Möglichkeiten zur Verfügung, die Rahmenbedingungen von Pure Power so zu ändern, dass Precision Boost dann im Sinne des Anwenders zu höheren Taktraten gebracht werden kann.

Die Kühlung spielt dabei eine sehr wichtige Rolle für eine möglichst niedrige Betriebstemperatur des Prozessors. AMD verriet uns nämlich auch, dass Taktraten über die normalen Grenzwerte von Precision Boost hinaus umso höher zulässig sind, je aggressiver und besser eine Kühlung agiert. Das Unternehmen nennt diese Möglichkeit den Erweiterten Frequenzbereich (XFR), der zudem automatisch per Default aktiviert ist.

Details über diese Technologie sind leider rar gesät, aber wir fragen uns, ob es überhaupt eine fest definierte Grenze für XFR gibt und wenn ja, wo sie liegt. Auch scheint es uns, als ob die anspruchsvollen Arbeitsbelastungen, die ja primär von höheren Frequenzen profitieren würden, auch diejenigen sein werden, die die Temperaturen nach oben treiben könnten. Die Kühlerindustrie wird es AMD sicher danken und noch nie war Wasser so wertvoll wie heute.

Unabhängig von den bisher genannten Features soll das vierte Feature von SenseMI ebenfalls zur generellen Steigerung der Performance dienen. Derzeit ist aber noch unklar, ob das, was AMD Neural Net Prediction nennt, wirklich eine echte Neuerung ist oder doch nur einen abgeänderten Marketingbegriff für bereits bekannte Verbesserungen von (Ry)Zens Front-End darstellt.

Das Gleiche gilt übrigens auch für Smart Prefetch. Mark Papermaster räumte ein, dass er zwar hierbei die Back-End-Hardware von (Ry)Zen besprochen habe, aber noch nicht die genauen Algorithmen nennen könne, die am Ende wirklich dafür verantwortlich sind, dass Daten stets (nur) dann im Cache gespeichert werden, wenn sie effektiv auch benötigt werden. So stellt Smart Prefetch wohl AMDs Bemühung dar, als rhetorisches Schlagwort genau das zu verkaufen, was bei der neuen Architektur helfen soll, um Latenzen und Pipeline-Auslastungen zu minimieren.

AMD bestätigte außerdem noch einmal die Interoperabilität zwischen Ryzen und seiner neuen AM4-Plattform, die mit DDR4-Speicher, PCIe 3.0, USB 3.1 Gen2, NVMe und SATA Express kommen wird. Darüber, wie viele Speicherkanäle, Lanes oder Ports die ersten Mainboards haben könnten, schwieg man sich aber weiterhin aus.

Das wäre erst einmal alles, was es zu Ryzen vom Technology Summit in Sonoma zu berichten gäbe, wobei eine Salami ja noch deutlich mehr Scheiben hergeben könnte. Der geneigte Leser darf also weiterhin gespannt sein.

Für all diejenigen, die dies alles noch einmal als Video handlich verpackt und optisch aufgemotzt konsumieren möchten, hätten wir zusätzlich noch einen Stream, den AMD ab sofort zum alsbaldigen Verzehr bestimmt hat. Wer möchte – einfach auf das Bild oder den darunter stehenden Link klicken:

Link: Live-Stream folgen

Nach fast vier Tagen Reise und einem vollgepackten Tag im kalifornischen Sonoma beim AMD Technology Summit sind wir nun endlich zurück und haben jede Menge Informationen mitgebracht, die wir nun – in von AMD auferlegter Salami-Taktik – Stück für Stück veröffentlichen dürfen.

AMDs Dr. Lisa Su (CEO), Mark Papermaster (CTO), Raja Koduri (Radeon Technologies Group Chief Architect) und viele andere stellten uns dabei im Rahmen dieser Veranstaltung in sehr komprimierter Form AMDs aktuelle Projekte vor, wobei es natürlich auch um Zen und Vega ging.

Raja KoduriRaja Koduri

Zumindest Vega tauchte schon einmal kurz auf, als es um die zuerst eingeführten drei Beschleunigerkarten ging, die AMD voll aufs Deep Learning ausgerichtet hat – denn die schnellste dieser drei Karten basiert bereits auf dem neuen Vega-Chip. Doch dazu gleich mehr; zunächst wollen wir noch einmal kurz auf Deep Learning eingehen, was so neu eigentlich gar nicht ist.

Künstliche neuronalen Netze an sich sind keine Neuheit. Aber mit immer mächtigeren Rechenwerken lassen sich solche Rechenverfahren, die sich sehr dicht an der Arbeitsweise des Gehirns orientieren und dabei ein dicht verwobenes Netz einfacher Nervenzellen simulieren, mittlerweile recht eindrucksvoll realisieren.

Der Vorteil ist, dass diese nachgebildeten neuronalen Netze extrem anpassungsfähig sind, indem sie die Stärke der simulierten Neuronenverbindungen exakt den aus der Erfahrung gezogenen Schlüssen anpassen.

Radeon Instinct und MIOPen

Doch zurück zu den dafür geplanten Beschleuniger-Karten für Radeon Instinct. Das Single-Slot-Einstiegsmodell MI6 basiert auf einer Polaris-GPU, die mittelschnelle und sehr kurze MI8 auf einem Fiji-Prozessor (wie er analog auch auf der Radeon R9 Nano eingesetzt wurde) und die MI25 als Flaggschiff letztendlich auf einer Vega-GPU.

Auch wenn AMD betont, dass alle drei Modelle passiv gekühlt sind, ist es schon wie bei der FirePro S10000 so, dass im Gegenzug dazu ganz konkrete Richtlinien dafür gelten, wie die betreffenden Racks als Einheit aktiv zu kühlen sind. Das dies dann eher nicht so leise geschehen dürfte, ist sicher auch klar.

Die Radeon Instinct MI6 ist mit 16 Gigabyte Arbeitsspeicher bestückt und besitzt in etwa die gleiche Leistung wie AMDs Radeon RX 480. Eine angenommene maximale  FP16-Rate von 5,7 TFLOPS ermöglicht es uns, auf eine Taktfrequenz von circa 1240 MHz rückzuschließen. Die angegebene Speicherbandbreite von 224 GByte/s entspricht zudem genau den sieben GBit/s von GDDR5, wie wir sie auch auf den kleineren Versionen der Radeon RX 480 mit nur  vier GB Speicherausbau vorfinden.

Wie Polaris hat auch der Fiji-Prozessor ein 1:1-Verhältnis von FP16 zu FP32, so dass die MI8 mit den avisierten 8,2 TFLOPS identisch ist mit dem, was eine Radeon R9 Fury Nano bei einer Kernfrequenz von 1000 MHz und allen 4096 Shadern leisten kann. Natürlich ist diese Karte mit HBM1-Speicher auf vier Gigabyte Speicherausbau begrenzt, erbt aber auch die Übertragungsrate und restlichen Spezifikationen.

Das Flaggschiff MI25 basiert endlich auf der noch nicht gelaunchten Vega-basierten GPU, so dass Einschätzungen zur wirklichen Leistungsfähigkeit gelinde gesagt schwer fallen. Aber wer bis hierher aufmerksam mitgelesen hat, dem wird auch am Namensschema etwas aufgefallen sein. Die Zahl basiert nämlich bei den beiden anderen Karten auf der FP16-Leistung, so dass man annehmen könnte, es handele sich um eine Karte mit bis zu 25 TFLOPS!

Diese auf den ersten Blick so gewaltig anmutende Zahl wird bei Vega durch eine flexiblere Mixed-Precision-Engine ermöglicht, die zwei gleichzeitig ausgeführte 16-Bit-Operationen über die 32-Bit-Pipelines der Architektur unterstützt. Setzt man nun das Verhältnis von 1:2 an, ergäben sich bei FP32 immerhin noch 12,5 TFLOPS.

Auch Sonys Playstation 4 Pro profitiert von dieser Funktionalität und wir könnten wetten, dass wir sie auch in anderen kommenden Grafikprodukten von AMD wiederfinden werden. Viele On-Package-Module mit HBM2-Speicher und die enorme Rachenleistung machen gerade diese Karte für größere Workloads interessant.

Doch was treibt AMD eigentlich dazu, die FP16-Leistung so nach oben zu treiben? Die akademische Forschung hat gezeigt, dass FP16 (“Half Precision”) beim Deep Learning eine ähnliche Genauigkeit wie FP32 besitzt. Damit gelingt es, bei ähnlicher Genauigkeit mit einer Technologie, wie sie bei Vega genutzt wird, die Spitzenleistung faktisch zu verdoppeln.

Da wundert es auch nicht, dass AMD diese Informationen so schnell wie möglich veröffentlichen möchten, denn Nvidias GP100 unterstützt ebenfalls gemischte Präzision und liefert für FP16 bei maximalem Boost bis zu 21,2 TFLOPS. Darüber hinaus forciert man dort ja auch noch CUDA 8.

Nutzung der Hardware mit MIOPen

Während wir noch Monate von der Verfügbarkeit der Vega-basierten Hardware entfernt sind, kann AMD zumindest die Software-Seite seiner Geschichte bereits einbringen, um Entwickler dazu zu bewegen, sich mit der Programmierung dieser Systeme zu befassen.

So stellte man uns ebenfalls die MIOpen-Software-Bibliothek für die Radeon-Instinct-Karten vor, wo man als Verfügbarkeit das erste Quartal 2017 nannte. Erste, vorläufige Benchmark Ergebnisse – beispielsweise Deep Bench von Baidu Research, wo man zudem nur einen sehr frühen FP32-Test (GEMM) herauspickte – zeugen von einem noch recht frühen Stadium der Hardware.


AMD verwendet eine GeForce GTX Titan X (Maxwell) für die Basislinie.Diese Karte besitzt eine FP32-Spitzenleistung von 6,14 TFLOPS unter Verwendung ihres Basistaktes ohne Boost. Die Titan X (Pascal) leistet dank einer meist deutlich höheren GPU-Taktrate bereits 10,2 TFLOPS.

Mit seiner MIOpen-Bibliothek kann die auf dem Papier 8,2 TFLOPS leistende Radeon Instinct MI8 das Flaggschiff von Nvidia – wenn auch nur knapp – laut Grafik sogar noch schlagen. Zuimdest in diesem Test ist die MI25 zudem fast 50 Prozent schneller als Nvidias Pascal-basierte Titan X und sogar 90 Prozent schneller als der Vorgänger, die Maxwell-basierte Titan X.

Basierend auf dem, was wir über das Mischpräzisions-Handling von Vega wissen, können wir somit vermuten, dass MI25 eine FP32-Rate von rund 12 TFLOPS hat. Um diesen Vorteil am Ende aber wirklich zu erreichen, muss MIOpen laut AMD für die Hardware jedoch wirklich optimiert sein.


Die MIOpen-Bibliothek (ROCm) ist jedoch nur ein Teil von AMDs Software-Strategie und ordnet sich an der Spitze der Open-Source-Plattform mit Dingen wie Radeon Open Compute für den Heterogeneous Compute Compiler, HIP (zur Umwandlung von CUDA-Code in portable C ++), OpenCL und Python ein. ROCm bietet außerdem Unterstützung für NCCL (eine Bibliothek kollektiver Kommunikationsroutinen für Multi-GPU-Topologien), alle relevanten Mathematik-Bibliotheken und die C ++ – Standardvorlagenbibliothek.

Anfang 2016 führte AMD bereits seine Karten der FirePro-S-Serie mit Multi-User-GPU-Technologie ein, die auf dem SR-IOV-Standard (Single-Root-I/O-Virtualization) basierten.Dies ermöglichte schon damals VMs direkten Zugriff auf die Grafik-Hardware und erfreute sich beispielsweise fürs Cloud-Gaming recht großer Beliebtheit. AMD setzt MxGPU auch auf den Radeon Instinct-Boards fürs Deep Learning ein und betont zudem gern, dass Nvidia hier eine viel stärkere Trennung zwischen Funktionen und Produkten vornimmt.

Reale Hardware-Lösungen vorgestellt

Neben der ersten Präsentation der Hard- und Software ludt AMD auch einige Systemintegratoren ein, die ihre Vorhaben und erste Lösungen direkt vor Ort vorstellen durften.

Am unteren Ende des Spektrums zeigte Supermicro seinen Superserver 1028GQ-TFT — eine Dual-Sockel-Xeon-E5-basierte 1U-Maschine – bestückt mit vier MI25 Karten und bis zu 100 TFLOPS FP16-Leistung. Sonderlösungen mit Intels Xeon Phi, die FP16 nicht unterstützen, oder Nvidias Tesla P100-Erweiterungskarten stehen auf Supermicros Qualifikationsliste mit Spitzenwerten von bis zu 18,7 TFLOPS pro Einheit und ordnen sich damit unterhalb der MI25 ein.

Deutlich größer ist da schon eine 39U-Plattform von Inventec mit 120 MI25-GPUs, sechs 2U-24-Bay-Servern und sechs 4HE-PCIe-Switches mit bis zu drei PFLOPS. Diese Einheit, so Raja Kodri scherzhaft, passe locker in den Kofferraum seines eigenen Wagens und würde preislich am Ende zusammen mit dem Fahrzeug immer noch deutlich günstiger ausfallen als vergleichbare Mitbewerberprodukte.

Natürlich konnte es sich AMD nicht verkneifen, uns am Schluss eine bevorstehende Zukunft zu präsentieren, in der die Zen-CPUs und Radeon-Instinct-Beschleuniger in einer heterogenen Computing-Umgebung zusammenarbeiten werden. Aber wir sind noch mindestens sechs Monate von der Realisierung solch einer Kombination entfernt, so dass man über das Potenzial einer solchen Verbindung momentan nur spekulieren kann.

Wenn uns das aktuelle Event aber eines gezeigt hat, dann das: AMD müht sich redlich, Boden gutzumachen und den aktuellen Tendenzen nicht nur zu folgen, sondern auch eigene Trends zu setzen. Ob und wie gut das alles gelingt und ob auf dem einen oder anderen Gebiet sogar ein Vorsprung möglich ist, das wird die nähere und mittelfristige Zukunft zeigen müssen.

Im Rahmen des neuen Treibers bietet AMD mit Chill ein interessantes Feature an, das die Leistungsaufnahme situationsabhängig stark senken kann, die Karte kühler hält und auch sonst Vorteile bietet. Mit OCAT kommt noch ein neues, kostenloses Benchmark-Tool hinzu, das DirextX 12 und OpenGL beherrscht und keine Probleme mit UWP-Anwendungen hat.

Neben den vielen kleineren und größeren Neuerungen bei AMDs neuem Radeon-ReLive-Treiber wird in diesem Test das neue Feature Chill im Fokus stehen, wobei wir natürlich die passenden Benchmarks mit OCAT vornehmen, AMDs neuen Benchmark-Tool.

Doch kommen wir zunächst zu dem Kniff, den sich AMD ausgedacht hat, um die Leistungsaufnahme im normalen Gaming-Alltag signifikant zu senken. Dass dies situationsabhängig mehr oder weniger starke Auswirkungen hat, ist durch das Funktionsprinzip der lastabhängigen Frameratenbegrenzung bedingt. Doch dazu gleich mehr.

Aktivieren von Chill – und Einschränkungen

Aktivieren kann man Chill generell zunächst erst einmal über die Radeon Einstellungen. Man findet das Feature im Wattman, wo man es global aktivieren oder deaktivieren (Default-Einstellung) kann – unabhängig von den weiteren Settings in den Spieleprofilen.

Womit wir bei den (momentanen) Einschränkungen angekommen wären: Chill funktioniert recht ordentlich, jedoch nur bei DirectX-9- und DirectX-11-Spielen. Hat man neben den Treibern bei der Installation auch die Profile mit installiert, lässt sich das gewünschte Spiel im Profil bearbeiten und man kann Chill aktivieren und sogar mit gewünschten Ziel-Framerates versehen, um beispielsweise das Minimum auf 60 FPS oder mehr anzuheben.

So verlockend es auch klingen mag – das Ganze hat derzeit leider einen klitzekleinen Haken: Ähnlich wie bei Nvidias Ansel steht am Anfang nämlich nur eine ausgewählte Anzahl passender Spielen bereit. Diese sogenannte Whitelist kann sich natürlich noch füllen, jedoch ist aktuell noch etwas Leere im Portfolio, was brandaktuelle Blockbuster betrifft. Aber was nicht ist, kann ja noch werden.

Funktionsweise und Features

Viel hat AMD bisher nicht verraten, so dass wir ein wenig auf uns allein gestellt waren und uns am Ende nur Mutmaßungen blieben. Zunächst gilt aber erst einmal, dass je ruhiger und unbewegter die Szene ist auch die FPS-Zahl gehörig abgesenkt wird. Daraus resultiert erst einmal als direkte Folge logischerweise auch eine geringere Leistungsaufnahme. Doch um dies fließend hinzubekommen, muss AMD schon etwas tiefer in die Trickkiste greifen.

Damit das Ganze nämlich nicht subjektiv als langsamere Bildschirmausgabe wahrgenommen werden kann, reagiert AMDs Treiber sehr flexibel und empfindlich auf Eingabegeräte (Maus, Tastatur, Gamepad) sowie größere Änderungen an der Szene (Bewegungen) selbst. Sobald anzunehmen ist, dass höhere FPS-Raten nötig werden, hebt Chill die Bremse mehr oder weniger intelligent wieder auf.

Um der Wirkungsweise wenigstens etwas auf die Schliche zu kommen, haben wir insgesamt drei Szenen ausgewählt, die wir nicht nur benchmarken, sondern auch hochauflösend in Bezug auf die Leistungsaufnahme jeweils eine Minute lang messen werden. Wir werden das Folgende etwas vereinfacht zu erklären versuchen, um möglichst verständlich zu bleiben.

Der erste Benchmark kommt Chill mit Sicherheit am meisten entgegen. Die Szene, die ja Teil des ausgegebenen Viewports ist, bleibt weitestgehend unverändert. Die Kamara als untergeordnetes Objekt innerhalb der Szene verbleibt statisch an ihrem Standort und auch der Z-Buffer wird nur selten bis gar nicht angetastet. Die handelnde Person (Actor) ist nichts anderes als eine Art animiertes Mesh, das mittels Scripten zum Leben erweckt wird – nur das man hier fast durchgehend in Ruheposition verharrt.

Test 1 - Fester Standort, kaum BewegungenTest 1 – Fester Standort, kaum Bewegungen

Bei der zweiten Szene drehen wir die Kamera jeweils um die Y-Achse (Vertikalachse) um 360 Grad hin und zurück. Danach lassen wir den Actor als animiertes Mesh innerhalb der Szene vor der nun stehenden Kamera hochspringen und zwei Kampfbewegungen ausführen. Danach beginnt diese Prozedur erneut, bis die Minute vorüber ist. Wir erwarten eine leicht höhere Leistungsaufnahme, denn der neu zu berechnende Bildbereich ist relativ klein, solaneg nur der Actor springt. Auch die Drehung am Ort greift nur auf die fertige Szene zurück.

Test 2: Drehen der Kamera um die eigene Achse und bewegung des ActorsTest 2: Drehen der Kamera um die eigene Achse und bewegung des Actors

Doch was passiert, wenn man nun die Kamera und den Actor weitläufig durch die offene Welt bewegt (auf allen drei Achsen) und der Actor zudem noch animiert ist (Laufbewegung)? Der Wald ist bei The Witcher 3 schon immer eine Herausforderung für die Grafikkarte und da zudem auch alles ständig neu berechnet werden muss, sind die Einsparungsmöglichkeiten hier wohl am geringsten. Doch wir werden dies alles ja gleich noch messen.

Test 3 - Stetige Bewegung der Kamera in der Szene Test 3 – Stetige Bewegung der Kamera in der Szene

Chill harmoniert zudem sehr gut mit FreeSync, was einer möglichst ruhigen und störungsfreien Bildschirmausgabe sehr entgegen kommt. Um die Allgemeingültigkeit der Benchmarks zu garantieren, haben wir bei den eigentlichen Durchläufen wieder auf FreeSync verzichtet. Aber es ist ein Feature, das man sich durchaus gönnen kann (und sicher auch sollte).

Alle die Aspekte, die Chill aktiv ändert, haben am Ende Einfluss auf AMDs Power Estimation Engine und können so über den Arbitrator im Zusammenspiel mit den restlichen Einflüssen (Sensorwerte usw.) auch direkten Einfluss auf die zugeführte Leistung nehmen. Das kann dann zu mehr oder weniger großen Sparmaßnahmen führen – je nach Situation natürlich.

Die restlichen, von AMD in bezug auf Chill beworbenen Verbesserungen lassen sich subjektiv nur schwer beurteilen. So will AMD es schaffen, die Synchronität der Frame-Ausgabe deutlich zu steigern, indem man die Zeiten, zu denen der gerenderte Frame am Bildschirm erscheint, an den Rhythmus aus GPU- Und CPU-Leerlaufzeit anzupassen versucht.

Das soll auch zu einer verzögerungsfreieren Wiedergabe führen, weil sich weniger vorab gerenderte Frames in der Warteschlange befinden. Ergo wird der Frame, auf den sich eine aktuelle Aktion bezieht, auch eher ausgegeben. Klingt gut und rein subjektiv gesehen funktioniert es auch ganz gut. Zumindest war es erstaunlich, dass sich diesbezüglich auch niedrigere FPS-Raten beim Input noch recht schnell anfühlten.

Benchmarking mit AMDs OCAT

Mit OCAT lässt AMD ein kostenloses Tool auf die Anwender los, das alle aktuellen APIs beherrscht. Das reicht von DirectX 9 bis DirectX 12 und schließt auch OpenGL samt Vulkan mit ein. UWP-Anwendungen sind ebenfalls kein Thema. Wirklich neu ist OCAT allerdings nicht, denn es ist am Ende nichts anderes als PresentMon mit einem AMD-eigenen GUI, das stilsicher der Radeon-Software angepasst wurde.

Das Programm besitzt einen ähnlichen Funktionsumfang wie PresentMon und erzeugt auf Wunsch im Record-Modus auch identische CSV-Dateien. Damit sind diese Dateien sogar ohne Hindernisse in unserem eigenen Interpreter-Tool einlesbar, was der Auswertung und grafischen Aufarbeitung natürlich ungemein entgegenkommt. Was im Gegensatz zu unserer eigenen Software jedoch (noch) fehlt, ist das einfache Anlegen und Speichern von eigenen Profilen.

Als Grafikkarte wählen wir bewusst eine MSI RX 480 Gaming 8G, da diese Karte mit Ihren fast 190 Watt maximaler Leistungsaufnahme am ehesten das mögliche Einsparpotential aufzeigen kann. Unser aktuelles Standard-Grafikkarten-Testsystem stellt den Rest der Hardware.

Standard-Testsystem
Testsystem: Intel Core i7-5930K @ 4,2 GHz
Alphacool-Wasserkühlung (Nexxxos-CPU-Kühler, VPP655-Pumpe, Phobya-Balancer, 24-cm-Radiator)
Crucial Ballistix Sport, 4x 4 GByte DDR4-2400
MSI X99S XPower AC
1x Crucial MX200, 500-GByte-SSD (System)
1x Corsair Force LS 960-GByte-SSD (Anwendungen, Daten)
Be Quiet! Dark Power Pro, 850W-Netzteil
Betriebssystem Windows 10 Professional Build 1607 (alle Updates)

AMD packt nach dem Omega-Treiber aus dem Jahr 2014, der sich überwiegend als Performance-Update verstand, und Crimson von 2015, der ja mehr eine optische Verbesserung darstellte, noch eine ordentliche Schippe drauf und in die neue Radeon Software so ziemlich alles rein, was in diesem Jahr an Innovationen und Neuerungen angefallen ist und dem Anwender gefallen könnte.

Dies ist allerdings nicht nur die Sichtweise von AMDs Marketing-Abteilung, sondern auch unser erster Eindruck, nachdem wir uns mit den neuen Treibern in einem ersten Hands-on-Test beschäftigt haben.

Das ganze Thema ist sogar so umfangreich, dass wir zwei Themen ausgekoppelt haben und als eigenen Test veröffentlichen, denn der Einsatz lohnt sich auf alle Fälle. Ganz nebenher hat AMD auch die professionelle Treiber-Seite aufgewertet und alles auf eine gemeinsame Basis gestellt. Doch dazu später mehr.

Doch bevor Treiber auf das System kommen, müssen sie erst einmal installiert werden. AMD nutzt zwar nach wie vor selbstentpackende Archive für das eigentliche Treiberpaket, aber der Rest ist neu. Der native Installer kommt im Look & Feel der Crimson-Software daher und kann durchaus gefallen.

Die offerierte echte Neuinstallation auf Basis einer kompletten Treiberentfernung samt Neustart hakt allerdings noch etwas. Mal abgesehen von den trotzdem im System verbleibenden Treiberresten war es nicht möglich, auf diesem Weg die Consumer-Version sauber über eine ältere Radeon-Pro-Software zu installieren. Aber Abhilfe ist schon im Anmarsch.

Doch kommen wir zurück zur Radeon-Software und Crimson. Wie bereits im Sommer vor der Computex in Macau von AMD angekündigt liegt einer der neuen Schwerpunkte auf der Software, die aus Sicht AMDs 50 Prozent der Erfogsgrundlage ausmachen soll. Mit GPUOpen öffnet sich AMD deshalb bewusst der OpenSource-Gemeinde und investiert(e) hier Manpower, Geld und Know-How in verschiedenste Projekte.

Egal ob Radeon Loom, OCAT, Depth of Field, Tress FX 4.0, AMF (Advanced Media Framework) 1.4 und viele andere – AMD hat sich jede Menge Partner und Entwickler mit ins Boot geholt, um neben der eigentlichen Hardware auch die passenden Softwarelösungen anbieten zu können.

OCAT ist ein frei zugängliches und kostenloses Benchmark-Tool, das neben DirectX 9 bis DirectX 12 auch APIs wie OpenGL und Vulkan unterstützt und zudem keine Probleme mit UWP-Anwendungen kennt. Wer genauer hinschaut, wird jedoch schnell feststellen, dass AMD hier lediglich ein intuitives GUI über PresentMon gebastelt hat, was bisher als Kommandozeilen-Programm eher sperrig und unhandlich war.

Mit Liquid VR sieht sich AMD voll im VR-Trend und offeriert mit Multi-GPU-Nutzung (L/R), MultiView & MultiRes Rendering sowie TrueAudio Next die dazu passenden Angebote.

Doch auch die Radeon Pro Software kommt nicht zu kurz: Neben den Enterprise-Features wie einem quartalsweisen Treiber-Update samt Optimierungen hinsichtlich Performance und Stabilität, aktuellen Zertifizierungen sowie einem speziellen Kunden-Support erweitert sich auch die eigentliche Feature-Liste dieses Treiber-Paketes.

AMD hat sich zudem sichtbar bemüht, mit bedeutenden Ambietern professioneller Standardsoftware zu kooperieren, und hat in einigen Bereichen auch die Performance der Radeon-Pro-Grafikkarten deutlich steigern können, wie unser Test zur Readeon Pro WX 7100 deutlich zeigt.

Neben der VR-Unterstützung einer Game-Engine-Integration sind es Offerten wir Prorender, wo AMD eine große Bandbreite an Programmen mit passenden Plugins und Programmerweiterungen unterstützen möchte.

Auch bei den Linux-Treibern möchte AMD unter anderem mit Vulkan und FreeSync nachlegen, wobei wirklich passende proprietäre Treiber gerade im professionellen Bereich immer eine Schwachstelle waren.

Doch es sind oft auch die zu Unrecht wenig beachtete Aspekte, die einem das Leben im Zusammenspiel von Hard- und Software erleichtern. So setzt AMD einen der Schwerpunkte auf die Verbesserung von Ausgabequalität, Konnektivität und Zusammenspiel von Grafikkarte und Display. Da all dies Seiten füllen könnte, haben wir uns auf das Wesentlichste beschränken müssen, werden aber bei passenden Themen die Neuerungen noch einmal im Detail aufgreifen.

Zu AMDs neuen Feature Chill haben wir jedoch bereits jetzt einen ersten, ausführlichen Test gemacht, weil wir meinen, dass dieses Stromspar-Feature eigentlich recht gut gelungen ist. Die Benchmarks in diesem Test haben wir natürlich auch gleich mit OCAT erstellt (siehe oben) und mit unserer hauseigenen Software inhaltlich und grafisch weiterverarbeitet.

Und weil wir gerade bei der Leistungsaufnahme waren: Das Treiber-eigene Tool Wattman steht nun nicht nur exklusiv den Polaris-Karten zur Verfügung, sondern auch einigen älteren GCN-Karten des Herstellers bis hin zur Radeon R7 260 als ältere Einsteigskarte.

Mit ReLive bietet AMD ein recht mächtiges Werkzeug für Dauer-Streamer, Selbstdarsteller und sonstige Zeigefreudige an. Dabei will AMD auch Wert darauf gelegt haben, möglichst ressourcenschonend zu Werke zu gehen. Der Hersteller verspricht beispielsweise, die Frameraten bei Spieleaufzeichnungen nicht allzusehr zu drücken. H.265 ist ebenfalls kein Thema und so wird es sicher genügend Inhalte geben, um später einen gesonderten Artikel mit ersten Erfahrungswerten zu veröffentlichen.

So bleibt uns am Ende dieser ersten Vorstellung als Zwischenfazit nur die Erkenntnis, dass AMD ganz offensichtlich gewillt ist, mit einem ausgewogenen Mix aus Hard- und Software-Innovationen die eigene Position im hart umkämpften Grafikmarkt auszubauen.

Indem AMD Lücken füllt und neue Felder erschließt, kann man letztendlich auch einholen, ohne ständig hinterherlaufen zu müssen. Und wie AMDs Chill ganz gut zeigt, kann man bestimmte Nachteile mit etwas Kreativität zumindest ausgleichen, während man mit kreativen Zusatz-Features noch anderweitig punkten kann.

Der Crimson ReLive ist mit Sicherheit nicht DIE Sensation des mittlerweile fast abgelaufenen Jahres, aber dennoch eine Art besonderer Meilenstein. Bei aller Begeisterung wird sich AMD aber letztendlich an dem messen lassen müssen, was in naher und entfernterer Zukunft unterm Strich dabei herauskommt – und zwar für das Unternehmen selbst und für die Endanwender.

Müssten wir das alles jetzt zu einem abschließenden Satz zusammenfassen, würde wohl hier stehen: “Durchaus vielversprechend, aber erst der Anfang”.

Eindhoven, Niederlande – Cooler Master, ein führender Hersteller von Computerkomponenten und Peripheriegeräten, gibt den Produktstart des neuesten Gehäusemodells bekannt, das speziell für Gamer entwickelt wurde. Sie fragen sich, wofür das „t“ steht? Kein Zweifel: Es steht für Turbo-Edition.

Dieser kleine Zusatz erscheint nun hinter dem Namen unseres Top-Produkts MasterCase Maker 5. Jetzt feiert das Gehäuse seine Premiere in der Gaming-Version.

„Der Look der neuen Version sollte eleganter und schwungvoller sein – so wie ein Sportwagen“, erklärt Mark Severin, Produkt Manager. „Für den MasterCase Maker 5t haben wir uns einige Extras einfallen lassen, die speziell auf Gamer zugeschnitten sind.“

Schauen wir uns die Neuerungen genauer an:

Zweifarbige Oberflächen in Rot und Schwarz

Das Innenleben des MasterCase Maker 5t ist in Dunkelrot gehalten. Damit wird die Farbkombination aufgenommen, die bei vielen Mainboards und Grafikkarten vorherrscht. Dabei kommt kein normales Rot zum Einsatz, sondern eine eigens entwickelte rote Farbe mit funkelnden Bestandteilen. So ergibt sich eine beeindruckende Farbkombination.

Zwei Echtglas-Seitenteile

Dank der beiden Seitenteile aus Echtglas ist das raffinierte Innere des MasterCase Maker 5t besonders gut sichtbar. Die Scheiben sind getönt, lassen jedoch genug Licht hindurch, damit sich das beleuchtete Innere beidseitig mit einem spektakulären Effekt präsentiert. Für Anwender, die ihre Rechner in der Öffentlichkeit vorführen, sind die dicken Scheiben mit Schlössern versehen.

Rote LEDs

Die spitzen Winkel, die roten LEDs und die spezielle rote Farbe verleihen dem Gehäuse ein Sportwagen-Feeling. Die magnetische rote LED-Leiste im Lieferumfang können Sie überall anbringen; sie lässt Ihren PC erstrahlen.

Lüfter- und Beleuchtungssteuerung

Lüfter- und Beleuchtungseinstellungen lassen sich direkt von der Anschlussleiste aus steuern. Unterstützt werden bis zu sechs 140mm Lüfter und vier LED-Leisten, mit Einstellungen für hohe (12 V) und niedrige (7 V) Lüfterdrehzahlen sowie statische oder atmende Effekte für die LED-Beleuchtung. 

Handgriff mit Gummimantel

Neben den beiden Abdeckungen aus getöntem Glas verfügt der Maker 5t auch über einen Transportgriff. Dieser Griff mit zusätzlicher Stahlverstärkung und Gummiummantelung ermöglicht den Transport von bis zu 29 kg Nutzlast auch mit verschwitzten Händen, sodass sich der PC beispielsweise auf LAN-Partys sicher umhertragen lässt. 

Grafikkartenhalterung 

Wer sich die Anschaffung eines Gaming-Gehäuses überlegt, nennt ganz sicher eine leistungsstarke Grafikkarte sein Eigen. Zum Schutz dieses wertvollen PC-Bestandteils und der Hauptplaine bietet Cooler Master eine Grafikkartenhalterung im Lieferumfang. Diese stützt sich and er Festplatten-Schienenleiste ab und nimmt zusätzliches Gewicht der Karte auf, das andernfalls Ihr Mainboard verbiegen und beschädigen könnte.

FreeForm™-Modularsystem und Innenkonfiguration

Das MasterCase Maker 5t basiert selbstverständlich auf unserem FreeForm™-Modularsystem. Falls Sie das Gehäuse später durch zusätzliche Teile erweitern möchten, bieten wir Ihnen zahlreiche Optionen für die Auslegung Ihrer Hardware. Das in die Maker-Produktreihe integrierte FreeForm™-Modularsystem bietet hervorragende Individualisierungs-, Anpassungs- und Aufrüstungsmöglichkeiten.

Die Grafikkartenhalterung und die LED-Leiste des MasterCase Maker 5t sind nur zwei Artikel aus dem immer weiter wachsenden Zubehörangebot, welches das Cooler-Master-Designteam und seine Maker entwickeln. Mit diesem wachsenden Sortiment vervielfältigen sich auch die Möglichkeiten, wahrlich einzigartige Layouts und Looks zu kreieren, die sich viele Jahre lang modifizieren und aufrüsten lassen. So spart man sich die Anschaffung komplett neuer Systeme nach dem Erscheinen jeder größeren technologischen Neuheit. Das vollständige Zubehörsortiment finden Sie unter Maker Made oder FreeForm™ Accessories.

Preis: 249,90€

Verfügbarkeit: Sofort

Wir wollen es nicht dramatisieren, aber ohne gescheiten Unterbau geht bei Watch Dogs 2 zumindest nicht viel. Schöner leben oder auf der Strecke bleiben? Wir wollen klären, welche Pixeltapeten auch bei wenig Kleister noch gut haften bleiben.

Andere Games im THDE-Spieletest
>>>   Anno 2205
>>>   Anno 2205 (Benchmark-Parcours)
>>>   Anno 2205 (GC 2015)
>>>   Anno 2205 (Interview)
>>>   Ashes of the Singularity (Benchmark-Parcours)
>>>   Assassin’s Creed Syndicate
>>>   Assassin’s Creed Syndicate (GC 2015)
>>>   Assassin’s Creed Unity
>>>   Battleborn
>>>   Battlefield 1
>>>   Battlefield 1 (GC 2016)
>>>   Battlefield Hardline
>>>   Cities: Skylines
>>>   Civilization VI
>>>   Civilization VI (GC 2016)
>>>   Dark Souls 3
>>>   Dark Souls 3: Ashes of Ariandel (DLC)
>>>   Dead Space 3 (Benchmark-Parcours)
>>>   Deponia Doomsday
>>>   Deus Ex: Mankind Divided
>>>   Diablo 3 (Benchmark-Parcours)
>>>   Die Zwerge (GC 2015)
>>>   Die Zwerge (GC 2016)
>>>   Dishonored 2 (GC 2016)
>>>   Doom
>>>   Dragon Age: Inquisition
>>>   Elex (GC 2016)
>>>   Elex (GC 2015)
>>>   Expeditions: Viking (GC 2016)
>>>   Expeditions: Viking (GC 2015)
>>>   Fallout (Serien-Rückblick)
>>>   Fallout 4
>>>   Fallout 4 (Benchmark-Parcours)
>>>   Fallout 4: Far Harbour (DLC)
>>>   Fallout 4: Nuka World (DLC)
>>>   Fallout Shelter
>>>   Far Cry 4
>>>   FIFA 15 (Rückblick)
>>>   FIFA 15 (eSport-Interview)
>>>   FIFA 16
>>>   FIFA 17 (GC 2016)
>>>   Final Fantasy XV (GC 2016)
>>>   For Honor (GC 2016)
>>>   Grand Ages: Medieval
>>>   Grand Ages: Medieval (GC 2015)
>>>   Grand Theft Auto V (GTA 5) (Benchmark-Parcours)
>>>   Gwent: The Witcher Card Game (GC 2016)
>>>   Hitman: Absolution (Benchmark-Parcours)

>>>   Hitman: Episode 5 (GC 2016 & Interview)
>>>   Injustice 2 (GC 2016)
>>>   Just Cause 3
>>>   Little Nightmares (GC 2016)
>>>   Mad Max (GC 2015)
>>>   Mafia III
>>>   Mafia III (GC 2016)
>>>   Master of Orion (Early Access)
>>>   Metal Gear Solid  V: The Phantom Pain
>>>   Mittelerde: Mordors Schatten
>>>   Need For Speed 2016 (Benchmark-Parcours)
>>>   Need for Speed: Just Wanted 2 (Benchmark-Parcours)
>>>   Overwatch
>>>   Pillars of Eternity
>>>   Prey (GC 2016)
>>>   Project Daedalus: The Long Journey Home (GC 2015)
>>>   Randal’s Monday
>>>   Shock Tactics (Preview)
>>>   Sims 4
>>>   South Park: Die rektakuläre Zerreißprobe (GC 2016)
>>>   Star Trek: Bridge Crew (GC 2016)
>>>   Star Wars: Battlefront (GC 2015)
>>>   Star Wars: Battlefront (Benchmark-Parcours)
>>>   State of Mind (GC 2016)
>>>   Stellaris
>>>   Stellaris (Preview)
>>>   Tekken 7 (GC 2016)
>>>   The Bureau: Xcom Declassified
>>>   The Climb (GC 2016)
>>>   The Division
>>>   The Division (Benchmark-Parcours)
>>>   The Division: Untergrund (DLC)
>>>   The Inner World – Der letzte Windmönch (GC 2016)
>>>   The Mandate (GC 2015)
>>>   The Vanishing of Ethan Carter
>>>   The Witcher 3: Wild Hunt
>>>   The Witcher 3: Wild Hunt – Bloood and Wine (DLC)
>>>   The Witcher 3: Wild Hunt – Hearts of Stone (DLC)
>>>   The Division
>>>   Titanfall 2 (GC 2016)
>>>   Total War: Warhammer
>>>   Unravel
>>>   Unravel (GC 2015)
>>>   Valhalla Hills (GC 2015)
>>>   World of Warships
>>>   XCOM 2

Dabei wird es uns nicht primär um des Spielerlebnis und die Story gehen, denn das müssen spezialisierte Spieletests klären. Aber für die Aufmachung und die optische Präsentation kann man am Ende beim Test auch nicht genug Aufwand betreiben. Da Ubisoft das Spiel leider etwas später geliefert hat, wollten wir nicht einfach die Kollegen kopieren und noch einmal das Gleiche abliefern, sondern haben überlegt, wie wir den Benchmark etwas anders gestalten können.

Hat man die doch etwas langatmige Schlauch-Level-Intro hinter sich gebracht, darf man als Spieler und Tester endlich in die schöne, offene Spielwelt aufbrechen. So sehr die erste Fahrt über die Golden Gate Bridge auch faszinieren mag (tolle Weitsicht übrigens): Es gibt im Spiel leider noch schlimmere Stellen für unsere Hardware.

Wir haben uns diese anfängliche Einführungsspaßbremse übrigens sogar zweimal in getrennten Savegames angetan – doch dazu später mehr. Da wir das Spiel ausschließlich offline nutzen (und damit bewusst auf den Mehrspieler-Modus verzichten), haben wir zur einfacheren Handhabung der Benchmarks mittels eines handlichen Tools quasi den God-Mode verwendet. Das Ziel: Unbeeinflusst unsere Kreise im Spiel ziehen zu können, ohne dabei jedes Mal den Heldentod sterben zu müssen.

Voreinstellungen oder manuelle Auswahl?

Die Bildeinstellungen geben für experimentierfreudige Gamer eine Menge her; wer auf viele Regler und diverse (oft notwendige) Neustarts steht, wird hier seine helle Freude haben.

Doch nicht immer wird der Anwender wirklich wissen, wo das optimale Gleichgewicht für die Leistungsklasse seiner Hardware liegt. Deshalb bietet das Spiel neben den gewohnten Auflösungen auch insgesamt fünf Voreinstellungen an, die dann in der sechsten, benutzerdefinierten noch individuell verfeinert werden können.

Während “Low” und “Medium” wirklich nicht gut aussehen und nur dann genutzt werden sollten, wenn gar nichts anderes mehr geht, kann man ab “High” eigentlich schon recht genüsslich leben. Flach und blass ist es dann nicht mehr und die Schritte über “Very High” bis “Ultra” sind dann nur noch an Details auszumachen. Interessanterweise steht der optische Zugewinn ab da auch nicht mehr im vernünftigen Verhältnis zum Hardware-Bedarf.

Low SettingsLow Settings Medium SettingsMedium Settings High SettingsHigh Settings

  

Very High SettingsVery High Settings Ultra SettingsUltra Settings Manually Maxed OutManually Maxed Out

  

Am Ende wird man sich wohl einfach die Einstellung suchen, bei der man noch ordentliche Frameraten erziehlt und dann Schritt für Schritt das Feintuning vornehmen. Da jeder Gamer dabei unterschiedliche Präferenzen hat, bleibt viel Luft zum Ausprobieren und zum feinen Ausloten des Machbaren.

Kantenglättung und Performance

Wer schön sein will, muss leiden: Die offene Welt sieht ausgesprochen gut und abwechslungsreich aus, jedoch haben Detailvielfallt und aufwändigere Texturen auch einen extremen Nachteil, wenn man sich flüssig bewegt: Es flimmert an den Kanten stellenweise wie die Pest. Genau dafür bietet das Spiel mehere Anti-Aliasing-Optionen an, die zum Teil kombiniert werden können.

Interessante Tests und Artikel zum Thema Grafikkarten
>>>   Pascal-Roundup: GeForce GTX 1070 und GeForce GTX 1080 im Vergleich
>>>   Pascal-Roundup #2: Nvidias GeForce GTX 1060 im Vergleich
>>>   Nvidia GeForce GTX Titan X (Pascal, Launch-Artikel)
>>>   Nvidia GeForce GTX 1080 Founders Edition (Launch-Artikel)
>>>   Nvidia GeForce GTX 1070 Founders Edition (Launch-Artikel)
>>>   Nvidia GeForce GTX 1060 Founders Edition (Launch-Artikel)
>>>   Nvidia GeForce GTX 1060 3G (MSI GeForce GTX 1060 Gaming X 3G)
>>>   Nvidia GeForce GTX 1050 und GTX 1050 Ti (Pascal, Launch-Artikel)
>>>   Passiv-Umbau GeForce GTX 1050 Ti (Pascal)
>>>   Effizienzanalyse & Leistungsaufnahme: GeForce GTX 1070/1080 vs. GTX 980 Ti
>>>   AMD Radeon RX 480 (Launch-Artikel)
>>>   AMD Radeon RX 480 im Detail: Leistungsaufnahme, Board-Layout & Normen
>>>   AMD Radeon RX 480: Neuer Treiber entlastet das Mainboard deutlich
>>>   AMD Radeon RX 470 4GB (Polaris, Launch-Artikel)
>>>   AMD Radeon RX 460 4GB (Polaris, Launch-Artikel)
>>>   Maxwell-Roundup: GeForce GTX 970 und GeForce GTX 980 im Vergleich

>>>   How-to-Guide: Grafikkartenkühlung und Wärmeleitpaste optimieren
>>>   AMD Radeon Pro WX 7200 (Polaris)
>>>   AMD FirePro W9100 (Hawaii)

>>>   AMD FirePro W8100 (Hawaii)
>>>   AMD FirePro W4300 (Hawaii)
>>>   AMD FirePro W9000 und W8000 (GCN)
>>>   Nvidia Quadro M6000 (Maxwell)
>>>   Nvidia Quadro M2008 (Maxwell)
>>>   Nvidia GeForce Titan X vs. Quadro M6000

Wer mit schwacher Hardware und/oder wenig Grafikspeicher unterwegs ist, wird um SMAA bzw. FXAA als nachträgliche Folter (Postprocessing) kaum herumkommen. Wer dann noch Temporal Filtering aktiviert, bekommt ein niedriger aufgelöstetes und anschließend wieder hochgerechnetes Bild ausgegeben, das zwar etwas matschig ausschaut, aber zumindest die Augen und die Hardware schont. Richtig schön ist das allerdings nicht.

Wer eine Nvidia-Karte besitzt, darf auf TXAA setzen (2×/4×/8×) und damit das Flimmern faktisch gegen Null drücken. Nachteil dieser Aktion: Es wirkt alles zunächst leicht matschig und etwas unscharf. Wie bei jeder Bildretusche kann man aber auch hier mit der richtigen Mischung zum Ziel kommen, indem man TXAA nur auf der minimalen Stufe betreibt und den Schärferegler (nur) soweit aufdreht, bis der Anblick wieder zusagt. Natürlich ist auch hier die beste Hardware gerade gut genug.

Man kann es drehen und wenden wie man will oder einfach nur auf das klassische MSAA (zwei- bis achtfach) setzen – es will sich keine wirklich perfekte Lösung finden lassen. Irgendeinen Pferdefuß gibt es immer. Dann am besten einfach nur SMAA nutzen, womit sich der Kreis wieder schließt.

Schatten und Umgebungsverdeckung

Wo viel Licht ist, gibt es logischerweise auch viel Schatten – und wenn ein neues Spiel erscheint, ist meist auch Gameworks nicht weit. Das kann man sehen wie man will, aber bei Watch Dogs 2 kommen gleich zwei auswählbare Schatten-Features aus der Gameworks-Wundertüte zum Einsatz.

Zum einen stellt man mit HFTS (Hybrid Frustum Traced Shadows) eine Nvidia-exklusive Schattenoption zur Verfügung, die unterschiedlich scharfe/weiche Schattengeometrien wirklichtstreuer miteinander kombinieren soll. In diesen (fast schon Hardware-mordenden) Genuss kommt man allerdings erst ab Maxwell der zweiten Generation (und natürlich auch Pascal).

Doch auch Radeon-Besitzer dürfen mit dem Einsatz von PCSS (Percentage-Closer Soft Shadows) zusehen, wie ihren Karten zusammen mit den Nvidia-Pentants stellenweise einfach die Luft ausgeht. Für diesen Kraftakt erhält man dann zumindest eine exaktere Darstellung der Schatten – vor allem dann, wenn sie unterschiedlich weiche Geometrien besitzen. Das passiert dann auch nicht ganz fehlerfrei, aber es sieht eigentlich recht schön aus.

Wer jedoch nicht gerade versessen darauf ist, zu den ultraorthodoxen Realisten zu konvertieren, ist mit der Ultra-Einstellung bestens bedient. Das sieht immer noch gut aus und manchmal sogar etwas angenehmer, weil nicht allzu arg verwaschen.

HFTS (Nvidia Exclusive)HFTS (Nvidia Exclusive) PCSS (Gameworks)PCSS (Gameworks) UltraUltra

   

HighHigh MediumMedium LowLow

  

Die Qualität der Schattierung im Spiel erfordert natürlich auch eine möglichst naturgetreue Umgebungsverdeckung (Ambient Occlusion), was die Bildausgabe deutlich plastischer und mehrdimensionaler macht. Eine der vom Spiel angebotetenen Optionen sollte man also wie immer aktiviert haben. Watch Dogs 2 gestattet neben eigenen Varianten auch die Umgebungsverdeckung HBAO+, die paritätisch auf AMD- und Nvidia-Karten läuft und für unseren Geschmack etwas zu kräftig zuschlägt. Dann schon lieber SSBC oder HMSSAO, je nach Hardware und Vorliebe des Nutzers.

Originale Texturen und Textur-DLC

Wir haben für diesen Benchmark-Test bewusst auf den DLC mit den noch höher aufgelösten Texturen verzichtet, weil dies einerseits eine Grafikkarte mit mindestens sechs Gigabyte verbautem Speicher vorraussetzt und somit viele Karten ausschließen würde und andererseits bei unserem Ansatz, möglichst viele Karten universell zu testen, zeitlich einfach nicht mehr möglich gewesen wäre.

Die originalen Texturen sind erträglich, wenn auch im Nahfeld etwas verwaschen und einfach nicht knackig genug. Man sollte sich jedoch den DLC wirklich überlegen, wenn man nicht mindesten eine Grafikkarte der oberen Mittelklasse besitzt. Wer sich hiermit den Speicher zuballert, wird später bei den anderen Einstellungen deutliche Abstriche machen müssen.

Aus der Nähe betrachtet, sieht man den Matsch dann leider dochAus der Nähe betrachtet, sieht man den Matsch dann leider doch

Solange man den Textur-DLC nicht nutzt, sind die Textureinstellungen aus den Presets eigentlich optimal gesetzt. Wer trotzdem glaubt, hier noch Reserven zu sehen, darf natürlich gern selbst experimentieren.

Speicherbedarf

Aus der Summe aller Settings ergibt sich am Ende der Speicherbedarf für die Grafikkarte, der quer durch die Settings schon recht oppulent ausfällt. Zieht man zusätzlich zu den Ultra-Einstellungen manuell noch die weiteren Verbesserungen hinzu (Maxed Out), dann landet man in Ultra-HD bereits weit jenseits dessen, was eine GeForce GTX 1080 mit ihren acht Gigabyte Speicher überhaupt bewältigen kann.

Die nachfolgende Tabelle basiert auf der Kalkulation des Spiels, die zwar bei Gegentests mit entsprechenden Tools zunächst etwas hoch erscheint, sich aber schnell relativiert, weil im längeren Spielverlauf der Bedarf sogar stellenweise noch über diese Prognose anwachsen kann. Als Anhaltspunkt dessen, was man seiner Karte zumuten kann (und möchte) reicht es aber allemal:

Zwei gemittelte Benchmarks für optimale Ergebnisse

Wir haben diesmal zwei speziell ausgesuchte Benchmark-Durchläufe erstellt, die zudem auch lang genug sind, um Schwankungen möglichst gut auszugleichen. Bei Open-World-Spielen wie diesem greifen wir auch auf unsere Erfahrungen mit GTA V zurück, wo wir mehrere sehr unterschiedliche Runs genutzt haben. Es ergibt zudem statistisch gesehen Sinn, möglichst lange Runs zu nutzen, um etwaige Schwankungen über das Mittel wieder ausgleichen zu können.

Zunächst nutzen wir einen etwa 1:50 Minuten langen Lauf durchs Gelände. Die Grafiklast ist höher als erwartet und liegt im Schnitt auf dem gleichen Level wie in der Stadt. Allerdings treffen wir hier kaum auf NPCs oder Fahrzeuge, so dass der eher langsame Langstreckenspurt fast exakt reproduzierbar bleibt. Außerdem liegt die CPU-Last deutlich niedriger als in stark bevölkerten und befahrenen Gebieten, so dass hier die Grafikleistung (fast) allein zählt.

Um dennoch abbilden zu können, wie sich die Wechselwirkungen von GPU, Grafiktreiber und CPU auf den Verlauf auswirken, nutzen wir eine rund 1:40 Minuten lange Motorradfahrt. Um möglichst ungehindert durch den Verkehr zu kommen und Kollisionen vorzubeugen, haben wir absichtlich auf ein Auto verzichtet und stattdessen das wendigere Zweirad gewählt. Die CPU-Last ist hier noch einmal deutlich höher als auf der Golden Gate Bridge und es zeigt sich sehr deutlich, welche Grafiktreiber wie gut mit den CPU-Ressourcen klarkommen.

Wir bilden am Schluss einfach einfach ein arithmetisches Mittel aus den jeweiligen Durchschnitts-FPS; bei den Min-FPS zählt im Gegensatz dazu immer nur der geringste der beiden ermittelten Wert. Dieser wurde übrigens ausnahmlos im laufenden Verkehr erzielt. Wir haben im Vorfeld sehr akribisch mehrere verschiedene Routen und Aufzeichnungslängen getest, fanden aber alles unter 1:30 Minuten nicht wirklich representativ und vor allem auch nicht mehr sicher reproduzierbar.

Um uns überflüssige Kartenwechsel zu sparen, haben wir offline mit zwei Spielständen gearbeitet, zwischen denen wir hin- und hergewechselt haben, ohne das Spiel beenden zu müssen. Wir mussten dazu zwar die langatmige Intro zweimal durchspielen, aber der Zeitgewinn hat sich in der Summe trotz des anfänglichen Mehraufwandes gelohnt.

Neue Farbe, neuer Name, neues Glück? Es ist schon ein bisschen her seit AMD die professionellen Grafikkarten Radeon Pro WX 4100, WX 5100 und WX 7100 ankündigte. Dann kam erst mal eine ganze Weile nichts. Mittlerweile sind die Radeon-Pro-Modelle WX 4100 und WX 7100 verfügbar und auch in den Shops aufgetaucht, die Fire Pro WX 5100 hat sich hingegen noch etwas verzögert.

UPDATE 1. Dezember 2016: Mit dem heutigen Updates dieses am 24.11. veröffentlichten Artikels prüfen wir AMDs neue Treiber und das überarbeitete BIOS, die praktisch alle unserer Kritikpunkte adressieren. Ausführliche Infos zum Inhalt dieses Updates, das fast fünf der sechs Seiten dieses Artikel betrifft, findet ihr weiter unten auf dieser Seite.

Die kleinste der drei Grafikkarten, die Radeon Pro WX 4100, besitzt im Gegensatz zu den beiden größeren Karten die Polaris-11-GPU im Vollausbau, was 1024 Shader-Einheiten bedeutet – mehr als das, was die Radeon RX 460 im Consumer-Bereich bietet. Die Performance ist mit maximal 2,4 TFLOPS angegeben und der Speicherausbau beträgt lediglich vier statt acht Gigabyte. Die beiden anderen Karten setzen hingegen auf eine Polaris-10-GPU mit doppelt so viel Speicher.

Weitere interessante Tests und Artikel zum Thema Grafikkarten
>>>   Pascal-Roundup: GeForce GTX 1070 und GeForce GTX 1080 im Vergleich
>>>   Pascal-Roundup #2: Nvidias GeForce GTX 1060 im Vergleich
>>>   Nvidia GeForce GTX Titan X (Pascal, Launch-Artikel)
>>>   Nvidia GeForce GTX 1080 Founders Edition (Launch-Artikel)
>>>   Nvidia GeForce GTX 1070 Founders Edition (Launch-Artikel)
>>>   Nvidia GeForce GTX 1060 Founders Edition (Launch-Artikel)
>>>   Nvidia GeForce GTX 1060 3G (MSI GeForce GTX 1060 Gaming X 3G)
>>>   Nvidia GeForce GTX 1050 und GTX 1050 Ti (Pascal, Launch-Artikel)
>>>   Passiv-Umbau GeForce GTX 1050 Ti (Pascal)
>>>   Effizienzanalyse & Leistungsaufnahme: GeForce GTX 1070/1080 vs. GTX 980 Ti
>>>   AMD Radeon RX 480 (Launch-Artikel)
>>>   AMD Radeon RX 480 im Detail: Leistungsaufnahme, Board-Layout & Normen
>>>   AMD Radeon RX 480: Neuer Treiber entlastet das Mainboard deutlich
>>>   AMD Radeon RX 470 4GB (Polaris, Launch-Artikel)
>>>   AMD Radeon RX 460 4GB (Polaris, Launch-Artikel)
>>>   Maxwell-Roundup: GeForce GTX 970 und GeForce GTX 980 im Vergleich

>>>   How-to-Guide: Grafikkartenkühlung und Wärmeleitpaste optimieren
>>>   AMD FirePro W9100 (Hawaii)
>>>   AMD FirePro W8100 (Hawaii)
>>>   AMD FirePro W4300 (Hawaii)
>>>   AMD FirePro W9000 und W8000 (GCN)
>>>   Nvidia Quadro M6000 (Maxwell)
>>>   Nvidia Quadro M2008 (Maxwell)
>>>   Nvidia GeForce Titan X vs. Quadro M6000

Während die Radeon Pro WX 5100 einen beschnitteten Polaris-Chip mit 1792 Shader-Einheiten besitzt (Ellesmere Pro), was am Ende für maximal 3,9 TFLOPS gut ist, setzt die heute von uns getestete Radeon Pro WX 7100 auf den Vollausbau der Polaris-10-GPU (Ellesmere XT) und verfügt somit über 2304 Shader-Einheiten. Die von AMD aufgerufene UVP wird mittlerweile vom Straßenpreis wie üblich locker unterboten, was sie umso interessanter werden lassen könnte

Die Karte verfügt analog zur Radeon RX 480 – die ja nichts anderes als die Consumer-Schwester ist – über 32 ROPS und 144 TMUs sowie die erwähnten acht Gigabyte GDDR5-Speicher. Dieser taktet jedoch nur mit 1750 MHz, was dann auch die etwas niedrigere Bandbreite erklärt. Für ein Single-Slot-Design, bei dem es bei der Kühlung auf jedes Watt vermeidbare Abwärme ankommt, ist diese Auswahl durchaus nachvollziehbar.

Ansonsten unterscheiden sich die Karten nur in Details, die wir später noch sehr ausfühlich hinterfragen werden. Fakt ist, dass die Radeon Pro WX 7100 auf jeden Fall die sparsamere RX 480 ist und wir sind gespannt, wie gut die Umsetzung am Ende gelungen ist.

Mit der Radeon Pro WX 7100 richtet sich AMD an eine recht große Zielgruppe, zu der auch Entwickler gehören dürften, die für die Erstellung von VR-Inhalten teilweise oder überwiegend auf zertifizierte Hardware setzen (müssen). Für diese Gruppe ist eine 700-Euro-Karte (Straßenpreis) durchaus eine verlockende Offerte.

Doch was wollen wir eigentlich testen und noch genauer gefragt: Gegen wen soll die Fire Pro WX 7100 denn nun eigentlich antreten?

Da wir auch zertifierte Hardware nutzen wollen, die Consumer-Karten bereits beim Programmstart ausschließt, kommen ausschließlich Workstation-Grafikkarten zum Einsatz. Preislich gesehen macht hier ein direkter Vergleich zur Quadro M4000 von Nvidia noch am ehesten Sinn. Dazu packen wir noch die FirePro W7100 und FirePro W7000 als direkte Vorgängerinnen, um den direkten Vergleich zur Performance-Entwicklung ziehen zu können. So sind es am Ende vier Karten, die sich hier beweisen müssen.

UPDATE vom 1.12.16: Umfangreicher Nachtest

Treiber-Probleme und Hot-Fix

Wir haben in der Erstveröffentlichung dieses Artikels mehrere Punkte ansprechen müssen, die noch nicht zu unserer vollsten Zufriedenheit ausfielen.

Das beinhaltete als Erstes ein Problem mit dem Installer des neuen Radeon-Pro-Treibers, der die ganzen neuen WX-Workstation-Karten nicht erkannte und zunächst zwingend eine ältere Karte benötigte, um die Gerätetreiber überhaupt erst einmal auf das System installiert zu bekommen. Dieses Problem wurde nach meheren internen Beta-Versionen, die uns AMDs Treiber-Team in Toronto zur Verfügung stellte, schließlich gelöst.

Desweiteren gab es beispielsweise Abstürze in Solidworks 2016, wenn man FSAA aktivierte. Dieses Problem konnte ebenfalls zusammen mit dem Treiber-Team reproduziert und schnell behoben werden. Hinzuzufügen wäre auch, dass man mittlerweile den von uns gemeldeten Bug in Creo 3.0 (M90, Antialisiasing aktiv) komplett behoben hat, der zu Programmabstürzen führte.

Zusätzlich gab ein handfestes Treiberproblem mit dem Intel Xeon E5-2640v4 auf einem X99-Workstation-Mainboard, wo im Idle der Speicher nicht mehr ordnungsgemäß heruntertaktete, so dass auch die Leistungsaufnahme mit 34 Watt überdurchschnittlich hoch ausfiel. Auch dies wurde behoben und mit einer erneuten Messung im Artikel ergänzend dokumentiert.

AMD hat diesen Beta-Treiber mittlerweile online gestellt und wird zeitnah auch noch einmal einen WHQL-Treiber mit diesen Änderungen nachreichen.

Probleme beim Vorserien-BIOS

Hier kommen die thermischen Probleme zum Tragen, die wir in der Erstveröffentlichung unter Volllast dokumentieren konnten. Da das an uns verschickte Muster laut AMD aus der Vorserie stammen soll, war die Lüfterkurve noch viel zu optimistisch bemessen und die Drehzahlen definitiv zu niedrig. Wir haben AMD bereits vor der Publikation des Originalartikels über unsere Messungen informiert und auf eine nötige Korrektur der Lüfterkurve hingewiesen.

Bei einem Vergleich zum jetzt verwendeten Produktions-BIOS, das uns AMD gestern zur Verfügung gestellt hat, konnten wir eine deutlich verschärfte Lüfterkurve messen, die am Ende die Karte stolze acht Kelvin kühler laufen ließ. Auch diese erfreuliche Entwicklung haben wir im Vorher-Nachher-Stil mit in den Artikel eingepflegt und sowohl die Lüfterkurven als auch die neuen Infrarot-Messungen ergänzt.

Bevor wir jedoch mit Test und Nachtest beginnen, haben wir noch alle relavanten Daten der drei neuen Radeon-Pro-Karten in tabellarischer Form zusammengefasst:


Radeon Pro
WX 4100
Radeon Pro
WX 5100
Radeon Pro
WX 7100
GPU Polaris 11 Polaris 10 Polaris 10
Shader-Einheiten 1024 1792 2304
GPU-Takt
Boost / Typisch
1201 MHz/
1125 MHz
1086 MHz /
713 MHz
1243 MHz /
1188 MHz
Rechenleistung (FP32) 2,4 TFLOPS 3,9 TFLOPS 5,7 TFLOPS
Verhältnis SP/DP
16:1 16:1 16:1
Speicherinterface 128 Bit 256 Bit 256 Bit
Speicherbandbreite
/ Datenrate
5 GBit/s /
96 GByte/s
5 GBit/s /
160 GByte/s
7 GBit/s /
224 GByte/s
Speicherausbau 4 GByte GDDR5 8 GByte GDDR5 8 GByte GDDR5
Framelock/Genlock
Nein Nein Ja
Stereo 3D
Output (3-Pin)
Nein Ja
(mit Bracket)
Ja
(mit Bracket)
Display-Ausgänge 4x mDP 1.4 4× DP 1.4 4× DP 1.4
5K-Support
@60 HZ
1x 5K Monitor
(Einfach- oder
Dual-Kabel)
1x Einfach-Kabel 5K-Monitor
oder
2x Dual-Kabel 5K-Monitor
Board Power < 50 Watt < 75 Watt < 130 Watt
Straßenpreis
ca. 320 Euro ca. 500 Euro ca. 699 Euro

Testsystem und Setup

Um möglichst realitätsnah zu bleiben, nutzen wir schon wie bei den vorangegangenen Launches unsere in Kooperation mit der Hamburger Firma Happyware entwickelte Crossover-Workstation und verwenden in dieser Konfiguration auch nur reine Workstation-Komponenten – namentlich einen Intel Xeon E5-2640V4 und ein sehr gut mit Arbeitsspeicher bestücktes X99A Workstation-Mainboard von MSI.

Die hier erzielten Ergebnisse sind – schon aufgrund der anderen Plattform und der neueren Treiber – nicht mehr mit den Werten älterer Artikel vergleichbar. Wir möchten außerdem darauf verweisen, dass sehr viele professionelle Programme zertifizierte Hardware und natürlich auch Workstation-Grafikkarten voraussetzen. Allerdings setzen mittlerweile viele Firmen – darunter auch Autodesk – auf DirectX anstelle von OpenGL, so dass es durchaus Applikationen gibt, in denen Consumer-Technik deutlich preiswerter eingesetzt werden könnte.

Tom’s Hardware Crossover Workstation
Testsystem:
Intel Xeon E5-2640V4
8x 8 GByte Kingston DDR4-2400 registered ECC
MSI X99A Workstation (MS-7A54)
Intel SSDSC2KW010X6
Seagate Constellation Server HDD
Windows 10 Enterprise (alle Updates)
Treiber:
Radeon Pro 16.Q4 WHQL und 16.Q4.1 Beta
Quadro ODE 372.95 WHQL (ODE drivers)
Tom’s Hardware Crossover Workstation
Testsystem:
Intel Xeon E5-2640V4
8x 8 GByte Kingston DDR4-2400 registered ECC
MSI X99A Workstation (MS-7A54)
Intel SSDSC2KW010X6
Seagate Constellation Server HDD
Windows 10 Enterprise (alle Updates)
Treiber:
Radeon Pro 16.40 (16.60 Beta for SW 2016)
Quadro ODE 372.95 WHQL (ODE drivers)

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen