Der Tag danach: Vega VII ist angekommen, Jensen lästert, Lisa kontert und wir kommentieren | Editorial

Ob Jen-Hsun „Jensen“ Huang (CEO Nvidia) nun wirklich mit Lisa Su (CEO AMD) verwandt und so etwas wie ein Art (Groß-) Onkel ist, wie zwar oft und gern kolportiert, von Ihr aber stets bestritten wird  („It’s not true“), oder auch nicht – Vega VII sorgt nach dem gestrigen Launch kräftig für Wirbel. Optisch, mental und verbal. Egal ob nun die Medien, die Besucher in den Foren oder die Beteiligten der Firmen selbst.

Aufmerksamkeit kann vor allem AMD ja immer gut gebrauchen und wenn es vom vermeintlichen Onkel ist. Glaubt man nämlich der Darstellung von PCWorld, dann hat dem Nvidia Chef irgendetwas bei der Ankündigung mächtig quergeschlagen. War es der Umstand, dass Lisa Su ebenfalls (rein zufällig?) in einer Lederjacke auftrat (erstmals) und diese zudem noch kurzärmlig genug ausfiel, dass man auch die Bühne nicht, wie beim vermeintlichen Onkel sonst üblich, erst einmal schockfrosten musste? Oder konnte Vega VII doch irgendwie punkten?

Doch lassen wir nächst einmal die Protagonisten zu Wort kommen. Der eine angriffslustig-angesäuert, die andere kürzer angebunden als sonst gewohnt.

 

Es ist „unterwältigend“!

„Es ist unterwältigend“, resümierte Huang laut PCWorld recht abschätzig, als er gefragt wurde, was er von AMDs neuer Radeon VII halte, die 16 GB HBM2-Speicher, 1 TB Bandbreite, 60 Grafikkerne aufweist und auf einem neuen 7nm-Prozess basiert.

Die Vorstellung ist lausig und es gibt nichts Neues„, sagte Huang weiter. “ Es gibt kein Raytracing, keine KI. Es ist 7nm mit HBM-Speicher und etwas, das mit einer 2080 kaum Schritt hält. Und wenn wir DLSS einschalten, werden wir sie (die Karte) vernichten.“

Auf die nun bevorstehende Öffnung von G-Sync äußerte sich Huang auch ungewohnt grantig. „Das (FreeSync) hat sich nie bewährt. Wie Sie wissen, haben wir den Bereich der adaptiven Synchronisation erfunden. Die Wahrheit ist, dass die meisten FreeSync-Monitore nicht funktionieren. Sie funktionieren nicht einmal mit den Grafikkarten von AMD.

Gut, Nvidia verfügt über Daten und Messergebnisse des eigenen Labors, die besagen sollen, dass es aus Sicht von Nvidia durchaus handfeste Probleme gibt. Man testete laut Huang 400 FreeSync-Panels und fand am Ende nur ganze 12, die kompatibel genug seien, um G-Sync automatisch einschalten zu können. Bei den anderen muss es der Anwender manuell tun. Immer mit dem Risiko, dass vielleicht mögliche und unerwarteter Fehler auftreten könnten.

Im gestrigen Artikel „Alles über die Kompatibilität zwischen G-Sync und Adaptive Sync, VRR und FreeSync“ bin ich ja schon näher auf die Details zu dieser Öffnung und die möglichen Probleme eingegangen. Allerdings sollte man die sehr abwertende Haltung durchaus auch kritisch hinterfragen. Treiber oder Getriebener? Die Zeit wird es zeigen müssen. Oder die Monitore.

Wir werden jede einzelne Karte gegen jeden einzelnen Monitor gegen jedes einzelne Spiel testen und wenn es nicht funktioniert, werden wir sagen, dass es nicht funktioniert. Und wenn doch, werden wir es funktionieren lassen… Wir glauben, dass man es testen muss, um zu versprechen, dass es funktioniert„, sagte Huang. „Und wenig überraschend, funktionieren die meisten von ihnen nicht.

Als fast schon kleine Nebenanekdote antwortete Huang noch auf die Frage, was er denn so von Intels neuem Push in die Grafikkarten-Welt halte, dass Intels Team im Grunde genommen eigentlich jemand anderem gehören würde.  „Intels Grafik-Team ist im Grunde genommen doch AMD, oder?“ fragte Huang schnippisch. „Ich versuche, das Grafik-Team von AMD zu verstehen.

Nun ja, irgendwer wird ja vielleicht auch irgendwann irgendwen und irgendetwas verstehen. Hoffentlich beim Launch. Und was sagt AMD eigentlich dazu? Eher etwas schmallippig erwiderte Lisa Sue „Ich würde mal vermuten, dass er sie (die Radeon VII) noch nicht gesehen hat.“ Mehr wollte sie dazu auch nicht mehr ausführen. Auch wenn man davon ausgehen darf, dass kein Hersteller seine Geheimnisse vollumfänglich verstecken kann.

 

Belastbare Fakten stehen bis zum 07.02.2019 noch aus

Gut, Nvidias CEO ist jetzt definitiv keiner, der selbst zum Stehen noch 10 Meter Anlauf bräuchte, sondern für gewöhnlich eher ein Protagonist zelebrierter Selbstkontrolle. War es nun die Erleichterung über das Gehörte oder doch ein wachsender Druck, das den sonst so (in der Öffentlichkeit) eher abwägend auftretenden CEO zu solchen Worten verleitet hat? Man kann nur spekulieren, aber diese Gangart ist neu und muss einem definitiv auch nicht gefallen.

Vega VII ist, so wie man sie gestern präsentiert hat, keine wirklich neue Grafikkarte, sondern eigentlich mit der Radeon Instinct MI50 eine KI-Karte im Consumer-Gewand (die wiederum eine abgespeckte Version der MI60 ist). So gesehen kann also Nvidia durchaus recht genau spekulieren, was diese Karte unter Umständen draufhaben könnte (oder eben auch nicht). So richtig geheim ist das alles also schon eine Weile nicht mehr und AMD musste am Ende auch gar nicht so viel an der MI50 ändern.

Aber nun einfach alles mit „unterwältigend“ abzutun, ist eine Arroganz, die man sich bei über 50% Verlust des Aktienwertes des eigenen Unternehmen erst einmal leisten können (oder wollen) muss. Ich gebe zu, ich hatte wohl etwas mehr erwartet, aber ohne echte Tests sind eh alle Aussagen auf solchen Präsentationen mit Vorsicht zu genießen. Mit mehr meine ich übrigens belastbare Details. Die Leistung, so sie denn hinkommt, geht schon in Ordnung. Zumal die Vega VII auch nicht den Vollausbau repräsentiert.

 

Was unterscheidet Vega10 von Vega VII?

Die technischen Daten ähneln  denen der Vega-10-GPU, aber eben auch nur oberflächlich. Die Radeon Instinct MI60 verfügt z.B. als Vollausbau über vier Raster-Einheiten, 4096 Shader-Einheiten in insgesamt 64 Compute Units (CUs) und 64 ROPs. Die MI50 und die Vega VII kommen nur mit 16 statt 32 GByte HBM2-Speicher zum Käufer und bieten noch 3840 Shader in 60 CUs. Die von Lisa Su angekündigten 1,8 GHz Maximaltakt passen ebenfalls zur Radeon Instinct mit deren 13,2 Milliarden Transistoren auf 331 mm² Chipfläche.

Der Rest ist etwas nachweihnachtlicher Spekulatius. Zumindest, was die Details von Vega VII angeht. Die neuen GPUs profitieren gegenüber Vega10 erst einmal von der Verdopplung der Transferleitungen zur Speicherschnittstelle, die nun bei der MI60 über satte 4096 Datenleitungen bis zu vier HBM2-Chips (mit maximal 32 GByte) anbinden kann. Der HBM2-Speichertakt wurde zudem auf 1 GHz angehoben, so dass wir damit genau bei dem spöttisch erwähnten „einen Terabyte pro Sekunde“ liegt.

Die Radeon Instinct besitzt auch eine höhere Gleitkommaleistung mit doppelter Genauigkeit (FP64), die jetzt der halben FP32-Geschwindigkeit entspricht. Die ECC-Funktionalität ist hingegen für Vega VII natürlich nicht von Interesse, aber die Eckdaten zeigen sehr wohl, dass es nicht nur eine geshrinkte 1:1 Kopie von Vega10 ist. Dazu kommen PCI-Express 4.0 und weitere Details, die die Öffentlichkeit wohl auch bald erfahren wird.

Man kann auch eine GeForce RTX 2080 locker an die 300-Watt-Grenze prügeln (habe ich heute übrigens mehrmals gemacht) und falls Vega VII in etwa gleich schnell performen könnte, hätte eine zur „Vega VII XTX“ geadelte MI60 wohl auch (rein spekulativ) gegen eine GeForce RTX 2080 Ti noch eine kleine Chance, zumindest deren Rücklichter frech abzulecken. Doch an genau dieser Stelle wird AMD später kaum Handlungsspielraum beim Preis haben, denn HBM2 ist und bleibt teuer und selten.

Ich selbst sehe Vega VII eher als Lebenszeichen und das Andienen an Analysten und die Kapitalgeber, was durchaus auch notwendig ist. Die breite Masse wird wohl am Ende eine andere Karte kaufen, egal wie diese dann heißen und von wem auch immer sie kommen wird. Aber als kaufbares Ausrufezeichen wird sicher auch Vega VII Käufer finden. Egal ob nun Edel-Gamer oder Content Creator.

So gesehen gehe ich mit Jensen Huang konform, dass es nichts Neues war. Das war es im November bei der Vorstellung der Radeon Instinct. Nur finde ich es dann schon etwas deplatziert, sich so abfällig zu äußern, denn wir erinnern uns auch: die RTX 2000er Serie ist eine für Consumer abgespeckte RTX Quadro und war zum Launch alles andere als sensationell neu. Das war sie in Vancouver zur Siggraph und nicht in Köln auf der Gamescom. Schon vergessen?

 


Kommentare (107)

  • SKYNET schrieb am
    gibt dieverse andere games wos nicht anders ist ;) test schon online?
  • Igor Wallossek schrieb am
    Ich finde das Wort "Speicherkrüppel" etwas übertrieben. Morgen gibt es mal zur Abwechslung wieder einen 6-seitigen Spieletest und Du darfst auch sicher sein, dass wir beim LOD genau hingesehen haben. Die Speicherbelegung der 2060 und der 2080 Ti war bei identischen Settings ebenfalls gleich hoch. Für mich sind CoD und FF allerdings auch zwei schöne Beispiele, wie man Ressourcen sinnfrei verschwenden kann, nur weil das Optimieren Zeit und Geld kostet. :D Über den Preis der kleineren Karten zu streiten, wäre übrigens ein komplett anderes Thema. AMD muss auf der RX 590 8GB verbauen, denn der Versuch, Karten mit 4 GB zu verkaufen, ist bei der RX 480 gleich am Anfang gescheitert. Und 6GB gehen nicht. Würde es gehen, sähe auch hier wohl alles etwas anders aus. ;)
  • SKYNET schrieb am
    Igor Wallossek hat gesagt
    Ich bitte aber auch zu bedenken, dass oft genug Zeug im Voraus geladen wird, das gar nicht benötigt wird, aber es vielleicht könnte. D.h. viele Spiele schaufeln den Speicher auch zu, wenn er da ist. Ob es zur aktuellen Szene gehört oder nicht. Black Ops ist so ein Kandidat, der auf einer 24 GB Karte auch schon mal 14 GB in UHD reserviert. Was da dann drin ist - keine Ahnung. :D
    dann vergleich mal die BQ bei den speicherkrüppeln und den karten die genug haben... bei den speicher krüppeln wird schön am LOD gedreht, erst wenn das nicht mehr langt, ruckelts ;)
  • RX Vega_1975 schrieb am
    https://m.hardocp.com/article/2019/01/14/amd_radeon_vii_interview_scott_herkelman/
  • scully1234 schrieb am
    modena.ch hat gesagt
    Apple braucht die ersten 7NM zum grössten Teil, dazu Qualcomm und Huawei. Dann kommt AMD mit Zen 2 (Ryzen, Epyc, Threatripper), Vega VII und die Instrinct Karten
    da ist wo so einiges an dir vorbei gegangen wie es scheint http://www.pcgameshardware.de/CPU-C...igung-TSMC-Auslastung-AMD-Zen-2-Navi-1270855/ Und dann kommt der der bestellt hat, u zudem ist Nvidia nach Apple einer der Premiumkunden ,mit langjähriger Konstanz bei der Waferabnahme bei TSMC ,
    NVIDIA describes that as a variant of TSMC's 12-nanometer technology (which itself is an enhancement of the company's 16-nanometer technology) customized specifically for NVIDIA's use
    sowas haben bisher nur Apple u Nvidia bekommen von TSMC AMD die da vorher mit Global Foundries gehamburget haben ,stehen da hinten an wenn es nötig wird

Ebenfalls interessant...