News AMD veröffentlicht weitere Benchmarkergebnisse von AMD RADEON VII

Mitglied seit
Aug 27, 2018
Beiträge
12
Punkte
1
#3
Hätten sie doch nur die 4 Recheneinheiten mehr drin gelassen.
Warum fehlen die eigendlich?
256 CUDAs und 16 TUs weniger is schließlich nen haufen FPS auf dem Level.

Bleibt aber immer noch das größte Manko: TDP.
AMD schafft das irgend wie einfach nicht :(. Egal wie viel günstiger sie sein mögen, selbst bei einer Nutzungsdauer von nur einem Jahr muß man schlicht die zusätzlichen Betriebskosten mit einrechnen bei dem Unterschied zu NVidia.
GTX1080 180w zu Vega 7 (vermutet laut TH) 295w macht schlappe 115w mehr bei leicht geringerer / vergleichbarer Leistung.

Mag sein, dass ich da bissel über reagiere (oder sogar klare Minderheit bin in der Hinsicht).
 
Zuletzt bearbeitet :
Mitglied seit
Dez 2, 2018
Beiträge
40
Punkte
7
#5
Ich werde nicht schlau aus den Daten vom AMD.
Die Karte wird im all over unter der 2080 bleiben das steht fest denke ich.
Eine 2080 in BF5 zu schlagen ist kein Wunderwerk für Vega, in WQHD catcht man die Karten bereits mit einer guten V64 @OC.
Den Vergleich zu FC5 von AMD kann ich auch nicht ganz nachvollziehen.

Die ASIC Power würde mich interessieren von der Karte und wie diese zur TBP steht. Auch das OC Potential wird interessant.
Eine V56 braucht rund 20 Watt weniger TBP bei gleicher ASIC und selben Spannungen wie eine V64 aufgrund der geringeren Shaderanzahl.
Ein generelles reduzieren der Spannung bei der VII würde bereits die TBP senken, da diese auch bei gleicher ASIC Power sinkt bei niedrigeren Spannungen. Da könnte AMD also etwas raus holen. Ein Vergleich ist aufgrund der verqueren Daten von AMD aber nicht möglich, da diese nicht genau genug spezifiziert sind.

Bringt es eigetnlich was den Speicher zu übertakten wenn die Bandbreite bereits dermaßen üppig ausfällt?
 

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
1.591
Punkte
113
Alter
54
Standort
Labor
#6
Nein. Speicher-OC sollte nichts bringen. Und für den Rest: Tests abwarten. Sampling ist in weniger als 4 Wochen.
 
Mitglied seit
Aug 27, 2018
Beiträge
12
Punkte
1
#7
https://www.3dcenter.org/news/amd-e...rformance-von-radeon-rx-vega-64-zu-radeon-vii
Genau genommen müßte ich die 1080 TI nemen. Auf garkeinen fall eine der 2080er, denen die VII nicht das Wasser reichen kann.

Da sieht es nen bissel besser im direkten Vergleich aus mit 250w zu 295w bei 6% weniger Leistung (FPS).
Aber ich bin mir sicher, Du/Ihr werdet da nen coolen Test machen mit schicken Tabellen von 1070 bis RTX2080fe und dann auch eine mit Watt pro FPS und Watt pro €/$ ;). Und nem Graphen mit Idel, Desktop, Gaming, Tortour Loob *g*. Vieleicht sogar "kW Mehrkosten bei 2 Stunden BF2 dauer zocken" ;).
 
Zuletzt bearbeitet :
Mitglied seit
Nov 16, 2018
Beiträge
25
Punkte
2
#8
Findet es noch jemand lustig, dass amd auf einen Intel Prozessor zurückgreift für die benchmarks? :D spricht irgendwie nicht für die gaming Performance von ryzen...
 
Mitglied seit
Okt 12, 2018
Beiträge
192
Punkte
28
Standort
Sanem, Luxemburg
#9
Zur Bulldozer Zeit habe ich dies noch Nachvollziehen können, jetzt nicht mehr.

Allerdings, kann man nicht abstreiten dass die Gaming-Leitung bei Intel noch immer besser ist und wenn ich das beste aus der GPU rausholen möchte, darf die CPU da nur so wenig wie möglich reinpfuschen.

Wenn sie nun für den Vergleich Vega64 vs Vega7 eine Intel CPU Nehmen ist das gut, weil dann die Unterschiede grösser werden.

Wenn sie nun den Vergleich Vega 7 vs RTX2080 anstreben, wäre eine Ryzen CPU sogar günstiger, da die Werte näher zusammenrücken würden.

Ja auch AMD betreibt bei ihren Vorstellungen reines Cherry Picking. Dem 0815 Käufer fällt dies nicht auf, die Fanboys nutzen es zum Haten... nur wer sich objektiv dafür interessiert wird solche kleinigkeiten bemerken und in seiner eigenen Bewertung/Meinung mit einfliessen lassen
 
Mitglied seit
Dez 2, 2018
Beiträge
121
Punkte
27
#10
Wer würde nicht auf Benchmarks zurückgreifen, in denen derjenige gut da steht? Alles andere wäre ja eher suboptimal zum Verkauf. Das dürfte relativ unabhängig von der Firma sein.

Edit: Genau deswegen wird das Zeug ja getestet. Leider scheint der ein oder andere Tester/Influencer die Objektivität zuhause vergessen zu haben. Daher schätze ich tomshw.de sehr, da die Herren hier anscheinend keinen Hersteller bevorzugen.

Edit2: Tippfehler korrigiert
 
Zuletzt bearbeitet :

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
1.591
Punkte
113
Alter
54
Standort
Labor
#11
Ich gehe mal davon aus, dass AMD die Benchmarks nicht selbst gemacht hat. Ein alter 7700K @Stock ist ja nun nichts, wovor ein 2700X Angst haben müsste.
 
Mitglied seit
Aug 24, 2018
Beiträge
209
Punkte
27
Standort
Zürich
#13
Hätten sie doch nur die 4 Recheneinheiten mehr drin gelassen.
Warum fehlen die eigendlich?
256 CUDAs und 16 TUs weniger is schließlich nen haufen FPS auf dem Level.

Bleibt aber immer noch das größte Manko: TDP.
AMD schafft das irgend wie einfach nicht :(. Egal wie viel günstiger sie sein mögen, selbst bei einer Nutzungsdauer von nur einem Jahr muß man schlicht die zusätzlichen Betriebskosten mit einrechnen bei dem Unterschied zu NVidia.
GTX1080 180w zu Vega 7 (vermutet laut TH) 295w macht schlappe 115w mehr bei leicht geringerer / vergleichbarer Leistung.

Mag sein, dass ich da bissel über reagiere (oder sogar klare Minderheit bin in der Hinsicht).
bei 10h spielzeit in der woche sind das mehrkosten von ca. 8-9€ im jahr, je nach stomanbieter...
 
Mitglied seit
Jul 23, 2018
Beiträge
5
Punkte
1
#15
Findet es noch jemand lustig, dass amd auf einen Intel Prozessor zurückgreift für die benchmarks?
Ich gehe mal davon aus, dass AMD die Benchmarks nicht selbst gemacht hat. Ein alter 7700K @Stock ist ja nun nichts, wovor ein 2700X Angst haben müsste.
Dass sie einen 7700K verwendet haben, hat mich dabei am meisten stutzig gemacht. Aber das klingt nach einer plausibelen Erklärung, danke. Also mal wieder: auf sampling warten.
Schaut doch mal die die ReleaseNotes der Treiber an:
https://www.amd.com/en/support/kb/release-notes/rn-rad-win-19-1-1
[...]Testing conducted by AMD Performance Labs as of January 7th, 2019 on the 8GB Radeon™ RX 580, on a test system comprising of Intel i7 7700k CPU (4.2 GHz), 16GB DDR4-3000 Mhz system memory, and Windows 10 x64.[...]
Das ist das offizielle Testsystem von AMD für die Grafiktreiber. Das System ist sicher schon älter, repräsentiert allerdings vermutlich einen guten Durchschnitt durch die Systeme der Nutzer, was ja auch für die Kompatibilitätstests sinnvoll ist...

Bin jedenfalls schon gespannt auf eure Tests. Interessant fände ich auch Tests bezüglich GPGPU (Deep-Learning und Double-Precision), da ist die MI50 ja stark. Ist die Frage, ob AMD die Features deaktiviert hat, oder nicht...
 
Mitglied seit
Dez 2, 2018
Beiträge
40
Punkte
7
#16
@Oberst: Korrekt.
Das System wird in jedem Benchmark von AMD verwendet, das ist schlicht deren Testrig. Es findet sich sowohl in den Benchmarks für den Treiber, als auch z.B. in der Folie zu Forza Horizon 4.

Das ist auch nicht peinlich, wie manche das hier sehen sondern eher eine Vorsichtsmaßnahme um unnötigen Debatten einiger Fanboys direkt entgegen zu wirken. Man würde sonst AMD gerne Bestcase für beides vorwerfen und der eigentliche Benchmark zur GraKa würde damit entwertet.

Weiß doch jeder hier wie die Fanboys sich auf sowas stürzen(nach dem Motto IPC Leistung, Karte XY wird künstlich ausgebremst in FHD etc.)
 
Mitglied seit
Jul 22, 2018
Beiträge
262
Punkte
28
#17
Ich finde nur die Stromverbrauchsdiaspora lustig. Ist doch vollkommen egal was des Teil verkonsumiert! Leistung braucht Power. Fertig. Wer sich des nitt leisten kann, kann sich solche Hardware auch nicht leisten. Punkt. Nur um so was zu schreiben um des Schreibens Willen, na ja...
Sorry wenn ich da arrogant wirke aber die Stromspardebatte ist vollkommen für den Allerwertesten. Wenn die Karten jetzt 1KW ziehen würden, ok aber so...
 
Mitglied seit
Jul 22, 2018
Beiträge
926
Punkte
42
#18
Es soll ja tatsächlich Leute geben, die sich das nicht leisten wollen, auch wenn sie das könnten. So wie es Leute gibt, die nicht denken, dass das Verantwortungsbewußtsein vor der eigenen Stirn aufhört und hinterm Arsch wieder anfängt.
Und um dich zu beruhigen: du wirst nicht arrogant. Du bist es.
 
Mitglied seit
Jul 22, 2018
Beiträge
262
Punkte
28
#19
Danke Dir. Aber lieber aufrichtige Arroganz als falsche Bescheidenheit.
Wenn es aber Leute sind, die das nicht möchten, soviel Watt usw. Die kaufen das dann auch nicht, egal aus welchem Lager. Und das rot z.Zt. etwas mehr Steckdosenbedarf hat, wen juckt es? Wie Leistungsfähigkeit die Teile sind, haben die Miner bewiesen. Und ich bin jetzt mal Schelm und erwähne die 16GB HBM, da laufen auch größere Hashs...
 
Mitglied seit
Aug 24, 2018
Beiträge
209
Punkte
27
Standort
Zürich
#20
Es soll ja tatsächlich Leute geben, die sich das nicht leisten wollen, auch wenn sie das könnten. So wie es Leute gibt, die nicht denken, dass das Verantwortungsbewußtsein vor der eigenen Stirn aufhört und hinterm Arsch wieder anfängt.
Und um dich zu beruhigen: du wirst nicht arrogant. Du bist es.
weil die 8€(=60W mehrverbrauch der VII zur 2080FE) pro jahr bei durchschnittlicher nutzung(=10h volllast auf der graka / woche) auch irgendwen interessieren :rolleyes: leise sind die 300W karten auch wenn sie nen gescheiten kühler haben, sehe ich ja an meiner 1080Ti, die aorus hat mit einen der besten luftkühler der serienmässig verbaut wurde, die kann leise und kühl genug, genau so wies die nitros auf AMD basis können.

und wem das alles nicht genug ist, der kauft nen morpheus oder ne wakü für die graka, fertig ist die geschichte.

btw. und trotzdem mein system nen schluckspecht ist, verbrauche ich selbst wenn die kiste 24/7 rennt weniger als der durchschnittliche haushalt, weil alle meine leutmittel in der wohnung zusammen keine 100W brauchen... normal wäre 1200W(60W/pro leuchtmittel) wenns keine LED leuchtmittel wären. :p
 
Oben Unten