Monat: September 2012

Anlass für den heutigen Test waren unser Roundup zur GTX 660 Ti (7 x GTX 660 Ti – Roundup und Bandbreitenanalyse), die darauf folgenden Reaktionen unserer Leser, sowie das Feedback durch beteiligte Hersteller. Konkret für Aufsehen sorgten in diesem Test der überdurchschnittlich hohe Boost-Takt der MSI GTX 660 Ti Power Edition und der Umstand, dass diese sehr hohen Taktraten selbst unter Last auch dann noch gehalten werden konnten, wenn alle anderen (zum Teil viel höher getakteten Karten) bereits die Segel streichen mussten. Wunder der Technik oder doch nur irgendein Trick? So ganz von allein kann ja ein derartig großer Unterschied kaum zustande kommen, so dass man bereits seit einiger Zeit Gerüchten nachhängt, das eine oder andere könnte dabei nicht mit rechten Dingen zugehen. Ganz so einfach wollten wir uns es aber nicht machen und sind den Dingen einmal auf den Grund gegangen. Aus genau diesem Grund wollen wir auch eine wichtige Vorbemerkung voranstellen, um einerseits im Vorfeld mögliche Emotionen einzubremsen und andererseits auch nicht in Richtung Boulevard abzudriften.

Die von uns getesteten Karten haben im Testsystem bis auf einige Ausnahmen, auf die wir im Artikel genauer eingehen werden, ohne weitere Probleme funktioniert. Sie haben alle Stresstests und Dauerlast-Durchläufe gemeistert und weder Grafikfehler noch sonstige Ausfälle verursacht. Wir halten es aufgrund des herausgefundenen und von mehreren unabhängigen Beteiligten bestätigten Fehlerbildes jedoch für absolut wichtig, diese Informationen nicht zu deckeln, sondern zu veröffentlichen. Wir haben MSI als betroffenen Hersteller informiert, die notwendigen Informationen übergeben und eine Stellungnahme abgewartet, bevor den vorliegenden  Artikel heute veröffentlicht haben.

Das Fazit, die Folgen und die Bewertung stellen wir bewusst ans Ende dieses Artikels bzw. ziehen an den betreffenden Stellen ein erklärendes Zwischenfazit, denn das, was wir am Ende herausfanden, muss man wirklich etwas tiefgreifender erklären, ohne ins Fachchinesisch zu verfallen.

1080. Diese Zahl bestimmt aktuell den Displaymarkt, egal ob es sich um den Schreibtisch oder das Wohnzimmer handelt. Wer heute einen Fernseher kauft, wird sich kaum mit weniger als 1080p zufrieden geben, und Monitorkäufer bekommen dank stetig fallender Preise inzwischen bereits ein sehr anständiges 23“-Display mit 1920×1080 Bildpunkten für deutlich unter 200 Euro.

Bei den Inhalten sieht es nicht anders aus, denn der Kunde wünscht sich knackig scharfe Filme, egal ob auf Blu-ray oder per YouTube oder andere Streaming-Angebot. Im Wohnzimmer bilden oft Konsolen die Schnittmenge, und sowohl Sonys Playstation 3 als auch Microsofts Xbox 360 können FullHD ausgeben. Selbst die kleine Box mit Namen AppleTV gibt 1080p Material aus. Nachteil an den Konsolen und reinen Mediaplayern: Man kettet sich oft an eine Welt, und manche Spiele sind einfach nicht verfügbar.

HTPCs sind die flexiblen Wandler zwischen den Welten: Sie können, richtig zusammengestellt, hervorragend Medien jeglicher Art wiedergeben und taugen gleichzeitig zum Spielen – auch bei 1920×1080. Leise sind diese Unterhaltungskistchen meist auch, denn wer will schon als Soundtrack den rauschenden Lüfter hören? Dafür muss man aber auch Abstriche hinnehmen, denn die volle Grafikpower einer High-End-Karte will gekühlt werden, und das geht in einem kleinen und leisen Gehäuse schlechterdings nicht. Stattdessen steckt idealerweise eine passiv gekühlte Einsteiger- bis Midrange-Karte im System.

Oder man verlässt sich gleich auf die zunehmend leistungsfähige integrierte Grafikeinheit moderner CPUs, womit man auf einen Schlag das Platz- und das Lüfterproblem löst. Außerdem hat man so auch gleich die Fähigkeiten mit an Bord, Filme recht schnell in andere Formate zu konvertieren oder einfach einzudampfen. OpenCL spielt ebenfalls eine immer wichtigere Rolle, und die integrierten GPUs von Intel und AMD sind dafür gerüstet. Damit stellt sich aber die nächste Frage: Sind aktuelle integrierte Grafiklösungen überhaupt in der Lage, Spiele bei der besagten FullHD-Auflösung von 1920×1080 darzustellen? Und damit meinen wir natürlich richtige, aktuelle 3D-Spiele, nicht Mahjong oder Bejeweled.

AMDs Llano-Plattform war schon vielversprechend und wies in die richtige Richtung, wie wir in unserem Artikel AMDs A8-3850 im Test: Llano mischt die Einsteigerklasse auf feststellten, doch zu oft reichte die Geschwindigkeit immer noch nicht für Mainstream-Spiele. In unserer exklusiven Vorschau auf die kommende Trinity-Generation Trinity auf dem Desktop: Vorab-Test von AMDs A10-5800K, A8-5600K und A6-5400K konnten wir AMDs neuer integrierte GPU einen deutlichen Fortschritt attestieren, der für weitgehende Spielbarkeit sorgte – wenn auch nach wie vor mit verminderten Detaileinstellungen.

Im Folgeartikel Trinity auf dem Desktop, Teil II: Vergleich mit A8-3870K und Core i3 erweiterten wir das Testfeld noch um Intel-CPUs mit der integrierten HD Graphics 2000 und 3000, die von ihren AMD-Pendants hoffnungslos deklassiert wurden. Die Sandy-Bridge-Grafik ist also offensichtlich nicht wirklich fürs Spielen ausgelegt, zumindest bei den Auflösungen und Qualitätsstufen, die wir noch als ausreichend ansahen. Zu dem Zeitpunkt hatte Intel leider noch keine CPUs im gleichen Preissegment im Angebot, die schon mit HD Graphics 4000 oder 2500 aufwarten konnten, weshalb wir uns noch kein Bild von der Gaming-Tauglichkeit dieser Ivy-Bridge-CPUs machen konnten. Inzwischen ist aber auch die Core-i3-Familie mit Ivy-Bridge-Architektur verfügbar, die bereits die neueren Grafikeinheiten mitbringt.

Da nun also AMD und Intel beide mit neuen und stärkeren iGPUs antreten, kommen wir zurück zur Anfangs gestellten Frage: Kann man nun endlich auch ohne eine zusätzliche Grafikkarte bei 1920×1080 spielen, egal ob am Desktop oder im Wohnzimmer?

Welcher Chip darf’s denn sein?

Dass man mit einer gesteckten Grafikkarte hervorragende Gaming-Performance bei einer 1080-Auflösung erreicht, dürfte wohl jedem klar sein. Es gibt sogar Modelle, die das dank Passivkühlung ohne störendes Lüftergeräusch schaffen, wie beispielsweise Sapphires Ultimate Radeon HD 6670 1 GB. Allerdings kostet die auch um die 80 Euro, was den Preis des Gesamtsystems dann wieder in die Höhe treibt. Außerdem wollen wir heute ja gerade herausfinden, ob die integrierten Grafiklösungen, die aktuelle CPUs bzw. APUs auch ohne die Unterstützung einer PCI-Express-Karte bei 1920×1080 spielbare Frameraten liefern.

In der einen Ecke haben wir Intels Core-i3-CPUs mit Ivy-Bridge-Architektur. Zum Zeitpunkt der Veröffentlichung ist die einzige Desktop-CPU, die mit der HD Graphics 4000 ausgestattet ist, der 3,3 GHz schnelle Core i3-3225 mit 3 MB L3-Cache und einer TDP von 55 Watt, der als Boxed-Version um die 130 Euro kostet. Beim Core i3-3220, der aktuell für rund 110 Euro zu finden ist, handelt es sich eigentlich um den gleichen Chip, nur dass diese Version stattdessen die HD Graphics 2500 an Bord hat. Beide werden in einem 22-nm-Herstellungsprozess gefertigt und verfügen über zwei physische Kerne, die dem Betriebssystem per Hyper-Threading jeweils einen weiteren logischen Kern anbieten. Um sie von den teureren Mittelklasse- und High-End-Modellen abzusetzen, enthält Intel der Core-i3-Familie die Turbo-Boost-Funktionalität vor und deaktiviert zudem AES-NI.

Hersteller Modell Kerne / Threads CPU Freq. Max. Turbo GPU Max. Speichertakt TDP
AMD A8-5600K 4 /4 3,6 GHz 3,9 GHz HD 7560D DDR3-1866 100 W
AMD A10-5800K 4 /4 3,8 GHz 4,2 GHz HD 7660D DDR3-1866 100 W
Intel Core i3-3220 2 /4 3,3 GHz n.v. HD Graphics 2500 DDR3-1600 55 W
Intel Core i3-3225 2 /4 3,3 GHz n.v. HD Graphics 4000 DDR3-1600 55 W

AMDs APUs der A-Serie liegen in ähnlichen Preisregionen und zielen ebenfalls auf das Einsteigersegment. Bei der Fertigungstechnik mag AMD noch um eine Generation im Rückstand sein, denn Trinity wird noch in 32 nm gefertigt. Dafür bringen die neuen APUs eine weitaus potentere integrierte Grafikeinheit mit.

Wir haben uns in der Hoffnung, allein mit der integrierten GPU des jeweiligen Chips spielbare Frameraten zu erreichen, absichtlich auf die Spitzenmodelle der jeweiligen Serien konzentriert. Schauen wir also, ob diese Rechnung aufgeht.

Das obige Bild stammt von AMD und soll die Vorteile der Trinity-basierten APUs gegenüber der Intel-Konkurrenz veranschaulichen. Auf den ersten Blick sehen diese Zahlen durchaus beeindruckend aus. Das relativiert sich aber schnell, wenn man einen Blick aufs Kleingedruckte wirft, denn dann stellt sich heraus, dass diese intern durchgeführten Benchmarks einen A10-5800K gegen Intels Core i3-2120 der letzten Generation antreten lassen, der nur über die HD Graphics 2000 verfügte. Für Intel ist das so ziemlich das ungünstigste Vergleichsszenario. Abgesehen davon, dass es auch Core-i3-Modelle der Sandy-Bridge-Generation mit HD Graphics 3000 gab, ignoriert man komplett die inzwischen erschienenen Ivy-Bridge-Nachfolger im Einsteigerbereich, die über HD Graphics 2500 oder sogar 4000 verfügen.  

Unser Ziel ist aber ein fairerer Vergleich, und das erklärt auch unser Testfeld. Ebenso, wie wir Intels Core i3-3225 mit HD Graphics 4000 gegen den grafisch schwächer ausgestatteten -3220 antreten lassen, darf auch AMDs Spitzenmodell dieser Reihe, der A10, zeigen, welche Vorteile er gegenüber dem kleineren A8-5600K geltend machen kann. Letzterer läuft mit 3,6 GHz und ist mit weniger Shadern ausgestattet, die zudem noch mit einem etwas niedrigeren Takt laufen.

Fairerweise möchten wir aber auch darauf hinweisen, dass die beiden Intel-Chips eine TDP von 55 Watt aufweisen, während die zwei Trinity-APUs in die gleiche TDP-Klasse von 100 Watt fallen wir ihre Llano-Vorgänger. Unter Last ist dann AMDs Referenzkühler auch merklich lauter – ein Faktor, der bei einem System, das (auch) im Wohnzimmer zum Einsatz kommen soll, durchaus eine Rolle spielen kann.

[Anmerkung: Dieser Artikel erschien ursprünglich im Juli 2012. Aus gegebenem Anlass möchten wir ihn heute erneut unseren Leser präsentieren. Die Redaktion]

Vor kurzem veröffentlichten wir mit Trinity auf dem Desktop: Vorab-Test von AMDs A10-5800K, A8-5600K und A6-5400K unsere erste Einschätzung zu AMDs neuer APU-Generation. Allerdings stellten wir fest, dass uns noch zwei Kandidaten im Feld fehlten, um ein wirklich rundes Bild zeigen zu können: Intels Core i3-2100 und AMDs A8-3870K. Also besorgten wir uns diese beiden 100-Euro-Prozessoren kurzerhand aus dem Handel und können jetzt ziemlich gut das Konkurrenzfeld abbilden – und die fehlenden Vergleichsdaten präsentieren.

Die A8-APU spielt eine besondere Rolle, denn immerhin handelt es sich um das Spitzenmodell der Llano-Familie. Zwar taktet sie nur 100 MHz schneller als die A8-3850, die in unserem ersten Test zum Einsatz kam, kann aber mit einem offenen Multiplikator aufwarten, der für den höheren Preis verantwortlich ist. Man darf wohl erwarten, dass es auch bei den Trinity-APUs mit frei wählbarem Multiplikator einen Preisaufschlag geben wird.

Intels Core i3 ist hingegen die spannendere Vergleichs-CPU. Ihre beiden Kerne basieren auf der sehr effizienten Sandy-Bridge-Architektur und können dank Hyper-Threading je zwei Threads parallel bearbeiten, also insgesamt vier. Doch reicht das, um sich gegen die beiden Piledriver-Module einer A8- oder A10-APU der Trinity-Generation zu behaupten? Das ist die Frage, die uns am meisten interessierte.

Intels Core i3-2100 ist mit der HD Graphics 2000 ausgestattet, und so ist absehbar, dass sie gegen AMDs kommende APUs keinen Stich machen wird. Natürlich gibt es dann noch den Core i3-2105, der die HD Graphics 3000 mitbringt, eine leistungsfähigere Version der GPU mit 12 statt sechs Ausführungseinheiten (Execution Units, EUs). Sie läuft mit dem gleichen Takt von 3,1 GHz wie der i3-2100, und so bleibt der einzige Vorteil gegenüber dem Schwestermodell eben die bessere Grafiklösung. Dafür darf man in der Boxed-Variante allerdings auch rund 20 Euro mehr auf den Tisch legen.

Was passiert nun also, wenn wir A8-3870K und Core i3-2100 sowie für Spieletests den i3-2105 ins Testfeld aufnehmen? Wird das Blatt neu gemischt oder bleibt alles beim Alten?

[Anmerkung: Dieser Artikel erschien ursprünglich im Juni 2012. Aus gegebenem Anlass möchten wir ihn heute erneut unseren Leser präsentieren. Die Redaktion]

Vor etwa einem Monat stellte AMD endlich seine zweite APU-Generation mit Codenamen Trinity vor. Es ist wohl nicht übertrieben zu sagen, dass die Tech-Welt gespannt darauf blickte, wie sich diese Verschmelzung von x86-Kernen und Grafikeinheiten schlagen würde. Doch warum warteten so viele Enthusiasten so gespannt auf eine Mainstream-APU? Sagen wir einfach mal, dass Trinity ein ganz … eigenes Design ist.

Immerhin ist Trinity die erste APU, bei der AMDs neue x86-Kerne mit Piledriver-Architektur zum Einsatz kommen. Nach dem enttäuschenden Auftritt der Bulldozer-Generation, die wir erstmals in Form des FX-8150 testeten, ruhen nun viele Hoffnungen auf dem Nachfolger. Und da kommt Trinity ins Spiel. Bereits auf dem ersten Pressebriefing zur Bulldozer Architektur präsentierte AMD Roadmaps, die jährlich neue Revisionen dieses Designs mit 10 bis 15 Prozent Mehrleistung versprachen. Nun fragen sich also nicht nur die Power-User, ob Trinitys Piledriver-Kerne dieses Versprechen auch halten können.

Doch auch im Grafikteil der zweiten Desktop-APU hat sich gegenüber Llano etwas getan. Anstelle der VLIW5-GPU, welche die Basis für viele Grafikkarten bis hin zur Radeon-HD-6800-Familie war, setzt AMD hier auf das VLIW4-Design, das nur in der HD-6900-Reihe anzutreffen war. Alle neueren GPUs basieren inzwischen auf der Graphics Core Next genannten neueren Architektur, was das VLIW4-Design zu einem kleinen Exoten macht. Der Vorteil dieser Zwischenstufe: Sie soll effizienter rechnen als ihre Vorgängerinnen. Klar, dass wir auch wissen wollen, wie sich diese integrierte GPU verglichen mit der Llano-Grafikeinheit schlägt.

Voller Fokus auf mobil

So spannend die Trinity-Vorstellung vergangenen Monat dann auch war, sie hatte doch einen nicht unerheblichen Haken: Bislang hat AMD nur die mobilen Varianten herausgebracht. Aus AMDs Sicht war dies zweifelsohne der richtige Schachzug, und es bedarf wohl keiner umfangreichen Analyse um zu verstehen, dass ein Kombi-Chip, der eine brauchbarer CPU und eine schnelle GPU in sich vereint, Laptopherstellern sehr gut gefällt. Immerhin müssen sich diese innerhalb enger Grenzen, die bei Größe, maximaler Abwärme und Leistungsaufnahme des Chips gelten, bewegen, wenn sie ein neues Modell entwickeln.

Für die Desktop-Nutzer und vor allem die Enthusiasten blieben aber viele Fragen offen. Die brennendsten lauten: Wie verhält sich wohl ein Desktop-Chip mit Piledriver Kernen als FX-Variante? Schafft er die Schwächen der Bulldozer-CPUs aus der Welt? Bringt die Kombination aus Piledriver und VLIW4 gegenüber Stars/VLIW5 bei gleichem 32-nm-Herstellungsprozess und gleicher TDP von 100 Watt merkliche Vorteile?

Diese Fragen kann man nur beantworten, wenn man im Mainboard-BIOS selbst Hand anlegen und an ein paar Stellschrauben drehen kann. Also besorgten wir uns von unseren Partnern drei Desktop-Trinitys plus passende Mainboards und machten uns selbst ein erstes Bild von deren Performance.

Wir sagen bewusst, dass es sich nur um einen ersten Eindruck handelt, weil Trinity-CPUs erst im Laufe des Jahres im Einzelhandel zu kaufen sein werden. Berichten zufolge liegen noch sehr viele unverkaufte Llano-APUs bei den Händlern in den Regalen, und man will noch warten, damit diese weitestmöglich abverkauft werden können. Deshalb stellt AMD Trinity erst einmal den OEMs und Notebookherstellern zur Verfügung, damit diese rechtzeitig für die klassische „back to school“ Zeit passende Produkte vorbereiten können. Im Laden um die Ecke kommt diese APU aber vorerst nicht so schnell an. Dazu kommt noch, dass auf der Computex zwar viele Mainboards mit dem passenden Sockel FM2 zu sehen waren, die aber zum Teil noch nicht wirklich marktreif zu nennen sind.

Trinity auf dem Desktop: die Modelle

Radeon HD GPU-Takt
(MHz)
Shader TDP Kerne Basistakt CPU
(GHz)
Turbo Core
(GHz)
L2
Cache
Offener
Multi
A10-5800K 7660D
800
384
100 W
4
3.8
4.2
4 MB
Ja
A10-5700 7660D
760
384
65 W
4
3.4
4.0
4 MB
Nein
A8-5600K 7560D
760
256
100 W
4
3.6
3.9
4 MB
Ja
A8-5500 7560D
760
256
65 W
4
3.2
3.7
4 MB
Nein
A6-5400K 7540D

192
65 W
2
3.6
3.8
1 MB
Ja
A4-5300 7480D

128
65 W
2


1 MB
Nein

Insgesamt plant AMD wohl sechs Modelle, von denen wir drei im Testlabor haben: die Modelle A10-5800K, A8-5600K und A6-5400K.

Die APU mit der Modellnummer A10-5800K wird AMDs neues Flaggschiff sein. Dank zweier Piledriver-Module handelt es sich, technisch gesehen, um eine Quad-Core-APU, wobei wir natürlich wissen, dass sich die beiden „Kerne“ eines Moduls gewisse Ausführungseinheiten teilen müssen. Der schnellste A10 läuft nominell mit 3,8 GHz, erreicht aber per Turbo Core 4,2 GHz. Unser Exemplar verbrachte den Großteil seiner Zeit allerdings bei 4 GHz, also dem dazwischen liegenden P-State. Jedes der beiden Piledriver-Module verfügt über 2 MB L2-Cache für beide Kerne, also insgesamt 4 MB für den A10-Chip. Ebenfalls an Bord des A10 ist die Radeon HD 7660D, eine GPU mit 384 Shadern, die beim -5800K mit 800 MHz läuft, beim -5700 immerhin noch mit 760 MHz.

Das nächstkleinere Modell nennt sich A8-5600K und enthält ebenfalls zwei Piledriver-Module mit insgesamt 4 MB L2-Cache. Keine der Trinity-APUs verfügt über L3-Cache. Der Basistakt liegt hier bei 3,6 GHz, per Turbo geht es auf bis zu 3,9 GHz hoch. In beiden A8-Modellen ist die Radeon HD 7560D mit 256 Shadern und 760 MHz Takt verbaut.

Beim A6-5400K setzt AMD dann recht großzügig den Rotstift an, und diese Variante unterscheidet sich sehr deutlich von den anderen K-Modellen. Zum einen ordnet AMD ihm eine TDP von 65 Watt zu, während die anderen beiden Modelle mit 100 Watt in der Liste stehen. Außerdem steckt nur ein einzelnes Modul in dieser APU, die damit also nur über zwei Integer-Kerne und eine Fließkommaeinheit verfügt. Der Basistakt liegt auch hier bei 3,6 GHz, aber im Turbo ist schon bei 3,8 GHz Schluss. Auch beim Cache knapst AMD etwas ab, denn hier gibt es für das Modul nur 1 MB gemeinsamen L2-Cache. Die Radeon HD 7540D der kleinsten Modelle haben 192 Shader an Bord, über deren Takt nichts bekannt ist.

Nachdem uns das schwarze Kleine im schicken Aluminium-Kleid etwas unverhofft über den Weg gelaufen ist, wollen wir natürlich unsere Neugier befriedigen und das Projekt auch richtig realisieren. Immerhin – mal einfach so irgendwelche Technik einbauen klappt nicht, denn es passen exakt ein einziges Mainboard und nur eine spezielle Kühllösung in das PC-Q05. Ganz schön extravagant also, aber auch eine kleine Herausforderung. Da kann man als Redakteur einfach nicht widerstehen.

Was werden wir genau tun? Wir bauen den PC Schritt für Schritt zusammen, erklären ausführlich alle Komponenten und testen zwei mögliche CPUs gegeneinander, um die Lautstärke- und Temperaturentwicklung zu messen. Natürlich gibt es wieder jede Menge eigener Bilder und das abschließende Fazit.

 

Renommierte Autobauer krönen ihr Portfolio gern mit unvernünftigen Top-Modellen, die zeigen sollen, was derzeit State-of-the-Art im Automobilbau ist. Außerdem sind diese Superlative natürlich auch Zugpferde für die Brot-und-Butter-Modelle, mit denen schließlich das Geld verdient wird. Wirft man einen Blick auf dieses elitäre Netzteil-Testfeld könnte man einen ähnlichen Eindruck gewinnen: Da steckt alles drin, was gut und teuer ist – getreu den Leitmotiven „Was kostet die Welt?“ und „Das Bessere ist des Guten Feind“. 


Für den aktuellen Test haben wir keinerlei Vorgaben gemacht, sondern einfach das Beste aus dem Regal genommen, was uns die Hersteller in den vergangenen Wochen zugesendet haben. Herausgekommen sind vier Netzteil-Boliden mit einer Gesamtleistung von 4660 Watt. In Sachen nomineller Leistung liegt das LEPA G1600 mit 1600 Watt ganz vorne, gefolgt vom 1200 Watt starken Corsair AX1200i. Dahinter reihen sich das Antec HCP-1000 und das Seasonic Platinum-860 ein. Abgesehen davon, dass es sich bei allen Testprobanden um Highend-Geräte handelt, weisen sie zum Teil ganz spezifische Besonderheiten auf. So bietet das Corsair AX1200i etwa eine digitale Überwachungsfunktion, Seasonic setzt wieder einmal auf eine hybride Lüftersteuerung. Was die anderen Netzteile so alles zu bieten haben, klären wir im weiteren Verlauf des Roundups.

Dass es sich bei diesen Power-Netzteilen nicht um Sonderangebote handelt, dürfte jedem klar sein. Ganz so teuer wie wir „befürchtet“ haben, sind diese Boliden aber doch nicht – zumindest nicht alle. Das Seasonic Platinum-860 ist beispielsweise ab etwa 200 Euro zu bekommen. Immerhin handelt es sich dabei um ein 860-Watt-Netzteil mit 80 PLUS Platinum Einstufung. Dass es auch deutlich teurer geht zeigt Corsair: Für das AX1200i werden über 300 Euro fällig. Bei den übrigen Testkandidaten steht meist eine Zwei am Anfang. Dennoch: Wer soviel Geld für ein Netzteil ausgibt, macht keine Kompromisse. Wir sind gespannt, was die Top-Modelle drauf haben.

Früher waren SSDs noch so neu und exotisch, das eine Neuvorstellung eine große Sache war. Bei der Controller-Technologie gab es riesige Fortschritte, NAND-Speicher konnte in immer kleineren Strukturbreiten gefertigt werden, und eine neue Version der SATA-Schnittstelle erlaubte einen Performance-Sprung, der wirklich atemberaubend war.

Eigentlich ist das alles noch gar nicht so lange her, und doch ist heute alles anders. Langweiliger, irgendwie. Firmen wir SandForce und Marvell haben es für Laufwerkshersteller viel einfacher gemacht, einfach einen Controller aus dem Sortiment auszusuchen, den passenden Speicher zuzukaufen, das Ganze mit einer Firmware von der Stange auszustatten und die hauseigene Variante einer  SuperSequentiellRandomRaketen-SSD auf den Markt zu werfen.

Einerseits ist das ja keine schlechte Entwicklung, denn mehr Wettbewerb bedeutet auch, dass sich die Hersteller mehr anstrengen müssen, um aufzufallen und den Kunden für sich zu gewinnen. Beliebte Mittel zum Zweck sind neben niedrigeren Preisen meist längere Garantiezeiten, speziell gestrickte Bundles und mehr oder weniger sinnvolles Zubehör. Andererseits sind wir auch sehr viel skeptischer, wenn wir ein neues SSD-Modell mit bekannten Komponenten unter die Lupe nehmen.

Glücklicherweise verspricht unser heutiger Kandidat ein spannenderes Erlebnis – nicht nur für uns. Es gibt neuen NAND-Speicher, ein neues Speicher-Interface und eine neue Firmware. All das packt Samsung in sein neues SSD-Flaggschiff namens 840 Pro.

Die 840 Pro ist die designierte Nachfolgerin der 830, einer SSD die sich vor allem für ihre hohe und doch gleichmäßige Leistung, ihre meist aggressive Preisgestaltung und nicht zuletzt die beeindruckend niedrige Leistungsaufnahme jede Menge Lorbeeren einheimste. Mit der 840 Pro will Samsung die Performance noch weiter anheben und dreht gleich an mehreren Stellschrauben um das zu erreichen.

Zumindest aktuell ist und bleibt Samsung der einzige Hersteller, der ein SATA-6-Gb/s-Laufwerk im Angebot hat, das komplett aus Bauteilen aus dem eigenen Sortiment besteht. Das ist schon bemerkenswert; immerhin ist die 830 bereits über ein Jahr auf dem Markt. Crucial kann zwar auf NAND-Speicher aus eigener Fertigung zugreifen, setzt beim Controller aber auf Marvell. Toshiba hat zwar vor kurzem die THNSNF-Serie enthüllt, bei der Sowohl der 19-nm-Flashspeicher als auch der Controller aus eigenem Hause stammen. Es handelt sich dabei jedoch um eine reine OEM-Modellreihe, die wir bislang noch nicht getestet haben. Alle anderen Hersteller kombinieren in ihren zahlreichen Modellen Controller und Speicherchips von Drittfirmen.

Samsung mag sich insofern in einer einzigartigen Position befinden, sieht sich aber auch mit starker Konkurrenz konfrontiert. So erreichen SSDs wie OCZs Vertex 4 und Plextors M5 Pro auch ohne Kompressionskniffe ein Performance-Niveau, das sogar noch über dem liegt, was bislang der SandForce-Riege vorbehalten war.

Worin liegt aber das Geheimnis der 840 Pro? Nun ja, das ist ja genau das Problem – es bleibt größtenteils ein Geheimnis… Samsung hält sich bei den technischen Daten sehr bedeckt. Das überrascht nicht wirklich, denn die Firmen, die mit ihren eigenen, proprietären Rezepten antreten sind auch meist diejenigen, die sich am hartnäckigsten über ihre Geheimzutaten ausschweigen. Auf dem heute stattfindenden SSD Summit in Seoul gab Samsung dann aber doch noch ein paar Details preis.

Bei der SSD 830 kam bekanntermaßen ein MAX-Controller namens MCZ zum Einsatz, dessen drei ARM-9-Kerne mit 220 MHz takteten und der acht NAND-Kanäle ansteuerte. Die heute vorgestellte 840 Pro und die bald erscheinende Consumer-Version namens 840 nutzen beiden eine überarbeiteten MDX-Controller, der ebenfalls für acht NAND-Kanäle ausgelegt ist.

Im neuen MDX stecken ebenfalls drei ARM-Cores, die allerdings schon der Cortex-R4-Generation angehören und mit 300 MHz takten. Damit steht genügend Rechenleistung zur Verfügung, um die Performance deutlich zu erhöhen und gleichzeitig AES-256 Full Drive Encryption, also Verschlüsselung des gesamten Laufwerks durch den Controller selbst, als neues Feature anzubieten. Solche Fähigkeiten waren bislang eher Enterprise-Laufwerken vorbehalten.

Als Cache kommen im neuen Modell bis zu 512 MB LPDDR2-1066 zum Einsatz, während es bei der 830 noch 256 MB LPDDR2-800 waren.

Da man diese Laufwerksfamilie im High-End positioniert, spricht Samsung vor allem über die drei “spannendsten” Kapazitäten der 840 Pro : 128, 256 und 512 GB. Nur die beiden größeren Modelle verfügen über 512 MB Cache. Die Variante mit 128 GB muss mit 256 MB auskommen. Man sagte uns aber auch, dass es darüber hinaus auch wieder ein 64-GB-Modell geben werde. Mehr können wir aus Mangel an Informationen dazu leider noch nicht sagen.

Wie gesagt will man an der technischen Front nicht zu viele Informationen preisgeben. Besonders stolz weist man bei Samsung aber darauf hin, dass die 840 Pro Multi-Level-Cell Toggle-Mode DDR-NAND der zweiten Generation nutzt, dessen Interface für Geschwindigkeiten von bis zu 400 Mb/s ausgelegt ist. Zur Einordnung: Das ist in etwa die dreifache Datenrate des Interfaces, mit dem Speicher nach Toggle Mode 1.0 aufwarten kann.

Abgesehen von der Evolution bei der Geschwindigkeit verrät Samsung noch, dass der Toggle-Mode-Flash-Speicher der zweiten Generation in einem kleineren Fertigungsprozess in 21 nm hergestellt wird. Zum Vergleich: In der SSD 830 steckte noch NAND-Speicher mit 27 nm.

Auf unserem 512-GB-Modell sitzen acht Chips mit dem Aufdruck K9PHGY8U7A-CCK0. Dechiffriert man diese verschlüsselte Modellbezeichnung anhand von Samsungs technischer Dokumentation, dann steht das P für MLC mit acht Dies, während uns das HG verrät, dass jeder Chip 512 Gb (oder 64 GB) groß ist. In jedem der acht Chips stecken also acht Dies zu 64 Gb, was zusammen 512 GB ergibt.

Warum eigentlich dieser Artikel? Nach Analyse der verschiedensten Launchartikel zur GeForce GTX 660 Ti und GTX 660 ist uns aufgefallen, dass es aktuell keine wirklich belastbaren Auswertungen und Vergleiche zur PhysX-Tauglichkeit der neuen Karten gibt und dass auch die Vergleiche zwischen PhysX auf GPU und CPU ein wenig aus der Mode gekommen zu sein scheinen. Sicher, PhysX ist für die einen ein unabdingbares Verkaufsargument, während es für die anderen eher eine sinnlos verschwendete Zeile in der Produktbeschreibung darstellt, aber ganz übergehen kann man es am Ende dann doch nicht. Selbst wenn die wirklich herausragenden Titel mit PhysX rar geblieben sind, es gibt sie und man kann es nicht ignorieren.Interessant werden dieses Mal vor allem zwei Dinge sein: wie gut schneidet Nvidias neue Mittelklasse im PhysX-Leistungsvergleich ab und können die aktuellen AMD-Karten mit Hilfe der CPU dagegen halten, wo doch Nvidia bereits seit langem versprach, die Physikberechnungen auf der CPU in mehr als nur einem Thread zu realisieren? Wir werden somit in Anlehnung an unseren vor einiger Zeit veröffentlichten Artikel “PhysX: Lust, Last oder Frust?” auch darauf noch einmal detaillierter eingehen.

Sicher, das Silverstone Grandia GD07 mit der markanten Frontklappe ist eine Art Nischenlösung, denn es ist als Kompromiss aus flacher Bauweise und möglichst wenig Einschränkungen im Bezug auf die verbaubare Hardware gedacht. Aber gerade das macht es im Gegenzug interessant, denn man muss nicht kleckern, sondern darf auch mal ein wenig klotzen. Unser Ziel ist es, in jedem Fall unter 32 dB(A) bei absoluter Volllast zu bleiben, was für den Einsatz auf dem Schreibtisch oder im Wohnzimmer ein oft nachgefragtes Ziel ist. Das erreicht man nur mit passiv bzw. semipassiv gekühlten Komponenten, so dass wir diesen Gehäusetest gleich noch mit einer praktischen Umsetzung verbinden werden.Zum Einsatz kommen in diesem Test ein Intel Core i3 2130, den wir etwas untervoltet haben und sehr leise und auch ein wenig ungewöhnlich mit dem NT 06 Evolution kühlen wollen, das passive Netzteil Nightjar 500 Watt Zero dBA, sowie zwei passive Radeon HD 7750 von HIS im Crossfire. Wir dürfen jetzt schon verraten, dass uns unser Vorhaben gelungen ist – jedoch wie gut und wo vielleicht auch Hürden auftauchten, das haben wir mit Absicht auf den nächsten Seiten versteckt. Immer nur Intro und Fazit zu lesen wäre ja auch langweilig.

Venlo, Niederlande – 18. September 2012 – Cooler Master, einer der führenden Hersteller für Chassis, thermische Lösung, Peripheriegeräten und Zubehör, kündigt heute die neue Gaming Mouse CM Storm Recon an. 

Eine Maus für Alle

Gezeichnet durch ein ergonomisches Design und mit “Super-Grip” beschichtetem Mauskörper, bietet diese Neue einen komfortablen Halt, egal ob Sie Rechts- oder Linkshänder sind. Die Recon verfügt über eine hochqualitativ gefertigten Body und extrem glatte Teflon-Mausfüße und liefert damit einen natürlichen Griff bei extrem leichten Rutscheigenschaften.

Gelungene Hardwareauswahl

Die CM Storm Recon verfügt über den neuesten Avago 3090 optischen Sensor.  Dieser optische Abtaster bietet eine hohe und präzise Bewegungsgeschwindigkeit in einem Spektrum von 800 bis 4000 DPI. Individuelle Einstellungen wie DPI (Dots Per Inch) und LOD (Lift Off Distance) werden von der Gaming Mouse unterstützt. Wichtige Einstellungen lassen sich “on-the-fly” umstellen. Um die Reaktionszeiten zu verringern, wurde die USB Polling-Rate weiter verbessert.  “Long-Life-Switches” stellen sicher, dass Funktion der Recon selbst bei extremsten Anforderungen lange erhalten bleibt. Darüber hinaus ermöglicht eine mehrfarbig leuchtende Mausrad eine Identifizierung des aktiven Profiles. Die Gaming Mouse bietet eine interne Speicherung von bis zu 5 Profilen und 36 Makros.

Genervt vom hängenden Kabel der Gaming-Mouse?

Wenn eine kabellose Mouse nicht in Frage kommt, oder die teure Gaming Mouse nicht gewechselt werden soll – trotzdem aber das ungebundene Gefühl bei den Mousebewegungen bevorzugt wird, dann nehmen Sie doch den neuen CM Storm Skorpion Kabelhalter!
Das “wireless feeling” bietet der Skorpion ohne den Nachteilen von wireless Gaming Mäusen.

Preise und Verfügbarkeit

Die CM Storm Recon Gaming Mouse für Links- und Rechtshänder wird es ab sofort im gut sortierten Fachhandel sowie in den Online-Shops wie Caseking.de, Alternate.de, Snogard.de, One.de, Ditech.at, Ecotec.at, Brack.ch, Steg.ch, Digitec.ch
für einen Preis von 49,90 Euro erhältlich sein.
Der Skorpion wechselt die Ladentischseite für 15,90 Euro.

Weitere Informationen entnehmen Sie bitte unserer Website:
Recon:www.coolermaster.de/product.php?product_id=6824
Skorpion:www.coolermaster.de/product.php?product_id=6825

  • 1
  • 2

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen