Monat: März 2015

Die alte Wintel-Allianz – also die Verbindung von Windows-Betriebssystem und Intel-Prozessor in einem Rechner – hat sich seit mehr oder weniger dem vergangenen Jahr aufgemacht, um die Vormachtstellung von Android bei Tablets zu brechen. Man setzt dabei auf Produktivsysteme; also Tablets, die nicht nur zum Surfen und Daddeln auf der Couch gedacht sind, sondern auch als Arbeitstiere eine gute Figur machen sollen.

In diese Kategorie fällt auch das Acer Switch 11, ein 11,6 Zoll großes Tablet, das in ein Tastatur-Dock eingeschoben werden kann. Mit seinem Full-HD-Bildschirm verspricht es eine brauchbare Bildqualität. Beim Prozessor setzt der Hersteller mit einem Intel Core i3-4020Y auf einen in diesen Gerätschaften selten anzutreffenden Vertreter, der einen Kompromiss zwischen den Einsteigermodellen der Atom-Serie und den Core i5-Chips für Ultrabooks darstellt. Der Datenspeicher ist mit 60 Gigabyte groß genug, um eine brauchbare Dokumentensammlung mit sich zu führen.

Fürs Arbeiten spricht auch die Kameraausstattung: In der Front steckt ein 2-MP-Sensor für Videokonferenzen, eine rückseitige Kamera fehlt dagegen völlig. Dafür soll die Schnittstellenausstattung ansprechen: Das Tablet ist in WLAN-Netzen nach a/b/g/n-Standard nicht nur vergleichsweise schnell unterwegs, sondern bringt zudem einen klassischen USB-3.0-Steckplatz mit. Außerdem sind Bluetooth 4.0 und ein HDMI-Ausgang an Bord.

Softwareseitig wird auf dem Aspire Switch 11 Windows 8.1 in einfacher Version als Betriebssystem installiert, das Prozessoren mit 64-Bit-Befehlssätzen unterstützt. Windows-typisch sind alle notwendigen Dienste bereits vorinstalliert, um das Gerät aus dem Stand heraus verwenden zu können. Eine Lizenz für Microsoft Office mus allerdings noch gekauft werden.

Einen neuen Teil einer äußerst erfolgreichen Serie zu machen, kann Fluch und Segen zugleich sein. Es ist mit Sicherheit ein Segen, auf eine der besten Spiele-Engines am Markt zurückgreifen zu können und auch noch die komplette Spielmechanik von Battlefield zur Verfügung zu haben. Ein Fluch hingegen ist aber eben die Verwandtschaft zu Battlefield selbst: Zum einen gibt es viele Spieler, die Hardline schon im Vorfeld als Vollpreis-Addon schmähten, und zum anderen ist es kein einfacher Job, in einer fremden Engine zu entwickeln und sich gleichzeitig mit einem Spieltitanen wie Battlefield messen lassen zu müssen. Zudem haben die Launch-Probleme von Battlefield 4 viel verbrannte Erde hinterlassen, daher schaut die Spiele-Community besonders kritisch auf den Quasi-Nachfolger. Dies führte schon im Vorfeld zu einer fünfmonatigen Verzögerung gegenüber dem ursprünglich für Oktober 2014 geplanten Release.

In Hardlines Brust wohnen zwei Seelen: Einerseits gibt es die erfrischende Solo-Kampagne, die sich stark an Krimi-/Action-Serien orientiert und viele Elemente aus dem Genre der Schleich-Spiele (im Stil von Thief und Metal Gear Solid) übernimmt. Andererseits gibt es den Mehrspieler-Part, in dem die Spieler das Battlefield-übliche Gemetzel erwartet. Auch wenn hier punktuell andere Akzente gesetzt werden, geht es doch zumeist darum, schneller und genauer zu schießen als der Gegner.

Wie gut, dass Nick kein Finanzminister istWie gut, dass Nick kein Finanzminister ist

Solo: Schleichen statt metzeln

In der Solo-Kampagne spielt der Spieler den Polizisten Nick Mendoza. Neben den inhaltlichen Ähnlichkeiten zu Krimi- und Action-Serien hat sich Viscerals große Mühe gegeben, auch technische Elemente von Serien einzubauen: Unterbricht man das Spiel, erhält man eine Vorschau auf das kommende Kapitel; setzt man das Spiel fort, erhält man eine Zusammenfassung von dem, was bisher geschah.

Auch die Qualität der Grafik und das Minenspiel der Charaktere sind unheimlich realistisch und verstärken das Gefühl, in einer TV-Serie mitzuspielen. Die Story des Spiels bewegt sich allerdings auch auf exakt diesem Niveau – wer hier tiefgreifende Handlung erwartet, sucht am falschen Ort. Wer hingegen auf serienreife Action mit den üblichen Klischees baut, wird hier nicht enttäuscht.

Die Solo-Kampagne besticht durch die Möglichkeit, zwischen Waffengewalt und Schleichen auszuwählen. Je nach Ausmaß der pazifistischen Grundeinstellung (oder auch des Könnens) kann man den Gegnern fast komplett aus dem Weg gehen und sie geschickt durch das Werfen von Patronenhülsen ablenken.

Steht man einem oder mehreren Gegnern gegenüber, kann man auch die Polizeimarke zücken und die Gegner zum Aufgeben bewegen. Verhaftet man Gegner auf diese Art, erhält man die maximale Punktzahl. Allerdings kann dies gerade bei mehreren Gegnern knifflig werden. Etwas weniger friedlich kann man sich durch geschickte Faustschläge oder Schüsse mit dem Elektroschocker (meine bevorzugte Lösung) einen Weg bahnen oder alternativ auf klassische Battlefield-Methode alles durchsieben, was nicht schnell genug auf die Bäume kommt. Hier hilft dann eventuell der Schalldämpfer dabei, etwas weniger Aufmerksamkeit zu erregen.

Zumindest bei per Haftbefehl gesuchten Verbrechern belohnt Hardline diejenigen Spieler, welche die Gesuchten nur außer Gefecht setzen anstatt sie zu töten. Dass man im Umkehrschluss gerade die nicht per Haftbefehl gesuchten “einfach töten darf”, mutet allerdings recht sonderbar an.

Innerhalb der zehn Episoden gilt es, für verschiedene Ermittlungen Beweise zu finden. Hierfür benötigt man meist den Scanner. Dieses Gerät erinnert von der Funktionsvielfalt stark an den Tricorder von Star Trek. Er bietet nicht nur chemische Analysen, Beweismittelerkennung und eine Verbindung zur Verbrecherdatenbank, sondern erlaubt sogar die Lokalisierung vieler Gegner im Level durch Wände hindurch.

Damit man nicht immer mit aktiviertem Scanner herumlaufen muss, signalisiert er die Nähe von Beweismitteln mit dem Geräusch eines Vibrationsalarms. Das ist eine sehr gelungene Idee, auch wenn man trotzdem gelegentlich noch eine ganze Weile sucht, bis man weiß, warum es gebrummt hat. Wer den ein oder anderen Beweis übersieht kann ein Levels trotzdem schaffen. Will man die Fälle jedoch komplett lösen, muss man alle Beweise finden – dies stellt mit Sicherheit einen gewissen Wiederspielwert der Kampagne dar.

Außerdem kann man zwischen vier Schwierigkeitsgraden wählen. Ist die Kampagne vollständig durchgespielt, hat man hier die Chance mit höherem Schwierigkeitsgrad erneut zu spielen. Im höchsten Schwierigkeitsgrad entfällt die automatische Heilung, die das Mitführen von Medipacks erspart.

Im Gegensatz zu den letzten Battlefield-Spielen sollen die vier angekündigten Hardline-Add-Ons neben neuen Mehrspielerkarten auch zusätzliche Solo-Kampagnen mitbringen.

Schade ist, dass nach Battlefield 3 keine kooperative Kampagne mehr gemacht wurden. Das war in Battlefield 3 ein echtes Highlight. Sowohl Battlefield 4 als auch Hardline halten sich hier dezent zurück und beschränken sich auf Solo-Kampagnen.

Wie bereits angekündigt möchten wir euch nicht vorenthalten was in der Closed Beta von World of Warships (WoWS) so los ist.

WoWS wird von Wargaming nach dem erfolgreichen World of Tanks und dem nicht so ganz erfolgreichen World of Warplanes als der dritte und vorerst finale Teil seiner Serie historischer Online-Taktik-Games positioniert. Man könnte das Spiel als ‘MMO Taktik Naval Shooter’ bezeichnen – oder als World of Tanks mit Schiffen, also ein maritimes Arcade-Game. Oder für die alten Haudegen unter euch: Navyfield Matchmaking mit der Grafik von Battlestations Midway. Das Spiel zieht seinen Zeitrahmen ungefähr etliche Jahre vor dem Beginn des Ersten Weltkrieges und wenige Jahre nach dem Ende des Zweiten Weltkrieges.

Zum Glück gibt es bereits etliche Quellen für den Downloader, mit dessen Hilfe wir die ersten 4,4 Gigabyte des Clients über Nacht ziehen konnten – denn der Autor verfügt aktuell dank Alice dummerweise nur über eine effektive Download-Rate von 4 MBit/s! Aber schließlich ist nach der abgeschlossenen Installation der große Moment ist da, wir können uns einloggen. Zuerst finden wir uns im Hafen wieder und sehen einen liebevoll detaillierten amerikanischen Kreuzer, der irgendwie an eine umgerüste, verrostete Yacht erinnert – aber warum sehen wir ihn nur im Fenstermodus und mit niedriger Auflösung? Egal, mit wenigen Klicks ist dieses Problem behoben.

Okay, das ist nicht der amerikanische Einstiegs-Kreuzer - aber dazu später mehr. ;)Okay, das ist nicht der amerikanische Einstiegs-Kreuzer – aber dazu später mehr. 😉

Aber schauen wir uns erst mal die Grundlagen an und fangen dazu mit den offiziellen Systemanforderungen für die Closed Beta an. Die Systemanforderungen sind jedoch noch nicht final, da noch an der Engine geschraubt und der Code optimiert wird. Zur Open Beta sollen die Specs für das finale Game dann feststehen.

Systemanforderungen (Closed Beta)

Minimal Empfohlen Testsystem
Betriebssystem: Windows XP/Vista/7/8 (64 Bit) Windows 7 (64 Bit) Windows 7
Prozessor: Intel Core 2 Duo E6750 Intel Core 2 Quad Q8200 Intel Core i5-4570
Arbeitsspeicher: 4 GByte DDR2 4 GByte DDR2 16 GByte DDR3-1600
Grafikkarte: Nvidia GeForce 9600 GT (512 MByte) Nvidia GeForce GTX 550 Ti (1024 MByte) AMD Radeon R9 290X
Soundkarte: kompatibel zu DirectX 9.0c kompatibel zu DirectX 9.0c vorhanden
Freier Speicherplatz: 30 GByte 30 GByte vorhanden
Internetverbindung: 1024 KByte/s oder höher (für Sprach-Chat) 1024 KByte/s oder höher (für Sprach-Chat) vorhanden

Diese Anforderungen sollen sicherstellen, dass WoWS auch auf älteren System gut läuft und ermöglicht es uns, auf Full-HD mit vollen Details zu zocken … errm … zu testen. Eine Framerate-Anzeige wird mit einem Tastendruck auf R eingeblendet und mit unserem Testsystem konnten wir trotz voller Details und Kantenglättung immer flüssig mit rund 60 fps spielen.

Der Einstieg

Wer World of Tanks kennt, den stellt die Menüführung von WoWS nicht vor viele Rätsel; zudem gibt es gibt die gewohnten zehn Tier-Stufen für die verschiedenen Schiffsklassen. In der Closed Beta sind derzeit die US-amerikanischen und japanischen Tech-Trees (Amerikaner noch ohne Schlachtschiffe, Japaner noch ohne Träger) sowie ein russiches Premium-Schiff (der Kreuzer Aurora, Stichwort Oktoberrevolution) enthalten.

Eine Crew wie bei WoT gibt es hier nicht, wir können lediglich den Kapitän ausbilden und mit zusätzlichen Fähigkeiten und Boni ausstatten. Dazu muss man aber erst die Spieler-Stufe 5 erreichen, ab der Kapitäne überhaupt erst zur Verfügung stehen. In der Closed Beta kann man insgesamt sechs Spieler-Stufen erreichen, die Stufen 7 und 8 sind noch ausgegraut.

Diese Spielerstufen werden mit steigender Erfahrung automatisch freigeschaltet. Um überhaupt erstmal in Random Battles gegen menschliche Gegner spielen zu können, braucht man Stufe 2. Vorher kann man ausschließlich zusammen mit menschlichen Spielern im Koop-Modus gegen eine identische Anzahl Bots in identischen Schiffen kämpfen – und die WoWS-Bots sind nicht von schlechten Eltern! 

Auf Stufe 3 kommen tägliche Missionen dazu, auf Stufe 4 freie Erfahrung und auf Stufe 6 zusätzliche Module für Schiffe. Alles in allem eine Art praktisches Tutorial, das uns gut gefällt.

Tech-Trees

Auch wenn die Tech-Trees natürlich noch lückenhaft sind (und die Tech-Trees von Nationen wie Russland, Deutschland, Großbritannien und anderen noch komplett fehlen), wird uns ein guter Ausblick auf das finale Produkt geboten. Konkret stehen uns für die Forschung im amerikanischen Techtree die Zerstörer, Kreuzer und ab Tier 4 die Flugzeugträger zu Verfügung. Anders im ebenfalls teil-befüllten japanischen Bereich: Hier können wir uns für Schlachtschiffe (ab Tier 4), Kreuzer und Zerstörer entscheiden.

Findige Beta-Tester haben bereits festgestellt, dass im Client selber schon mehr Schiffe hinterlegt sind, die uns aktuell aber noch nicht zur Verfügung stehen.

Was hat OCZ nicht hinter sich: Überdurchschnittlich viele Ausfälle mancher Serien noch vor einigen Jahren und dann ein leichter Schlingerkurs zwischen Client und Enterprise mit unklarer Zukunft. Doch dann kam Toshiba und übernahm das Unternehmen, denn die Marke OCZ ist trotz aller Umstände wohl bekannt.

Aus OCZ Technology wurde OCZ Storage Solutions (A Toshiba Group Company) und die erste neue SSD, die ARC 100, hat sich ihren Platz bei den Einsteiger-SSDs verdient.

Das Laufwerk funktioniert nach unserer Kenntnis ganz gut im Markt, basiert wie alle kommenden Modelle ausschließlich auf Toshiba NAND-Flash-Speicher und bietet ein einzigartiges Garantiepaket namens Shield Plus: Im Defektfall gibt es während der Garantiezeit von drei Jahren bei der ARC 100 einen kostenlosen Vorabtausch – das klingt gut; das “neue” OCZ meint es also ernst.

Vector 180 als Top-Modell

Nun kommt die Vector 180 und positioniert sich gegen Samsung SSD 850 Pro oder SanDisk Extreme Pro. Das ist eine Ansage, auch wenn die SATA-Schnittstelle Performance-Ausreißer nach oben verhindert – bei knapp 550 MByte/s ist ohnehin Schluss. Wichtiger sind aber die I/O-Leistung und die Fähigkeit, hohe Performance auch bei intensiver Beanspruchung liefern zu können – hier trennen sich Spreu vom Weizen und genau hier will OCZ punkten.

Kapazitäten bis 960 Gigabyte, hohe Performance-Spezifikationen (vor allem beim zufälligen Schreiben unter Dauerlast) und fünf Jahre Garantie sind heute notwendig, um oben mitzuspielen. Eine Zuverlässigkeit (TBW) von 50 Gigabyte Schreibdatenmenge pro Tag übersteigt momentan sogar die Angaben der meisten Wettbewerber.

Der Punkt Zuverlässigkeit steht bei der Vector 180 klar im Vordergrund, denn zusätzliche Sicherheitsfunktionen gepaart mit der Tatsache, dass die fünfjährige Garantie auch wieder Shield Plus inklusive Vorabtausch bietet, erzeugen bei den Testern zugegebenermaßen einen Vertrauensvorschuss. Denn fünf Jahre Garantie ohne Ärger und mit schneller Abwicklung (wir unterstellen, dass das in der Praxis auch gelebt wird) ist vermutlich wertvoller als eine zehnjährige Garantie mit womöglich langer Bearbeitungszeit. Hier fehlen jedoch zuverlässige Statistiken. Fast sicher ist jedoch, dass wohl nur die wenigsten der heute verkauften Samsung 850 Pro- oder SanDisk Extreme Pro-SSDs im Jahr 2025 wirklich noch im praktischen Einsatz sein werden.

Doch greifen wir nicht zu viel vorweg: Es heißt Vector 180 gegen den Rest der etablierten SSD-Anbieter – inklusive der neuen Corsair Neutron XT und Crucials MX200. Letztere ist zwar nicht als High-End-Modell-Gedacht, aber das angekündigte, aggressive OCZ-Pricing drängt den Vergleich dennoch auf. Zudem verspricht Crucial noch größere Schreibdatenmengen.

Aber hier erstmal die technischen Daten der drei heutigen Testkandidaten:

Testkonfiguration

Alle Laufwerke werden für einen Zeitraum von drei Stunden mit zufälligen 4 KB-Zugriffen belastet, um ein zuverlässiges Pre-Conditioning zu erreichen. Sinn ist es, dass das Laufwerk eine Menge zu tun hatte, denn dann zeigen sich größere Unterschiede zwischen verschiedenen Modellen. Denn manche SSDs zeigen ihre Höchstleistung nur kurz; andere können Performance-Werte dagegen über längere Zeit aufrechterhalten. Enterprise-SSDs sind besonders darauf ausgelegt, ihre Leistungsniveaus im Dauerbetrieb aufrecht zu erhalten und liegen in den Spitzenwerten deswegen meist unter dem Niveau von Consumer- bzw. Client-Laufwerken wie den Modellen in diesem Test.

Über die Dauer des Pre-Conditionings lässt sich streiten. Zudem führen Funktionen wie TRIM in der Praxis dazu, dass sich die Leistungsabgabe in der Praxis normalisiert. Benchmarks auf Basis von Programmen, die eine Partition voraussetzen (AS SSD, CrystalDiskMark) zeigen Unterschiede nach Pre-Conditioning nicht so stark auf wie ein IOMeter, welches direkt auf das Laufwerk schreibt und nach ein paar Stunden harter Last bei der Ausführung unserer Standard-Tests deutliche Unterschiede zutage fördert.

Testkonfiguration: Performance-Messungen
System-Hardware
CPU: Intel Core i5-2500K (32 nm, Sandy Bridge, D2), 4C/4T, 3.3 GHz, 4x 256 KByte L2-Cache, 6 MByte L3-Cache, w/ HD Graphics 3000, 95 Watt TDP, 3.7 GHz max. Turbo
Motherboard (Sockel 1155): Gigabyte Z68X-UD3H-B3, Revision: 0.2, Chipset: Intel Z68, BIOS: F3
RAM: Corsair TR3X6G1600C8D, 2x 2 GByte DDR3-1333
System-SDD: Intel X25-M G1, 80 GByte, Firmware 0701, SATA 3 GBit/s
Controller: Intel PCH Z68 SATA/600 
Netzteil: Seasonic X-760 760 Watt, SS-760KM Active PFC F3
Benchmarks
Performance-Messungen: h2benchw 3.16
PCMark 7 1.0.4
I/O-Performance: IOMeter 2006.07.27
Fileserver-Benchmark
Webserver-Benchmark
Database-Benchmark
Workstation-Benchmark
Streaming Reads
Streaming Writes
4K Random Reads
4K Random Writes
System-Software & Treiber
Treiber: Details
Betriebssystem: Windows 7 x64 Ultimate SP1
Intel Inf: 9.2.0.1030
Intel Rapid Storage : 10.​5.​0.​1026
Testkonfiguration: Messungen Leistungsaufnahme
System-Hardware
Hardware: Details
CPU: Intel Core 2 Extreme X7800 (65 nm, Merom XE, E1), 2C/2T, 2.6 GHz, 4 MByte L2-Cache, 44 Watt TDP
Motherboard (Sockel 478): MSI Fuzzy GM965, Revision: 1.0, Chipset: Intel GM965, BIOS: A9803IMS.220
RAM: Crucial BallistiX CM128M6416U27AD2F-3VX, 2x 1 GByte DDR2-666
System-HDD: Western Digital WD3200BEVT, 320 GByte, SATA 3 GBit/s, 5400 U/min
Controller: Intel ICH8-ME
Netzteil: Seasonic X-760 760 Watt, SS-760KM Active PFC F3
Benchmarks
Video-Playback: VLC 1.1.1
Big_Buck_Bunny_1080p
I/O-Performance: IOMeter 2006.07.27
Database-Benchmark
Streaming Writes
System-Software & Treiber
Treiber: Details
Betriebssystem: Windows 7 x64 Ultimate SP1
Intel Inf: 9.2.0.1021
Intel Graphics: 15.12.75.4.64

Natürlich wird man beim LC-Power LC-1340mi kein Wunderwerk der Technik aus feinstem Aluminium erwarten können. Aber 35 Euro Einstiegspreis sind schon einmal eine heftige Ansage, selbst wenn es sich natürlich nur um ein einfaches Stahlgehäuse handelt. Denn normalerweise zahlt man ja bereits für eine DC-DC-Platine und ein separates Notebooknetzteil mindestens das Gleiche, wenn nicht sogar noch deutlich mehr.

Genau an dieser Stelle wollen wir auch ansetzen, denn der fast schon unschlagbare Preis muss ja von irgendwoher kommen.

Aber was kann man von so einer Offerte also fairerweise erwarten? Das Gehäuse sollte äußerlich akzeptabel und im Inneren erträglich verarbeitet sowie beim Lieferumfang einigermaßen komplett sein. Das verbaute Netzteil sollte funktionieren und auch den Hands-On-Test überstehen. Kurzum: Es muss alles so funktionieren, wie man es erwartet – Luxus ist Nebensache und Perfektion kann für diesen Preis nicht erwartet werden.

Kommen wir zunächst zum Lieferumfang. Neben dem Gehäuse, in dem bereits eine DC-DC-Wandlerplatine fest verbaut ist, erhält man ein externes, 75 Watt starkes Notebook-Netzteil, die benötigten Kabel für die internen Anschlüsse, einen Standfuß für den vertikalen Betrieb und einen mini-SATA-Adapter, den man wohl nur in den seltenseten Fällen brauchen wird.

Schraubt man das Gehäuse auf, so fällt der Blick aufs Innere mit der bereits erwähnten Wandlerplatine und auf ein herausnehmbares Trägerblech, auf dem wir später das Laufwerk befestigen können.

Bevor wir nun zur Montage und unserem Kurztest kommen, hier schnell noch einmal alle technischen Daten in Tabelleform zum besseren Überblick:

Technische Daten: LC-Power LC-1340mi
Formfaktor: Mini-ITX (170 x 170mm für Platinen)
Material: Korpus: Stahlblech, außen schwarz lackiert
Front: schwarzer Kunststoff
Einbaumöglichkeiten 6,35cm/2,5″ intern: 1x auf Trägerblech
Gehäuselüfter: 2x 40 mm (optional)
Front-Panel: kein
Abmessung Gehäuse (BxHxT): 22,0 x 5,6 x 20,0 cm (ohne Standfuß)
Bauhöhe CPU-Kühler: maximal 40 mm
Gewicht (netto): 2,078 kg
Prüfzeichen: CE
Netzteil: LC75ITX (extern/passiv)
Preis: ab ca. 35 Euro

So schön diese Wattangaben auch immer aussehen, die Praxis sieht meist anders aus. Das musste seinerzeit auch Power Color mit der passiv gekühlten HD 6850 SCS 3 erfahren, die ohne frischen Morgenwind gleich selbst zum Sonnenaufgang wurde und dabei nonchalant verglühte. Wie weit kann man im geschlossenen Gehäuse wirklich gehen und wo liegen heute, in Zeiten von Maxwell & Co., die Grenzen des Machbaren?

Wir haben uns den Arctic Accelero S3 genauer angesehen und sind zudem so fair, lediglich eine Verlustleistung von maximal 83 Watt abführen zu lassen. Ob und wie dies gelingt (oder auch nicht) werden wir Verlauf unseres Tests noch klären. Als Basis dient die bereits beim HTPC-Review verwendete kurze GTX 960 OC von Gigabyte, die wir analog zum vorigen Tests ebenfalls zum Sparen gezwungen haben.

Nach dem Unboxing sieht man auch schnell den Unterschied zur Vorgängerversion des Grafikkartenkühlers von Arctic Cooling, denn der Umfang des Zubehörs hat sich deutlich vergrößert.

Man erhält neben der neuen Backplate auch noch Wärmeleit-Tape, Slot-Blende und einen optional nutzbaren Grafikkartenhalter. Der eigentliche Kühler mit den vier 6-mm-Heatpipes ist äußerlich kaum vom Vorgängermodell zu unterscheiden. Der Vollkupfer-Heatsink ist zudem eine überzeugende Lösung, die man kaum hätte verbessern können.

Was jedoch lobend hervorgehoben werden muss: Der Kühler kommt ohne Thermalkleber aus, was einen eventutellen Rückbau deutlich erleichtert.

Lamellenausrichtung und -abstand sind für einen Passivkühler optimal – solange man auf einen zusätzlichen Airflow setzen kann. Ein reiner Konvektionskühler müsste eigentlich völlig anders aussehen. Womit wir fast schon beim Test wären, dem wir aber an dieser Stelle noch nicht vorgreifen möchen. Deshalb schnell vorab noch ein paar technische Eckdaten in Tabellenform, bevor wir das Werkzeug in die Hand nehmen und loslegen.

Arctic Accelero S3
Kühler: Abmessungen (BxHxT): 23,0 x 4,2 x 13,5 cm
Gewicht: 410 g
Material: Aluminium (Lamellen), Kupfer (Bodenplatte, Heatpipes)
Backplate: Abmessungen (BxHxT): 21,8 x 2,3 x 9,8 cm
Gewicht: 305 g
Material: Aluminium
Kühlkapazität:: max. 135 Watt passiv
max. 200 Watt mit optional erhältlichem S3 Turbo Modul
Kompatibilität
AMD:
R9 280** / 270X** / 270**
R7 265** / 260X* / 260
R7 250X / 250 / 240
HD 8950** / 8870** / 8760* / 8740
HD 7870 XT** / 7870 GHz Edt.** / 7870** / 7850* / 7790* / 7770 GHz Edt.* / 7770* / 7750 / 7730
HD 6950** / 6870** / 6850* / 6790** / 6770* / 6750 / 6670 LP / 6670 / 6570
HD 5850** / 5830** / 5770* / 5750 / 5670 / 5550 OEM / 5550
HD 4890** / 4870** / 4850* / 4830* / 4770 / 4730 / 4670 / 4650 / 4550 / 4350 LP / 4350
HD 3870* / 3850 / 3690 / 3650 / 3470 / 3450
Kompatibilität
Nvidia:
GTX 760** / 750 Ti / 750
GTX 680** / 670** / 660 Ti** / 660** / 650 Ti Boost Edt.** / 650 Ti* / 650
GTX 560 Ti** / 560 SE** / 550 Ti*
GTX 465** / 460** / 460 SE**
GTS 450* / 250** / 240 (OEM)*
GT 640 / 630 / 440 / 340 / 330 / 320 / 240 / 220
Einschränkungen: * Nur bei der Nutzung in einem gut belüfteten Gehäuse empfohlen! 
** Nur in Kombination mit einem zusätzlichen S3 Turbo Modul empfohlen!
Homepage: Arctic
Straßenpreis ab ca. 33 Euro

Da Nvidia den Launch der Quadro M6000 kurzfristig von dem Event abgekoppelt hat, bei dem auch die GeForce GTX Titan X vorgestellt wurde, waren wir leider gezwungen, die bereits fertigen Vergleichsergebnisse bis zu einem späteren Zeitpunkt zurückzuhalten. Dass sich nur wenige Stunden vorm Launch noch einmal alles komplett ändern könnte, konnte keiner vorher wissen – aber letztlich waren wir ja auch die einzige Redaktion, die beide Karten am Start hatte.

Auswahl der Grafikkarten

Auf Grund der verbleibenden Zeit und der Anzahl der möglichen Tests haben wir uns dazu entschieden, jeweils den leistungsstarken Consumer-Karten ihr Workstation-Gegenstück gegenüberzustellen – und haben dies nicht nur mit Karten von Nvidia, sondern auch von AMD getan.

Das heißt aber auch, dass wir unterschiedliche Treiber nutzen müssen – getrennt nach Geforce-, Radeon-, Quadro- und FirePro-Karten. Aber auch das hat seinen ganz eigenen Charme. Um das Ganze etwas abzurunden und um die Workstation-Geschichte etwas greifbarer zu machen, haben wir in allen Benchmarks noch eine nominell viel schwächere FirePro-Karte mitgetestet – und zwar ohne die eine oder andere Überraschung.

Das Workstation-Testsystem weicht ein wenig von unserem stark übertakteten Testsystem für die Gaming-Grafikkarten ab und sieht aktuell so aus:

Testsystem
CPU + Kühler: Intel Core i7 4930K @ 4 GHz Turbo Core, Be Quiet! Dark Rock Pro 3
Mainboard + RAM: Asus Rampage IV, 64 GByte Corsair Dominator Platinum
SSD: Samsung 850 Pro, 512 GByte (256 GByte System, 256 GByte Apps + Benchmarks)
Messung
Energieaufnahme:
berührungslose Gleichstrommessung am PCIe-Slot (Riser-Card)
berührungslose Gleichstrommessung an der externen PCIe-Stromversorgung
direkte Spannungsmessung am Netzteil

2x HAMEG HMO 3054, 500 MHz Mehrkanal-Speicheroszillograph
4x HAMEG HZO50 Stromzangenadapter (1 mA bis 30 A, 100 KHz, DC)
4x HAMEG HZ355 (10:1 Tastteiler, 500 MHz)

Infrarotmessung: 1x Optris PI450 80Hz HiRes Infrared Camera + PI Connect
Betriebssystem: Windows 7 Ultimate x64 SP1
Treiber: Quadro 374.52, GeForce 347.84
Catalyst Pro 8.01.01.1423, Catalyst 14.12 Omega

Die Anforderungen an moderne Workstation-Karten haben sich gehörig geändert, denn die ehedem sehr klaren Trennlinien zwischen den einzelnen Anwendungsbieten verwischen immer mehr. Klassische CAD-/CAE-Anwendungen auf der Workstation profitieren immer mehr von der hohen Rechenleistung der GPUs, da viele dieser Workflows mittlerweile auf ein und derselben Maschine laufen. So gelingt es immer effizienter, Konstruktion und Echtzeitsimulation miteinander zu verschmelzen – vorausgesetzt man hat die richtige Workstation-Grafikkarte im Rechner.

Mit dem neuen Flaggschiff Quadro M6000, das auf dem GM200-Chip basiert und den lange erwarteten Vollausbau der Maxwell-Architektur repräsentiert, will Nvidia vor allem in den Bereichen Produktdesign, Architektur, Visualisierung sowie Entertainment punkten. 

Hohe Auflösungen wie Ultra-HD/4K (3840 x 2160 Pixel) stellen die Grafik-Hardware im professionellen Bereich vor komplett neue Aufgaben, eröffnen im Gegenzug jedoch auch völlig neue Perspektiven für die Entwurfsarbeit und Präsentation des Endprodukts. So ist ein gehöriger Mehrwert im Entwurfsbereich sogar bis hinab zur 2D-Ebene deutlich spürbar – ganz zu schweigen von den hohen Detailgraden der 3D-Visualisierung.

AMD hatte vor einiger Zeit mit der FirePro W9100 und der FirePro W8100 vor allem im 4K-Bereich gehörig vorgelegt, so dass Nvidia sich sicher auch deshalb etwas im Zugzwang sah. Denn vor allem für die professionelle, multi-mediale Präsentation und das Arbeiten mit hochauflösendem Material in nativer Auflösung und in wirklicher Echtzeit war die “alte” Quadro K6000 nicht wirklich optimal gerüstet. Gerade Features wie Video- und Fotofilter sowie die Encodierung derart hoch aufgelöster Inhalte kosten sehr viel Rechenleistung und erfordern eine saubere und optimale Implementierung.

Interessant sind außerdem die vielfältigen Anschlussmöglichkeiten für Ausgabegeräte: Mit Quadro Scalable Visual Solutions (SVS) bietet Nvidia die Möglichkeit, Monitor-Walls oder einen Multi-Node Visualization Cluster anzusteuern. Nutzt man Quadro Sync, so lassen sich bis zu vier M6000-Karten koppeln, womit sich dann insgesamt bis zu 16 Ausgabegeräte nahtlos zusammenschließen lassen.

Für ein SLI aus zwei Karten benötigt man aber nach wie vor zwei Quadro-Grafikkarten – das Mixen mit Consumer-Produkten ist nicht möglich.

Dazu kommt auch, dass Nvidia sich sehr intensiv mit Iray beschäftigt hat und in Kürze Quadro-Anwendern interessante Plugins für verschiedene Programme wie Autodesk Maya, 3ds Max, Revit, Rhino und Cimema 4D kostenlos zur Verfügung stehen wird, die man allerdings auch als “Heimanwender” im Nvidia-Shop erwerben kann.

Interessant ist auch der neue Render-Modus “Fast Interactive”, der ein wirkliches Echtzeit-Rendering in den von der Quadro M6000 berechneten Viewports ermöglicht, was auch die optimierte Zusammenarbeit mehrerer GPUs einschließt.

Zukunftsorientierte Aspekte – beispielsweise Nvidias Quadro Visual Computing Appliance (VCA) als effizientes Cloud-Rendering – sorgen dann für weiteren Mehrwert.

Vergleichen wir nun noch schnell die (theoretischen) Eckdaten der Quadro M6000 mit denen ihrer Vorgängerin und denen des AMD-Flaggschiffs, bevor wir mit den eigentlichen Tests beginnen:

Speicherband

Nvidia
Quadro M6000
Nvidia
Quadro K6000
AMD
FirePro W9100
Architektur: Maxwell Kepler Hawaii
Recheneinheiten: 3072 CUDA-Kerne 2880 CUDA-Kerne 2816 Stream-Prozessoren
FP32-Performance (SP): 7 TFLOPS 5,2 TFLOPS 5,24 TFLOPS
FP64-Performance (DP): n.a. (Verhältnis 1:32) 1,73 TFlops 2,62 TFlops
Speichergröße: 12 GB 12 GByte 16 GByte
Speicher-Interface: 384 Bit 384 Bit 512 Bit
Speicherbandbreite: 317,4 GByte/s 288 GByte/s 320 GByte/s
ECC: Ja Ja Ja
PCI Express-Bandbreite: 32 GByte/s 32 GByte/s 32 GByte/s
Max. Displayanzahl: 4 4 6
4K2K-Displays @ 30 Hz: 4 2 6
4K2K-Displays @ 60 Hz: 4 2 3
Energieaufnahme
(gemessen):
222 Watt Grafik
245 Watt Stresstest
187 Watt Grafik
202 Watt Stresstest
245 Watt Grafik
260 Watt Stresstest

Eine Mittelklasse gab es bei Mobilgeräten noch vor wenigen Jahren eigentlich nicht. Ordentliche Leistungen boten die High-End-Boliden; Geld sparen konnte man, wenn ein Vorgängermodell gekauft wurde. Und es gab natürlich die richtigen Billigkisten. Echte Midrange-Geräte gab es dagegen praktisch nicht.

Doch mittlerweile können auch vergleichsweise schlichtere Prozessoren im Alltag mit guten Leistungen mithalten. Dies zeigt sich in diesem Jahr in einer Art Pantentrezept für die Mittelklasse: Hinterm Display steckt bei einer Vielzahl von mittelpreisigen Smartphones Qualcomms Snapdragon 410, mit acht bis 16 Gigabyte Speicher und einem LTE-Modem als Kameraden.

Mittelklasse-Prozessor trifft auf wenig Speicher und kleine Kamera

Dies ist bei Phicomms Energy M+ nicht anders. Das 4,5 Zoll große Smartphone wird für 189 Euro angeboten und integriert als Hardware-Basis mit dem Snapdragon 410 einen Prozessor aus dem Hause Qualcomm, der auch ein LTE-Modem der vierten Kategorie (150 MBit/s Dowload, 50 MBit/s Upload) mitbringt. Zudem können zwei SIM-Karten genutzt werden. Der Datenspeicher ist mit acht Gigabyte für diese Klasse nicht mehr wirklich groß und auch die Hauptkamera kann mit ihrer Auflösung von fünf Megapixeln nicht beeindrucken.

Auch hinsichtlich der Software versucht sich Phicomm vergleichsweise aktuell zu geben. Als Betriebssystem wird Android 4.4.4 installiert, also die aktuellste Version des KitKat-Ablegers. Um den Entwicklungsaufwand möglichst gering zu halten, wird auf eine eigens angepasste Nutzeroberfläche verzichtet, was das User-Interface im Vergleich zu manch schicker Eigenkomposition namhafter Branchengrößen schon etwas altbacken wirken lässt. Ob es ein Update auf Android 5.0 geben wird, ist derzeit nicht bekannt.

Das weitere App-Angebot ist ebenfalls spartanisch: Abgesehen von den grundlegenden Google-Diensten liefert der Hersteller keine weiteren Dienste frei Haus.

Ich habe mal gehört, Selbstvertrauen soll sexy sein.

Nvidia beweist eine Menge Selbstvertrauen, denn sie schickten uns eine einzelne Karte und mit dem Acer XB280HK bprz den ersten G-Sync-Monitor mit 4K-Auflösung. Erwartet Nvidia, dass das neue Single-GPU-Flaggschiff bei einer Auflösung von 3840 x 2160 Pixeln noch Performance-Reserven hat? Wie cool wäre das denn? Chris’ kleiner, außer Sicht versteckter Tiki könnte dann in Ultra-HD durch die anspruchsvollsten Spiele pflügen! Dabei hatte er erwartet, mit dem Kleinen ewig bei einer Auflösung von 2560 x 1440 Pixel festzuhängen.

Die GTX 980 war nicht in der Lage, mit nur einem Grafikprozessor den Ansprüchen einer 4K-Auflösung mit einer Detailtiefe gerecht zu werden, die einen Enthusiasten begeistert. Aber die GeForce GTX Titan X basiert auf der GM200 und setzt sich aus acht Milliarden Transistoren zusammen. Acht. Milliarden. Das sind beinahe drei Milliarden mehr als bei der GM204-GPU der Geforce GTX 980 und eine Milliarde mehr als bei der GK110, dem Herzstück der ursprünglichen Geforce GTX Titan.

In ihrer finalen Form manifestieren sich diese Transistoren als ein 601 mm² großes Stück Silizium; das sind etwa neun Prozent mehr als bei der GK110. Die GM200-GPU wird in der gleichen 28nm High-K Metal Gate-Prozesstechnik gefertigt und ist folglich einfach nur ein größerer und komplexerer Chip. Und dennoch ist die maximale Energieaufnahme immer noch mit 250 Watt angegeben. Bei höherem Takt, wohlgemerkt. Und mit doppelt so viel Speicher. Oberflächlich betrachtet scheint dies einfach nicht zusammenzupassen. Tut es aber.

Das Innenleben der GM200

Ebenso wie die GeForce GTX 980 und 970, die letzten September vorgestellt wurden, basiert die GM200-GPU auf Nvidias energieeffizienter Maxwell-Architektur. Anstelle der vier Graphics Processing Cluster (GPC) der GM204 bekommt man bei GM200 sechs. Und bei vier Streaming-Multiprozessoren pro SMM ergibt das 24 SMMs auf der ganzen GPU. Multipliziere das mit 128 CUDA-Kernen pro SMM und man kommt bei der GeForce GTX Titan X auf eine Gesamtsumme von 3072 CUDA-Kerne. Acht Textureinheiten pro SMM ergeben insgesamt 192 – bei einem Basistakt von 1000 MHz sind das 192 GTex/s (die ursprüngliche GeForce GTX Titan war mit 188 GTex/s angegeben, obwohl sie über mehr Textureinheiten verfügte).

Wie die SMMs der GM204 haben die der GM200 96 KByte Shared Memory und 48 KB Textur-/L1-Cache – das Doppelte der GM107 der GeForce GTX 750 Ti. Die anderen Elemente der Architektur sind allerdings ähnlich. Jeder SMM besteht aus vier Blöcken mit jeweils eigenem Instruktionspuffer, Warp Scheduler und einem Paar Dispatch Units. Tatsächlich wird so viel übernommen, dass die Double-Precision-Berechnung immer noch mit 1/32 der FP32-Rate spezifiziert ist, obwohl die  GM200 das Familienoberhaupt der Maxwell-Familie ist. Übrigens teilt die kommende Quadro-Karte, die auf derselben GPU basiert, das gleiche Schicksal. Wenn die FP64-Leistung wirklich wichtig ist, würde Nvidia mit Sicherheit eine ihrer Tesla-Karten empfehlen.

GeForce GTX Titan X GeForce GTX 980 Radeon R9 290X GeForce GTX Titan
Prozesstechnik: 28 nm 28 nm 28 nm 28 nm
Transistoren: 8 Milliarden 5,2 Milliarden 6,2 Milliarden 7,1 Milliarden
GPU-Takt: 1000 MHz 1126 MHz bis zu 1 GHz 837 MHz
Shader: 3072 2048 2816 2688
Textur-Einheiten: 192 128 176 224
Textur-Füllrate: 192 GT/s 172,8 GT/s 176 GT/s 188 GT/s
ROPs: 96 64 64 48
Pixel-Füllrate: 96 GP/s 72 GP/s 64 GP/s 40 GP/s
Speicher-Interface: 384 Bit 256 Bit 512 Bit 384 Bit
Speicher: 12 GByte GDDR5 4 GByte GDDR5 4 GByte GDDR5 6 GByte GDDR5
Speichertransferrate: 7 GT/s 7 GT/s 5 GT/s 6 GT/s
Speicherbandbreite: 336,5 GB/s 224,4 GB/s 320 GB/s 288 GB/s
Board Power: 250 Watt 165 Watt 250 Watt 250 Watt

Die vier ROP-Partitionen der GeForce GTX 980 wurden bei der GeForce GTX Titan X auf sechs erhöht. Bei jeweils 16 Einheiten sind das bis zu 96 32-Bit-Integer-Pixel pro Takt. Den ROP-Partitionen sind 512 KByte große L2-Cache-Bereiche zugeteilt, was bei der GM200 in Summe drei MByte ergibt. Als Nvidia die GeForce GTX 750 Ti vorstellte, erklärte sie den großen L2-Cache als Maßnahme gegen den Flaschenhals des mit 128 Bit relativ schmalen Speicher-Interfaces. Bei der GM200 sollte das angesichts ihrer Speicherbandbreite von 384 Bit und dem 7 Gb/s schnellen Speicher kein Problem sein. Der maximale Durchsatz von 336,5 GByte/s entspricht dem der GeForce GTX 780 Ti und übertrifft den von GeForce GTX Titan, Geforce GTX 980 und AMDs Radeon R9 290X.

GM200 auf der GeForce GTX Titan X

Nvidia pflanzt die GM200 auf eine 26,7 Zentimeter langes PCB, das anderen High-End-Boards der letzten Jahre ähnelt. Modellspezifische Unterschiede sind bei näherem Hinsehen natürlich offensichtlich, aber im Endeffekt sprechen wir hier über die gleichen Abmessungen, was den Job von Systemintegratoren beim Bau neuer PC-Systeme zweifellos vereinfacht.

Wir finden auch die gleiche Anzahl Single-Die-Speicher-ICs um die GPU herum. Jedoch sind es jetzt vier Gigabit (512 Megabyte) große Pakete von SK hynix’ schnellstem GDDR5-Speicher, was einen Gesamtspeicher von 12 Gigabyte ergibt. Das ist selbst für 4K ein ziemlicher Overkill. Nvidia sagt, sie würden hier auf Zukunftssicherheit setzen und falls zukünftig mehrere Ultra-HD-Bildschirme von drei oder vier Titan X-Karten im SLI-Verbund angesteuert würden, wären sechs Gigabyte einfach nicht ausreichend.

Auf dem PCB sitzt eine Platte, die die auf der Oberfläche angebrachten Komponenten kühlen soll. Darauf ist eine große, aus Kupfer gefertigte Vapor Chamber montiert, auf der wiederum ein zwei Slots hoher Aluminium-Kühlkörper sitzt. Nvidias Referenzdesign bleibt dem Zentrifugallüfter treu, der Luft aus dem Gehäuse ansaugt, über die Platine und durch den Kühlkörper leitet und dann nach hinten aus dem Gehäuse bläst. Obwohl blasende Lüfter gewöhnlich mehr Lärm machen als Axial-Lüfter, haben wir genügend auf diesem Konzept basierende Karten gesehen um zu wissen, wie geräuscharm sie laufen können. Die Geforce GTX Titan X ist da keine Ausnahme.

Ein Aluminium-Gehäuse verbirgt die inneren Teile. Es hat mehr Struktur als in der Vergangenheit und Nvidia hat es zudem schwarz lackiert. Erinnert ihr euch vielleicht noch an dieses Bild aus dem folgenden Artikel unserer US-Kollegen: The Story of How GeForce GTX 690 And Titan Came To Be? Es sieht ganz ähnlich aus – bis auf die fehlende grüne Beleuchtung unter den Kühllamellen.

Außerdem fehlt die Backplate, die noch bei der GeForce GTX 980 vorhanden war. Ein Teil der 980er Backplate war entfernbar, um den Luftstrom zwischen mehreren 980ern zu verbessern. Allerdings hat die Titan X einen größeren Energiebedarf. Um mehreren, einander angrenzenden Karten möglichst viel Platz zum Atmen zu geben, hat Nvidia sie komplett weggelassen. Chris vermisst sie ja nicht, aber ich bevorzugte den eleganten, professionellen Look.

Die GeForce GTX Titan hat die gleichen Ausgänge wie die GTX 980 – also einen DVI-Anschluss (Dual-Link), einen HDMI 2.0-fähigen Anschluss und drei DisplayPort-Ausgänge voller Größe. An diesen fünf Anschlüssen können bis zu vier Displays gleichzeitig angeschlossen werden. Und falls man mehrere Displays mit G-Sync nutzt, macht das DisplayPort 1.2-Trio Surround möglich.

Die Zukunft im Blick

Abgesehen von den 12 Gigabyte DDR5-Speicher betont Nvidia auch eine Reihe von GPU-Features, die für eine größere Zukunftssicherheit sorgen sollen.

Während der diesjährigen GDC hat Microsoft erwähnt, dass 50 Prozent der heutigen Grafik-Hardware von DirectX 12 unterstützt wird und dass die Quote zu Weihnachten auf zwei Drittel steigen wird. Das heißt, dass ein Großteil der Grafikkarten mit der API funktionieren wird. Allerdings werden die Funktionen von DirectX 12 in zwei Gruppen eingeteilt: 12.0 und 12.1. Laut Microsofts Max McMullen enthält DX 12.0 einen Großteil der CPU-orientierten Performance-Vorteile, während DX 12.1 Conservative Rasterization und Rasterizer Ordered Views (ROVs) für noch leistungsstärkere Rendering-Algorithmen einführt.

Wie man es von einer GPU erwarten kann, die auf Zukunftssicherheit setzt, unterstützt die GM200 die Funktionen von DirectX 12.1 (ebenso wie die GM204). Alles Ältere – inklusive der GM 107, auf der die GeForce GTX 750 Ti basiert – ist auf den Funktionsumfang von DirectX 12.0 begrenzt. Wir haben auch bei AMD angefragt, ob seine CGN-basierten GPUs DirectX 12.0 oder 12.1 unterstützen; ein Vertreter des Unternehmens antwortete uns, dass er dies zu diesem Zeitpunkt nicht kommentieren könne.

Die Maxwell-Architektur enthält eine Reihe anderer Funktionen, von denen einige schon heute genutzt werden, während andere noch auf Unterstützung und Nutzung durch die Entwickler warten. Für weitere Informationen über Dynamic Super Resolution, Multi-Frame Samples Anti-Aliasing (übrigens eine gute Methode, um die Geschwindigkeitseinbußen durch Anti-Aliasing bei 4K-Gaming auf der Titan X zu minimieren), VR Direct und Voxel Global Illumination sollte man sich diese Seite in unserem Launch-Artikel zur GeForce GTX 970 und GTX 980 zu Gemüte führen.

  • 1
  • 2

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen