Monat: November 2012

Es ist wohl gerade Shooter-Zeit. Vor gerade einmal zwei Wochen haben wir uns der Grafikkartenperformance in Medal of Honor Warfighter gewidmet, letzte Woche haben wir uns den Third-Person-Shooter Hitman: Absolution genauer angesehen und heute nehmen wir uns Call of Duty: Black Ops II vor.

Wenn wir ehrlich sind, hat uns die Aussicht auf noch einen weiteren Shooter nicht sonderlich von den Socken gehauen. Manchmal bekommt man schon das Gefühl, es mit einer endlosen Prozession von Titeln aus den bekannten und beliebten aber doch ein wenig ausgelutschten Spieleserien Call of Duty, Medal of Honor oder Battlefield zu tun zu haben. Oft genug wird den Fans ein nach Schema F gestricktes Spiel vorgesetzt und damit mächtig Geld verdient. Die Innovation, das Spielerlebnis mit dem gewissen Etwas, bleibt dabei aber auf der Strecke. Was würden wir dafür geben, wenn sich das Genre doch ein wenig weiterentwickelte! So laufen aber auch die aktuell erfolgreichsten Formeln für einen Spielehit Gefahr, durch ständige Wiederholung ihren Reiz zu verlieren.

Schön, dass es auch noch Ausnahmen gibt, und mit einer solchen haben wir es heute zu tun. Denn wenn wir was von Call of Duty: Black Ops II gelernt haben, dann das: Eine gut umgesetzte und erzählte, zusammenhängende Story kann auch einem etwas müde gewordenen Genre wieder neues Leben einhauchen. Bei diesem Spiel merkt man, dass von den Autoren über die Entwickler bis hin zu den Produzenten allen daran gelegen war, genau das zu erreichen. Das Tempo ist gut gewählt, die Handlung hält den Spieler gut bei der Stange, und auch die diversen Charaktere entwickeln sich im Spielverlauf – selbst der Bösewicht. Call of Duty: Black Ops II definiert das Genre nicht neu und ist auch sonst keine Revolution – aber es ist ein grundsolides und vor allem unterhaltsames Spiel. Von uns, die wir inzwischen schon ein wenig der vielen Shooter müde sind, darf das getrost als Lob verstanden werden.

Mit Stöcken auf Bewaffnete loszurennen dürfte keine gute Taktik sein.Mit Stöcken auf Bewaffnete loszurennen dürfte keine gute Taktik sein.

Abgesehen davon, dass dies der erste Call-of-Duty-Titel ist, der einen Abstecher in die Zukunft macht und mit entsprechenden High-Tech-Waffen aufwartet, haben sich die Entwickler (dankenswerterweise) weitere Gimmicks gespart. Die Fantasieausrüstung fällt ohnehin so gut wie gar nicht ins Gewicht. Der eigentliche Star des Spiels ist die Geschichte selbst, die den Spieler einzuwickeln vermag. Die Handlung springt zwischen dem Jahr 2025 und dem Vietnamkrieg hin und her, doch in welcher Zeit und mit welchen Waffen man dabei kämpft, wirkt sich dabei überraschend wenig auf das Spielerlebnis selbst aus.

Der unsichtbare Dritte...?Der unsichtbare Dritte…?

Überall zeigt sich, dass Treyarch sich große Mühe gegeben haben, frische Level zu präsentieren. Doch im Gegensatz zu Medal of Honor Warfighter sind sie hervorragend in den Handlungsstrang eingebunden anstatt von der eigentlichen Geschichte abzulenken. Man hat es mit vielen unterschiedlichen Schauplätzen zu tun, in einigen in der in der Zukunft spielenden Missionen muss man Roboter fernsteuern, und es gibt sogar ein Level, das sich wie ein Echtzeitstrategiespiel spielt. Größtenteils präsentiert sich das Spiel aber als klassischer First-Person-Shooter.

CoD im RTS-ModusCoD im RTS-Modus

Hat ein so dramatischer Handlungsstrang auch Nachteile? Ja, schon. Ab und an ist es einfach zu viel, und die Illusion, voll ins Spiel vertieft zu sein, geht verloren, wenn man mit zu übertriebenen Einlagen konfrontiert wird. Beispiel: An einer Stelle steht der Spieler-Avatar am Rande einer Klippe, als der Baum neben ihm vom Blitz getroffen wird – und dann droht, ihn mit sich den Berg hinab zu ziehen. Das ist natürlich schon ziemlich albern. Andererseits ist man in dem Moment wirklich mehr darum besorgt, ein frühzeitiges Ableben bestmöglich zu verhindern. Diese fröhlich-übertriebenen Szenarien helfen, dem Spielfluss an den richtigen Stellen ein wenig Fluss und Tempo zu geben, aber einige sind einfach lächerlich. Man fühlt sich wie eine Figur in einem übertriebenen, beinahe karikierten Action-Film. Aber selbst dann hat man immer noch viel mehr Spaß, als würde man im Kino einen solchen schlechten Streifen sehen.

Ab in die Tiefe mit dem Wingsuit!Ab in die Tiefe mit dem Wingsuit!

Doch wie immer steht bei uns eigentlich im Vordergrund, wie das Spiel auf aktuellen Grafikkarten läuft. Deshalb haben wir uns auch nicht mit dem Multiplayer-Modus oder dem Zombie-Spiel beschäftigt sondern stattdessen nach dem anspruchsvollsten Abschnitt der Einzelspielerkampagne gesucht, um ihn als Benchmarksequenz zu nutzen. Unsere Wahl fiel auf das Feuergefecht im Dschungel im Level „Celerium“, direkt nachdem man mit dem Wingsuit einen Sprung in die Tiefe hinter sich gebracht hat.

Doch bevor wir zu den Charts und der Auswertung kommen, sollten wir uns noch die verschiedenen Einstellmöglichkeiten bei der Bildqualität anschauen.

Die GeForce GTX 650 als solche ist zwar nicht mehr ganz taufrisch, aber da sich Nvidia bisher mit Samples komplett zurückgehalten hat, stehen die Karten mit dem GK107 eher abseits vom Fokus der Computer-Interessierten. Eine VGA-Karte, die ungefähr in der Liga einer Radeon 7750 spielt, ist keine Sensation und auch keineswegs geeignet, Otto Normalzocker hinter dem heimischen Ofen hervor zu locken.

Damit hat dann ein Hersteller wie Sparkle so seine diversen Probleme, also musste irgend etwas her, was die Blicke wieder ein wenig mehr auf sich ziehen kann. Guten Mutes hat man dieser Karte neben dem Standard-Lüfter gleich noch 2 weitere, wechselbare Einsätze spendiert, die einen Silent- und einen Turbo-Modus umsetzen sollen. Klingt für mich erst einmal interessant, wäre es sicher auch für die Leser, aber die Karte, die bei mir letzte Woche ankam, war alles andere als im Lieferzustand ab Werk. Da diverse Nacharbeiten notwendig wurden, weichen die Ergebnisse unter Umständen von einigen Reviews ab, aber ich bin mir sicher, den Originalzustand recht gut getroffen zu haben.

Mit 1124 MHz taktet die Sparkle-Karte deutlich höher als das mit “nur” 1058 MHz getaktete Referenzmodell. Auch beim GDDR5-Speicher schafft man mit 1400 MHz immerhin 150 MHz mehr, als die mit 1250 MHz getaktete Empfehlung. Das reicht am Ende auch für eine bessere Speicherbandbreite von 89,6 GB/s, wobei man die Referenz mit ihren 80 GB/s sehr deutlich übertrifft. Damit sollte sich die kleine Sparkle-Karte irgendwo zwischen Radeon HD 7750 und HD 770 einordnen. Bliebe noch die Frage, mit welchem Leistungshunger und welcher Lautstärke. Da es drei Lüfter gibt, musste ich auch dreimal testen. Bitte umblättern.

OCZ war in letzter Zeit mal wieder häufiger in den Schlagzeilen, wenn auch sicherlich nicht aus den Gründen, die man sich bei der Firma gewünscht hätte. Der Tumult auf der Management-Ebene hat sicherlich zur verstärkten Präsenz in den Tech-Medien beigetragen, aber auch die Quartalszahlen sorgten für Aufsehen. Die offizielle Begründung für die schwachen Zahlen lautete, dass man nicht genug NAND-Flash habe beziehen können, um die SSD-Nachfrage zu decken. Andererseits war da noch die Sache mit dem eigenen Rabattprogramm, das man zu berücksichtigen versäumt hatte (OCZ übersieht eigenes Rabattprogramm, muss Ergebnis nachkorrigieren: Quartalsverlust erwartet). Von einigen anderen SSD-Herstellern haben wir vernommen, dass ein Preiskrieg in vollem Gange sei – und der gehe nicht zuletzt auf OCZs aggressive Preisgestaltung zurück, die kaum noch Platz für Margen lässt. Doch geht einer voran, müssen alle anderen Nachziehen – oder sich mit sinkenden Verkaufszahlen abfinden. Nein, aktuell macht es wohl wenig Spaß, im SSD-Geschäft zu sein.

Aber OCZ auf die Negativschlagzeilen zu reduzieren wäre alles andere als fair. Momentan befindet sich die Firma in einer Übergangsphase – und damit meinen wir nicht das Personalkarussell auf der Führungsetage sondern die steigende vertikale Integrierung. Oder, um es mit normalem Deutsch zu sagen: OCZ macht sich zunehmend von externen Quellen unabhängig. Während viele Firmen sich Controller, Flash-Chips und Firmware zusammenkaufen, alles in ein 2,5“-Gehäuse bauen und am Ende einfach das eigene Firmenlogo draufkleben, hat sich OCZ entschlossen, einen anderen Weg zu gehen. Man hat begriffen, dass man sich in einem zunehmend dicht gedrängten Markt schlecht von der Konkurrenz absetzen kann, wenn alle mit den gleichen Zutaten kochen. Logische Schlussfolgerung: Geheimrezept mit eigenen Zutaten entwickeln.

Bislang haben wir vornehmlich OCZ-Laufwerke getestet, die (zeitweise) exklusive Firmware und (zeitweise) exklusive Controller nutzten. Doch nach einer gewissen Vorlaufzeit wollten die Anbieter ihre Bausteine und Firmware auch anderen Herstellern verkaufen, und so verpuffte der Vorteil der Exklusivität. Eine Zeit lang glaubten wir, der Everest-2-Controller in der Vertex-4-Familie sei eine Eigenentwicklung, doch dann stellte sich heraus, dass es sich um einen angepassten Marvell-Chip handelte. Doch auch wenn der Chip selbst nicht ein Eigengewächs war, die Firmware war zu großen teilen selbst entwickelt – und die zahlte sich in einer beachtlichen Performance aus. Bei Firmware-Version 1.5 angekommen zeigte sich, was für Potential in der Vertex 4 steckte, welche Tricks und Kniffe OCZs Entwickler auf dem Kasten haben, aber eben vor allem, wie gut man sich von der konkurrierenden Masse der immergleichen SSDs absetzen konnte.

Ein eigener Controller – dieses Mal wirklich?

Heute stellt OCZ seine neueste SSD mit dem klangvollen Namen Vector vor, die auf dem brandneuen und selbst entwickelten Barefoot-3-Controller basiert. Im Gegensatz zum Everest-2-Chip der Vertex 4, der zwar die Bezeichnung Indilinx IDX400M00-BC trug und als Eigenentwicklung verkauft wurde, aber eigentlich ein angepasster Marvell-Controller war, handelt es sich beim Barefoot 3 (IDX500M00-BC) um ein vollständig von OCZ entwickeltes Produkt. Das nötige Know-how hatte man sich durch die Käufe von Indilinx und PLX angeeignet.

Damit kommen nun zwei der drei Hauptzutaten einer SSD bei OCZ aus dem eigenen Lager. Sicherlich wünschte sich OCZ derzeit nichts lieber, als auch noch die NAND-Fertigung selbst übernehmen zu können um so nie mehr den Lieferengpässen ausgeliefert zu sein, die zumindest zum Teil an der Umsatzwarnung schuld waren. Als Enthusiasten ist uns aber klar, dass OCZ mit einem eigenen Controller in einer viel besseren Position ist, um im Markt etwas zu bewegen und sich von der Konkurrenz abzugrenzen. Zukünftig muss man nicht mehr viel Zeit, Energie und nicht zuletzt Geld in den Launch eines Produktes stecken, wohl wissend, dass die Konkurrenz nur wenige Wochen später mit einem fast identischen Produkt mit ähnlichem Speicher, baugleichem Controller und identischer Firmware nachziehen würde.

Bislang ist OCZ erstaunlich offen, was die Zusammensetzung des neuen Controllerchips anbelangt. Der Barefoot 3 besteht aus einem einzelnen ARM-Cortex-Kern, der von einem proprietären Aragon-Co-Prozessor unterstützt wird. Ersterer verarbeitet die vom SATA-Controller eingehenden Befehle, letzterer kümmert sich um den Datenaustausch mit NAND-Speicher. Leider wollte man uns nichts Genaueres dazu sagen, welche Architekturgeneration man für den Controller von ARM lizenziert hat, aber dafür wissen wir schon einiges über den Aragon Co-Prozessor.

Auf der Konferenz zur Bekanntgabe der Quartalsergebnisse erklärte der damalige CEO Ryan Peterson am 10. Juli 2012:

Der Barefoot-3-Controller nutzt einen eigens entwickelten 32-Bit-Prozessor namens Aragon mit einer Taktrate von 400 MHz, der in diesem Fall von TSMC in einer Strukturbreite von 65 nm in GP-Technik gefertigt wird.

Der Aragon-Kern ist der erste voll auf den Einsatz in SSDs hin optimierte Prozessor der Welt. Er unterstützt SSD-spezifische RISC-Befehle und kann daher die meisten Befehle sowie ihre Verzweigungen in einem einzigen Taktzyklus verarbeiten.

OCZ hat uns gegenüber bestätigt, dass sich daran auch für den Launch der Vector nichts geändert hat.

Das neue Laufwerk besitzt also einen echten Indilinx-Controller und, natürlich, eine selbstgebackene Firmware. Beim NAND-Speicher ist OCZ aber immer noch auf Dritte angewiesen. Hier wählte man vergleichsweise konservativ, denn während Intels SSD 335 auf 20-nm-Flash von IMFT basiert und Samsung in der SSD 840 Pro Toggle-Mode-2.0-NAND in 21 nm verwendet, hat sich OCZ bei der Vector klassisch für den weit verbreiteten ONFi-2.x-Speicher in 25 nm von IMFT entschieden.

Ein NAS (Network Attached Storage) war ursprünglich ein reiner Dateiserver, der über das Netzwerk Daten zur Verfügung stellt. Kam diese Geräteklasse ehemals hauptsächlich in größeren Unternehmen zum Einsatz, zählen Hersteller wie Buffalo, Qnap, Synology, Thecus und Co. mit ihren SOHO-Geräten (Small Office/Home Office) dank günstiger Einstiegspreise seit einigen Jahren immer mehr kleinere Unternehmen und Privathaushalte zu ihren Kunden.

Mit den Multimedia-Applikationen wie Foto- und Mediaservern gefallen die Geräte immer mehr Privatkunden, denen externe Festplatten zum reinen Sichern ihrer Daten nicht mehr ausreichen. Denn Musik, Bilder und Videos wollen verwaltet werden und die moderne Stereoanlage oder das auf HD getrimmte Heimkino fordern Zugriff auf die Musik- und Filmsammlung.

Die ersten DLNA-Media-Server waren geboren: Eine zertifizierte Geräteklasse, die sicher stellte, dass alle DLNA-zertifizierten Player (Netzwerkfähige Blu-Ray Player, Mediaplayer, TV) auf die Mediainhalte über das Heimnetzwerk zugreifen können.

Während NAS-Hersteller wie Thecus die ersten Modelle mit einem HDMI-Ausgang für den direkten TV-Anschluss ausstatten, verspricht Synology mit der Applikation Video Station auch ältere DiskStation Modelle in Videorekorder und TV-Empfangsgeräte zu verwandeln: Einfach passenden DVB-T USB Stick angeschlossen, Video Station installiert – fertig.

Wie schlägt sich dieses Konzept in der Praxis? Wir haben den Test gemacht.

Einzeltest: WD Black WD4001FAEX 4 TB

Speicherspezialist Western Digital erweitert seine für das Performance-Segment entwickelte Black-Festplattenserie um ein neues Modell: die WD4001FAEX mit 4 TB Speicherplatz. Unser Testkandidat läuft mit einer Drehzahl von 7200 U/min., besitzt eine 6 Gb/s schnelle SATA-Schnittstelle und verwendet einen 64 MB großen Cache. Über die genaue Anzahl der Magnetscheiben hüllt sich der Hersteller in Schweigen, doch ausgehend von den Testergebnissen vermuten wir, dass in der WD4001FAEX fünf Platter sitzen. An der Bauhöhe lässt sich das nicht ablesen, weil das WD-Laufwerk ebenso wie alle anderen aktuellen von uns getesteten Festplatten aus dem 3-TB- und 4-TB-Umfeld jeweils in Standardhöhe von 26,1 Millimetern haben.

Je größer die Laufwerkskapazität, desto länger dauern auch die Benchmarks, so die Binsenweisheit. Die WD Black WD4001FAEX hat das eindrucksvoll bestätigt, denn es waren insgesamt 19 Stunden an Testdurchläufen notwendig, um deren Leistung adäquat einzuordnen. Anscheinend hatte Western Digital Erbarmen mit den Testern, denn dem Paket mit der Festplatte war auch ein kleiner Vorrat an Nervennahrung beigelegt, damit wir die lange Testphase ohne Spätfolgen überstehen. Das praktische Schokoladen-Überlebensset ist leider kein fester Bestandteil der WD-Ausstattung, und so gibt es im Handel nur die blanke WD4001FAEX, die aktuell für rund 300 Euro angeboten wird.

Tortur mit Zahlen statt vieler Worte

Wie nennt man insgesamt 415 Benchmarkdurchläufe auf einen Streich? Selbstauferlegter Stresstest mit dem Hang zum Masochismus. Bis auf die GTX 560 448 Core habe ich für diesen Test alles aufgeboten, was das Archiv noch an funktionierenden Grafikkarten hergab. Nun könnte man sich eingangs ja auch erst einmal über das Spiel selbst trefflich auslassen, aber ich will den Fokus dann doch eher auf die Benchmarks legen. Einerseits würde meine Meinung wiederum sehr subjektiv ausfallen und andererseits ist bereits wirklich genügend zum Spiel geschrieben worden –  also lieber wieder zurück zu den Grafikkarten. Da mich oft genug Anfragen erreicht haben, ob man nicht auch werksübertaktete Karten mit einbeziehen könnte, will ich diesem Wunsch diesmal gern folgen.

Immer am Drücker: Nummer 47Immer am Drücker: Nummer 47

Was man auch woanders hätte lesen können…

Da hätten wir wieder unsere Nummer 47 mit obligatorischem schwarzen Anzug, roter Krawatte, dem silbernen Aktenkoffer und der altbekannten Glatze samt eintätowiertem Barcode am Hinterkopf. Was aber nicht alles ist, denn er nimmt es diesmal in einer recht ordentlich gestrickten und zusammenhängenden Story auch noch sehr persönlich. Die erwähnte Handlung ist ein gut zusammengeleimter Rahmen, der die verschiedensten Schauplätze plausibel miteinander verbindet. Die Atmosphäre ist wie immer erste Klasse, auch wenn manchmal der eine oder andere Effekt des Guten etwas zu viel ist. Trotzdem passen Stimmung, Grafik und vor allem auch die gelungene Musik ordentlich zusammen und ergeben ein recht rund wirkendes Produkt. Vom Aspekt des Spielers her, der solche Art Unterhaltung gern konsumiert, kann man mit dem Spiel fast nichts falsch machen.

Was steht auf unserer Speisekarte?

Uns interessiert jedoch diesmal mehr die Ausgabe des Spielerlebnisses am Bildschirm. Mit der Glacier-2-Engine schöpft man ja nicht nur bei der Multisample-Kantenglättung (MSAA) aus dem Vollen, sondern setzt bei der globalen Beleuchtung auf Light Propagation Volumes und tobt sich bei der Tiefenunschärfe stellenweise schon etwas zu übermütig aus. Tessellation ist natürlich ebenfalls ein Thema, zumal auch die Charaktere stark (und sichtbar) von dieser Technik profitieren. Mit von der Partie sind noch SSAO (Screen-Space Ambient Occlusion) und schmucke Echtzeit-Reflexionen. Shader-basiertes FXAA kann ebenfalls angewählt werden, sieht aber wie immer in der Bewegung etwas matschig aus, spart dafür aber etwas Ressourcen bei schwächeren Karten. Dreht man mutwillig (oder sehr optimistisch) alles auf Maximum, dann stoßen selbst aktuelle High-End-Grafikkarten schnell an ihre Grenzen. Lässt man es bei einigen Settings hingegen etwas gemächlicher angehen, limitiert bei den schnellsten Karten bereits die CPU merklich. Wie soll man diesen großen Grafik-Klops nun möglichst magenschonend verspeisen? Ich habe mich zwar nicht daran verschluckt, will aber auf der nächsten Seite dann doch noch ein paar nötige Worte zum Benchmark und dem Testsystem verlieren.

Der Markt für Smartphones wird aktuell von Apple und Samsung dominiert. Mehr als die Hälfte der verkauften Geräte trägt ein Logo eines der beiden Hersteller. Dahinter versuchen HTC, LG und Sony, aber auch Neulinge wie Huawei und ZTE genauso wie der altehrwürdige, jedoch seit Monaten taumelnde finnische Konzern Nokia mit einer kaum zu überblickenden Masse von Smartphones die Herzen der Nutzer zu erreichen. Das Gebot der Stunde lautet damit also auffallen, um herauszustechen aus dem übergroßen Angebot. Das gilt auch für Motorola.

Der amerikanische Pionier kämpfte zuletzt gegen schwindendes Kundeninteresse. Nun sollen die Aufräumarbeiten des neuen Eigentümers Google erste Früchte tragen, der zunächst für eine deutliche Verschlankung des Angebots gesorgt hat. Mit drei neuen Smartphones der RAZR-Serie hat sich Motorola zurückgemeldet, wobei neben dem üblichen Gigantismus bei Prozessor und Display mit dem RAZR i in Europa ein Smartphone angeboten wird, das Nutzer gewinnen soll, denen es um ein ausgewogenes Verhältnis zwischen großem Bildschirm und kompaktes Format geht. Abstriche hinsichtlich der Leistungsfähigkeit sollen Dank eines schnellen Intel-Prozessors vermieden werden – damit wird das RAZR i das erste Smartphone, das hierzulande mit der Atom-Plattform angeboten wird.

Das RAZR i will schon äußerlich massiv sein

Motorola lieferte seinen Kritikern zuletzt sicherlich eine Vielzahl von Angriffspunkten. Schon die Update-Politik des Herstellers löste allgemeines Kopfschütteln aus: Das Android-4.0-Update für das bisherige Flaggschiff RAZR ließ beinahe ein Jahr auf sich warten. Kaum Anlass für Ärger gab dagegen bisher die Verarbeitung von Motorola-Smartphones. Selbst bei robuster Handhabe zeigten sich diese vergleichsweise widerstandsfähig.

An diese Tradition will der Hersteller auch mit dem RAZR i anknüpfen. Das signalisieren schon sechs Schrauben – jeweils drei pro Seite – die offenbar zeigen sollen, dass Ober- und Unterseite fest im Rahmen des Smartphones fixiert sind. Diese lassen das Smartphone ein wenig hemdsärmlig daherkommen. An der Verarbeitung gibt es jedoch nichts auszusetzen. Alles sitzt bombenfest und auch bei größerer Krafteinwirkung knarzt oder verwindet sich nichts. Das Display wird von einem Metallrahmen umschlossen, der auch bei unliebsamer Behandlung nicht gleich an Glanz verliert. Die Rückseite ziert das schon vom ersten Android-RAZR bekannte Kevlar-Muster.

Mit Abmaßen von 122,5 x 60,9 x 8,3 mm ist das Smartphone vergleichsweise kompakt, vor allem wenn man bedenkt, dass in dem Gehäuse ein 4,3″ großes Display untergebracht worden ist. Im Vergleich dazu: Das vor einem Jahr eingeführte erste RAZR-Smartphone maß noch 130,7 x 68,9 x 7,1 mm. Die knappen Außenmaße des RAZR i werden durch einen Rahmen möglich, der gerade an den beiden Längsseiten nur einen sehr schlanken Rand ums Display lässt. Motorola benötigt hier nur wenig mehr als 2 mm. Außerdem greift Motorola zu einem kleinen Trick: Die drei Android-Funktionstasten sind beim RAZR i nämlich Teil des Bildschirms und verschwinden nur, wenn Videos mit Hilfe eines Videoplayers abgespielt werden. Selbst bei Youtube-Clips bleiben die Tasten bestehen – auch wenn sich die Tasten-Symbole in Punkte verwandeln.

Durch den schmalen Rand wirkt das Display umso prägnanter, das kompakte Format sorgt für viel Freude beim Bedienen, weil auch Nutzer mit kleineren Händen alle Menüpunkte ohne Schwierigkeiten einhändig erreichen. Allerdings bringt der knapp geschneiderte Rahmen auch einen kleinen Nachteil mit: Hin und wieder registriert der Bildschirm Eingaben, die nur deshalb zustande kommen, weil die Finger beim Halten unvorsichtig das Display berühren. Ähnliche Fehlinterpretierungen passieren auch der Foto-Taste, die im unteren Bereich der rechten Längsseite sitzt und sich schon leicht mit dem Handballen aktivieren lässt. Wird diese gedrückt, wird die Foto-Funktion aufgerufen und damit letztlich das Smartphone entsperrt. Das ist vor allem dann unschön, wenn das Smartphone in der Hosentasche verweilt.

Zotac ZBOX-AD06-Plus: Nettop mit BRazos 2.0 an Bord.Zotac ZBOX-AD06-Plus: Nettop mit BRazos 2.0 an Bord.

Anfang des Jahres haben wir uns bereits ausführlich dem Thema Nettop gewidmet und einen großen Vergleich aktueller Nettop-Plattformen angestellt. Anschließend haben wir die Tuning-Möglichkeiten bei Nettops erörtert und einige Einzeltest durchgeführt, beispielsweise mit Sapphires Edge-HD3 oder den Quasi-Drillingen Shuttle XS35GTA V3, XS35 V3 und XS36V. Vor allem AMDs Brazos-Plattform machte dabei als Gesamtpaket eine gute Figur. Jetzt bringt Zotac mit seiner ZBOX-AD06 Plus eine Version mit Brazos 2.0 heraus.

Wie die bereits getesteten ZBOXen steckt auch das neue Modell im bekannten quadratisch, praktisch, schwarzen Hochglanzgehäuse mit silberfarbener Taille und einer Grundfläche von 19 x 19 cm. Mit neueren Varianten wie beispielsweise der ZBOX-ID82 teilt sich die AD06 nicht nur die zwei rückwärtigen (blauen) USB-3.0-Ports sondern auch die vier (gelben) USB-2.0-Anschlüsse, die Geräte mit hohem Ladestrom betanken können. Zwei von ihnen befinden sich ebenfalls hinten, ein weiterer an der Front, der letzte (je nach Orientierung) an der rechten Seite bzw. “oben”, wenn die Box hochkant steht. Bei den Einsatzfähigkeiten zeigt sich die ZBOX-Familie ohnehin sehr flexibel: Sie kann einfach auf dem Tisch stehen, wie erwähnt dank Standfuß aufrecht stehen oder per VESA-Montage hinter den Monitor geschraubt werden. So weit, so bekannt.

Was gibt es Neues?

Im Innern gab es verglichen mit der ZBOX-AD04 aber ein wenig Modellpflege. Zur Jahresmitte rund um die Computex hat AMD mit Brazos 2.0 das erste Update für seine Nettop-APU-Plattform vorgestellt. An der nun E2-1800 genannten APU selbst gab es abgesehen von einer kleinen Taktratenerhöhung bei CPU- (1,7 GHz) und GPU-Teil (523 MHz ohne und 680 MHz mit Boost) keine großen Änderungen. Dafür stellt AMD der Zacate- oder Ontario-APU aber einen anderen Fusion Controller Hub (FCH) zur Seite, der USB 3.0 und SATA 6Gb/s beherrscht. Zudem soll er noch etwas Strom sparender sein. Darüber hinaus verspricht AMD noch, dass Brazos 2.0 besser auf Windows 8 zugeschnitten sei. 

Plus-Version mit 2 GB RAM und 320-GB-HDDPlus-Version mit 2 GB RAM und 320-GB-HDD

Ausstattung

Heute tritt die Plus-Variante der ZBOX-AD06 zum Test an, die ab Werk mit 2 GB DDR3-1333-Speicher und einer 320-GB-Festplatte von Western Digital ausgestattet ist. Im Vergleich zur Barebone-Version ist sie mit etwa 310 Euro etwa 90 Euro teurer, verfügt aber ansonsten über die gleiche Ausstattung. Die sechs USB-Anschlüsse haben wir bereits erwähnt, den frontseitigen Kartenleser und die Audio-Buchsen kennen wir von den bisherigen ZBOX-Modellen bereits. WLAN und Bluetooth 4.0 werden von einem Intel-Modul (Centrino Wireless-N135) bereitgestellt, während ein Realtek-Chip den kabelgebundenen Netzwerkverkehr mit Gigabit-Geschwindigkeit regelt. Die integrierte Radeon HD 7340 gibt das Bild per HDMI oder DVI an einen Monitor aus. Wer die ZBOX als Medienzentrale nutzen möchte, wird sich über den optischen TOSLINK-Ausgang an der Rückseite freuen.

Zwei PCI Express-SSDs im Test

Vor rund einem Jahr übernahm LSI, ein Anbieter von Speicher- und Netzwerklösungen, mit SandForce einen der führenden Hersteller von SSD-Controllern. Aus dieser Fusion entsprang zuerst die bereits von uns getestete LSI WarpDrive Acceleration Card und nun deren Nachfolger Nytro WarpDrive, der auf den Enterprise-Einsatz zugeschnitten ist. Hinter beiden steckt das gleiche Funktionsprinzip, erklärt am Beispiel unseres aktuellen Testkandidaten: Das Nytro WarpDrive bezeichnet eine Serie von PCI Express-Steckkarten in Kapazitäten von 200 GB bis 1600 GB zur Beschleunigung von Anwendungen, die sich durch ihre auf der Platine eingesetzten und zu einem RAID 0 zusammengeschlossenen SSDs laut LSI durch besonders hohe Leistung bei niedrigen Latenzzeiten und gleichzeitig geringer CPU-Belastung auszeichnen sollen. Messungen bei LSI haben angeblich ergeben, dass eine einzige Nytro-WarpDrive-Karte die Arbeit hunderter herkömmlicher Festplatten verrichten kann.

Auf die Idee, eine PCI-Express-Steckkarte mit NAND-Flash zu verdrahten, sind allerdings auch andere Hersteller schon gekommen, beispielsweise OCZ mit dem Revodrive. Mit OWC gesellt sich nun ein weiterer Anbieter dazu, siedelt das Einsatzgebiet seines Produkts aber weniger im Enterprise-Markt als vielmehr bei den PC- und Mac-Enthusiasten an, die ihren Rechner beschleunigen wollen. Der zweite Testkandidat heißt OWC Mercury Accelsior, eine PCI-Express-Steckkarte für PCs und Mac Pro-Rechner, die mit zwei SSD-Modulen bestückt ist, wie das WarpDrive standardmäßig im RAID 0 arbeitet und in Kapazitäten von 120 GB, 240 GB, 480 GB und 960 GB erhältlich ist. Im Gegensatz zur LSI-Karte wendet sich die Mercury Accelsior nicht nur an den Profi-Bereich, sondern platziert sich vielmehr als extrem schnelle Speicherlösung für jedermann. Wie der Name schon andeutet, soll das besonders gut, weil besonders schnell gelingen. In Zahlen ausgedrückt will die OWC Mercury Accelsior Transferraten von bis zu 820 MB/s sowie bis zu 100.000 IOPS erreichen.

Anhand der beiden PCIe-Karten wollen wir exemplarisch zeigen, wie für das Enterprise- oder Profi-Segment konzipierte SSD-Lösungen gegenüber herkömmlichen Desktop-/Workstation-Flashlaufwerken abschneiden. Im Prinzip kommt dafür zwar nur das Nytro WarpDrive in Frage, doch wir haben die OWC Mercury Accelsior wegen ihres gleichen Funktionsprinzips mit in den Test aufgenommen. Ebenfalls zum besseren Vergleich mit SSDs sind in den Benchmark-Charts eine Auswahl älterer sowie aktueller und besonders schneller Flash-Laufwerke aufgeführt, darunter die Micron P300 und die Samsung 840 Pro.

An manchen Dingen merkt man, wie schnell die Zeit vergeht. Ein aktuelles Beispiel ist Medal of Honor Warfighter. Schwer zu glauben, aber dies ist schon der 14. Teil der Medal-of-Honor-Saga, deren erster Teil bereits 1999 erschien. Die ersten 12 Teile waren wie viele der Spiele, die im vergangenen Jahrzehnt zum Aufstieg des Shooter-Genres beitrugen, zeitlich im zweiten Weltkrieg angesiedelt. Erst bei Ausgabe Nummer 13 aus dem Jahr 2010 mit dem schlichten Namen Medal of Honor (ohne Zusatz) wechselte man in die Gegenwart und verlegte die Handlung nach Afghanistan. Die Einzelspielerkampagne bediente sich dabei einer modifizierten Variante der Unreal 3 Engine von Epic.

Auch andere Spieleserien wie Call of Duty und Battlefield erzählen inzwischen Geschichten mit deutlich aktuelleren Handlungssträngen. Warfighter nutzt zudem die gleiche Frostbite-2-Engine, die DICE auch für die Einzelspielerkampagne von Battlefield 3 entwickelte.

Aber wie setzt sich Medal of Honor Warfighter abgesehen von seiner hervorragenden Grafik in einem heiß umkämpften Markt von der Konkurrenz ab?

Zum einen durch seine Handlung, denn Warfighter begleitet einige sogenannte Tier-1-Operators, also Mitglieder diverser Spezialeinheiten der US-Streitkräfte, auf ihren Missionen. Hauptsächlich spielt man dabei DEVGRU-Mitglied „Preacher“, eine der Hauptfiguren aus dem letzten Teil.

Das Spielgeschehen an sich ist recht typisch für einen militärischen Ego-Shooter. Zwischensequenzen geben hingegen Einblicke in das Privatleben der Elitkeämpfer, und dabei kommen unter anderem allzu reale Themen wie die Herausforderung, die Familie daheim zusammen zu halten oder sich von gefallenen Kameraden zu verabschieden, zur Sprache. In seinen besten Momenten regt der Titel den Spieler dazu an, sich intensiver mit dem Leben von Berufssoldaten auseinanderzusetzen und zeigt dabei auch deren emotionale Bandbreite auf, die von der eiskalten und kompromisslosen Eliminierung der Gegner bis zur Sorge um Familie und Freunde reicht. Damit geht Entwicklerstudio Danger Close einen anderen Weg als die meisten Mitbewerber, der uns an Act of Valor von den Bandito Brothers erinnert. Den schwierigen Themen nähert man sich aber stets mit dem gebotenen Respekt.

Leider gibt es dabei Brüche, und dann hat man das Gefühl, einfach einen weiteren Shooter zu spielen, dem ein frisches Missionsdesign über Strecken wichtiger ist, als den Handlungsfaden aufrecht zu erhalten. Jedes Level bietet etwas neues, anderes, aber der Spielfluss leidet darunter, fühlt sich zeitweise ungelenk an. Natürlich gibt es das übliche Fahrzeug-Level, ein Schleich-Level, eins im offenen Kampf, ein Häuserkampszenario, den Dschungelkampf, dann das Level aus der Perspektive eines Terroristen – alles dabei. Man merkt jederzeit, dass die Produzenten darauf achteten, jede Mission knackig, frisch und geschliffen zu halten, doch leider geht das insgesamt zulasten der Story.

Was die technische Seite anbelangt können wir sagen, dass wir nie plötzliche, lähmende Einbrüche bei der Bildrate verzeichneten, und der Titel stürzte auch im gesamten Testzeitraum nicht ein Mal ab. Wir installierten den riesigen Day-One-Patch, und damit war das Spielen auf Nvidia- und AMD-Hardware ein rundum angenehmes Erlebnis.

Macht das Spiel Spaß? Nun, es erinnert natürlich an seine Zeitgenossen aus der Battlefield- oder Call-of-Duty-Reihe. Manche Kritiken sind mit ihrer negativen Einschätzung unserer Meinung nach deutlich übers Ziel hinaus geschossen. Andererseits stimmt es auch, dass Warfighter kein Meilenstein der Spielgeschichte ist und das Genre nicht neu erfindet. Wer Spaß an Militär-Shootern mit temporeichen Schusswechseln an aktuellen Kriegsschauplätzen hat, dem wird sicher auch Medal of Honor Warfighter gefallen.

Heute lautet unsere Aufgabe aber nicht, eine Spielekritik abzuliefern sondern zu prüfen, wie der fragliche Titel auf aktueller Hardware verschiedener Leistungsklassen läuft. Mit dem Multiplayer-Teil des Spiels haben wir uns dabei überhaupt nicht auseinander gesetzt, und zwar aus folgendem Grund: Singleplayerkampagne und Mehrspielermodus nutzen zwar die gleiche von DICE entwickelte Frostbite-2-Engine, doch während wir im Solo-Modus wie schon im Artikel Battlefield 3: Großer Performance-Vergleich mit über 30 Grafikkarten problemlos bestimmte Abläufe nachstellen können, gelingt das auf einer Multispielerkarte nicht. Zu viel hinge dabei von anderen Spielern ab, und die Ergebnisse wären damit wenig vergleichbar.

In Battlefield 3 haben wir damals beobachtet, dass die Einzelspielerkampagne dementsprechend vor allem mächtig die Grafikkarte beanspruchte. Gefechte im Mehrspielermodus können hingegen sogar leistungsfähige CPUs in die Knie zwingen. Da Medal of Honor Warfighter die gleiche Frostbite-2-Engine nutzt, dürfte es sich in diesem Spiel ähnlich verhalten.

  • 1
  • 2

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen