Monat: November 2015

Der Hype um die Fitnessarmbänder reißt nicht ab. Offenbar wollen immer noch viele wissen, wie aktiv sie über den Tag sind. Viele versprechen sich auch eine zusätzliche Motivation vom Handgelenks-Trainer und wieder andere finden die Technik einfach nur spannend. Wie dem auch sei: Mit dem Sony Smartband 2 SWR12 hat wieder einmal einer der kleinen Drill-Instructors den Weg in unsere Redaktion gefunden … und an das Handgelenk unseres Autors.


Sony setzt bei seiner zweiten Smartband-Generation voll auf unauffällige, zeitlose Optik und haptisch angenehme Materialien. Unser Testgerät kommt in strahlendem Weiß daher – auf Dauer gesehen vielleicht nicht die beste Wahl. Die anderen erhältlichen Farben – Schwarz, Rosa und Indigo – scheinen erheblich weniger anfällig für Verschmutzung zu sein.

Natürlich lässt sich das wasser- und staubdichte Smartband 2 auch gut mit Wasser und Seife reinigen. Dennoch bezweifeln wir, dass das Weiß seine Strahlkraft bei längerer Nutzungszeiträume hinweg beibehalten wird. Aufgrund der Kürze des Testzeitraums können wir dazu allerdings keine exakten Aussagen treffen.

Anders sieht es beim Tragekomfort aus: Unser Autor empfand das Material und die Passform stets als sehr angenehm. Seine Ehefrau monierte indes, dass das Kernelement des Smartband 2 für ihre schmalen Handgelenke zu breit sei und zu einem unangenehmen Druck führe. Daher eignet sich das Smartband 2 aus unserer Sicht nicht für zierliche Personen. Das ist erst recht schade, da sich das Armband sehr gut anpassen lässt und insgesamt einen sehr hochwertigen Eindruck hinterlässt. Erst nach längerem Tragen zeigte sich, dass der Autor unter dem Armband leicht schwitzte.

Die Haupteinheit des Sony Fitness-Trackers wird in das leicht dehnbare Armband eingesetzt. Das Kernelement ist nach IP68 wasser- und staubgeschützt und eignet sich für Tauchgänge bis zu drei Metern Tiefe in Süßwasser. Duschen und Schwimmen sollte also kein Problem darstellen. Während unserer Tests überstand das Smartband 2 auch einige Vollbäder.

Sony bietet das Smartband 2 aktuell in den Farben Schwarz und Weiß an. Die unverbindliche Preisempfehlung beträgt 129 Euro. Zudem sind Wechselarmbänder in Indigo und Pink für rund 30 Euro erhältlich.

Seit rund zwei Jahren ist der Markt rund um Smartphones in Bewegung. Wurde das Angebot zuvor von einer Handvoll großer Hersteller bestimmt, ist seither einiges in Bewegung geraten. Eine Vielzahl neuer Anbieter versuchen ihr Glück – dies gilt etwa für Firmen wie Wiko, Phicomm oder Kazaam.

Auch das spanische Unternehmen bq fällt in diese Kategorie – und das ist auch nicht sonderlich verwunderlich. Denn das Unternehmen begann erst 2010 mit 16 Angestellten mit der Entwicklung von eBook-Readern; erste Smartphones und Tablets folgten zwei Jahre später, bevor 2013 mit der Konzeption und Fertigung eigener 3D-Drucker begonnen wurde, die mittlerweile in mehr als 50 Ländern zu haben sind.

2014 wies das Unternehmen bereits mehr als 1050 Mitarbeiter aus und klopfte auch hierzulande erstmals wahrnehmbar an die Tür. Selbst Roboter-Bausätze für Kinder finden sich im Angebot der Spanier. Dabei kann sich bq im Prinzip als einziger wirklich europäischer Smartphone- und Tablet-Hersteller fühlen: Im Gegenzug zur Konkurrenz bewerkstelligen die Spanier die Entwicklung vollständig in Eigenregie, während die anderen meist in Asien entwickeln lassen und oftmals vorgefertigte Geräte von ODM-Fabrikanten mit einem eigenen Namen versehen lassen. Die eigentliche Produktion verfolgt aber auch bei bq in Asien.

Welche Vorteile die größere Unabhängigkeit haben kann, zeigt bq im Februar. Mit der Vorstellung des ersten Smartphones auf Ubuntu-Basis wurde dem Hersteller einiger Rummel zuteil. Das Aquaris E4.5 Ubuntu Edition stieß nicht zuletzt aufgrund seines günstigen Preises bei den “frühen Vögeln” auf reges Interesse. Die ersten Chargen waren kurz nach ihrer Auslieferung zu den Händlern bereits wieder vergriffen. 

Während des bq OpenDays in Madrid wurde das Angebot mit Aquaris X5 um ein weiteres Smartphone erweitert, das – im Gegensatz zu seinen Vorgängern – nun auch optisch ansprechender wirken soll. Außerdem wurde mit dem Aquaris M5 ein klassisches Media-Tablet vorgestellt. Wir haben die Gelegenheit genutzt und mit CTO Ravín Dhalani über Strategien, Betriebssysteme und natürlich das Internet der Dinge gesprochen.

THDE: bq wird als Hersteller in Deutschland eigentlich erst seit zwei Jahren wahrgenommen. Die bisher vorgestellten Smartphones sind vor allem in der Mittelklasse angesiedelt. Mit welchen Strategien will bq mehr Kunden überzeugen, dass sie nicht zu einem Motorola- oder Samsung-Gerät greifen?

RD: Derzeit fokussieren wir uns auf den europäischen Markt. Wir denken, dass sich hier ein Fenster für ein Unternehmen wie das unsere geöffnet hat. Wir sind dicht an unseren Märkten und damit auch an unseren Nutzern dran und verstehen, was sie wirklich wollen. Gleichzeitig behalten wir die Kontrolle über die Entwicklung.

THDE: Ein Weg zu neuen Kunden stellt das Aquaris M10 dar. Doch warum entwickeln Sie ein klassisches Media-Tablet in Zeiten, in denen diese Produktkategorie unter zurückgehenden Verkaufszahlen leidet und mehr und mehr von Modellen abgelöst wird, die eine Tastatur bieten und damit in dem einen oder anderen Fall auch ein Notebook ersetzen?

RD: Dieser Einschätzung stimme ich durchaus zu. Aber wir sehen dennoch einen Markt für Media-Tablets und haben aus diesem Grund letztlich auf die Tastatur verzichtet. Ich glaube in dieser Kategorie gibt es kein besseres Tablet, was die Mischung aus Preis, Außenmaße, Design, Leistung und Akkulaufzeit anbelangt. Wir denken, dass uns das Verhältnis aus diesen Faktoren sehr gut gelungen ist.

Die aktuellen Convertibles sind ein interessantes, jedoch anderes Konzept, das wir uns auch für bq vorstellen können. Aber alles braucht seine Zeit. Hätten wir ein entsprechendes Gerät im vergangenen Jahr mit Windows 8 vorgestellt, wäre das vermutlich kein großer Erfolg geworden. Doch Windows 10 bietet nun neue Möglichkeiten. Gleiches gilt für Intels Skylake-Prozessoren, die einen guten Kompromiss aus Leistung, Stromverbrauch und Preis bieten.

THDE: In Deutschland greifen viele Nutzer nach wie vor zu High-End-Smartphones. Wäre ein entsprechendes Modell vorstellbar?

RD: High-End-Geräte sind etwas, über das wir bei bq bereits nachgedacht haben – zumal sie in Europa auf großes Interesse stoßen. Wenn man sich mal unsere Produktentwicklung während der vergangenen Jahre anschaut, stellt man fest, dass wir versucht haben, mit jeder Generation weitere High-End-Features zu liefern.

Damit steigt aber auch der Preis. Ganz am Anfang hatten wir einfache Smartphones für 99 und 119 Euro im Angebot. Das hat sich völlig geändert. Jetzt liefern wir Geräte zwischen 200 und 300 Euro aus. Und Flaggschiffe sind definitiv etwas, dass wir immer im Hinterkopf haben. Es ist also gut vorstellbar, dass wir unsere Ideen eines Tages in die Tat umsetzen.

THDE: Auf der anderen Seite entwickelt bq aktuell ein Android-One-Gerät, die Google für Entwicklungsländer konzipiert hat. Ist das ein Versuch, einen Fuß auf den südamerikanischen Markt zu bekommen? Spanien hat ja enge Handelsbeziehungen zu Ländern wie Brasilien und Argentinien.

RD: Vom sprachlichen und kulturellen Standpunkt aus betrachtet, hat Spanien natürlich eine enge Verbindung zu Südamerika, aber hinsichtlich des Verständnisses für Regulierung, offene Märkte, der Wirtschaft an sich nicht. Das ist einer der Gründe, warum wir uns derzeit vollkommen auf Europa konzentrieren. Sicherlich werden wir darüber nachdenken, auf den südamerikanischen Markt zu gehen, wenn wir die Möglichkeit sehen. Wir sind zwar mit unseren 3D-Druckern bereits in mehr als 50 Ländern vertreten, bei den Smartphones zählt für uns aber im Augenbblick nur Europa.

Android One ist für uns vielmehr eine sehr gute Gelegenheit, an einem Programm teilzunehmen, das die Vorteile eines reinen Androids mitbringt. Nutzer wollen beispielsweise regelmäßige Upgrades. Wir sehen darin also einen guten Ansatz, eines der besten Android-Konzepte zu einem niedrigen Preis allen Nutzern zur Verfügung stellen zu können.

THDE: Wo sehen Sie konkret die Vorteile von Android One für bq? Schließlich nutzt bq bereits Vanilla-ROMs, mit denen Sie doch eigentlich genauso verfahren könnten wie mit denen des Google-Programms?

RD: Das ist richtig. Aber in dem Android-One-Programm werden zusammen mit Google Richtlinien definiert, wie mit den Upgrades umzugehen ist, wie die Hersteller an die Upgrades kommen. Wir hoffen, dass mit diesem Programm Updates deutlich schneller an unsere Produkte verteilt werden können.

Ein weiterer Vorteil für uns ist, dass wir die Validierung zusammen mit lokalen Google-Teams durchführen können. Niemand weiß besser als sie wie die Android-Experience aussehen soll. Dies sind aus technischer Perspektive die beiden wesentlichen Punkte.

THDE: Würden Sie sich also am Ende ein Android-One-Programm für alle Smartphone-Klassen wünschen?

RD: Das Aquaris A4.5 Android One ist unser erster Schritt in Richtung Android One. Das heißt zunächst müssen wir Erfahrungen mit dem Programm sammeln, aber auch abwarten, in welcher Form es von Google weitergeführt wird.

Android One – sofern möglich – auch auf einem hochwertigeren Gerät zu verwenden, ist sicherlich eine Überlegung. Den Nutzern sind schnelle Upgrades auf die nächsthöhere Version wichtig. Wir machen aber einen Schritt nach dem anderen. Wir wollen erst mal dieses Projekt abschließen und dann sehen, ob es ein weiteres Gerät geben wird. Dabei wird auch das Feedback der Nutzer eine große Rolle spielen.

Neues Jahr, neues Assassin’s Creed. Das galt auch schon für das letzte Jahr, wo sich Assassin’s Creed Unity unserem Test stellen musste, darin aber ziemlich gut abschnitt.

Unity entführte uns in die Wirren der Französischen Revolution – und im aktuellen Ableger der Meuchler-Saga Assassin’s Creed Syndicate geht es in das viktorianische London des Jahres 1868, wo die Industrialisierung der Gesellschaft in vollem Gange ist.

Und gleich vorneweg: Das London des 19. Jahrhunderts sieht gewohnt erstklassig und wie aus einem Guss aus. Es macht wie eh und je einen Heidenspaß, als Jacob oder Evie Frye durch die Stadt zu ziehen und auf Sightseeing-Tour zu gehen – gerade London hat mit Big Ben und anderen Sehenswürdigkeiten diesbezüglich einiges zu bieten.

Moment mal – zwei Hauptfiguren? Ganz genau: Das neue Assassinen-Geschwisterpaar Frye steht im Fokus der Londoner Episode von Assassin’s Creed – und unserer Meinung nach bringen die beiden ordentlich Pepp in die Bude, vor allem bei der Story und Atmosphäre.

Die vorliegende PC-Version erschien knapp einen Monat nach der Konsolenversion (wir berichteten) und wieder stellt sich die Frage, wie gut Ubisoft der PC-Port gelang. Doch wir können hier bereits Entwarnung geben: Assassin’s Creed Syndicate lief auf dem Rechner des Testers ziemlich stabil und ohne Abstürze.

Minimal Empfohlen Testsystem
Betriebssystem Windows 7, 8, 10 Windows 7, 8, 10 Windows 7
Prozessor Intel Core i5-2400 @ 2,5 GHz oder AMD FX 6350 @ 3,9 GHz Intel Core i7-3770 @ 3,5 GHz oder AMD FX 8350 @ 4,0 GHz Intel Core i5-2400 @ 3,1 GHz
Arbeitsspeicher 6 GByte RAM 8 GByte RAM oder mehr 8 GByte RAM
Grafik GeForce GTX 660 oder AMD Radeon R9 270 GeForce GTX 760 oder AMD R9 280X AMD Radeon HD 7850
Freier Speicherplatz 50 GByte 41,3 GByte belegt
Internetverbindung Für UPlay erforderlich

Zur Erinnerung: Wer sich näher mit den generellen Features von AMDs Crimson befassen will, dem sei unsere ausführliche News von Anfang November empfohlen.

Revolution statt Evolution: QT hält Einzug

Wer kennt das als Besitzer von AMD-Grafikkarten nicht: Der Start des Catalyst Control Centers (CCC) dauert – zumindestens beim ersten Mal in einer Session – eine gefühlte Ewigkeit, in der selbst Besitzer schneller PC-Systeme sich gern mal einen Kaffee holen, um die Wartezeit sinnvoll zu überbrücken.

Seit AMD erstmal auf das Dotnet-Framework setzte (2004), blieben sowohl Optik als auch Performance weitgehend auf dem Niveau von vor über 10 Jahren. Dass die fast schon steinzeitlich anmutende Oberfläche entsorgt gehört, wurde spätestens beim Einzug höherer Bildschirmauflösungen deutlich, weil sich das GUI nicht optimal anpassen ließ und schnell zur Briefmarke mutierte.

AMD hat endlich den lange geforderten Cut gewagt und setzt nun komplett auf QT als Programmbibliothek für die neue Oberfläche. Neben dem sehr aufgeräumt und modern wirkenden Erscheinungsbild der Crimson-Software skaliert auch die Oberfläche nahezu perfekt mit der Bildschirmauflösung, wie das nächste Bild deutlich zeigt. Während das GUI perfekt mit der Ultra-HD-Auflösung skaliert, wirken die wenigen, noch auf die alte Oberfläche setzenden Programmteile – beispielsweise die Display-Verwaltung – geradezu winzig und unbenutzbar.

Doch nicht nur die Optik konnte zulegen, sondern auch die spürbare Geschwindigkeit, mit der das Programm startet und mit der man durch die Software navigieren kann. Wir haben einmal kurz zusammengefasst und gegenübergestellt, wie unterschiedlich der alte Catalyst 15.11.1 beta und Crimson 15.11 performen:

Neben der deutlich kürzeren Installationszeit und dem schlankeren Treiberpaket profitiert vor allem der erste Aufruf nach dem Boot-Vorgang überdeutlich. Damit unterbietet man beim Handling sogar die aktuelle Nvidia-Software, deren Fenster für die 3D-Einstellungen im direkten Vergleich gefühlte Ewigkeiten länger benötigt und deren Look & Feel nunmehr regelrecht antiquiert wirkt.

Erweitere Einstellungen und Features

Hinter der neuen Oberfläche finden sich jedoch auch im Spielealltag nützliche und zudem lange geforderte Neuerungen. Das sogenannte Frame-Pacing, das vor allem bei Crossfire-Systemen für deutlich ausgewogenere Renderzeiten bei den Einzel-Frames und damit einen ruckelfreieren Darstellungsverlauf sorgen soll, wurde deutlich aufgewertet.

Neben der nun möglichen Untergrenze von 30 FPS (nach oben endet es erst bei 200 FPS) ist vor allem die lange geforderte Kompatibilität zu DirectX 9 zu nennen. Natürlich werden auch dafür existierende Profile für die jeweilige Applikation benötigt, aber AMD hat dabei mittlerweile deutlich nachlegen können. Ein netter Nebeneffekt ist natürlich auch die etwas geringere Leistungsaufnahme, die durch die Vermeidung unnötig hoher FPS-Zahlen keinen unbedeutenden Faktor darstellt (Energiekosten, Temperaturen und Lautstärkeentwicklung).

Zu den neuen Features zählt nunmehr auch der (leider fest voreingestellte) Wert für die Anzahl vorausberechneter Einzelbilder, den AMD auf einen Frame festsetzt (pre-rendered frames). Damit kann sich die empfundene Eingabeverzögerung deutlich verringern, jedoch ab und zu auch die mögliche Gesamt-Performance. Dies kann vor allem auf schwächeren Systemen zur leichten Verringerung der FPS-Zahlen führen und wir können AMD nur raten, diesen Wert in gewissen Grenzen frei eingebbar zu machen – der Mitbewerber ermöglicht dies ja seit Langem.

Auch Freesync wird noch einmal aufgewertet, denn mit Frame-Doubling fürt man ein Feature ein, dass auch Nvidia bei G-Sync nutzt. Im konkreten Fall schaltet sich nun Freesync nicht mehr aus, wenn die FPS-Rate die Frequenzuntergrenze des genutzten Monitors unterschreitet, sondern fügt an dieser Stelle einfach das bereits berechnete, aktuelle Bild so oft wieder ein, wie man es für diese Frequenz-Untergrenze eben benötigt. Das vermeidet hässliche Übergangsruckler und beruhigt das Spiel ungemein.

Auch der Overdrive hat eine Frischzellenkur spendiert bekommen und die Slider reagieren nun deutlich empfindlicher und genauer.

Shader-Cache zur Beschleunigung

Doch nicht nur optisch hat man eine ordentliche Schippe draufgelegt. Ähnlich wie bereits Nvidia setzt nun auch AMD auf den sogenannten Shader-Cache. Die Funktionsweise ist sehr ähnlich, denn man speichert kompilierte Shader auf dem Datenträger ab, um bei erneutem Bedarf schneller darauf zugreifen zu können, ohne sie erst erneut kompilieren zu müssen. Das funktioniert so ähnlich wie ein Browser-Cache und bietet ähnliche Vorteile.

Damit verkürzen sich zum einen die eigentlichen Ladezeiten von Szenen zum Teil erheblich und zum anderen kann man so auch im Spiel auftretende “Nachladeruckler” vermeiden oder zumindest verringern, wenn neue Shader angefordert werden. Die Entlastung der Streaming-Engine ist damit vor allem bei Open-World-Titeln nicht unerheblich, was zu einem deutlich “runderen” Spieleeindruck führt.

Einziger Wermutstropfen: Damit der Shader-Cache für ein bestimmtes Spiel genutzt werden kann, muss im Treiber auch ein entsprechendes Profil vorhanden sein.

Benutzerdefinierte Auflösungen

Wenn schon eine Überarbeitung, dann ordentlich: AMD hat Crimson ein weiteres Feature spendiert, auf das die Anwender seit langem warten. Der Anwender kann nunmehr nämlich auch eigene Bildschirmauflösungen vorgeben, die der Monitor so nicht bietet – egal ob eine erzwungene 21:9-Auflösung auf einem 16:9-Monitor oder umgekehrt.

Bis auf einige Darstellungsfehler funktioniert das bereits recht stabil, wobei man natürlich auch beachten muss, dass der jeweils angeschlossene Monitor ebenfalls unbeabsichtigte Skalierungsfehler verursachen kann, die man dann nicht so einfach umgehen kann.

Kleine Gehäuse liegen voll im Trend, was natürlich auch die Hersteller der Technikbehausungen bemerkt haben. Da sich die Auswahl passender, kleinformatiger Karten bisher aber in argen Grenzen hielt, schuf man einfach Gehäuse im ITX-Format, in die man notfalls auch längere Karten einbauen kann. So hat man sicher aus der Not ein Tugend machen wollen, doch wenn wir wirklich ehrlich sind: Diese Gehäuse sind eigentlich keine echten ITX-Gehäuse mehr und damit meist auch viel zu groß.

Mal abgesehen davon, dass AMD mit der Radeon R9 Nano genau diesen Zielgruppe als neue Klasse für sich entdeckt hat und Sapphire mit der Radeon R9 380 Compact im gleichen Volumenbereich wildert, sind es auch die kurzen Karten von Gigabyte mit GeForce-GPUs, die uns zu einem Artikel wie diesen verleitet haben.

Zwar bietet Gigabyte diese Karten eigentlich in erster Linie für Systemintegratoren und Assembler an, aber sie lassen sich genau so gut in ITX-Systemen verbauen. Zudem werden diese Karten oft genug – und zu Unrecht – unterschätzt: So viel langsamer als die mit Gaming-Attributen bepflasterten längeren Schwestern sind sie nämlich auch nicht. Nur sind sie eben oft genug günstiger und in Bezug auf Takt, Power Target und Abwärme sogar deutlich vernünftiger ausgelegt als die Gaming-Vettern.

Das Gehäuse: Silverstone SG13B

Obwohl theoretisch auch eine GTX 980 Ti im Referenzdesign der Länge nach in das SG13B hineinpassen könnte, haben wir uns bewusst für dieses ITX-Gehäuse entschieden. Denn spätestens mit einem verbauten 14-cm-Frontlüfter löst sich diese Möglichkeit nämlich in Luft auf und man braucht definitiv etwas Kleineres für das Anschubsen der Pixel.

Was uns dann dazu bewogen hat, gerade dieses Gehäuse zu nutzen? Seine Wandelbarkeit: Ab Werk sind an den beiden Seiten und der Oberseite große, Mesh-artige Öffnungen für den nötigen Airflow vorhanden. Setzt man jedoch einen potenten, leisen Frontlüfter ein und klebt diese drei Öffnungen ab, dann hat man im Handumdrehen die gleiche Situation wie einen kleinen, geschlossenen ITX-Cube.

Die GPUs: 3x Nvidia gegen 2x AMD

Aus dem Nvidia-Lager nutzen wir drei kurze Gigabyte-Karten in Form der GTX 970 Mini, GTX 960 Mini OC und GTX 950 OC, um die obere und untere Mittelklasse samt einer zusätzlichen Einstiegskarte abzudecken. Aus dem AMD-Lager stoßén die Radeon R9 Nano als Vertreterin der unteren Oberklasse und Sapphires Radeon R9 380 ITX Compact als Gegenstück zur GeForce GTX 960 in der Mittelklasse dazu.

Was auf den ersten Blick rein größenmäßig noch zusammengehörig scheint, klafft preislich (und auch hinsichtlich der Performance) bereits extrem auseinander. So ist die Radeon R9 Nano über viermal so teuer wie unser kleinstes Modell im Test und immer noch doppelt so teuer wie die zweitschnellste Karte in Form der Gigabyte GTX 970 OC Mini. Diese wiederum ist immer noch doppelt so teuer wie die untere Mittelklasse in Form der Gigabyte GTX 950 OC Mini.

Damit findet man in unserem Test garantiert was Passendes für so ziemlich jeden Geldbeutel und Einsatzzweck. Tabellarisch gegenübergestellt, bietet sich dem Auge dann folgendes Bild:

AMD
Radeon R9
Nano (Referenz)
Sapphire
Radeon R9 380
ITX Compact
Gigabyte
GeForce GTX
950 OC
Gigabyte
GeForce GTX
960 Mini OC
Gigabyte
GeForce GTX
970 Mini
Shader-Kerne: 4096 1792 768 1024 1664
Textur-Einheiten: 256 112 48
64 104
ROPs: 64 32 32 32 56
Fertigungsprozess: 28 nm 28 nm 28 nm 28 nm 28 nm
Kerntakt/
Boost-Takt:
<= 1000 MHz 980 MHz 1064/
1241 MHz
1126/
1178 MHz
1076/
1216 MHz
Speichertakt: 500 MHz
4 GByte HBM
1375 MHz
2 GByte GDDR5
1650 MHz
2 GByte GDDR5
1752 MHz
2 GByte GDDR5
1756 MHz
4 GByte GDDR5
Speicherbus: 4096 Bit 256 Bit 128 Bit 128 Bit 256 Bit
Speicherbandbreite: 512
GByte/s
179,2
GByte/s
105,5
GByte/s
112,2
GByte/s
224
GByte/s
TDP: 180 Watt 190 Watt 90 Watt 120 Watt 180 Watt
Stromversorgung: 1x 8 Pin 1x 8 Pin 1x 8 Pin 1x 6 Pin 1x 8 Pin
Marktpreis/UVP: ab ca. 600 Euro
(Geizhals)
ab ca. 185 Euro
(Geizhals)
ab 162 Euro
(Geizhals)
ab ca. 191 Euro
(Geizhals)
ab ca. 334 Euro
(Geizhals)

Beginnen wir nach dieser Einführung mit dem praktischen Teil und bauen das Testsystem endlich zusammen.

Das CAT S40 ist ein megarobustes, wasser- und staubdichtes Smartphone – der perfekte Begleiter für Abenteurer und im rauen Berufsalltag. Mit ein wenig Glück hält es auch, was der Hersteller verspricht – denn das Display unseres Exemplars brach im Test schon beim zweiten Sturz.

Keine Frage: Wer das CAT S40 von Cat Phones das erste Mal in Händen hält, glaubt dem Hersteller, dass dieses Smartphone viel aushält – mehr, als man normalerweise einem technischen Gadget zumuten würde. Laut Hersteller steckt das Rugged-Phone Stürze aus bis zu 1,80 Metern Höhe auf Beton weg – sogar mehrfach wie es in der Produktbeschreibung heißt. Zudem ist es nach IP68 vor eindringendem Staub und Wasser geschützt. In Letzterem soll es bis zu 60 Minuten lang in maximal einem Meter Tiefe dicht halten. Der Militärstandard 810G attestiert dem CAT-Phone zudem eine besondere Robustheit gegenüber Stürzen und Erschütterungen, sogar in eingeschaltetem Zustand.

Leider konnte unser Testgerät in genau diesem Punkt nicht überzeugen, aber vielleicht hatten wir aber auch einfach nur Pech. Denn nach mehreren erfolgreichen Tauchgängen im Kinderbecken des heimischen Freibads zerbarst das Display des S40 bereits bei einem unbeabsichtigten Sturz aus Hüfthöhe auf den Asphaltboden eben dieses Freibads. Einen ersten Falltest auf glattem Fliesenboden aus etwa 1,50 Metern Höhe überstand das CAT S40 hingegen noch schadlos. Trotz der gesplitterten Display-Scheibe ließ sich das S40 noch einwandfrei bedienen – zumindest in diesem Punkt hat der Hersteller Recht behalten.

Natürlich haben wir dem Hersteller die Möglichkeit zur Stellungnahme gegeben. Wir wollten zum einen wissen, wie es dazu kommen konnte, dass das Display schon bei einem Sturz aus geringer Höhe gebrochen ist. Dazu haben wir unser Testgerät eingesandt, sodass Cat Phones entsprechende Untersuchungen vornehmen kann. Zum anderen interessiert uns das Vorgehen des Herstellers, wenn einem “normalen” Kunden so etwas passiert. Kann er auf Kulanz hoffen? Oder sind mechanische Defekte aufgrund äußerer Gewalteinwirkung gar ganz von der Garantie ausgenommen? Die Antworten auf unsere Fragen folgen im Kapitel “Bedienung und Handhabung”.

Nun aber zurück zu unserem Test. Das CAT S40 ist ein robustes Outdoor-Smartphone und konkurriert etwa mit dem Samsung Galaxy Xcover 3, das wir im Juni getestet haben. Im Vergleich zum aktuellen Testgerät kostet das Xcover 3 aber nur etwa die Hälfte, ist aber – zumindest auf dem Papier – auch nicht so robust wie das CAT S40. Denn dieses darf auch in Salzwasser tauchen, und zwar bis zu einem Meter Tiefe. Eine Zertifizierung nach MIL-STD-810G besitzt das Galaxy Xcover 3 indes auch, sodass bis auf kleine Unterschiede fast Gleichstand herrscht, was die besonderen Schutzmaßnahmen der beiden Outdoor-Smartphones betrifft. Optisch wie haptisch hingegen macht das S40 den deutlich stabileren Eindruck.

470 Euro ruft Cat Phones für das CAT S40 auf. Zum Testzeitpunkt war das robuste Smartphone noch nicht auf dem Markt, aber aktuell kann man es zu Preisen ab rund 390 Euro im Online-Handel beziehen.

Für sein Geld bekommt der Kunde jedenfalls ein Rugged-Smartphone, das technisch der unteren Mittelklasse zuzuordnen ist. Das IPS-Display misst 4,7 Zoll, 16 Gigabyte Speicher sind an Bord – per microSD-Karte erweiterbar. Zudem gibt es zwei SIM-Slots und zwei Kameras mit acht bzw. zwei Megapixeln Auflösung.

Handballenauflage? Falsche Zielgruppe. Gaming-Attribute und Sicken bis zum Horizont? Braucht auch keiner. Software und Treiber-Downloads samt zugemülltem Autostart und Zwangs-Update? Nie gehört. Mehrfahrbige, sogar einzeln programmierbare mechanische Taster? Schon besser! In genau diese Nische schiebt sich die Quick Fire XTi von Cooler Master, die zwar nicht gerade billig ist, aber beim realen Gegenwert punkten will.

Erinnert sich noch jemand an unseren Test der Lioncast LK-30, den wir bereits vor einiger Zeit veröffentlich haben? Die Quick Fire XTi ist sogar noch einen Schritt konsequenter – zumindest was Beleuchtung und Abmessungen betrifft. Mit den verbauten, zweifarbigen LED lassen sich alle 35 (Zwischen-) Stufen zwischen Rot und Blau realisieren, um zumindest auch optisch Akzente setzen zu können, wozu auch die fünf verschiedenen Beleuchtungsmodi zählen.

Wir werden später im Test und der Beschreibung noch näher auf einige der Features eingehen, stellen aber zunächst Cooler Masters eigenes Video zur Quick Fire XTi dem Ganzen voran, weil man da einfach besser sieht, was sich hinter der Quick Fire XTi eigentlich verbirgt:

Öffnet man die Verpackung, sieht man erst einmal exakt: Nichts. Die Tastatur befindet sich in einem undurchsichtigen Textilbeutel und auch der Rest liegt gut versteckt in der Verpackung. Große Mengen Kunststoffmüll fallen hingegen nicht an – das sollte durchaus auch einmal eine positive Erwähnung wert sein.

Der Lieferumfang fällt bei einer bewusst einfach gehaltenen Tastatur natürlich auch dementsprechend überschaubar aus. Neben dem benötigten Micro-USB-Anschlusskabel erhält man ein kleines Handbuch und einen wirklich brauchbaren Kappenzieher, den wir in dieser professionellen Form bisher noch nicht als Zubehör gesehen haben. Kompliment, denn der ist richtig gut! Mehr gibt es nicht – aber mehr braucht man auch nicht.

Der Vollständigkeit halber liefern wir natürlich, wie eigentlich immeran dieser Stelle, die obligatorische Tabelle mit den wichtigsten technischen Daten im Überblick:

Technische Daten Quick Fire XTi
Schalter: Cherry MX Blue / Brown / Red (möglicherweise länderspezifisch abweichend)
Modellnummer: SGK-4060-KKCM1-DE (Brown)
SGK-4060-KKCR1-DE (Red)
Key Rollover: 6KRO oder emuliertes NKRO (Multi-Device. nur unter MS Windows)
Tastenkappen: ABS, grip coated, austauschbar, Zeichen mittels Lasercut ausgespart
Polling Rate: 1000 Hz / 1 ms
Beleuchtung: Rot/Blau-Diode, max. 35 Farben, fünf Voreinstellungen
Tastensperre:
Windows-Taste
Media-Tasten: über Funktions-Taste (fn)
Anschluss: Micro USB 2.0, 1.5 m Länge, textilummantelt, abnehmbar
Makros: interner Speicher, keine Treibersoftware nötig
Zubehör: Anschlusskabel, Kurzanleitung, Kappenzieher
Abmessungen (BxTxH): 43,9 x 13 x 4,1 cm
Gewicht:
1114 g (netto ohne Kabel)
Preis: ab ca. 140 Euro

Kommen wir nun als Nächstes zum Objekt der Begierde an solchem, indem wir es auspacken und begutachten!

Dank ihrer beachtlichen Maße und der damit einhergehenden großen Kühlfläche eignen sich Thermalrights Kühler der Macho-Baureihe nicht nur dazu, sie zusammen mit einem möglichst langsam drehenden und leise arbeitenden Lüfter auf den Prozessor zu schnallen. Sie machen auch im semipassiven Einsatz eine gute Figur: Für die Belüftung des Kühlkörpers sorgen hier allein die Gehäuselüfter.

Bereits vor etwas über einem Jahr hatten wir einen entsprechenden Test im Semipassiv-Bereich im Angebot, der unter anderem Thermalrights HR-02 Macho Zero und den deutlich größeren HR-22 umfasste. Beim Macho Zero handelt es sich um eine etwas teurere und optisch veredelte Version des HR-02 Rev. B ohne Lüfter, so dass die Ergebnisse 1:1 auf das normale Modell übertagen werden können.

Macho Zero, Le Grand Macho und HR-22Macho Zero, Le Grand Macho und HR-22

Für den Kick-off einer neuen Reihe von Kühlertests haben wir uns den heute erscheinenden, neuesten Spross der Kühlerschmiede geschnappt und dem Standardmodell HR-02 Macho Rev. B bzw. Macho Zero sowie dem HR-22 im semipassiven Einsatz gegenübergestellt.

Der neueste Streich von Thermalright erscheint  unter der selbstbewussten und überraschend frankophilen Bezeichnung Le Grand Macho und lässt damit schon einmal direkt ein (amüsiertes) Lächeln über die Lippen huschen. Ob selbiges auch nach der Erhebung der Messwerte erhalten bleiben wird, muss sich im folgenden Test zeigen.

Mit einer UVP von 59,99 Euro liegt der große Kühler immerhin 20 Euro unter dem Preis, der für den HR-22 aufgerufen wird. Letzterer verfügt im Direktvergleich über eine zusätzliche Heatpipe.

Zwar werden künftig alle Kühlertests im semipassiven Betrieb auf einer zusätzlichen Skylake-Plattform stattfinden, dennoch wollten wir es uns nicht nehmen lassen, das aktuellste Modell direkt zum Release auszuprobieren – auch wenn zu erwarten ist, dass der Macho im Semipassivbetrieb auf Haswell-E am Limit arbeiten dürfte.

Verpackung und Lieferumfang

Thermalright liefert den Le Grand Macho in einer Verpackung mit ungewohnt knalligen Farben aus. Im Inneren gibt es geschäumten PET-Kunststoff; Kühler und Zubehör wurden wie üblich sicher und ordentlich untergebracht.

Da der Kühlungsgigant für den semipassiven Einsatz konzipiert wurde, umfasst die Lieferung zwar keinen zusätzlichen Lüfter, wohl aber zwei Halteklammern, um einen 120- oder 140-mm-Lüfter mit entsprechenden Anschraubpunkten anbringen zu könne. Thermalright denkt hier vor allem an die hauseigenen Modelle TY-141, TY-147 oder TY-150, wie sie bereits bei anderen Kühlern des Herstellers zum Einsatz kommen.

Gut mitgedacht: Zusätzlich gibt es auch vier Entkopplungsgummis, die beim Einsatz eines Lüfters am Kühlkörper verklebt werden können.

Neben einer kleinen Spritze mit zwei Gramm Chill Factor III-Wärmeleitpaste bietet Thermalright wie üblich ein sehr gutes Befestigungssystem einschließlich zusätzlicher Backplate für alle gängigen AMD- und Intel-Sockel – einschließlich des mittlerweile schon berühmten (und sehr guten) magnetischen Schraubendrehers.

Nein, ein Spieletest als solcher ist dies nicht. Denn einerseits fällt der Einzelspielermodus ja weg bzw. eine Offline-Karriere faktisch komplett flach und andererseits ließe es sich wirklich trefflich streiten, ob und wie die Umsetzung der Multiplayer-Maps wirklich gelungen ist und inwiefern Neueinsteiger und ungeübte Spieler am Ende überhaupt in der Lage sein werden, über das Spiel und die investierte Zeit hin einen akzeptablen Fortschritt zu machen. Die wenigen Einzelspieler- oder Koop-Missionen sind zwar zum Üben noch einigermaßen geeignet, aber nicht wirklich langzeittauglich.

Aber ingesamt überlassen wir das Urteil zum Gameplay anderen und konzentrieren uns in diesem Artikel ausschließlich auf die mögliche Spielbarkeit des Games auf unterschiedlicher Grafik-Hardware. Zumindest hier kann EA mit diesem Titel ordentlich punkten, denn die aufgebohrte, hauseigene Frostbite-3-Engine beherrscht nun auch sehr fotogenes physikbasiertes Rendering (PBR).

Es liegt voll im Trend, auf diese Art und Weise die Physik zu Hilfe zu nehmen, um die gesetzmäßigen Aus- und Wechselwirkungen zwischen der Beleuchtung, den Oberflächenstrukturen und verwendeten Materialien (Textur, Farbe, Oberflächenbeschaffenheit) zwar trivialisiert, aber für das Auge realistischer als üblich nach- und abzubilden.

Damit schlägt man zudem zwei Fliegen mit einer Klappe: Einerseits verringert sich bereits der Aufwand (und die Anzahl möglicher Fehler bzw. Nachlässigkeiten) beim Programmieren und andererseits beim Spielen dann auch noch der Hardware-Hunger, weil hochoptimierte Bibliotheken diese Arbeit mit nur wenigen noch zu übergebenden Parametern recht effizient übernehmen können.

Ein netter Nebeneffekt ist dann das zugrunde liegende, allumfassende und sehr wirklichkeitsnahe Beleuchtungsmodell (Global Illumination), das selbst auf niedrigsten Grafik-Voreinstellungen optisch ansprechend funktioniert.

Auch die Vegetation ist extrem detailverliebt, genau so wie die Umsetzung der verschiedensten Modelle aus dem Star-Wars-Universum. Neben den knackigen Texturen sorgt dafür in erster Linie die nahezu fotorealistische und doch sehr effektive 3D-Umsetzung einzelner Objekte.

Im Gegensatz zum herkömmlichen 3D-Scan werden bei der sogenannten Photogrammetrie spezielle, aus unterschiedlichen Winkeln aufgenommene Fotos mittels einer speziellen Software zur Errechnung der benötigten Drahtgittermodelle (Meshs) mit allen wichtigen Knoten (Vertices) gemacht. Letztere stellen dann die Eckpunkte der ganzen Einzelflächen eines komplexen Körpers dar, was in der Umsetzung einerseits für die optische Qualität, als auch für die spätere Performance entscheidend ist.

Mit Hilfe geeigneter Algorithmen kann automatisiert bereits eine Vereinfachung (z.B. über das Zusammenfassen eng beeinander liegender Knoten) sowie die Entfernung unnötiger beziehungsweise ungültiger Flächen erfolgen.

Ein sehr gern gesehener Nebeneffekt ist dabei, dass sich gleichzeitig die Textureinstiege auf den einzelnen Knoten sehr exakt errechnen lassen, zumal sich die ebenfalls benötigten Texturen (sogenannte Ganztexturen) bei dieser Erfassungsmethode gleich mit erzeugen und sich zudem auch noch zeitgleich Rückschlüsse auf das Material ziehen lassen.

Somit dürften vor allem die hochoptimierten Modelle mit dafür sorgen, dass die Performance auch in komplexen Umgebungen noch recht hoch ausfällt.

Wie bereits bei den anderen aktuellen Titeln ist Mantle kein Thema mehr und selbst DirectX 12 wird noch nicht einmal in Ansätzen unterstützt. Aber ohne großartig spoilern zu wollen: Die Umsetzungs ist auch so optimal genug, um selbst einfacherer (Grafik-)Hardware noch gute und ansehnlich spielbare Ergebnisse zu entlocken.

Auswahl der Benchmark-Szene

Wir nutzen für unseren Benchmark mit Endor die Umgebung mit der größten Herausforderung an die jeweilige Hardware. Allerdings haben wir auf Jet-Flüge verzichtet und bewegen uns ausschließlich zu Fuß. Das Laufen durch die überwiegend sehr eng und detailliert ausgearbeitete Vegetation mit ihrem fast schon urwaldartigen Bewuchs ist in vielelerlei Hinsicht realitätsnaher und deckt sich auch eher mit dem subjektiven Eindruck, den man über weite Bereiche des Spiels letztendlich hat.

Um eine wirklich repoduzierbare Szene hinzubekommen, nutzen wir die Überlebens-Mission auf Endor. Dazu benutzen wir allerdings einen Kniff, denn mittels eines Cheats sind wir für die KI komplett unsichtbar. Die Bewegung erfolgt auschließlich über Tastatureingaben, die wir als Makros aufgezeichnet und gespeichert haben. Somit ist jeder Durchlauf fast völlig identisch. Insgesamt 45 Sekunden lang ist unser drei mal wiederholter und gemittelter Durchlauf, bevor wir an die Grenzen unserer Makro-Methode stoßen. Doch dies reicht mit Sicherheit, um eine verlässliche Messung vornehmen zu können:

Man kann davon ausgehen, dass die Frameraten im Allgemeinen überwiegend deutlich höher ausfallen werden als in unserem Testumfeld. Allerdings macht es keinen Sinn, sich das Ganze schönzureden, wenn dann später einzelne Passagen vielleicht doch nicht mehr mit Freude spielbar sind. Dann lieber so und man weiß, dass es passt.

Betrachten wir nun noch schnell das Testsystem, bevor es an die Einzelbewertung geht:

Testsystem und Benchmarkeinstellungen
Testsystem:
Intel Core i7-5930K @4,2 GHz
Alphacool Water Cooling
Crucial Ballistix Sport, 4x 4 GByte DDR4 2400
MSI X99S XPower AC
Crucial MX200 (500 GByte SSD; System) und Corsair LS 960 (960 GByte SSD; Applikationen, Daten und Storage)
be quiet! Dark Power Pro 850 Watt

Windows 10 Pro (alle Updates)

Treiber:
AMD: Catalyst 15.11.1 Beta
Nvidia: ForceWare 359.00 (Game Ready)
Intel: 20.19.15.4300 (15.40.10)
Gaming-
Benchmarks:
2560 x 1440 Pixel, Voreinstellung Ultra
1920 x 1080 Pixel, Voreinstellung Ultra

Wir nutzen für jeden Benchmark eine reproduzierbare Szene, die zudem eine Art Worst-Case-Szenario darstellt, weil die enge und detaillierte Vegetaion zusammen mit der Ausleuchtung recht fordernd ist.

Wir verzichten zudem bei den FPS-Angaben auf die Nachkommastellen, weil es schlicht unmöglich ist, einen Wert komplett bis auf die Dezimalstelle identisch in mehreren Durchläufen zu reproduzieren.

Wir haben daher einen Mittelwert aus jeweis drei Durchläufen der vordefinierten Benchmarkszene errechnet und danach auf den nächsten vollen Wert abgerundet, denn halbe Frames sind ein wenig albern und liegen zudem stets im Toleranzbereich.

Diese Frage muss man sich nach all den Neuerscheinungen durchaus ernsthaft stellen, denn über ein Jahr kann gerade in der IT-Branche eine verflixt lange Zeitspanne mit vielen zwischenzeitlichen Neuerscheinungen sein. Auch wenn es sich vor einem Jahr beim Tonga-Chip um eine hochinteressante Modifikation der Hawaii-GPUs handelte, wie wir sie heute noch als Grenada in den Radeon R9 390 / Radeon R9 390X finden, ist nichts mehr so, wie es im Herbst 2014 noch war.

Nicht nur Fiji in den verschiedenen Varianten der Radeon R9 Fury /Radeon R9 Fury X und Radeon R9 Nano hat mittlerweile für Aufsehen gesorgt, sondern auch aus dem grünen Lager sind viele neue und interessante Karten mit Maxwell-Chip gelaucht worden. Trotzdem trifft AMD ganz offensichtlich mit der Radeon R9 380X in eine Lücke, die in Nvidias Portfolio sowohl leistungstechnisch als auch preislich zwischen der GeForce GTX 960 und GTX 970 klafft. Das wiederum könnte diese Karte doch interessanter machen, als es auf den ersten Blick vielleicht scheinen mag.

Doch erst einmal zurück zur Radeon R9 380X selbst und natürlich auch ein wenig Therorie. Bot Antigua Pro – also der in der R9 380 hochgelabelte Tonga Pro – noch vier Shader Engines, von denen jede auf sieben Compute Units (CUs) zurückgreifen konnte, sind es bei der R9 380X und Antigua XT jetzt immerhin acht CUs. Wie schon bei den GCN-GPUs aus der Vorgängergeneration beherbergt jede CU 64 Shader- und vier Textureinheiten, in Summe macht das für die Radeon R9 380X also 2048 statt der 1792 Shader- und 128 statt der 112 Textureinheiten der R9 380.

Gegenüber Hawaii respektive Grenada sind auch bei Tonga / Antigua die Render-Backends zusammengestrichen worden: Die vier Shader-Engines sind nur mit je zwei Render-Backends statt der vier pro Shader-Engine bei R9 390(X)-Karten bestückt. Jedes einzelne Backend kann vier Vollfarbpixel pro Takt rendern, also insgesamt 32 pro Taktzyklus. Das ist am Ende nur halb so viel wie bei den Hawaii-/Grenada-GPUs.

Die Beschneidung des Speicher-Interfaces auf eine nur 256 Bit breite Anbindung und die daraus resultierende, um bis zu 27 Prozent geringere Speicherbandbreite im Vergleich zu den größeren Karten kompensiert man wie schon bei der Radeon R9 380, indem man Farbdaten des Framebuffers in einem verlustfreien, komprimierten Format lesen und schreiben kann.

Übernommen wurden auch weitere Features wie die parallele Verarbeitung von Instruktionen zwischen zwei SIMD-Lanes, neue und verbesserte Algorithmen zur Planung von Compute-Aufgaben sowie neue 16-Bit-Floating-Point- und -Integer-Instruktionen für Compute- sowie Media-Processing-Aufgaben. TrueAudio und der FreeSync-Support (Open-Source-Alternative zu Nvidias G-Sync) sind genau so mit an Bord wie der Unified Video Decoder (UVD) sowie die überarbeitete Video Coding Engine (VCE). 

Unser Testsample: Sapphire Radeon R9 380X Nitro

Da AMD für diese Karte R9-Reihe kein eigenes Referenzmodell produziert, sondern es den Herstellern überlässt, die optimale Interpretation in einem gewissen Spielraum selbst zu finden, testen wir ein von AMD zur Verfügung gestelltes Board-Partner-Modell aus dem Hause Sapphire.

Wir vergleichen in diesem Test insgesamt sechs Karten, deren technische Daten wir vorab noch einmal schnell tabellarisch zusammenfassen:

MSI
GTX 970
Gaming 4G
Gigabyte
GTX 960
Windforce
MSI
R9 380
Gaming 4G
Sapphire
R9 380X
Nitro
Powercolor
R9 390
PCS+
AMD
R9 Nano
Prozesstechnik: 28 nm 28 nm 28 nm 28 nm
28 nm 28 nm
Transistoren: 5,2 Mrd. 2,9 Mrd. 5 Mrd. 5 Mrd.
6,2 Mrd, 8,9 Mrd.
GPU-Takt: 1140 MHz+ 1216 MHz+ 1000 MHz 1040 MHz
1010 MHz 1000 MHz
Shader: 1664 1024 1792 2048
2560 4096
Textur-
Einheiten:
104 64 112 128
160 256
Textur-
Füllrate:
115,9 GT/s 77,8 GT/s 112 GT/s 133,1 GT/s
161,6 GT/s 256 GT/s
ROPs: 64 32 32 32
64 64
Pixel-
Füllrate:
71,3 GP/s 38,9 GP/s 32 GP/s 33,3 GP/s
64,6 GP/s 64 GP/s
Speicher-
Interface:
256 Bit 128 Bit 256 Bit 256 Bit 512 Bit 4096 Bit
Speicher: 3,5 GByte
+ 0,5 GByte
GDDR5
2 GByte
GDDR5
4 GByte
GDDR5
4 GByte
GDDR5
8 GByte
GDDR5
4 GByte HBM
Speicher-Takt: 1753 MHz 1753 MHz 1400 MHz 1500 MHz
1500 MHz 500 MHz
Speicher-
Bandbreite:
224,4 GB/s*
(nur für 3,5 GByte)
112,2 GB/s 179,2 GB/s 192 GB/s
384 GB/s 512 GB/s

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen