Monat: Mai 2015

Weniger als drei Monate sind vergangen, seit Nvidia die GeForce GTX Titan X ins Rennen geschickt hat – und schon bringt Nvidia noch eine weitere GM200-basierte Karte auf den Markt: Die GeForce GTX 980 Ti soll mit einer UVP von 739 Euro etwa 400 Euro (!) unter dem aktuellen Straßenpreis des Titan-X-Flaggschiffs liegen und trotzdem nur um einige Prozent weniger leistungsfähig sein. Gibt es da noch Gründe, zur Titan X zu greifen? Kann man guten Gewissens derzeit mindestens 530 Euro für die GTX 980 ausgeben, wenn man weiß, dass dieses Monster existiert? Ist dies etwa der Präventivschlag gegen die anstehende Enthüllung von AMDs Ultra-High-End-GPU Fiji?

Jede Antwort auf die letzte Frage wäre reine Spekulation. Allerdings haben wir nicht so bald mit einem Abkömmling der Titan X gerechnet. Nvidia hatte seine originale GeForce GTX Titan im Februar 2013 vorgestellt (hier noch ein zusätzlicher Benchmark-Parcours) und erst neun Monate später kam dann die GeForce GTX 780 Ti, die auch auf der GK110-GPU basierte. Diese Karten waren definitiv nicht für die gleiche Zielgruppe gedacht: Bei der Titan war einer der SMX-Cluster abgeschaltet, dafür hatte sie beispiellose sechs Gigabyte Speicher und einen Grafikprozessor, der gleichermaßen gut mit 3D und Berechnungen mit doppelter Genauigkeit klar kam. Dabei GTX 780 Ti bot im Gegenzug die vollen 2880 CUDA-Kerne und 240 Textureinheiten für höchste Grafikpracht sowie höhere Taktraten und einen um 300 Euro günstigeren Preis. Den meisten Gamern mit dem nötigen Kleingeld fiel die Wahl zugunsten der GTX 780 Ti nicht schwer, wenn sie sich zwischen ihr und der Titan entscheiden mussten.

Leider gab es auch einen guten Grund, der gegen sie sprach: Nvidia hatte die GeForce GTX 780 Ti mit nur drei Gigabyte Speicher bestückt – und die Gerüchte um ein kommendes 6-GByte-Modell haben sich leider nie bewahrheitet. Vor zwei Jahren reichte das noch völlig für Gaming bei 2560 x 1440 Bildpunkten aus. 4K-Bildschirme waren seinerzeit noch keine große Sache, da die wenigen verfügbaren Exemplare im Bereich von 3000 Euro lagen. Wir stellten allerdings fest, dass drei Gigabyte Speicher nicht ausreichten, um flüssig auf einem Trio QHD-Bildschirmen mit mehr als 11 Millionen Pixel zu spielen. Später stellte sich dann heraus, dass schon beim 4K-Gaming (mehr als 8 Millionen Pixel) der Speicher der verfügbare Karte zum Flaschenhals wurde.

Heute sieht der Monitormarkt aber völlig anders aus als damals. Ultra-HD-Bildschirme gibt es schon zu Preisen von unter 300 Euro. Nvidias G-Sync Technologie mit variabler Bildrate ist beinahe 18 Monate alt. Und AMDs äquivalente FreeSync-Technik kommt auch gerade in Fahrt. Wir müssen daher annehmen, dass alle, die 2015 nach einer High-End-Grafikkarte suchen, einen Umstieg auf 4K zumindest in Betracht ziehen.

Anpassung der GM200-GPU für die GeForce GTX 980 Ti

Nvidia weiß, wohin sich der Display-Markt bewegt und hat dieses Mal darauf verzichtet, die aktuelle Generation des Titan-Derivats in Sachen Speicherausbau zu beschneiden. Neben der im Vergleich zur 780 Ti größeren Speichermenge auf dem Board nutzt die Nvidias Maxwell-Architektur aber auch die verfügbaren Speicherbandbreite effizienter – das konnten wir erstmal im letztjährigen Februar bei der GeForce GTX 750 Ti mit GM107-GPU beobachten. Die GM200-GPU ist noch robuster gebaut als diese frühe Maxwell-Fassung: Jeder seiner SMMs hat 96 Kilobyte Shared Memory und einen 48 Kilobyte großen Textur-/L1-Cache, während ein drei Megabyte großer L2-Cache die Zugriffe auf den Arbeitsspeicher möglichst minimieren soll. All diese Änderungen an der Hardware sorgen zusammen mit den neuen Farbkompressionsschemata dafür, dass spielbare Performance beim 4K-Gaming für bestimmte Single-GPU-Karten zum realistischeren Szenario wird.

Das sind die guten Nachrichten. Aber weil Nvidias GeForce GTX Titan X bereits eine vollständig freigeschaltete GM200-GPU integriert, gibt es keinen Weg mehr, die 980 Ti noch schneller zu machen. Das führt zu dem Problem, dass es kaum Unterscheidungsmerkmale für zwei High-End-Karten gibt, die auf dem gleichen ASIC basieren.

Wie wäre es, ihre Stärken über die Performance in rechenlastigen Workloads zu definieren? Die letzte Generation der Titan schaffte etwa 1,5 TFlops bei Berechnungen mit doppelter Genauigkeit. Nvidia beschnitt die 780 Ti künstlich auf ein Achtel davon – also ungefähr 210 GFlops – und schuf so ein klares, wenn auch künstliches Unterscheidungsmerkmal. Aber diese Option ist heute nicht verfügbar, da die GM200-GPU ihr Rechenpotenzial zugunsten generell effizienterer Gaming-Performance aufgibt. Im Ergebnis sind sowohl die Titan X als auch die 980 Ti beide auf eine native FP64-Leistung von 1/32 begrenzt.

Da die GTX Titan X bereits auf dem Markt ist und zu Preisen ab 1050 Euro verkauft wird, schein ein chirurgischer Eingriff die einzige Option des Herstellers zu sein. Dabei wurden einige Fähigkeiten der GM200 beschnitten und so eine GeForce GTX 980 Ti geschaffen, die leicht schwächer als die Titan X, dabei aber überzeugender als die GeForce GTX 980 – und ein großes Upgrade gegenüber der 780 Ti – ist.

Immerhin ist der Eingriff nicht dramatisch – wir reden immer noch von der GM200 und ihren sechs GPCs. Aber über alle sechs Cluster hinweg werden insgesamt zwei Streaming-Multiprozessoren abgeschaltet. Bei 128 CUDA-Kernen pro SMM gehen damit 256 CUDA-Kerne “verloren”, so dass man auf eine Gesamtmenge von 2816 Kernen auf dem Grafikprozessor kommt. Analog dazu verringert sich die Gesamtzahl der Textureinheiten durch die Verlust von jeweils 8 Textureinheiten pro SMM von 192 auf 176 TUs.

Man sollte nun meinen, dass die Abschaltung von rund acht Prozent der Shader und Textureinheiten der GM200 zu einem etwa gleich großen Leistungsverlust bei jenen Spielen führt, die massiv auf diese Teile der Grafikpipeline setzen. Aber Nvidia behauptet, dass der Unterschied zwischen der GeForce GTX Titan X und der 980 Ti absolut gering sei.

Die Firma scheint sich keine Sorgen zu machen. Nvidia versucht auch nicht, das Ganze mit höheren Taktraten zu kompensieren: Die GeForce GTX 980 wird wie die Titan X mit einem Basistakt von 1000 MHz und einem Boost-Takt von 1075 MHz vermarktet. Und das Backend der GPU ändert sich genauso wenig. Um aus unserem Titan X-Launch-Artikel zu zitieren:

“[…] Die vier ROP-Partitionen der GeForce GTX 980 wurden bei der GeForce GTX Titan X auf sechs erhöht. Bei jeweils 16 Einheiten sind das bis zu 96 32-Bit-Integer-Pixel pro Takt. Den ROP-Partitionen sind 512 KByte große L2-Cache-Bereiche zugeteilt, was bei der GM200 in Summe drei MByte ergibt. Als Nvidia die GeForce GTX 750 Ti vorstellte, erklärte sie den großen L2-Cache als Maßnahme gegen den Flaschenhals des mit 128 Bit relativ schmalen Speicher-Interfaces. Bei der GM200 sollte das angesichts ihrer Speicherbandbreite von 384 Bit und dem 7 Gb/s schnellen Speicher kein Problem sein. Der maximale Durchsatz von 336,5 GByte/s entspricht dem der GeForce GTX 780 Ti und übertrifft den von GeForce GTX Titan, Geforce GTX 980 und AMDs Radeon R9 290X. […]”

Aber während die Titan X 12 Gigabyte GDDR5-Speicher integriert, ist die GeForce GTX 980 Ti nur mit sechs Gigabyte bestückt – der aber ebenfalls sieben Gb/s schnell ist. Das kann man unserer Meinung nach kaum einen Kompromiss nennen. Sechs Gigabyte reichen locker fürs Zocken an einem 4K-Monitor oder drei QHD-Bildschirmen. Allerdings sollte man auch in Zukunft besser nicht auf 12-GByte-Versionen der GTX 980 Ti hoffen. Denn Nvidia plant sicherlich nicht, die (sicherlich sowieso schon vergleichsweise geringen) Verkaufszahlen der Titan X durch eine aufgerüstete GTX 980 Ti zu gefährden.

In Foren liest man hierzu einges, gerade “elektronisches Papier” ist ja ziemlich geduldig. Wir nutzen für unser kleines Experiment jeweils ein Paar ähnlicher Karten beider Hersteller aus der oberen Einsteiger- sowie der unteren und oberen Mittelklasse. Zwei der AMD-Besetzungen sind dabei nominell einen Hauch schneller, einmal liegt Nvidia knapp vorn. Doch unterm Strich agieren die Pärchen einigermaßen ähnlich.

Wir modifizieren unsere neue CPU-Messstation zunächst etwas und passen sie ein wenig an unsere geänderten Bedürfnisse an. So kommt eine einfachere AIO-Kompaktwasserkühlung zum Einsatz, die einen Core i7-4790K ausreichend kühlen wird. Auf unser normales Sockel 2011-System verzichten wir auf Grund der angestrebten Praxisnähe dann besser doch.

Die ausgesuchten Karten sind alles Modelle eines einzigen Herstellers mit Werksübertaktung, so dass wir auch sicher sein können, dass die Übertaktungsphilosophie hinter den Modellen ähnlich ausfällt. Alle Karten gehören innerhalb ihrer Modellgruppe zu den schnellsten Vertreterinnen, so dass auch hier das Käuferverhalten berücksichtigt wurde.

Was genau haben wir vor?

Wer werden alle sechs Karten in zwei ganz typischen Szenarien betreiben und dann die reine Leistungsaufnahme der CPU (ohne Spannungswandlerverluste des Mainboards) ermitteln.

Im ersten Szenario werden wir dafür sorgen, dass die Grafikkarte die CPU limitiert. Da dürfte man ja erwarten, dass die Leistungsaufnahme der CPU steigt, je schneller eine Grafikkarte ist. Doch ist das wirklich so? Und was passiert im Szenario Zwei, wenn die CPU alle Karten mehr oder weniger bereits limitiert, weil alle Beschleuniger extrem hohe Frameraten produzieren? Beides wollen wir heute auf den nächsten Seiten testen und die Fragen mit Messerten beantworten.

Zunächst werfen wir jedoch schnell noch einen Blick auf den Testaufbau und die verwendeten beiden Benchmarks:

Testsystem
CPU: Intel Core i7-4770K
Mainboard: MSI Z97A Gaming 6
CPU-Kühlung: Enermax Liqtech 240
2x be Quiet Silent Wings 2
RAM: Transcend DDR3L 1600
Stromversorgung: Sea Sonic Platinum 860W
Testgehäuse: Lian Li PC-T80 Bench-Table
Betriebssystem: Windows 8.1 Professional x64
Grafikkarten: Gigabyte GTX 750 Ti vs. Gigabyte R9 270
Gigabyte GTX 960 Windforce OC vs. Gigabyte R9 285 Windforce OC
Gigabyte GTX 970 Gaming G1 OC vs. Gigabyte R9 290 Windforce OC
Messung der Leistungsaufnahme: Hameg HMO 3054 Mehrkanal-Oszillograph mit Speicherfunktion
Hameg HZO50 Stromzangenadapter (1 mA bis 30 A, 100 KHz, DC)
2x Hameg HZ355 (10:1 Tastteiler, 500 MHz)
1x Hameg HMC 8012 Digitalmultimeter mit Speicherfunktion
Szenario 1: VGA-Limit Metro Last Light, 1920 x 1080 Pixel, Highest Settings, kein PhysX
Szenario 2: CPU-Limit Bioshock Infinite, 1280 x 720 Pixel, Lowest Settings

Dass eine Tastatur am Tablet keine sich ausschließende Kombination ist, hat Asus mit dem Transformer TF101 bereits 2011 bewiesen. Gerade im Produktiveinsatz stößt der mobile Arbeiter mit den virtuellen Tastaturen einfacher Tablets schnell an seine Grenzen.

Allerdings bewegen sich viele dieser 2in1-Hybriden – also Tablets, die sich mit Hilfe eines Tastatur-Docks in ein kompaktes Quasi-Notebook verwandeln lassen –  auch hinsichtlich der Gesamtmasse und der Dimensionen auf dem Niveau eines “echten” Notebooks mit vergleichbarer Größe, sodass der eigentliche Vorteil des Tablets – also die hohe Mobilität – schnell aufgehoben wird.

Surface 3: Microsofts “Einsteiger-Tablet”

Einen anderen Weg verfolgt Microsoft: Die Redmonder haben sich bei eihren Surface-Tablets Apples iPad-Schutzhülle zum Vorbild genommen, die zu einem Standfuß gefaltet werden kann. Allerdings wurde der Ständer ins Gehäuse verlegt und in die Hülle wurden Tasten integriert. Das gilt auch für das Surface 3, aber die Hardware-Ausstattung unterscheidet sich: Beim ersten Auftritt der Surface-Serie galt, dass die Pro-Varianten mit einem Intel-Chip bestückt werden, in den einfacheren Versionen wurden dagegen ARM-SoCs von Nvidia genutzt. Mit dem Surface 3 kommt nun der lang erwartete Wechsel. Auch in der kleineren Tablet-Variante steckt nun ein Intel-Prozessor.

Allerdings handelt es sich dabei nicht um ein Core i- oder Core M-Modell, sondern vielmehr um einen Atom-Prozessor der neuesten Generation, dem ein vier Gigabyte großer Arbeitsspeicher zur Seite gestellt wird. Zudem verfügt das Testgerät über einen 128 Gigabyte großen Datenspeicher.

Doch auch die Gene der Ahnen sind noch nicht vollends verschwunden: Das Gehäuse ist altbekanntes, wird nun jedoch mit einem 10,8 Zoll großen Full-HD-Display bestückt. Gänzlich renoviert zeigt sich der neue Surface-Einsteiger dagegen hinsichtlich der Kameratechnik: Bilder werden an der Front nun mit 3,5 und an der Rückseite mit acht Megapixeln aufgenommen.

Software-seitig gibt es aktuell noch keine Neuerungen. Das Tablet wird mit einer Windows 8.1-Installation ausgeliefert, die den Nutzer mit der oft geschmähten, mittlerweile aber doch etablierten Kacheloberfläche begrüßt. Das bedeutet natürlich auch, dass das Surface nach dem Einrichten betriebsbereit ist, denn die wesentlichen Dienste bis hin zu Office sind bereits vorinstalliert.

Heute schauen wir uns gleich zwei Produkte von Toshiba an, die sich dem Thema WLAN-basierte Speicherlösungen widmen – und das mit vergleichbaren, aber dennoch völlig unterschiedlichen Ansätzen.

Die Toshiba Canvio AeroCast ist eine Netzwerkfestplatte, die man als Vorgänger der von uns getesteten Toshiba Canvio AeroMobile Wireless SSD verstehen kann – schwerer, größer, durstiger und empfindlicher, aber mehr Speicherplatz und mehr Funktionen. Der STOR.E Wireless Adapter ist dagegen exakt das, was der Name vermuten lässt: Ein Adapter, der Massenspeicher WLAN-tauglich macht und damit eine günstige Möglichkeit darstellt, den Speicher von Smartphones und Tablets kabellos zu erweitern.

Bevor wir aber tiefer in die Materie eintauchen hier noch einmal die technischen Daten und alles wichtige zum Produkt in der Übersicht:

Lieferumfang und Ersteindruck

Im Lieferumfang des Canvio AeroCast befindet sich die eigentliche Festplatte, ein USB 3.0-Kabel sowie ein USB-Ladegerät, wie man es von Smartphones her kennt. Das Ladegerät ist dank der beiliegenden Aufsätze für den weltweiten Einsatz gerüstet. Neben einer Garantieerklärung befindet sich außerdem noch eine ausgesprochen knappe und damit wenig hilfreiche Schnellstartanleitung im Lieferumfang.

Die WLAN-Festplatte selbst hat ein Gehäuse aus hochwertigem Kunststoff und weist insgesamt eine gute Verarbeitungsqualität auf. Eine An-/Aus-Taste stellt neben einem Reset-Knopf den einzigen Schalter da – mehr ist allerdings auch nicht nötig. Drei LEDs zeigen den Ladestatus des Akkus, die Festplatten/WiFi-Aktivität und den Status einer eventuell eingesteckten SD-Karte an. Der Slot für die Speicherkarten ist halbtief ausgeführt, die Speicherkarte verschwindet also nicht komplett im Gehäuse.

Erstinstallation und Integration ins Heimnetzwerk

Die (Erst-)Installation der Canvio AeroCast funktioniert zumindest im Prinzip problemlos. Beim Anschalten spannt die Festplatte ein eigenes, eindeutig benanntes WLAN-Netzwerk auf; konfiguriert wird die WLAN-Festplatte über die kostenlose Toshiba Wireless HDD-App oder per Web-Browser. 

Die beiliegende Schnellstartanleitung erweist sich bereits während der Erstinstallation als faktisch nutzlos: Der voreingestellte WLAN-Schlüssel (“12345678”) ist nur im ausführlichen, online einzusehenden Benutzerhandbuch auf der Toshiba-Webseite zu finden. Das Handbuch ist schließlich in einem 10 Megabyte großen ZIP-Archiv enthalten. Zwar weist die Schnellstartanleitung mehrmals auf das Benutzerhandbuch hin, benutzerfreundlich ist das für ein Produkt für den Endverbraucher allerdings trotzdem nicht. Das Handbuch stellt aufgrund des Funktionsumfanges und auch den beiden generellen Betriebsmodi – Stationsmodus und Brückenmodus – zudem eine Pflichtlektüre dar.  

Im Stationsmodus fügt sich die WLAN-Festplatte in ein bereits bestehendes Drahtlosnetzwerk ein. Dieser Betriebsmodus bietet mehrere Vorteile: Zum einen lässt sie sich auf diese Art problemlos von einem beliebigen PC im Netzwerk als Netzwerkadresse ansprechen und als Netzwerkspeicher in die Dateiverwaltung integrieren; die Erkennung und Einbindung klappt erfreulich einfach ohne die Eingabe einer IP-Adresse mit Windows-Bordmitteln.

Allerdings: Eine Wahl besteht hier nicht; im Gegensatz zur Canvio AeroMobile Wireless SSD bietet die AeroCast abgesehen von einer lediglich zur Konfiguration der Festplatte geeigneten Weboberfläche keine Software zur Dateiverwaltung.

Der Dateiaustausch bleibt somit auf den Windows-Explorer begrenzt, was aus Sicht der Benutzerführung und des Komforts definitiv nicht das Optimum darstellt.  DLNA-Unterstützung bietet die Netzwerkfestplatte nicht, die einzige Möglichkeit zur Einbindung ins Heimkino besteht in Kombination mit Chromecast – dann können die entsprechenden Medieninhalte auf einen Fernseher gestreamt werden.

Wichtig: Der Stationsmodus sollte keinesfalls in einem öffentlich WLAN gewählt werden, denn dann haben auch Unbefugte potenziell Zugang zu den auf der Festplatte gespeicherten Daten.

Seit The Witcher 2 sind in der Spielwelt sechs Monate vergangen und Geralts Erinnerungen sind größtenteils zurückgekehrt. Jetzt macht er sich auf die Reise, um an sein altes Leben anzuknüpfen und die wichtigen Personen seiner Vergangenheit wiederzusehen. Vor allem natürlich seine ehemalige Geliebte Yennefer sowie seine Adoptivtochter Ciri.

Ciri als GöreCiri als Göre

Wie alles beginnt

Zu Beginn kann der Spieler entscheiden, ob er seinen Spielstand aus dem zweiten Teil übernehmen oder einen Spielstand simulieren will. Möchte er simulieren, werden ihm im weiteren Spielverlauf im Palast einige Fragen gestellt, die die alten Entscheidungen aus The Witcher 2 quasi rückwirkend in Kraft setzt und Auswirkungen auf den Spielverlauf haben.

Rückblickend ist dies in unseren Augen ein sehr kreativer Umgang mit dem Fakt, dass im vorherigen Teil getroffene Entscheidungen Einfluss auf den Nachfolger haben. Dem Tester war zu diesem Zeitpunkt allerdings nicht bewusst, dass er mit seinen Antworten quasi Fakten schaffen würde.

Der Einstieg in die Geschichte ist in Wilde Jagd nicht ganz so dramatisch wie noch im Vorgänger. Das hat der dritte Teil aber auch gar nicht nötig. Der Ruf der Serie ist gut genug und die Fans so zahlreich, dass sich die Story auch mal gemächlich entwickeln darf und nicht gleich alles Pulver zu Beginn verfeuert werden muss.

Hier lernt der Spieler dann auch eine der neuen Hauptpersonen kennen: Ciri. Mit ihr durchläuft Geralt auch das optionale Tutorial, in dem man sich mit der Steuerung und den verschiedensten Elementen des Spiels vertraut machen kann.

Open World wie sie sein sollte

Sobald das Tutorial abgeschlossen ist und Geralt in Vesemirs Begleitung aufbricht, offenbart sich die größte Veränderung. The Witcher III spielt in einer offenen Welt. Dem Spieler steht es frei, ganz nach eigenem Geschmack durch die riesige Welt zu streifen.

Lagerfeuerromantik - nur ohne LagerfeuerLagerfeuerromantik – nur ohne Lagerfeuer

Damit diese große Welt nicht nervt, gibt es gleich zwei neue Spielelemente, die das Durchstreifen der Welt vereinfachen soll. Das eine ist Geralts Stute Plötze (oder im Englischen: Roach), auf der er deutlich schneller durch die Lande reiten kann. Ganz nebenbei kann man mit Hilfe einer Satteltasche auch gleich noch das Gewichtslimit für Gegenstände im Inventar nach oben schrauben.

Das zweite Mittel für schnelle Reisen sind auf der Karte verstreute Wegweiser und Boote, von denen man zu allen anderen schon besuchten Gegenständen der gleichen Art “schnellreisen” kann. Sobald man die Gegend gut ausgekundschaftet hat kann man relativ zügig weite Strecken zurücklegen.

Von Quest zu Quest

Wie auch schon bei den Vorgängern glänzt auch der dritte Teil mit einem ausgefeilten und mit viel Leben gefüllten Quest-System. Neben der Hauptquest gibt es unzählige Nebenquests, die abwechslungsreich und interessant sind. Hier schwächeln einige Konkurrenten, deren Nebenquests teils sehr lieblos wirken – bis hin zum klassischen “Gehe nach XXX, töte 10 YYY und komme hierher zurück”.

Bei Witcher 3 gibt es dagegen kein Schema F, nach dem die Quests gestrickt sind; sie sind sehr liebevoll manuell erstellt. Das wird zusätzlich dadurch unterstrichen, dass alle Quests über eigene, gesprochene Texte verfügen.

Ciri inzwischen eher betörendCiri inzwischen eher betörend

Wo war noch gleich …?

In Zeiten von Navigationssystemen und Handy-Navigation ist Orientierungssinn nicht mehr unbedingt überlebensnotwendig. Darauf nimmt auch The Witcher 3 Rücksicht.

Neben der obligatorischen großen Karte, die sich immer weiter mit Leben füllt, gibt es auch eine kleine, stets eingeblendete, Minimap. In dieser sind allerlei Informationen zu erkennen. Darauf befinden sich Geralts aktuelle Position und alle Landmarken in näherer Umgebung, beispielsweise Händler, Schmiede und besondere Orte.

Von oben ist es doch direkt viel übersichtlicherVon oben ist es doch direkt viel übersichtlicher

Auf ihr sind aber auch alle nahen Gegner und sogar ungeplünderte Gegnerleichen zu sehen. Gekrönt wird das Ganze von einer gepunkteten Linie, die den Weg zum nächsten Questort weist. Und wählt man eine andere aktive Quest aus, wird dies natürlich auch sofort auf der Mini-Map aktualisiert.

Das mag in einem solchen Fantasy-Szenario erst einmal anachronistisch wirken, aber praktisch ist es allemal. Einziges Manko dieses Systems ist, dass man die Schnellreise nicht zu Pferd auslösen kann. Hierfür muss man also immer erst absteigen. Wen diese Hilfe allzu sehr stört, der kann sie einfach in den Einstellungen ausschalten.

Absolut einzigartig?

In einer offenen Welt gibt es viele Orte, viele Gebäude und noch viel mehr Lebewesen. Darunter befinden sich bei Wild Hun enorm viele einzigartige Gebäude und Personen mit eigenem Aussehen und eigenem Charakter. Ganz klar ist aber natürlich auch, dass dies nicht für jeden Gegenstand des Spiels gelten kann.

Ein großer Anteil der Bevölkerung sind Statisten, deren Haupteigenschaft sich häufig mit “Bauer” oder “Bandit” erschöpft. Dazu kommt, dass die Kategorie Bauer offensichtlich eher sowas wie Leibeigener meint. Denn Bauern trifft man bei allen möglichen Tätigkeiten an allen möglichen Orten an. Diese Statisten haben – wenn sie angesprochen werden oder in der Nähe sind – meist nur ganz wenige Sätze parat, die sie völlig kontextfrei von sich geben.

Solange Rollenspiele aber noch über keine vollständige künstliche Intelligenz verfügen, wird sich eine so große Menge an NPCs nicht anders erstellen lassen. Mehr zu erwarten wäre also schlicht vermessen.

Hoffentlich hat der Friseur eine RechtsschutzversicherungHoffentlich hat der Friseur eine Rechtsschutzversicherung

Passiert man Statisten, hört man daher häufig irgendwelche Unterhaltungen mit, die zwar einen gewissen Unterhaltungswert haben, aber durch die ständige Wiederholung leicht eintönig werden. Gelegentlich geben diese Gespräche allerdings auch Hinweise für oder auf Quests. Hinhören sollte man also besser doch.

Aktuell zeichnet sich der Smartphone-Markt durch zwei Trends aus: Die Oberklasse geht preislich immer weiter durch die Decke – das Samsung Galaxy S6 kostet in der Basisversion schon 900 Euro, von Apples Smartphones ganz zu schweigen – und im unteren Preisbereich bis in die Mittelklasse hinein sinken die Verkaufspreise.

Zur letzteren Entwicklung hat Motorola einen nicht unwesentlichen Teil beigetragen. In dem kurzen Zwischenspiel, in dem Google der Eigentümer der Firma war, wurde die Entwicklung von leistungsstarken High-End-Boliden zugunsten von Smartphones mit möglichst gutem Preis-Leistungs-Verhältnis zurückgestellt. Heraus kam dabei zunächst das Moto G, das sich nicht zuletzt auch aufgrund des etablierten Herstellernamens, der für ein Mindestmaß an Qualität steht, wie geschnitten Brot verkaufte.

Und wem das noch zu teuer war, dem wurde kurz darauf das Moto E angeboten, das zwar nicht zu den günstigsten Einsteigern zählte, jedoch eine technische Zusammenstellung präsentierte, die im Alltag einen höheren Nutzwert bot als viele Konkurrenten. Mit der zweiten Auflage des Einsteigers scheint der Hersteller einmal mehr die Maßstäbe verschieben zu wollen.

LTE-Modem für Einsteigerklasse

In einem für die Moto-Serie typischen Gehäuse steckt hinter einem 4,5 Zoll großen qHD-Display ein Qualcomm Snapdragon 410 mit vier 1,2 GHz schnellen Cortex-A53-Kernen, denen ein ein Gigabyte großer Arbeitsspeicher zur Seite steht. Der Datenspeicher ist mit acht Gigabyte nicht wirklich groß, kann allerdings mit microSD-Karten aufgerüstet werden.

Wie bereits der Vorgänger setzt der Hersteller auf eine 5-MP-Kamera auf der Rückseite, die Auflösung an der Front beträgt mickrige 0,3 Megapixel. Und immerhin ist ein LTE-Modem an Bord, auch wenn WLANs lediglich nach b/g/n-Standard genutzt werden können. Für einen Verkaufspreis von rund 120 Euro kann man aber auch kaum mehr erwarten.

Klassisches Android ohne Anpassungen

Noch bei seinen Razr-Modellen galt Motorola hinsichtlich der Update-Politik als schlicht und ergreifend als schlampig: So wurde das Razr einen Tag vor dem Galaxy Nexus und damit vor Android 4.0 präsentiert, musste jedoch mehr als 1,5 Jahre auf eine Aktualisierung auf diese Version des Betriebssystems warten.

Ganz anders die Moto-Modelle: Von Anfang an wurden diese stets mit der aktuellsten Variante bedacht und erhielten auch reglmäßig Updates. Dies ist beim Moto E nicht anderes, auch wenn noch die Version 5.0.2 und nicht Android 5.1 installiert ist. Doch selbst erstere ist bei vielen höherwertigeren Mittelklasse-Modellen nicht unbedingt Standard.

Dem Betriebssystem selbst wird dabei keine übermäßige Beachtung geschenkt: Zum Einsatz kommt ein Basis-Android, das von einer Hersteller-eigenen Oberfläche verschont bleibt. Das bedeutet aber auch, dass das Angebot an zusätzlichen Apps eher schmal ausfällt. Neben dem Google-Standardprogramm gibt es noch einen Migrationsdienst, der allerdings auch auf dem in Android integrierten Service basiert, sowie ein als Moto bezeichneter Assistenzservice.

Zum Schluss noch kurz die technischen Daten des Smartphones, bevor wir tiefer in die Details gehen.

Der Preis ist eine Ansage, das Ergebnis übrigens auch. So viel wollen und können wir schon einmal vorab spoilern. In unserem Grundlagenartikel Mythos Gaming-Headset: Reines Marketing-Blabla oder echter Vorteil beim Spielen? hatten wir ja bereits ausfühlich er- und geklärt, dass Dinge wie Sounding oder Surround mit mehreren Treibern mehr als nur kontraproduktiv für ein gutes Hörerlebnis sind und dieses geradezu zerstören können.

Was also lag näher, sich ein Paar ausgezeichnete und leichte Stereo-Kopfhörer zu schnappen, diese mit dem passenden Mikrofon zu versehen und sie dann mit einer ähnlichen Kombination aus dem gleichen Hause zu vergleichen, die allerdings schon fast viermal so viel kostet?

Gesagt, getan! Wir testen den Beyerdynamic DTX 350p zusammen mit dem äußerst günstigen Mikrofon Zalman ZM-MIC 1 und vergleichen am Schluss das Ganze mit einer deutlich teureren Kombination aus dem Beyerdynamic Custom One Pro und dem dazu passenden Custom Headset Gear.

Warum aber nun gerade der Beyerdynamic DRX 350p? Wir hatten diesen sehr leichten und portablen Kopfhörer eigentlich als eine Art bezahlbare Einstiegsdroge für den normalen PC-Audio-Bereich getestet, aber dann auch sehr schnell festgestellt, dass der recht warm abgestimmte Kopfhörer zwar nicht neutral ist, aber trotzdem jedes Badewannen-Sounding tunlichst vermeidet – er könnte der Jugend genauso gut gefallen wie einem kompromissbereiten Audio-Junkie.

Erstaunt hat uns zudem die sehr große Bühne für diesen sehr preiswerten Schallwandler und die auch beim Gaming wirklich erstaunlich hohe Auflösung sowie die sehr gute Ortung. So etwas schreit deshalb geradezu nach einem Bastelprojekt!

Packt man den knapp 49 Euro teuren DTX 350p aus, so sticht einem schon vor dem ersten Handauflegen die auf der Lasche des Kartons fett aufgedruckte Forderung ENJOY als ernstgemeinte Warnung ins Auge. Wer noch nie eine Berührung mit sauber klingender Audio-Peripherie hatte, dürfte von diesem Teil wirklich unheilbar angefixt werden. Nicht jeder wird schließlich gleich einen High-End Kopfhörer kaufen wollen oder können – aber als Probierpackung für mehr ist der DTX 350p schon eine echte Versuchung.

Neben dem zusammenklapbaren Kopfhörer gibt es als Zubehör übrigens noch eine kleine Kunstledertasche, in der wir später auch noch das Mikro verstauen können – mehr jedoch nicht. Aber man braucht auch nicht mehr, um erst einmal loslegen zu können. Nur noch schnell die Tabelle mit den wichtigsten technischen Eckdaten durchlesen und dann geht es auch schon los.

Die Gerüchte um eine neue Speicherarchitektur in der kommenden Grafikkartengeneration von AMD brodeln schon eine ganze Weile. Es war von einem 3D-Ansatz im Speicherdesign die Rede – allerdings war nicht völlig klar, was genau das bedeutet. Wenigstens war dies bis jetzt der Fall.

AMD behauptet, Speicher herstellen zu wollen, der eine höhere Bandbreite als GDDR5 hat, deutlich energieeffizienter als alles bisher dagewesene sein soll und dabei auch noch weniger Platz als bisher brauchen soll.

Obwohl wir immer noch nicht wissen, wann mit HBM-Speicher bestückte Karten auf den Markt kommen werden und die Firma noch nicht sonderlich ins Detail geht, wissen wir dennoch, dass die erste Generation von High Bandwidth Memory (HBM) erstmalig in Grafikarten für Endanwender zum Einsatz kommen wird, bevor auch andere Geräten an die Reihe kommen. AMD sieht viele zukünftige Einsatzgebiete für HBM – angefangen bei rechenintensiven Aufgaben bis hin zu APUs.

AMD begann vor sieben Jahren mit diesem Projekt. Als die Ingenieure sich das erste Mal an das Projekt begaben und über potenzielle Probleme nachdachten, war es offensichtlich, dass die Bandbreite pro Watt schnell zum Problem werden könnte. Da der Bedarf an Bandbreite immer weiter steigt, war der traditionelle Ansatz, mehr auf einem Die unterzubringen. DRAM hat diesen Luxus nicht und doch steigt der Bandbreitenbedarf mit immer schnelleren CPUs und GPUs. Um mitzuhalten brauchte GDDR5 beispielsweise mehr Strom – und ab einem gewissen Punkt ist dies nicht mehr tragfähig.

HBM wurde entwickelt, um dieses Problem zu lösen. Um das Problem von allen Seiten aus anzugehen, entwickelte die Firma ein sogenanntes 3D-Design und stapelte vier Speicherchips auf einem einzigen logischen Die. Dieser logische Die wird dann auf einem Interposer aus Silizium untergebracht, der selbst keine aktiven Transistoren hat. GPU, CPU oder SoC sind ebenfalls direkt mit dem Interposer verbunden, der wiederum mit dem Substrat des Packages verbunden ist.

Weil dies ein völlig neuer Ansatz ist, wurden für die gestapelten Speicherchips gänzlich neue Verbindungen entwickelt, die “through-silicon vias” (TSVs) und “Ubumps” genannt wurden. Diese TSVs erlauben vertikale Verbindungen von einem Chip zum nächsten und dienen auch der Verbindung des SoC bzw. der GPU mit dem Interposer.

Auf diese Weise gestapelte Speicherchips benötigen deutlich weniger Platz. Während bei bisherigen Grafikkarten Speicherchips die GPU umzingelten, bräuchte eine HBM-Konfiguration gerade einmal vier Speicher-Chips, die zudem direkt in den Ecken angebracht wären. Bei diesem Ansatz müssen die Daten eine deutlich geringere Strecke zurücklegen, um den Prozessor zu erreichen. Allerdings sind es nicht nur weniger Chips – die HBM-Stapel haben auch deutlich weniger Oberfläche als GDDR5-Module. Ein einziger 1-GByte-Stapel hat eine Kantenlänge von nur 5 x 7 Millimetern, wohingegen die gleiche Menge GDDR5-Speicher eine Fläche von 28 x 24 Millimeter belegt.

High Bandwidth Memory stellt sozusagen die Uhr zurück. Seit Jahren musste für mehr Datendurchsatz die Taktrate hochgeschraubt werden. Die Breite des Busses von HBM verhindert diesen Bedarf. GDDR5 läuft auf einem 32-Bit-Bus mit bis zu 1750 MHz, was einen Datendurchsatz von sieben GByte/s ergibt. Die effektive Bandbreite kann 28 GByte/s pro Chip erreichen.

HBM hat eine Busbreite von 1024 Bit und eine deutlich geringere Taktrate von 500 MHz (1 GByte/s) – die Bandbreite erreicht Werte zwischen 100 und 125 GByte/s pro Stapel. Dabei erhöht sich die effektive Bandbreite von 10,66 GByte/s pro Watt auf über 35 GByte/s pro Watt.

Diese Zahlen stammen von der ersten Generation und AMD verspricht dramatische Leistungssteigerungen für die zweite Generation. Es wird erwartet, dass sich bis dahin die Geschwindigkeit verdoppeln und die Kapazität vervierfachen wird.

Eine Vervierfachung der Kapazität klingt erst einmal enorm. Allerdings liegt das Maximum der ersten Generation auch “nur” bei einem Gigabyte pro Stapel – und mehr als vier Stapel sind derzeit nicht möglich. Das bedeutet, dass die erste Generation an Grafikkarten einen maximal vier Gigabyte großen Frame Buffer haben kann. Das klingt nach einem potenziellen Problem, aber Joe Macri, AMDs Product CTO für HBM, zerstreut diese Bedenken. Er glaubt fest daran, dass dies kein Problem darstellt und von den Ingenieuren gelöst werden wird.

Wenn die Geschwindigkeit gesteigert werden sollte, gab es bisher keine andere Möglichkeit, als die Größe des Frame Buffers zu erhöhen. Bisher hatten an diesem Problem noch keine Ingenieure gearbeitet. Aber dank der Skalierbarkeit von HBM konnte AMD nun einige schlaue Köpfe daran setzen, den Umgang mit Speicher effizienter zu gestalten. Die Firma scheint jedenfalls zuversichtlich zu sein, dass die “nur” vier Gigabyte HBM mit den größeren Speichermengen mithalten können, die momentan beliebt sind.

Es ist aber nur eine Frage der Zeit, bis wir AMDs Behauptungen überprüfen können. AMDs neue GPUs werden kurzfristig erwartet und jetzt, da AMD den Mantel des Schweigens über dieser neuen Technologie gelüftet hat, dürfte der Erscheinungstermin nicht mehr fern sein. Und wenn AMDs Behauptungen einen wahren Kern haben, könnte die Performance von GPUs im kommenden Jahr deutlich steigen.

In der Mittelklasse – erst recht im Preisbereich um 200 Euro – wimmelt es nur so von vermeintlich guten Tablet-Angeboten. Meist gibt es Massenware mit der ein oder anderen Einschränkung.

Huawei will sich mit dem MediaPad T1 8.0 LTE positiv von der Masse abheben. So besitzt das 8-zöllige Tablet nicht nur ein LTE-Modul, was für sich genommen schon ein Plus gegenüber vielen Konkurrenz-Modellen wäre, sondern es soll sich auch noch zum Telefonieren eignen. Nicht schlecht.

Allerdings vermissen wir schon beim Auspacken des Tablets ein wichtiges Utensil: Das Headset. Das Huawei ein solches nicht mitliefert, ist ausgesprochen schade – denn wer bitte hält sich ein acht Zoll großes und 360 Gramm schweres Tablet ans Ohr?

Von der LTE- und Telefonfunktion abgesehen bietet das Huawei MediaPad T1 aber nur Standardkost, was angesichts des Preises nicht überrascht. Das Display – immerhin ein IPS-Panel – bietet HD-Auflösung, das Innenleben passt zum moderaten Preis. Der magere Speicher lässt sich immerhin erweitern. Von den Kameramodulen sollte man sich auch nicht zu viel versprechen, denn hier setzen fast alle Anbieter den Rotstift an.

Huawei ruft 220 Euro für sein Telefon-Tablet auf – und diese Preisempfehlung wird zum Testzeitpunkt von keinem Online-Händler unterboten und von vielen sogar überboten wird. Der Preis geht sicher in Ordnung. Ob das Tablet allerdings auch im Alltag bestehen kann, wird unser Test klären.

Wir erinnern uns an den Test der zwei  Docking-Stationen von HIS und stellen als ersten Unterschied erleichtert fest, dass nicht mehr alles  durch einen einzigen USB-Anschluss gepresst werden muss – Schlange stehende Daten sollten so zumindest überwiegend ausgeschlossen werden können. Außerdem ist der verwendete DisplayPort-Anschluss auch noch per Hub gesplittet, so dass man recht galant sogar zwei Bildschirme anschließen könnte, ohne den Rest negativ zu beeinflussen.

Damit passt die Club3D CSV-3203 SenseVision Y-Cabled Docking Station auch “erschreckend” gut zum Surface Pro 3 der Redaktion, welches lediglich einen einzigen USB3.0-Anschluss und einen mini-DisplayPort bietet – da liegt ein Selbstversuch doch glatt auf der Hand. Am Ende kam ein echter Praxistest dabei heraus, den wir zudem um einige Messungen ergänzt haben.

Doch was erwartet den Käufer der zu Preisen ab rund 130 Euro erhältlichen Docking-Station eigentlich? Vergleicht man sie mit der als Zubehör erhältlichen, massiven und für den mobilen Einsatz auf Reisen nahezu völlig untauglichen Docking-Station von Microsoft, die zudem über 20 Euro mehr kostet, dann fehlen lediglich zwei USB 2.0-Ports und ein Klinkenausgang – dafür fehlt beim Original jedoch der zweite Monitoranschluss. Der Rest der Anschlussmöglichkeiten ist identisch. Einen kleinen USB2.0-Hub kann man aber notfalls auch kaskadieren und für die Audio-Geschichte zeigen wir später noch eine unkonventionelle Lösung auf. Ansonsten stehen das niedrigere Gewicht und die bessere Transportmöglichkeit auf der Haben-Seite der Lösung von Club 3D.

Halten wir uns nicht weiter mit Erklärungen auf, sondern packen wir das Schätzchen endlich aus! In der Verpackung finden wir die Docking-Station mit den zwei fest angeschlossenen Verbindungskabeln zum Zielgerät, ein externes Netzteil (über das wir später noch etwas schreiben werden), ein Handbuch und eine Treiber-CD. Mehr gibt es nicht, weil man einfach nicht mehr braucht. Das alles passt später als Reiseuntensil in einen kleinen Stoffbeutel, den wir im konkreten Fall im Netzteilkarton einer bekannten Marke gefunden hatten. Damit ist die Koffertauglichkeit gegeben.

Auf einem ebenfalls beigelegten Medikationszettel erinnert uns Club 3D zudem an die Obergrenzen dessen, was mit den aktuell gebräuchlichen Videoanschlüssen – auch in Kombination – maximal machbar ist. Man wird dies im Normalfall zwar entweder wissen oder gar nicht brauchen – aber was man hat, das hat man. Immerhin stehen zwei mini-DisplayPort-Anschlüsse bereit, um weitere Ausgabegeräte anschließen zu können.

Doch bevor wir uns nun mit den Details und praktischen Tests beschäftigen, gibt es schnell noch die übliche tabellarische Auflistung aller Eigenheiten und technischen Daten:

  • 1
  • 2

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen