Monat: Juni 2016

Das ideale Gehäuse für ein Selbstbau-NAS oder einen kleinen Heimserver ist stabil, möglichst klein, lässt sich mit günstigen Standard-Komponenten bestücken und kann dennoch eine Reihe von Festplatten fassen, die dann idealerweise auch noch per Hot-Swap-Backplane angebunden werden.

Weitere interessante Gehäusetests
>>>   Antec P380
>>>   be quite! Dark Base Pro 900
>>>   Chieftec IX-05B
>>>   Cooler Master Mastercase Pro 5
>>>   Corsair Carbide 600C
>>>   Deepcool Gamer Storm Genome
>>>   Deepcool Gamer Storm Tristellar
>>>   Fractal Design Define S
>>>   Fractal Design Node 804
>>>   In Win 303

>>>   In Win H-Tower
>>>   Lian Li PC-O7S
>>>   Lian Li PC-T80
>>>   NZXT Manta
>>>   Thermaltake Core P5
>>>   Thermaltake Suppressor

Ein solches Exemplar hatten wir bereits vor einiger Zeit mit Silverstones DS380 im Test, das allerdings auch stattliche 165 Euro kostet. Deutlich günstigere Alternativen wie das Zalman M1 für 39 Euro oder das Xilence Torino für knapp 50 Euro bieten hingegen weniger Festplatteneinschübe und binden nur ein oder zwei Laufwerke per Hot-Swap-Backplane an.

An dieser Stelle kommt Inter-Techs IPC SC-4100 ins Spiel, das die Lücke zwischen den genannten Gehäusen mit einem Preis von rund 75 Euro zu schließen scheint.

Es fasst bis zu vier 2,5 oder 3,5 Zoll große Festplatten und bindet allesamt per Hot-Swap-Einschub an. Zusätzlich steht eine Unterbringungsmöglichkeit für ein weiteres 2,5-Zoll-Laufwerk zur Verfügung – hier bietet sich der Einsatz einer kleinen SSD für Betriebssystem und zusätzliche Software oder aber auch als SSD-Cache an.

Je nach verwendetem Mainboard oder Controller stehen dann immer noch genügend 3,5-Zoll-Einschübe zur Verfügung, um sämtliche Laufwerke für mehr Datensicherheit in den gängigen RAID-Modi für den Consumer-Bereich zu betreiben.

Mit Abmessungen von gerade einmal 19,4 x 20 x 27 cm (HxBxT) fällt das Mini-Gehäuse kleiner aus als die meisten Konkurrenzmodelle mit ähnlichem Funktionsumfang und eignet sich daher besonders gut, um sich außerhalb des direkten, ständigen Sichtfeldes unterbringen zu lassen.

Unterstützt werden ganz normale Mini-ITX-Mainboards. Deutliche Einschränkungen gibt es lediglich hinsichtlich der Höhe des Prozessorkühlers. Allerdings wird ein NAS-System oder Heimserver aber kaum als Performance-Monster konzipiert werden, so dass entsprechende Mini-Kühler in jedem Fall ausreichen.

Ansonsten gibt es angemessene Belüftungsmöglichkeiten, einen Single-Slot-PCI-Steckplatz, in dem sich eine kleine Grafikkarte oder aber auch ein RAID-Controller unterbringen lassen, und eine abschließbare Fronttür.

Auf der Folgeseite geben wir übrigens auch ein paar Tipps zur Wahl der Hardware für ein kostengünstiges NAS – ein ausführlicherer Test sowie ein Artikel zu Software und Einrichtung wird eventuell demnächst noch folgen.

Aufgrund der sehr kompakten Abmessungen ist der Anwender auf den Einsatz eines Flex-ATX-Netzteils oder eines 1HE-Rackmount-Servernetzteils beschränkt. Das ist aber weit weniger problematisch als mancher denken mag, denn auch hier gibt es mittlerweile einige effiziente und günstige Netzteile. Preislich bewegen sich diese auch im Rahmen dessen, was für ein brauchbares ATX-Netzteil investiert werden sollte.

Verpackung und Lieferumfang

Die Verpackung ist zwar wenig spektakulär, dafür bietet der Karton aber einen praktischen Tragegriff, falls das System doch einmal gesichert transportiert werden soll.

An Zubehör gibt es Schrauben zur Mainboard- und Netzteilmontage, eine zusätzliche Winkelhalterung für Flex-ATX-Netzteile, einen Schlüssel für die Fronttür und jeweils 16 bzw. neun Schrauben zu Anbringung von 3,5 und 2,5 Zoll großen Laufwerken. Außerdem liegt eine Ausdrehhilfe bei, um die Rändelschrauben leichter lösen zu können, die die Außenhülle des Gehäuses halten.

Aufbau und Außenansicht

Das SC-4100 ist einfach, schlicht und robust: Bis zu ein Millimeter starker SECC-Stahl verleiht dem rund drei Kilo chweren Winzling mit den vielen Festplatteneinschüben die gewünschte Solidität. Auch die matte, schwarze Lackierung ist unempfindlich und funktional.

An den vorderen Seiten gibt es zusätzliche, beidseitige Belüftungsöffnungen, die Frontblende ist bis auf einen schmalen, glänzenden Rahmen zur Aufhübschung ebenfalls matt-schwarz und dementsprechend unempfindlich. Der großflächige Einsatz von Mesh sorgt dafür, dass der Hecklüfter des SC-4100 frische Luft von außen ansaugen (Unterdruck-Effekt) und durch die Festplatteneinschübe hindurchleiten kann.

An der Front gibt es eine einfach ausgeführte, abschließbare Tür vor den frontalen Bedienelementen und externen Festplatteneinschüben. Dahinter verstecken sich vier Einschübe, zwei USB-3.0-Steckplätze (die intern auch über einen USB-2.0-Header angebunden werden können, wenn der neuere Standard nicht zur Verfügung stehen sollte) und insgesamt sechs helle Status-LEDs neben dem Power- und Reset-Taster: Jeweils eine Power-, HDD- und Alarm-LED sowie drei LEDs zur Anzeige von Netzwerkaktivität.

Zusätzlich hat Inter-Tech jeweils eine Power- sowie eine Status-LED pro Festplatteneinschub umgesetzt. Ein Teil der LEDs (Alarm, Netzwerkaktivität) erfordert entsprechend spezielle Anschlüsse.

Die Unterseite bietet von innen einzeln verschraubte Standfüße aus glänzendem Kunststoff mit einer Gummierung auf der Unterseite.

Dadurch steht das SC-4100 auch voll ausgebaut sicher auf glatten Oberflächen. Die glatte Unterseite leitet übrigens die Wärme von der Rückseite des CPU-Sockels weit besser aber als manch andere, doppelwandige Konstruktion.

Vor rund sechs Monaten begann AMD damit, häppchenweise die Eigenschaften der kommenden GPU-Generation zu enthüllen. Als Initialschuss wurde ein überarbeiteter Displaycontroller mit Unterstützung für HDMI 2.0b sowie DisplayPort 1.3 HBR3, Freesync über HDMI und einer HDR-fähigen Pipeline angekündigt. Ab diesem Zeitpunkt folgten weitere Informationsbröckchen, die auf den Launch von zwei unterschiedlichen GPUs hinwiesen, die bewusst in der Absicht konzipiert wurden, AMD wieder einen höheren Marktanteil im Mainstream-Desktop-PC-Bereich zu verschaffen. Außerdem sollte eine mobile GPU-Lösung in der Leistungsklasse von Konsolen angeboten werden, die in besonders dünnen und schlanken Systemen zum Einsatz kommen sollte.

Die mobile Lösung wird 16 AMD Compute Units bieten, die an ein 128 Bit breites Speicherinterface angebunden sind und über Beschleunigungsfunktionen zum En- und Dekodierten von 4K-Videomaterial verfügen. Allerdings wurde dieser Chip bislang noch nicht offiziell vorgestellt. Die Radeon RX 480, der wir uns im heutigen Artikel widmen wollen, basiert auf dem größeren Polaris-10-Design. Groß meint hier aber nicht groß im Sinne von Nvidias GP100-GPU mit ihren 15,3 Milliarden Transistoren. Stattdessen ist AMDs neueste Lösung gerade komplex genug, um die aktuellen High-End-VR-Headsets mit Daten füttern zu können. Damit sollte sie zumindest in einer Liga mit AMDs Radeon R9 290 sowie Nvidias GTX 970 mitspielen können.

Reine Midrange-Performance an sich wird aber wohl kaum einen Nutzer von den Socken hauen, vor allem nicht einen Monat nachdem Nvidia mit dem GP104 den High-End-Bereich neu definieren konnte. AMD positioniert die RX 480 deshalb preislich unterhalb von ähnlich schnellen Grafikkarten und konnte zudem den Stromverbrauch auf 150 Watt senken. Dadurch soll VR-Gaming für mehr Spieler attraktiv werden (wenn doch jetzt nur die Firmen, die Head-Mounted Displays für 600 bis 800 US-Dollar anbieten, noch preislich mitziehen würden…).

Uns erwarten insgesamt zwei Versionen der Radeon RX 480: Eine Version für rund 215 Euro (UVP) mit vier Gigabyte GDDR5, der mit rund sieben GBit/s arbeitet, und eine Version für rund 256 Euro mit acht Gigabyte GDDR5, der acht GBit/s schnell ist.

Für den Test haben wir selbstverständlich zum größeren Modell mit acht Gigabyte Speicher gegriffen.

AMDs Polaris 10 im Detail

Polaris 10 setzt sich aus 5,7 Milliarden Transistoren auf einem 230 mm² großen Die zusammen. Zum Vergleich: Hawaii versammelte 6,2 Milliarden Transistoren auf 438 mm² Die-Fläche. Wir ihr später auf den Benchmark-Seiten sehen werdet, sortiert sich die RX 480 leistungsmäßig zwischen der R9 290 und der R9 390 ein – mit weniger Transistoren und ungefährt 55 Prozent des Power-Budgets.

Vieles davon ist natürlich GlobalFoundries 14-nm-FinFET-Prozesstechnik anzurechnen, die im Verglkeich zu den planaren Transistoren der 28-nm-Prozesstechnik laut AMD fundamentale Performance- und energetische Vorteile bietet. Bei jeder beliebigen Energieaufnahme ermöglich FinFET höhere Taktraten – oder geringere Energieaufnahme bei gleichem Takt.

Für Polaris bedient sich AMD aus beiden Töpfen und erhöht die Taktraten, um gleichzeitig auch die Energiaufnahme zu senken. Das ist der Grund, warum die Polaris-10-GPU Ressourcen-reichere GPUs wie Hawaii hinter sich lassen kann und dennoch nur 150 Watt TDP hat – auch wenn unsere Messungen zeigen, dass die RX 480 ihre TDP ein bisschen “frisiert”.

Trotz des neuen Codenamens basiert Polaris 10 auf der vierten Generation von AMDs Graphics Core Next Generation. Die meisten Enthusiasten sind bereits mit GCN vertraut und werden somit die unterschiedlichen Blöcke des Polaris-Designs wiedererkennen.

Noch immer ist ein einzelner Graphics-Command-Prozessor am Anfang der Kette für die Zuweisung von Grafik-Queues an die Shader Engines zuständig – und die Asynchronous Compute Engines (ACEs) sind dafür verantwortlich, Compute Queues zu verteilen.

Aber nun sagt AMD, dass seine Befehlsverarbeitungslogik aus vier statt acht ACEs besteht. Dazu kommen zwei Hardware-Scheduler, die für priorisierte Queues, zeitliche/räumliche Ressourcenverwaltung und das Offloading von Aufgaben des CPU-Kernel zuständig sind. Es gibt keine neuen Blocks an sich, sondern vielmehr einen optionalen Modus, in dem die vorhandenen Pipelines laufen können. Aber wir wollen an dieser Stell mal Dave Nalasco, Senior Technology Manager für Grafik bei AMD, im Original zitieren:

The HWS (Hardware Workgroup/Wavefront Schedulers) are essentially ACE pipelines that are configured without dispatch controllers. Their job is to offload the CPU by handling the scheduling of user/driver queues on the available hardware queue slots. They are microcode-programmable processors that can implement a variety of scheduling policies. We used them to implement the Quick Response Queue and CU Reservation features in Polaris, and we were able to port those changes to third-generation GCN products with driver updates.

Mit Quick Response Queues können Entwicklern bestimmte asynchron laufende Tasks priorisieren, ohne dabei anderen Prozessen gänzlich zuvorzukommen. Daves Blog-Beitrag zu dem Thema findet ihr hier. Um es kurz zu machen: AMD möchte hier vor allem Flexibilität erreichen. Die Architektur erlaubt viele Vorgehensweisen zur Leistungsverbesserung und Minimierung von Latenzen. Beides ist vor allem in VR-Anwendungen extrem wichtig.

Die Compute Units sind alte Bekannte und bestehen aus 64 IEE 754-2008-konformen Shadern, die zwischen vier Vector Units aufgeteilt werden, einer Scalar Unit und 16 Texture Fetch Load/Store Units. Zu jeder CU gehören auch vier Texture Units, 16 Kilobyte L1-Cache, 64 Kilobyte Local Data Share, und Registerraum für Vektor- und Skalareinheiten.

AMD gibt an, eine Reihe von Verbesserungen an der Effizienz der CUs vorgenommen zu haben. Dazu gehören die neu hinzugefügte Unterstützung für FP16 (und Int16), verbesserter Zugriff auf den Cache und besseres Instruction Prefetching. Das alles soll insgesamt zu einer Leistungssteigerung von 15 Prozent pro Compute Unit führen – zumindest im Vergleich zur Radeon R9 290 mit Hawaii-GPU, die noch auf der zweiten Generation der GCN-Architektur basierte.

Neun CUs bilden eine Shader Engine und Polaris 10 brüstet sich damit, über vier dieser SEs zu verfügen, was unseres Wissens nach die maximale Ausbaustufe dieser Architektur darstellt. Daraus ergeben sich (64 Shader x neun CUs x vier SEs) 2304 Stream Prozessoren und 144 Textureinheiten.

Zu jeder Shader Engine gehört eine Geometrie-Engine, die laut AMD dadurch verbessert wurden, dass ein Primitive Discard Accelerator hinzugefügt wurde. Er soll vor der Scan-Umwandlung jedes Primitive aussondern, das nicht zu einem Pixel gerastert wird, und so den Durchsatz verbessern. Dabei handelt es sich um eine automatische Funktion der Pre-Rasterization-Stufe der Grafik-Pipeline, die mit Polaris völlig neu hinzugekommen ist.

Es gibt außerdem einen Index Cache für Geometry Instancing – aber wir wissen weder, wie groß er ist, noch wie groß die Auswirkungen sind, wenn Instancing genutzt wird.

Ähnlich wie Hawaii – später als Grenada bekannt – schafft Polaris 10 bis zu vier Primitives pro Takt. Während die schnellste Hawaii/Grenada-GPU mit bis zu maximal 1050 MHz läuft (in diesem Fall die R9 390X), hat AMD die Radeon RX 480 auf bis zu 1266 MHz hochgezüchtet. Sie verfügt zwar über weniger On-Die-Ressourcen, soll dies allerdings teilweise durch die höhere Taktfrequenz wettmachen können. Während die R9 290X noch eine Floating-Point-Performance (Single Precision) von 5,6 TFLOPS bot, sind es bei der RX 480 dank dieser “Boost”-Spezifikation sogar 5,8 TFLOPS.

Aber wie realistisch sind diese 1266 MHz? Hawaii hatte große Probleme damit, die von AMD spezifizierte Taktrate aufrechtzuerhalten, weil sie einfach zu heiß wurde. Wir wollten natürlich sicherstellen, dass Polaris nicht vom gleichen Problem betroffen ist. Dazu ließen wir den Metro: Last Light Redux-Benchmark 10-mal in einer Schleife laufen und zeichneten dabei die Taktraten mittels GPU-Z auf. Das Ganze resultierte in dem folgenden Diagramm:

Zwischen dem höchsten und niedrigsten Messpunkt im Diagramm liegen exakt 148 MHz. Den Tiefpunkt vermerken wir mit 1118 MHz und das Maximum mit 1265 MHz. Wir würden daher sagen, dass AMD seine Basis- und Boost-Takraten fast auf den Punkt genau trifft – auch wenn das dazwischen ständig angepasst wird. Und: Der Durchschnittswert von 1208 MHz liegt dem Maximum näher als dem Minimum…

Hawaii und Fiji SE verfügten über vier Render-Backends, die jeweils 16 Pixel pro Takt (oder insgesamt 64 über die komplette GPU) verarbeiten konnten. Bei Polaris 10 ist davon nur noch die Hälfte übrig: Zwei Render-Backends pro SE, davon jeder mit vier ROPs, insgesamt 32 Pixel pro Takt. Das ist nun wirklich ein deutlicher Einschnitt gegenüber der Radeon R9 290 auf Hawaii-Basis, die es für die RX 480 zu schlagen gilt. Erschwerend kommt hinzu, dass Polaris 10 nur ein 256 Bit breites Speicherinterface besitzt und damit deutlich weniger als die Hawaii-Grafikkarten mit 512 Bit. Die 4-GByte-Version der Radeon RX 480 wird GDDR5 mit 7 GBit/s bieten, das bedeutet eine maximale Bandbreite von 224 GByte/s. Das heute getestete 8 -GByte-Modell bietet hingegen GDDR5 mit 8 GBit/s, was den Durchsatz auf bis zu 256 GByte/s erhöht. Aber auch das ist immer noch weniger als bei einer Radeon R9 290 mit 320 GByte/s.

Ein Teil des Rückstandes wird durch die verbesserte Delta Color Compression ausgeglichen. Dieser verringert die Menge an Informationen, die über den Bus geschickt werden muss. AMD bietet hier mit 2/4/8:1 Lossless Ratios ähnliche Werte wie Nvidias Pascal-Architektur. Außerdem profitiert Polaris 10 vom mit 2 MByte größeren L2-Cache, den wir erstmals mit der Fiji-Generation zu Gesicht bekamen. Das kann dazu führend, dass weniger Daten in den GDDR5-Speicher wandern müssen und somit dafür sorgen, dass die GPU weniger auf ein breites Speicherinterface und einen hohen Datendurchsatz angewiesen ist.

Dennoch muss das schmalere Backend der GPU einen Einfluss auf die Leistung haben, sobald die Auflösung angehoben oder mehr Anti-Aliasing genutzt wird. Wir waren sehr neugierig, wie Polaris wohl im Vergleich zu Hawaii abschneiden würde, wenn der zu bewältigende Workload intensiver wird. Aus diesem Grund haben wir Grand Theft Auto V bei 1920 x 1080 Pixeln und Grafikdetails auf Very High angeschmissen und dann das Anti-Aliasing dann stufenweise erhöht.

Während wir MSAA von “Aus” auf 2x und dann 4x hochschrauben, zeigt sich eindeutig, wie die Radeon RX 480 im Hinblick auf die durchschnittlichen FPS deutlich schneller einbricht als die R9 390. Wird Anti-Aliasing deaktiviert, dann kann die RX 480 97,3 FPS liefern, die R9 390 hingegen nur 90,4 FPS. Aber letztlich landet AMDs Radeon RX 480 bei 57,5 FPS, während die R9 390 durchschnittlich 62,9 FPS liefern kann.

Nachdem be quiet! Ende 2014 mit dem Silent Base 800 einen ziemlich überzeugenden und vor allem leisen Einstand auf dem Gehäusemarkt feiern konnte und zunächst einmal die 100-Euro-Mittelklasse bediente, folgt nun mit dem schallgedämmten Dark Base (Pro) 900 ein Gehäuse für betuchte High-End-Anwender, das es im wahrsten Sinne des Wortes in sich hat: Gerade die Pro-Version bietet eine gepfefferte Ausstattungsliste – und beide Ausstattungsvarianten verfügt über den modularsten Innenaufbau, den wir bislang antreffen konnten.

Weitere interessante Gehäusetests auf Tom’s Hardware Deutschland
>>>   Antec P380
>>>   Chieftec IX-05B
>>>   Cooler Master Mastercase Pro 5
>>>   Corsair Carbide 600C
>>>   Deepcool Gamer Storm Genome
>>>   Deepcool Gamer Storm Tristellar
>>>   Fractal Design Define S
>>>   Fractal Design Node 804
>>>   In Win 303
>>>   In Win H-Tower
>>>   Lian Li PC-O7S
>>>   Lian Li PC-T80
>>>   NZXT Manta
>>>   Thermaltake Core P5
>>>   Thermaltake Suppressor

Versetzen des Mainboard-Trays an die rechte oder linke Gehäuseseite, um entweder von rechts oder links in das Gehäuse schauen zu können? Kein Problem. Einzeln entnehmbare Festplattenschlitten ohne den Airflow störende Laufwerkskäfige? Kein Problem. Außerdem wurde so ziemlich alle Einzelbauteile entkoppelt montiert – einschließlich der drei neuen, 14 cm großen Silent-Wings-3 Lüfter.

Das be quiet! Dark Base Pro 900 ist ab sofort zu einer UVP von 199 Euro, das Dark Base Pro 900 für 249 Euro erhältlich. Beide Modelle bieten eine umfangreiche Ausstattung, bei der Pro-Version kommt RGB-Beleuchtung (5 darstellbare Farben, auf Knopfdruck wechselbar) im Innenraum, eine Lüftersteuerung mit mehr Anschlüssen, eine kabelloses, induktive Qi-Ladestation für entsprechende Mobilgeräte und ein Seitenteil aus gehärtetem und leicht getöntem Glas hinzu.

Dark Rock 900Dark Rock 900 Dark Rock Pro 900Dark Rock Pro 900

Beide Modelle bieten ungewöhnlich viel Platz zur Unterbringung von Wasserkühlungskomponenten – und im Gegensatz zum deutlich günstigeren Silent Base 800 kommt nun Aluminum großflächigen zum Einsatz. Wie üblich erscheinen die Gehäuse in Schwarz-Orange, Schwarz-Silber und komplett in Schwarz.

Ausstattungsliste
Modularer Mainboard-Tray mit sechs Montagepositionen beide Modelle
Einzelne HDD-Einschübe ohne Käfig beide Modelle
Lüftersteuerung beide Modelle (Dark Base 900 Pro: je ein zusätzlicher 3-Pin und 4-Pin-Anschluss und die Möglichkeit, alle Lüfter parallel über einen 4-Pin-Mainboardanschluss zu regeln)
Qi-Ladestation Dark Base Pro 900
Sichtfenster aus getöntem, gehärtetem Glas Dark Base Pro 900
RGB-Innenraumbeleuchtung Dark Base Pro 900

Verpackung und Lieferumfang

Be quiet! liefert das Dark Base Pro 900 in einer aufwändig gestalteten Umverpackung aus, die alle grundlegenden Features prominent darstellt. An Selbstbewusstsein fehlt es dem Hersteller dabei nicht. Ob Versprechen wie das “technische Meisterwerk” und “Glanzstück deutscher Produktkonzeption” gehalten werden können, muss sich im Test zeigen. 

Im Inneren wird das von Styroporelementen gehaltene Dark Base Pro von einer Gewebehülle geschützt, die sich exzellent zur Wiederverwendung eignet – beispielsweise, wenn das Gehäuse während des Urlaubs vor Staub geschützt werden soll.

Komplett in Schwarz gehalten wurde das Montagezubehör, allerdings ist die Anzahl an Schrauben zur Montage von 2,5-Zoll-Laufwerken mit acht Stück dann doch etwas knapp bemessen. Auch ein Piezo-Lautsprecher liegt nicht bei. Zusätzlich gibt es allerdings sechs stabile und wiederverwendbare Kabelbinder aus Klettband, eine Halterung für den Ausgleichsbehälter einer Wasserkühlung, eine zusätzliche Lüfterhalterung und eine orange-farbene Gummiabdeckung für einen Festplattenschacht.

Da es sich bei unserem Testmodell um die Pro-Version handelt, gibt es zusätzlich zwei 36 Zentimeter lange RGB-LED-Leisten, die im Inneren des Gehäuses verklebt werden können

Aufbau und Außenansicht

Der Hersteller selbst beschreibt das neue Gehäuse als Super-Midi-Tower und meint damit einen Midi-Tower mit Big-Tower-Features. Mit seinen Abmessungen von 58,55 x 24,27 x 57,26 cm fällt er dann auch sehr groß aus. Das Leergewicht von rund 15 kg ist im Midi-Tower-Bereich alles andere als alltäglich, lässt aber auch auf eine hohe Stabilität hoffen.

Diese ist auch gegeben: Für den Grundaufbau setzt be quiet! auf 0,8 bis ein Millimeter dicken SECC-Stahl. Hinzu gesellt sich 0,8 Millimeter dickes Aluminium in gebürsteter Optik für die Front-, Deckel- und sogar Bodenblende, ein wenig Kunststoff und zumindest bei der Pro-Ausstattungsvariante eine vier Millimeter dicke Seitenscheibe aus gehärtetem und getöntem Glas, die deutlich staubunempfindlicher und kratzresistenter ausfällt als die ansonsten zumeist verwendeten Kunststoffalternativen.

Trotz seiner Breite wirkt das Dark Base Pro 900 aber nicht bullig – dafür sorgen die seitlichen Schrägen an beiden Seiten der Front. Zusätzlich gibt es von der Front bis über die Seitenteile einen farbigen Zierstreifen – bei unserem Testexemplar ist dieser orange-farben, aber auch silberne oder schwarze Varianten wird es zum Marktstart geben.

Während das rechte Seitenteil klassisch mit Rändelschrauben von hinten arretiert wird, die nach dem Lösen am Seitenteil verbleiben (sehr praktisch!), wird das massive linke Seitenteil aus Glas etwas anders befestigt. Hier kommen Rändelmuttern zum Einsatz, die auf Gewindestiften stecken, auf die auch das gläserne Seitenteil aufgelegt wird. Das empfiehlt sich angesichts des nicht ganz unerheblichen Gewichts des gläsernen Seitenteils idealerweise bei liegendem Gehäuse. Sehr schön: Beide Seitenteile wurden entkoppelt.

Frontale Bedienelemente sind zuhauf vorhanden. Das Dark Base Pro 900 bietet jeweils zwei USB-3.0- und USB-2.0-Ports (beschriftet und beide in Schwarz), Power- und Reset-Taster und HD-Audio-Anschlüsse.

Für den Zugriff auf weitere Bedienelemente muss die stabile Fronttür geöffnet werden. Hier befindet sich ein Schieberegler, mit dem sich die im Gehäuse verbauten Lüfter stufenlos regeln lassen. Der Taster daneben dient dem Zu- und Abschalten der internen Gehäusebeleuchtung.

Ungewöhnlich, aber sehr sinnvoll für alle, die ein entsprechend ausgestattetes Smartphone ihr Eigen nennen: Im vorderen Bereich der Oberseite gibt es eine kabellose Qi-Lademöglichkeit.

An der Unterseite sorgen breitflächig gummierte Standfüße für einen rutschfesten Halt des Gehäuses.

Technische Spezifikationen

Der Stift war einst so etwas wie der Beleg für ein modernes Mobiltelefon. Ob Feature- oder Smartphone – die Stifteingabe signalisierte einen großen Funktionsumfang. Dann wurden jedoch die resistiven von den kapazitiven Touchscreens abgelöst – und nicht zuletzt Apple erklärte den Stift für überflüssig.

Dennoch hat diese Eingabemethode weiterhin ihre überzeugten Fans – vor allem, wenn das Smartphone im beruflichen Umfeld verwendet werden soll. Das zeigt auch Samsungs Flaggschiff Galaxy Note (5), auch wenn selbiges nicht mehr in Europa angeboten wird.

Eingabestift und DAB+-Radioempfänger

Das LG Stylus 2 will nicht nur mit der Schreibhilfe als zusätzliches Feature glänzen, sondern integriert darüber hinaus als erstes Smartphone am Markt einen DAB+-Funkchip, mit dem digitaler Rundfunkempfang möglich wird. Der Vorteil: Glasklarer Klang, endlos viel Musik und weniger Bedarf für Musik-Streaming unterwegs, was Daten-Flatrates schont. 

Darüber hinaus ist die technische Basis kein Rezept für hohe Leistungsfähigkeit – aber fairerweise muss man auch sagen, dass es sich hier nur um ein Mittelklasse-Smartphone handelt.

Aber man merkt schon, dass LG hier scharf kalkuliert hat, um Features wie Stifteingabe und DAB+Radioempfang zu ermöglichen. Dies zeigt schon der Bildschirm: Trotz einer Diagonale von massiven 5,7 Zoll beträgt die Auflösung nur 1280 x 720 Pixel. Beim SoC setzt der Hersteller auf einen Snapdragon 410, der bereits Ende 2013 vorgestellt wurde und in der unteren Mittelklasse positioniert ist. Dazu kommen ein 1,5 Gigabyte großer Arbeitsspeicher und ein 16-GByte-Datenspeicher.

Die Frontkamera löst mit acht Megapixeln auf, die Hauptkamera auf der Rückseite mit zeitgemäßen 13 Megapixeln. Die Netzwerkschnittstellen sind mit ac-WLAN und einem Cat.4-LTE-Modem ebenfalls auf der Höhe der Zeit.

Alles in allem ist das LG Stylus 2 also kein “normales” Mittelklasse-Smartphone. Denn LG setzt hier nicht auf möglichst hohe Leistung, sondern versucht mit Features zu punkten, die das Gerät aus der Masse herausheben. Letztlich ist es ja immer eine individuelle Entscheidung, auf was man mehr Wert legt. Aber für knapp 220 Euro Marktpreis (300 Euro UVP) bekommt man hier durchaus ein Smartphone in die Hand, das nicht alltäglich ist.

Aktuelles Android hinter altbackener Fassade

Das LG G5 hat hinsichtlich der Software-Bestückung die Maßstäbe für diese Saison gesetzt. Wie beim aktuellen Flaggschiff setzt der Hersteller auch beim Stylus 2 auf Googles Android in der Version 6.0.1, das mit einer hauseigenen Oberfläche überzogen wurde.

Die optische Gestaltung ist sicherlich Geschmackssache, ein echter Hingucker ist dem Hersteller allerdings nicht gelungen. Die quadratischen Icons wirken etwas langweilig, die Gesamterscheinung altbacken.

Immerhin versucht LG funktionale Mehrwerte zu liefern: So gibt es verschiedene Optionen für die Ansicht des Startbildschirms, auf den App-Drawer kann auch verzichtet werden.

Das Menü für den Schnellzugriff lässt sich dem eigenen Geschmack anpassen und um den einen oder anderen Dienst erweitern. So lässt sich hier der Capture-Modus der Notizfunktion unterbringen, der das direkte Schreiben auf den Startbildschirm erlaubt. Noch schöner wäre es gewesen, wenn an dieser Stelle nicht nur aus einer Handvoll Diensten ausgewählt werden könnte, sondern auch die Lieblings-Apps einen Platz finden würden. 

Bei der Tastatur gefällt, dass die Ziffern über den Buchstaben angezeigt werden – das erleichtert das Tippen erheblich. Noch schöner wäre es aber, wenn sich LG irgendwann dazu durchringen könnte, die Texteingabe per Wischen zu ermöglichen.

Stift ist gut in die Telefon-Software integriert

Zu den Alleinstellungsmerkmalen des Stylus 2 gehört der digitale, etwas schmal geratene Eingabestift. Dennoch dürfte der produktive Nutzer an diesem Stift Gefallen finden, denn er wird von einer Reihe Notizfunktionen begleitet, die in einem eigenen Menü angezeigt werden, sobald der Stift aus dem Schacht gezogen wird.

Der Nutzer kann dann direkt auf dem Startbildschirm schreiben, sich einen kleinen “Notizzettel” anzeigen lassen oder direkt in die Quick-Memo-Notiz-App wechseln.

DAB+-Empfänger: Smartphone für Radio-Fans?

In früheren Tagen gehörte eine Radio-App für den UKW-Radioempfang zu den Standardanwendungen, die auf nahezu jedem Android-Smartphone vorinstalliert wurden. So richtig begeistern konnten diese allerdings nie: Zum einen musste ein Headset als Antenne genutzt werden und zum anderen war die Empfangsqualität nicht berauschend und selbst im besten Falle eben nur analoges UKW-Radio.

Nun bewirbt LG den im Stylus 2 integrierten digitalen Radioempfänger als eines der Features, die das Phablet von den Konkurrenten unterscheiden soll und schürt damit indirekt die Hoffnung, das alte Schwächen der Vergangenheit angehören könnten. Das Smartphone auf den Schreibtisch legen und den Stream per Bluetooth auf Boxen übertragen – das hätte schon was.

Gleiches würde etwa für die Baustelle oder die Werkstatt gelten, wo das Smartphone in der Tasche bleiben und vor Einflüssen der rauen Umwelt geschützt wäre. Der Konjunktiv im Satz deutet jedoch schon daraufhin: Derartige Szenarien bleiben ein Traum.

Nach wie vor muss ein Kopfhörer angeschlossen werden, der als Antenne dient. Und nach wie vor ist der Empfang alles andere als gut, weil abhängig vom DAB+-Ausbau (auch wenn der in den nächsten Jahren auch hier in Deutschland explosiv anwachsen soll). Es werden zwar eine ganze Reihe von unterschiedlichsten Sendern angezeigt, zumeist erscheint auf dem Bildschirm jedoch der Hinweis “Schwaches Signal” – und dann passiert nichts mehr.

Wer also in echten Ballungsgebieten lebt, hat Glück; auf dem flachen Land ist man eher aufgeschmissen. Hier muss man hoffen, sich in einem WLAN-Empfangsbereich zu bewegen, denn dann wechselt das Gerät auf WLAN-Streaming des gleichen Senders. In der Theorie also eine feine Sache, aber insgesamt noch ausbaufähig.

Im Laufe der letzten Jahre kristallisierte sich sowohl im Bereich der Computer-Hardware als auch ganz generell im Bereich der (Unterhaltungs-)Elektronik vielfach eine Tendenz zur Evolution in Form von Ausstattungsmerkmalen statt Performance-Revolution heraus.

In vielen Bereichen wurden Produkte mit einer zuvor ungeahnten Fülle an Möglichkeiten ausgestattet und das Ganze dann mit dem Namenszusatz “smart” versehen – ein Begriff, den der eine oder andere Leser und auch Redakteur schon beinahe nicht mehr hören kann.

Was unter anderem mit dem Wandel vom Handy zum Smartphone begann, setzte sich in anderen Bereichen fort und so gibt es heute smarte Steckdosen, smarte Monitore, smarte Gaming-Mäuse – und nicht zuletzt auch smart ducks.

Während sich so eine entsprechend smarte Ausstattungswelt um die Nutzer herum herausbildete, der in vielerlei Hinsicht auch die immer wieder bei den unterschiedlichsten PC-Komponenten heraufbeschworenen Gaming-Features entsprechen, blieb ein kleiner, aber nicht ganz unwichtiger Bereich überwiegend verschont von der explosionsartigen Zunahme an Ausstattungsmerkmalen und Möglichkeiten: Die Netzwerktechnologie, die doch ihrerseits wieder in der gegenwärtigen connected world die Basis für sowohl die Entstehung des gesamten Smart-Home-Bereichs als auch der enormen Popularität des Gaming an sich darstellt.

Die Pionierprodukte in diesem Bereich sind den meisten unserer Leser vermutlich geläufig: Die Killer-NICs. Anfangs vor allem wegen der sündhaft teuren Preise stark umstritten, haben sich diese mittlerweile auf Gaming-Mainboards für Desktop-PCs sowie Notebooks beinahe schon zum Standard entwickelt. Daneben gibt es im Prinzip nur noch Intel-Chipsätze, die neuerdings ebenfalls softwareseitig um gewisse Gaming-Funktionen erweitert werden. Realtek spielt hier nur noch im Einsteigerbereich eine Rolle.

Das Bündel an Features, das Killer LAN und WLAN aktuell bietet, hat aber nicht mehr viel mit den eigenen Ursprüngen gemein. Wenngleich es (leider) keinen eigenen Coprozessor mehr für die Regelung des Netzwerktraffics gibt – das übernimmt nun die verbaute CPU des PCs -, so ist die Fülle an Möglichkeiten doch immens gewachsen: Sämtlicher Netzwerkverkehr wird zugunsten von Spielen automatisch oder auf Wunsch auch manuell priorisiert (Advanced Stream Detect) und es lässt sich die zur Verfügung stehende Bandbreite festlegen (Visual Bandwidth Control). Geräte mit LAN- und WLAN-Chip von Killer bieten zudem DoubleShot Pro: Die schnellere Netzwerkverbindung wird dann automatisch für Spiele genutzt, die langsamere für restlichen Traffic. Die Hardware an sich gibt es für einen im Direktvergleich nur sehr geringen Aufpreis auf Mainboards für Desktop-PCs und Notebooks.

Die Killer-Produkte, die mittlerweile unter der Schirmherrschaft von Rivet Networks veröffentlicht und entwickelt werden, werden nun augenscheinlich sowohl im Bereich Hard- als auch Software schneller und zielstrebiger als zuvor weiterentwickelt. Das kurz angerissene Featureset richtet sich insbesondere an starke Muiltitasker und somit eine neue Generation an Gamern, die eben nicht ausschließlich vor dem PC sitzt und spielt, sondern nebenher ganz selbstverständlich Spiele-Videos streamt und Downloads tätigt.

Dieses Verhalten trifft sicher nicht auf das Gros der älteren Spieler zu, scheint jedoch mehr und mehr zuzunehmen. Davon zeugen auch Entwicklungen im Monitorbereich: So bietet Eizos FS2735 die Möglichkeit, Spielefeedback von gleichzeitig genutzten Android-Tablets auf dem Monitor anzeigen zu lassen.

Somit muss die Kernfrage lauten: Was kann Rivet Networks Killer-Netzwerkhardware dieser Spielergeneration anbieten?

Historie: Der lange Weg der zu Rivet Networks

Die meisten unserer Leser können sich vermutlich noch sehr gut an die berühmt-berüchtigten, ursprünglichen Killer-Netzwerkkarten erinnern: 2006 wurden mit der Killer NIC K1 und der noch etwas schnelleren M1 einschließlich ihres ikonischen Kühlkörpers die Erstlingswerke vorgestellt, damals noch unter dem Banner von Bigfoot Networks. Die M1 PCI-Karte verfügte über 64 Mbyte eigenen Speicher, einen 400 MHz schnellen MPC8343E Coprozessor aus der PowerQUICC II Pro-Familie von Freescale Semiconductors und basierten auf Broadcoms BCM5461 Gigabit-Ethernet-Chipsatz.

Mit Straßenpreisen von anfangs 200 und selbst später noch rund 90 Euro (K1) bzw. 140 bis 250 Euro (M1) waren die Netzwerkkarten aber reine Nischenprodukte für Enthusiasten und noch weit vom heutigen Verbreitungsgrad als Quasi-Standard in Gaming-Computern entfernt.

Es folgten weitere Kartengenerationen mit mehr Speicher, einem integrierten Audiochip (Killer Xeno Pro) und schließlich mit dem Killer 2100 ein neuer Chipsatz. 2011 übernahm Qualcomm Atheros die Lizenzrechte und entwickelte mit der Wireless-N 1202 die erste WLAN-Karte der Killer-Produktlinie sowie den Killer E2200 Gigabit-LAN Chip, der wenig überraschend auf der eigenen Technologie basierte (Qualcomm Atheros AR8161).

Seit 2014 heißt es nun wieder „Zurück zu den Ursprüngen“: Sowohl bestehende Killer-Produkte als auch Neuentwicklungen wie der E2400 Gigabit LAN-Chipsatz und das WLAN-Pendant Wireless AC-1535 laufen nun unter dem Banner von Rivet Networks. Dahinter stehen letztlich alte Bekannte: Michael Cubbage und Wayne Dunlap, die ehemaligen Gründer von Bigfoot Networks, sind auch die Gründer und CEOs von Rivet.

Die Produkte verstehen

Um die Produkte an sich richtig zu verstehen, muss zunächst einmal mit einem Vorurteil aufgeräumt werden, an dessen Entstehen die Vermarktung der ersten Generation an Killer-Netzwerkprodukten nicht ganz unschuldig war. Die Aussage „Killer NICs reduzieren die Ping-Zeit erheblich“ ist damals wie heute zumindest im Ansatz eine Fehlinformation: Kommuniziert nur ein Spiel über das Netzwerk und sonst nichts, dann hängen die Pingzeiten selbstverständlich maßgeblich vom ISP (und allenfalls in geringem Maß von der sonstigen lokalen Netzwerkstruktur) ab. Es handelt sich somit um eine Größe, auf die der Nutzer selbst also kaum Einfluss hat.

Aber bereits bei den ersten Killer-Netzwerkkarten ging es eigentlich um viel mehr: Nämlich die Priorisierung von Netzwerkverkehr und das Gewährleisten von genügen Bandbreite und guten Pingzeiten beim Spielen, während andere Anwendungen parallel Traffic im Netzwerk erzeugen. Der damalige Ansatz war im Vergleich zu den heutigen Möglichkeiten noch sehr begrenzt.

Testvorhaben: Basisgerüst mit Raum für mehr

Normalerweise bringen wir nur sehr selten Tests im Bereich Netzwerkinfrastruktur. Das hat einen guten Grund: Vergleichstests sind gerade im WLAN-Bereich mit normalen Mitteln kaum zu stemmen, schon gar nicht innerhalb eines Bürogebäudes, in dem es an jeder Ecke per WLAN, LTE und Bluetooth funkt. Das gilt auch für die meisten Privatwohnungen: Nahezu alles kann den WLAN-Funkverkehr stören und Vergleichsmesswerte somit zur Farce machen. Die britische Medienaufsichtsbehörde Ofcom warnte Ende 2015 sogar vor dem negativen Einfluss von Christbaumbeleuchtungen auf die WLAN-Performance.

Theoretisch würde also für sinnvolle Vergleichsmessungen ein leerer und abgeschirmter Raum benötigt – und selbst dann können sich verwirrende Ergebnisse einstellen, denn WLAN-Signale sind unter anderem darauf angewiesen, von Wänden und anderen Gegenständen im Raum zurückgeworfen zu werden.

Aus diesem Grund können wir entgegen unseres üblichen Vorgehens nur in sehr beschränktem Umfang Vergleichswerte liefern – der zur Verfügung stehende Testzeitraum war hier zunächst zu kurz, um mehr in die Tiefe zu gehen. Wir planen jedoch schon einen Follow-Up-Artikel, der sich der Killer-Thematik, soweit das möglich ist, noch einmal gründlicher widmen soll. Doch dazu mehr im Fazit einschließlich eines Aufrufs an unsere Leser, Testwünsche zu äußern.

Kaufberatung SSDs, Stand Juni 2016

Nur wenige Möglichkeiten zum Upgrade eines bestehenden Systems schaffen so viel gefühlten Geschwindigkeitszuwachs wie der Einbau einer SSD: Als schneller Systemspeicher sowie als Installationsmedium für Programme kann sie Wartezeiten minimieren und Arbeitsabläufe signifikant beschleunigen.

Dadurch wird die SSD zur perfekten Ergänzung für eine mechanische Festplatte, auch wenn sie diese nach wie vor nicht ersetzen kann. Denn obwohl schon vor einigen Jahren der baldige Tod der guten, alten Festplatte vorausgesagt wurde, erfreut sie sich nach wie vor großer Beliebtheit.

Das hat drei Gründe: Erstens können Festplatten mit bis zu 10 Terabyte Speichervolumen deutlich mehr Platz bereitstellen als Flash-basierte SSDs. Zweitens sind sie nach wie vor deutlich günstiger als die Flash-basierte Alternative – je mehr Speicherplatz benötigt wird, desto mehr kann die herkömmliche Festplatte aus Preis-Leistungs-Sicht punkten. Drittens eignen sich HDDs im Gegensatz zu SSDs auch für die Langzeitspeicherung von Daten.

Wir haben uns die aktuelle Marktsituation angeschaut und Festplatten (3,5 und 2,5 Zoll) sowie SSDs (2,5 Zoll und M.2) verglichen: Wieviel Cent zahlt der Käufer pro Gigabyte Speicherplatz? Die Übersichtstabelle basiert auf Werten des Preisvergleichs Geizhals vom 14. Juni 2016; erfasst wurden Laufwerke bei deutschen Händlern, die direkt ab Lager lieferbar sind. Eine drei Terabyte große 2,5-Zoll-SSD gibt es nicht, daher die gestrichelte Linie zwischen den zwei und vier Terabyte großen Modellen.

Das Ergebnis der aktuellen Preisanalyse: Werden die jeweils günstigsten Modelle miteinander verglichen, dann sind SSDs immer noch deutlich teurer als mechanische Festplatten. Das attraktivste Preis-Leistungs-Verhältnis bieten Modelle mit 250 und 500 Gigabyte sowie ein Terabyte Speicherplatz. Oberhalb davon gibt es nur wenige Angebote zur Auswahl – und diese sind unverhältnismäßig teuer.

Das Gegenteil gilt im Hinblick auf mechanische Festplatten: Besonders preisbewusste Anwender greifen zu drei Terabyte großen Modellen im 3,5-Zoll-Format und erhalten den Festspeicher bereits für 2,61 Cent pro Gigabyte. Für SSDs mit dem besten Preis-Leistungs-Verhältnis (1 TByte) werden 20,7 Cent pro Gigabyte fällig. Kleine Festplatten mit bis zu 500 Gigabyte haben angesichts der Konkurrenz durch SSDs beinahe ausgedient und sind wiederum im Vergleich zu größeren Modellen zu teuer.

Wer sehr viel Speicherplatz benötigt, kommt nicht um die Anschaffung einer mechanischen Festplatte herum: Das Preis-Leistungs-Verhältnis steigt hier im Vergleich zur Größenklasse nicht exponentiell an – selbst für eine 3,5-Zoll-Festplatte mit acht Terabyte Speichervolumen werden nur rund 2,9363 Cent pro Gigabyte aufgerufen. Das entspricht ziemlich genau dem Niveau einer 2-TByte-Festplatte.

Allerdings werden die schnellen Flash-Speicherlaufwerke immer günstiger: Ein Blick auf die Preisentwicklung der schon länger erhältlichen Samsung SSD 850 Evo mit 512 Gigabyte macht Hoffnung auf weitere, kontinuierliche Preisnachlässe.

Screenshot von www.geizhals.at, 17.6.2016Screenshot von www.geizhals.at, 17.6.2016

Wer sich für kleinere 2,5-Zoll-HDDs sowie Hochleistungs-SSDs mit M.2-Anbindung entscheidet, sollte sich im Klaren sein, dass ein – teils deftiger – Aufpreis gezahlt werden muss.

Was für wen?

Für welche Art von Anwender lohnt sich aber nun welches Speicherlaufwerk? Welche Schnittstellen, Leistungsunterschiede und sonstigen Argumente sprechen jeweils für und gegen die unterschiedlichen Lösungen?

Der ideale Systemaufbau in Sachen Speicherplatz dürfte für die meisten Anwender eine Mischbestückung aus möglichst großer, gerade noch erschwinglicher SSD für Betriebssystem und Anwendungen sowie einer noch größeren mechanischen Festplatte als Datengrab sein. Was es ansonsten zu beachten gibt, zeigen wir im Verlauf des Artikels.

Im folgenden Abschnitt wollen wir zunächst auf die Vorteile der jeweiligen Lauwerkstypen eingehen und dabei gilt im Regelfall: Die Vorteile der einen Produktgruppe sind die Nachteile der anderen.

Da mittlerweile auch Custom-Designs der Hersteller verfügbar sind, lassen wir in unserem Vergleich sogar fünf Karten gegeneinander antreten: Den Founders-Edition-Modellen der GeForce GTX 1070 und GeForce GTX 1080 stellen wir die MSI GeForce GTX 1070/1080 Gaming X 8G gegenüber und komplettieren dieses Pascal-Quartett mit einer MSI GeForce GTX 980 Ti Lightning, die noch auf Nvidias Maxwell-GPU basiert.

Zusammenhang von Takt, Leistungsaufnahme und Performance

Was wir vorhaben, bedeutet zwar eine Menge Arbeit in Form unzähliger Messreihen, lohnt sich aber. Wir messen die Leistungsaufnahme gestaffelt über einen sehr großen Taktfrequenzbereich, stellen die Gaming-Performance den jeweiligen Taktraten gegenüber und wissen am Ende mehr über die resultierende Effizienzkurve jeder einzelnen Karte und ob bzw. bis wohin sich sowohl Übertaktung als auch das Energiesparen überhaupt lohnen könnten.

Außerdem vergleichen wir in all diesen Rubriken auch taktbereinigt Maxwell und Pascal, was uns am Ende auf die verfügbare Shader-Leistung  jeder einzelnen Einheit (in Wechselwirkung mit der restlichen Architektur der GPU sowie der technischen Umsetzung der gesamten Grafikkarte) schließen lässt.

Natürlich folgen als Nebenwirkung zur Untersuchung der Leistungsaufnahme der Grafikkarten auch noch die Analysen ihrer jeweiligen Temperaturentwicklung und der damit verbundenen Geräuschentwicklung ihrer Kühllösungen.

Bevor wir jedoch genauer auf unsere Methoden und das Test-Setup eingehen, schnell alle fünf Karten noch einmal im tabellarischen Überblick:

GPU Nvidia GeForce
GTX 1070
Founders Edition

MSI GeForce
GTX 1070
Gaming X 8G
Nvidia GeForce
GTX 1080
Founders Edition
MSI GeForce
GTX 1080
Gaming X 8G
MSI GeForce
GTX 980 Ti
Lightning 6GB
SMs 15 15 20 20
CUDA-Kerne 1920 1920 2560 2560 2816
Basistakt 1506 MHz 1607 MHz 1607 MHz 1709 MHz 1203 MHz
GPU-Boost-Takt 1683 MHz 1797 MHz 1733 MHz 1848 MHz 1304 MHz
GFLOPs (Basistakt) 5783 6171 8228 8750 6775
Textur-Einheiten 120 120 160 160 176
Textur-Füllrate 180.7 GT/s 192.8 GT/s 257,1 GT/s 273,4 GT/s 211,7 GT/s
Speichergröße 8 GByte 8 GByte 8 GByte 8 GByte 6 GByte
Speicherbandbreite 256 GByte/s 259,5 GByte/s 320 GByte/s 323,6 GByte/s 340,6 GByte/s
Speichertakt 2002 MHz 2027 MHz 2502 MHz 2528 MHz 1774 MHz
ROPs 64 64 64 64 96
L2-Cache 2 MByte 2 MByte 2 MByte 2 MByte 3 MByte
TDP 150 Watt >190 Watt 180 Watt >200 Watt >280 Watt
Transistoren 7,2 Mrd. 7,2 Mrd. 7,2 Mrd. 7,2 Mrd. 8 Mrd.
Die-Größe 314 mm² 314 mm² 314 mm² 314 mm² 601 mm²
Fertigunsprozess 16nm 16nm 16nm 16nm 28nm

Methodik und Benchmark-Auswahl

Um möglichst realitätsnah zu bleiben, betreiben wir diesmal alle Grafikkarten in einem geschlossenen Gehäuse (Nanoxia Deep Silence 5), dessen serienmäßige Front- und Hecklüfter wir auf niedrigster respektive mittlerer Stellung laufen lassen.

Die Messung der Leistungsaufnahme erfolgt analog zu dem üblichen Vorgehen, auch wenn die Positionierung der Stromzangenadapter und Spannungstastköpfe diesmal nicht ganz einfach war (nachzulesen in unserem Grundlagenartikel Grundlagen GPUs: Leistungsaufnahme, Netzteilkonflikte & andere Mythen).

Leistungsaufnahme
Messverfahren:
berührungslose Gleichstrommessung am PCIe-Slot (Riser-Card)
berührungslose Gleichstrommessung an der externen PCIe-Stromversorgung
direkte Spannungsmessung am Netzteil
Messgeräte:
2x Rohde & Schwarz HMO 3054
(500 MHz Mehrkanal-Oszillograph mit Speicherfunktion)
4x Rohde & Schwarz HZO50, Stromzangenadapter
(1 mA bis 30 A, 100 KHz, DC)
4x Rohde & Schwarz HZ355, Tastteiler (10:1, 500 MHz)
1x Rohde & Schwarz HMC 8012
(Digitalmultimeter mit Speicherfunktion)
1x Optris PI640, Infrarotkamera + PI Connect

Das nächste Problem betraf die Benchmark-Auswahl. Aufgrund der sehr aufwändigen und umfangreichen Messreihen mussten wir uns auf einen einzelnen Benchmark festlegen – und selbst das bedeutete am Ende noch fast sechs volle Arbeitstage.

Um wirklich repräsentativ zu bleiben, haben wir nach vielen Plausibilitätstests im Vorfeld auf Metro Last Light in der Ultra-HD Auflösung zurückgegriffen. Wir vermeiden damit eine CPU-Limitierung, umgehen ein mögliches Speicher-Limit und können die Grafikkarten doch vollends auslasten. Somit kommt die Leistungsaufnahme fast schon dem Worst-Case nahe, ohne jedoch gleichzeitig den Boost allzusehr zum Abriegeln und Heruntertakten zu zwingen.

Als Testsystem nutzen wir diesmal unsere im obengenannten Gehäuse eingebaute Workstation von Happyware, diesmal jedoch mit einem auf 4,5 GHz übertakteten Intel Core i7-6700K samt AiO-Kompaktwasserkühlung bestückt, was zu keiner Zeit die Messergebnisse negativ beeinflussen konnte.

Happyware Crossover Workstation
Testsystem:
Core i7-6700K @4,5 GHz
2x 8 GByte DDR4 @3400
Asus P10 WS
2x Samsung SM863 (3D V-NAND)
Seagate Constellation Server-HDD
Windows 10 Enterprise (TH2, alle Updates)
Treiber:
GeForce 368.39

So ausgerüstet stürzten wir uns in ein nahezu einwöchiges Abenteuer – mit den Pascal-Geschwistern und dem guten alten Onkel Maxwell als Reisebegleiter.

Bei vielen “Heavy Smartphone-Usern” findet sich im Haushalt, im Auto, in der Sporttasche und an vielen anderen Stellen eine Vielzahl an Ladekabeln, denn die meisten Smartphones halten bei intensiver Nutzung nicht sehr lange durch. Gerade bei anspruchsvollen Anwendungen wie Spielen oder Navigation ist der Akku innerhalb weniger Stunden leer gesaugt. Das Prozedere ist dann meist immer dasselbe: Ladekabel in die Steckdose oder in den Zigarettenanzünder, Smartphone anstöpseln … und warten. Das muss doch auch komfortabler gehen.

Nokia FatboyNokia Fatboy
In letzter Zeit werben immer mehr Hersteller mit einem Feature, das sich “kabelloses Laden” nennt. Vorreiter dürfte hier Nokia gewesen sein, spielt aber letztlich keine Rolle. Viel wichtiger ist doch, dass es funktioniert. Mittlerweile gibt es schon einige Smartphones, die das kabellose Laden ohne weiteres Zubehör wie spezielle Backcovers beherrschen … und ein schier unüberschaubares Angebot an entsprechenden Ladestationen.

MC-02AMC-02A

In diesem Markt tummeln sich sowohl Markenhersteller als auch No-Names, die vor allem über den Preis kommen. So erhält man in diversen Online-Shops bereits Wireless-Lader für weniger als fünf Euro. Daneben gibt es auch Anbieter, die ihre Lader auch als Dekoartikel verstehen. Exemplarisch haben wir für uns diesen Artikel aus jedem der drei Bereiche Produkte bestellt, also vom bekannten Markenhersteller, vom Billiganbieter und vom “Designer”.

fone QiStonefone QiStone

Zur Überprüfung der Funktionalität, der Ladezeiten und zur Handhabung haben wir zwei Smartphones herangezogen: Das Nokia Lumia 735 unterstützt das kabellose Laden ohne weiteres Zubehör, das Apple iPhone 6 hingegen nicht. Für letzteres nutzen wir einen kleinen Ladeadapter von Fone Salesman namens iQi Mobile. Der arbeitet natürlich mit den hauseigenen Ladern zusammen, sollte aber auch mit Drittanbieterprodukten harmonieren.

fone iQi Mobilefone iQi Mobile

Der Fall Jane Eyre ist der erste (abgeschlossene) Band einer bisher siebenbändigen Kultreihe um die LitAg Thursday Next. Anstatt die Romane aber in der Zukunft anzusiedeln, tummeln sie sich in einer Parallelwelt.

Beginnen wir mit der Antwort auf ein paar Fragen. Was für eine Parallelwelt und was in Shakespeares Namen ist eine LitAg?

Irgendwo ganz anders

Die Romane spielen im Britischen Commonwealth bzw. dem was noch davon über ist. Im Gegensatz zu unserer Realität hatten die Nazis in der Romanwelt England erobert, konnten aber wieder vertrieben werden.

Dummerweise reibt sich die Nation aber seit 131 Jahren im Krimkrieg mit Russland auf (in unserer Welt endete der Krim-Krieg übrigens im Jahr 1856). Selbst Wales konnte sich unabhängig erklären und ist jetzt die Volksrepublik Wales.

Viel schwerer wiegt allerdings der Unterschied, dass Literatur in dieser Welt wichtiger ist als bei uns. Wichtiger? Nein, viel wichtiger oder eher sehr viel wichtiger!

Von LitAgs und SpecOps-Agenten

Literatur ist so wichtig, dass es für Literaturverbrechen eine eigene Polizei gibt: SpecOps-27. Allerdings sagt schon Nummer 27, dass sie unter den 30 Einheiten des Special Operation Networks dann eben doch nicht ganz so wichtig ist.

“Wer zu den SpecOps will”, so eine Redensart, “muss schon ein paar Schrauben locker haben …”

SO-27 wacht über profane Delikte wie Buchfälschungen und Bücherdiebstahl. Allerdings sind einige Aufgaben deutlicher diffiziler oder gar verrückter – doch dazu später mehr.

Von Thursday Next

Protagonistin Thursday Next hat früher im Krimkrieg gedient, war anschließend Polizistin und hat sich jetzt zur LitAg hochgedient. Und ihr “verrückter Name” hat Programm:

Ich kam an einem Donnerstag zur Welt, daher der Name. Mein Bruder wurde an einem Montag geboren und erhielt folglich den Namen Anton. Meine Mutter hieß Wednesday, kam aber an einem Sonntag zur Welt – warum, weiß ich nicht –, und mein Vater hatte überhaupt keinen Namen – nach seinem Abgang löschte die ChronoGarde seinen Namen und seine Identität.

Die Chronogarde ist übrigens SO-12 und beschäftigt sich mit Zeitreisen.

Thursdays Haustier ist ein Do-It-Yourself-Klon eines Dodos. Überhaupt wird in Thursdays Welt ziemlich wild herumgeklont. Eine der SpecOps-Einheiten wird sogar von einem geklonten Neandertaler geleitet.

Doch was Thursday zu etwas Besonderem macht, ist ihre Fähigkeit, Bücher bzw. ihre Handlung zu betreten. Und damit wächst auch der Aufgabenbereich und die Bedeutung von SO-27 deutlich.

Obwohl: Kalorien verbrennen, ohne sich zu bewegen? Das ist eigentlich unbezahlbar. Klappt aber nur mit dem ACT-02 – zumindest in einer verqueren Theorie.

Viele Funktionen zum kleinen Preis

Wenn man im Web nach einem Fitnessarmband sucht, erhält man unzählige Treffer – diese Produkte unterliegen nach wie vor einem großen Hype. Namhafte Tracker kosten meist ab 60 Euro aufwärts, No-Names gibt es indes schon für deutlich kleineres Geld. Da wir uns bereits eine Handvoll dieser Fitness-Trainer von renommierten Herstellern angesehen haben, wollten wir auch einmal einer unbekannten Marke eine Chance geben.

THDE-Tests weiterer Fitness-Tracker
>>>   Fitbit One: Kleiner Fitness-Tracker macht Couch-Potatoes Beine
>>>   Garmin Vivofit im Test: Beweg Dich! Fitnessarmband spielt Antreiber
>>>   Garmin Vivosmart HR: Fitnesstracker mit HF-Messung und Touchscreen
>>>   Sony Smartband 2 im Praxistest: Kleiner Geheimniskrämer

Denn Schritte zählen, verbrauchte Kalorien und zurückgelegte Strecke berechnen sowie die ein oder andere Zusatzfunktion wie Schlafüberwachung sollte doch auch ein kostengünstiges Gerät auf die Reihe bekomme, oder? Unsere Wahl fiel dabei auf den acme ACT-02, dessen Preisempfehlung gerade einmal 24,99 Euro beträgt.

Dabei bewirbt der litauische Hersteller seinen Fitness Activity Tracker mit zahlreichen Features. Neben den Grundfunktionen Schritte, Kalorien und Strecke dient der ACT-02 auch der Schlafüberwachung, hilft beim Finden des verlegten Smartphones und bietet verschiedene Alarmfunktionen. Zudem lässt sich die Kamera des Smartphones darüber auslösen. Interessant fanden wir auch die versprochene Akkulaufzeit von sieben Stunden.

Auf den ersten Blick ganz nett

Nach dem Auspacken merkt man recht schnell, dass bei einem Preis von 25 Euro das Thema Haptik nicht allzu groß geschrieben werden kann. Das Gummiarmband fasst sich nicht gerade hochwertig an, zudem verschmutzt es schon nach wenigen Minuten sichtbar. Auch der Verschluss kann uns nicht überzeugen. Zwar hält er zuverlässig, das Schließen des Armbandes ist aber recht fummelig.

Aber na gut, Abstriche muss man natürlich machen, wenn man Geld sparen will. Dennoch macht der ACT-02 am Handgelenk eine recht gute Figur: Er trägt nicht übermäßig auf, die geriffelte Oberfläche des Armbandes und das nahtlos integrierte, kleine Display der Technik-Einheit verleihen dem Tracker sogar einen Hauch von Eleganz. Wichtiger als Aussehen und Haptik ist letztlich aber die Funktion.

Winziges Display, ein Knopf

Das LED-Display des acme ACT-02 misst ziemlich genau 2,5 Zentimeter in der Diagonale, es ist also quasi ein “Einzöller”. Höhe und Breite des winzigen Bildschirms betragen 1,5 x 2 Zentimeter. In geschlossenen Räumen lässt sich der Bildschirminhalt dennoch ausreichend gut ablesen.

Das automatische Aktivieren des Displays beim Drehen des Handgelenks funktioniert aber nur sporadisch. Zumindest klappt es nicht immer, wenn man tatsächlich einen Blick drauf werfen will. Dafür umso häufiger, wenn man es nicht will.

Das fällt vor allem nachts auf, wenn plötzlich das eigentlich stockfinstere Zimmer in eine diffuse Beleuchtung getaucht wird – und im Freien erst recht. Wenn die Sonne scheint, mutiert das Display des Preisbrechers allerdings zum schwarzen Loch. Erkennen lässt sich dann nur noch etwas, wenn der ACT-02 mit der Hand abgeschattet wird. Aber auch damit muss man bei einem 25-Euro-Tracker leben können, finden wir.

Zumal es an der Bedienung im Alltag kaum etwas auszusetzen gibt: Der einzige Knopf auf der linken Seite des Trackers dient zum Blättern durch die einzelnen Anzeigeseiten sowie zum Auslösen bestimmter Sonderfunktionen. Dazu muss der Knopf so lange gestückt werden, bis der ACT-02 eine Vibrationsbestätigung abgibt.

Auf diese Weise lässt sich etwa die Schlafüberwachung manuell aktivieren oder ein verlegtes Smartphone suchen. Diese Funktion ist durchaus hilfreich, im sehr knappen Manual allerdings falsch beschrieben. Dort steht, dass man den Knopf doppelt drücken muss, was aber stets nur dazu führt, dass man zwei Anzeigeseiten weiter blättert.

Dieser Fauxpas sei dem Hersteller aber verziehen, zumal sich die Funktion nach ein wenig Ausprobieren von selbst erklärt.

  • 1
  • 2

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen