Monat: Oktober 2013

Microsoft drückt beim Surface Pro 2 aufs Gaspedal: Während der Vorgänger vor etwas weniger als einem Jahr präsentiert, jedoch erst vor wenigen Monaten hierzulande auf den Markt gebracht wurde, steht nun bereits der Nachfolger in den Startlöchern.

Das Surface Pro litt noch unter einigen architektonischen Schwächen, vor allem aber nutzte es noch einen mittlerweile von Intel aufs Altenteil geschickten Prozessor der Ivy Bridge-Generation, der in einem Mobilrechner der Oberklasse einfach nichts mehr zu suchen hatte.

Dies erklärt auch, warum es Microsoft mit dem Nachfolger vergleichsweise eilig hatte, denn das Pro verschwand damit im Gegensatz zur RT-Version, von der noch beide Versionen verkauft werden, aus dem Angebot des Herstellers. Doch haben die Microsoft-Entwickler die großen Probleme wie eine schwache Akkulaufzeit, das Einfrieren des Systems oder den knappen Speicherplatz bei der kleinsten Version in den Griff bekommen?

Technische Daten
Hersteller & Modell: Microsoft Surface Pro 2
Betriebssystem: Windows 8.1
Display: 10,6 Zoll, Clear-Type-LCD, Full-HD-Auflösung (1920 x 1080 Pixel)
CPU: Intel Core i5-4200U, Dual-core, 2 x 1,6 GHz
GPU: Intel HD 4400
Arbeitsspeicher: 4 GByte
Interner Speicher: 64 GByte
Externer Speicher: Slot für microSD-Karten mit bis zu 64 GByte (SDXC-Standard)
WLAN: 802.11a/b/g/n
Bluetooth: 4.0
Kamera: Frontseite: 3,5-MP-Kamera, HD-Videoaufzeichnung
Rückseite: 5,0-MP-Kamera, HD-Videoaufzeichnung
Akku:
5.676 mA / 42 Wh
Abmessungen: 27,5 x 17,3 x 1,35 cm
Gewicht: 913 g
Straßenpreis: ab 879 Euro

Microsoft Surface Pro 2: Tablet oder Ultrabook?

Das Surface Pro 2 ist ein Tablet aus dem Hause Microsoft. Und abgesehen davon, dass es damit aus den Händen eines der größten Akteure der IT-Welt stammt, liegt die größte Eigenheit im modularen Aufbau. Wird das Touch-Cover angeschlossen, das bekanntermaßen nicht nur zu Schutz dient, sondern auch eine Tastatur beherbergt, verwandelt sich das Tablet im Prinzip in ein kleines Ultrabook im 10-Zoll-Format. Das Pro 2 kann damit schon als “Hybrid” bezeichnet werden.

Darüber hinaus bringt es eine Hardware mit, die eine Vielzahl von Konkurrenten erblassen lässt. Der Prozessor – ein Intel Core i5-4200U der Haswell-Generation – besitzt zwei Kerne, die mit 1,6 GHz takten. Der Arbeitsspeicher kann vier oder acht GByte groß sein. Als Datenspeicher stehen SSDs mit Kapazitäten von 64, 128, 256 und sogar 512 GByte zur Auswahl. Und das 10,6 Zoll große Display löst 1920 x 1080 Pixel auf und verarbeitet auch Eingaben, die mit dem mitgelieferten Stift getätigt werden.

Sowohl bei den Tablets als auch bei den Ultrabooks finden sich kaum Kandidaten, die ein ähnlich umfassendes Gesamtpaket mitbringen.

Als Betriebssystem kommt die neue Version 8.1 von Microsofts Windows 8 Pro (64 Bit) zum Einsatz. Bezüglich der Kompatibilität bislang genutzter Software ist man so natürlich auf der sicheren Seite: Selbst Programme, die schon unter Windows XP genutzt wurden, laufen auch unter der neusten Windows-8-Variante. Auch wenn das Surface Pro 2 eine recht kostspielige Angelegenheit ist (dazu später mehr), verspricht es zumindest auf dem Papier eine Vielzahl von Fähigkeiten, die es für unterschiedlichste Anwendungsszenarien prädestinieren.

“Raijin” bezeichnet in der japanischen Mythologie den Donnergott – damit tritt das erst in diesem Jahr gegründete Unternehmen zumindest in namenstechnischer Hinsicht schon einmal sehr selbstbewusst auf und weckt hohe Erwartungen. Völlig unbedarft ist die Marke aber nicht, denn hinter der Produktentwicklung steckt mit Tony Sahin immerhin der langjährige CEO von Xigmatek. Das erklärte Ziel besteht in der Entwicklung von Produkten mit kompromisslos optimierten Preis-Leistungs-Verhältnis. Die CPU-Kühler, die wir auf der diesjährigen Gamescom erstmals in Augenschein nehmen konnten, schienen diesem Vorhaben zumindest hinsichtlich der durchweg moderaten Preisgestaltung gerecht zu werden – alles Weitere muss sich beim Testdurchlauf auf unserer Teststation zeigen.

Als erster Kühler erreichte uns der Ereboss, der aufgrund seiner enormen Tiefe von 11,1 cm als Gigant unter den Single-Towerkühlern gelten kann und eine bemerkenswerte Gesamtkühlfläche bietet. Durch den Einsatz eines besonders dünnen Lüfterrahmens wird versucht, den Koloss trotz seiner beachtlichen Ausmaße nicht zu sehr über die RAM-Slots auf dem Mainboard ragen zu lassen.

Insgesamt erinnert das Modell mit seinen sechs 6-mm-Heatpipes auf den ersten Blick stark an einen gewissen Gigolo, Casanova und/oder Luden aus dem Portfolio eines anderen Herstellers, wenngleich dem aufmerksamen Betrachter genügend Unterschiede im Detail ins Auge fallen sollten. Wer diese Anspielung jetzt noch nicht versteht, wird im Abschnitt zu den Messwerten umgehend erhellt werden (Anm. d. Red.). 

Verpackung und Lieferumfang

Wirft man einen Blick auf die Homepage des Herstellers und vergleicht das Design mit dem der Verpackung des Raijintek Ereboss, so drängt sich die Vermutung auf, dass im Sinne der Corporate Identity vor allem auf schwarz, rot, silber und weiß als typische Farben zurückgegriffen wird. Im Inneren des Kartons wird der Kühler unspektakulär, aber sicher durch Papphalterungen fixiert; das Montagezubehör liegt lose in einem Plastikbeutel bei. Bei einem mutmaßlich Preis-Leistungs-Kracher geht das vollkommen in Ordnung.

Der Lieferumfang umfasst ein Montagesystem auf Basis einer Universalbackplate mit einem je nach System und Sockel unterschiedlichen Halterahmen für den Kühler, der mittels einer Querstrebe auf dem Prozessor verschraubt wird. Darüber hinaus werden fünf Gummipins zur entkoppelten Lüftermontage (ein Pin als Ersatz), ein kleines Tütchen Wärmeleitpaste und eine ordentliche, mehrsprachige Montageanleitung mitgeliefert. Der zusätzliche Schraubendreher, der allen aktuell ausgelieferten Exemplaren des Kühler beiliegen und seine Montage erleichtern soll, glänzt bei unserem Testgerät noch durch Abwesenheit.

Als Lüfter setzt man auf das hauseigene Modell Raijintek Aeolus α. Dabei handelt es sich um einen Lüfter mit einem 14 x 15 cm großen Rahmen im Slim-Design: Der Lüfter ist lediglich 1,3 cm dick.

Wie bei den anderen NAS-Updates spielt sich beim Thecus N2560 die Evolution in kleinen Schritten ab: Zwei statt einem GByte Arbeitsspeicher und Intels neuerer CE5335-SoC mit einer Taktrate von 1,6 GHz (zuvor 1,2 GHz) sollen die Kunden zum Kauf reizen.

Mit seiner schicken Hülle. dem niedrigen Betriebsgeräusch und der Fähigkeit, Medieninhalte per HDMI auf dem heimischen TV wiedrgeben zu können, sucht sich das N2560 als Allrounder einen Platz im Wohnzimmer.


Das N2560 wird von Thecus mit dem neuen Betriebssystem ThecusOS6 ausgeliefert. Es soll intuitiver bedienbar sein als der Vorgänger und die Umgang erleichtern und verbessern.

Mit 9 Watt Leistungsaufnahme und einem angegebenen Betriebsgeräusch von gerade mal 20 dB verspricht das Gerät besonders Strom sparend und leise sein. Die Ersteinrichtung soll zudem in gerade mal fünf Minuten erledigt sein.

Das sind viele und große Versprechen für solch ein kleines Gerät. Schauen wir mal, ob Thecus sie mit dem N2560 halten kann.

Technische Eckdaten Thecus N2560

CPU: Intel SoC CE5335 EvanSport, 2x 1,6 GHz
RAM: 2 GByte, DDR3
Speicher: maximal 2x 3,5″ SATA-III-HDDDs (6 GBit/s)
maximal 8 TByte Bruttokapazität
Anschlüsse: 1x Gigabit Ethernet RJ45
1x USB 3.0 Front
2x USB 2.0 Back
1x HDMI
1x SPDIF
Art der Statusanzeige: Status-LEDs
Abmessungen (HxBxT): 16,6 x 11,4 x 21,0 cm
Gewicht: 2,4 kg
Preis: 299 EUR (UVP)


Die Eckdaten des neuen Topmodells aus Cupertino sind ja schon länger kein Geheimnis mehr. Dass das Display nicht größer ist als bei den drei Vorgängerversionen und auch die Auflösung unverändert bleibt, ist also keine Überraschung. Dafür trommelt schon jetzt wieder der Buschfunk, dass das nächste iPhone dann aber bestimmt ein fünf Zoll großes Display bekommen wird. Warten wir es einfach mal ab.

Also zurück zum iPhone 5S. Was macht das neue iPhone zu Apples neuem Topmodell? Wieder einmal lautet die Antwort: Der Apple-eigene Chip, der diesmal – nicht weiter überraschend – auf den Namen A7 hört. Das Innenleben des A7 lässt hingegen durchaus aufhorchen. Der Zweikerner mit maximal 1,3 GHz Taktfrequenz stammt erneut aus der Produktion des Hauptkonkurrenten Samsung. Erstmals handelt es sich dabei um eine 64-Bit-Architektur und – ebenfalls erstmals – findet ein Co-Prozessor namens M7 Motion auf dem Chip Platz. Und natürlich auch eine Grafikeinheit. Die hört auf den Namen Imagination PowerVR G6430 und arbeitet mit vier Kernen.

Die optisch auffälligste Änderung heißt Touch ID und beschreibt nichts anderes als einen in den Homebutton integrierten Fingerabdrucksensor, dem das Home-Symbol zum Opfer gefallen ist – kleine Änderung, große Wirkung. Zumindest optisch. Das gilt auch für die Farben. Das iPhone 5S besteht zwar aus demselben Alu-Unibody wie das normale 5er, Apple bietet sein neues Flaggschiff allerdings in drei Farbvarianten an: Space-Grau, Gold und Silber. Das bisherige Schwarz fällt also ersatzlos weg, Weiß hat nur eine neue Bezeichnung erhalten. Eigentlich fehlt nur noch Bronze und der Medaillensatz wäre perfekt.

Was ist noch neu? Wie das iPhone 5C beherrscht nun auch das 5S mehr LTE-Frequenzen, so dass die Bindung an das Netz der Deutschen Telekom endgültig aufgebrochen ist. Die Hauptkamera wurde ebenfalls verbessert. Zwar bleibt die Auflösung mit acht Megapixel unverändert, aber die Sensorgröße ist angewachsen. Außerdem gibt es einen Blitz mit zwei LEDs unterschiedlicher Farbtemperatur.

Der Rest ist quasi unverändert zum iPhone 5. Display, Größe, Auflösung, Gewicht – alles beim Alten. Preislich geht es wieder bei 699 Euro für die 16-GByte-Variante los. Eine Verdoppelung der Speicherkapazität schlägt traditionell mit 100 Euro zu Buche.

Technische Daten und Ausstattung
Hersteller: Apple
Modell: iPhone 5S
CPU-Modell / Kerne: Apple A7 / 2
CPU-Takt: 2x 1300 MHz
Arbeitsspeicher: 1024 MByte
Grafikeinheit / Kerne: PowerVR G6430 / 4
Displaygröße/Auflösung/Technologie: 4 Zoll (10,2 cm), 1136 x 640 Pixel, IPS
Touchscreen, Typ: Kapazitiv, Multi-Touch
Betriebssystem: Apple iOS 7.0.2
Speicher intern: 16/32/64 GByte
Speicher zusätzlich: nein
Kamera: Front: 1,2 MP; Rear: 8 MP
USB, HDMI, Docking: ja/per Adapter/nein
Bluetooth/Version: 4.0 LE
WLAN: 802.11 ab/g/n
UMTS: ja (HSPA+, LTE)
Telefonfunktion: ja
GPS: ja
Abmessungen (H x B x T): 0,76 x 5,86 x 12,38 cm
Gewicht: 112 g
Batterietyp/Kapazität: k. A. / ca. 1570 mAh
Lieferumfang: Netzteil, USB-Kabel, Headset, Kurzanleitung
UVP laut Hersteller: 699/799/899 Euro
Straßenpreis zum Testzeitpunkt: n/a

Die wenigen erhältlichen Modelle richten sich primär an Enterprise-Storage-Umgebungen. Nicht so die mit Speicherkapazitäten von einem TByte und 750 GByte erhältliche WD RED, denn sie wurde speziell für den Einsatz in NAS-Geräten im Heim- und SOHO-Bereich entwickelt, die ein bis fünf Laufwerkseinschübe besitzen.

Ihr kleiner Formfaktor macht die WD RED für NAS-Speicher sehr interessant, weil sie einerseits wenig Platz im Gehäuse wegnimmt und sich damit potenziell mehr Laufwerke unterbringen oder kleinere NAS-Formfaktoren realisieren lassen. Andererseits begnügt sie sich auch mit deutlich weniger Strom als 3,5-Zoll-Festplatten. Beispielsweise kommen NAS-Laufwerke wie das 3,5-zöllige WD-RED-Schwestermodell im Leerlauf auf 3,9 Watt und Seagate ebenfalls 3,5 Zoll große NAS-HDD auf 4,3 Watt, während WDs 2,5-Zoll-Festplatte im Test lediglich 0,7 Watt benötigt. Zum anderen soll die WD RED laut Hersteller eien Datendurchsatz von bis zu 144 MByte/s erreichen und damit nicht wesentlich langsamer sein als die 3,5-Zoll-Konkurrenz.

Schnellstes 5.400-U/Min-Laufwerk

Die beiden bereits erhältlichen Laufwerke der kleinen WD-RED-Reihe arbeiten mit 5.400 U/min., setzen auf 16 MByte Cache und verfügen über eine 6 GBit/s schnelle SATA-III-Schnittstelle. Für das 1-TByte-Spitzenmodell WD10JFCX sind knapp über 70 Euro fällig, die kleinere 750-GByte-Version WD7500BFCX kostet etwa 55 Euro. WD gibt auf beide Laufwerke 3 Jahre Garantie. Wie der Test des 1-TByte-Modells zeigt, hat WD mit der oben genannten Geschwindigkeitsangabe keinesfalls übertrieben und mit der WD10JFCX das bisher schnellste 5.400er Laufwerk am Start, dessen Performance sogar manche schnell drehende 7.200er 2,5-Zoll-Festplatte übertrifft.

Die aktuell schnellste Single-GPU-Grafikkarte ist derzeit Nvidias Geforce GTX Titan (Die GeForce GTX Titan 6 GB im Benchmarktest: Schnell, leise, teuer), die zu Marktpreisen ab 800 Euro über die Theke geht und mit nicht weniger als sechs GByte GDDR5-Speicher bestückt ist. Egal, welchen Maßstab man anlegt: Es ist eine sehr starke Karte. Die Titan ist gut für Gaming bei 2560 x 1440 Pixeln geeignet und liefert in einigen Games spielbare Performance bei 5760 x 1080 Pixeln ab, ist aber immer noch einen Tick zu langsam, um mit 4K-Auflösung (3840 x 2160 Pixel) zu spielen. In einem anderen Test (Gaming At 3840×2160: Is Your PC Ready For A 4K Display?) kamen unsere US-Kollegen zu dem Schluss, dass es schon eine Handvoll Geforce-GTX-780-Karten bräuchte, um einen Ultra-HD-Bildschirm mit zufriedenstellenden Frameraten zu beschicken.

Und nun bewirbt AMD seine neue, mit einem offiziellen empfohlenen Verkaufspreis von 475 Euro (!) eingetaktete Radeon R9 290X damit, dass sie für 4K-Gaming fit sein soll. Das ist eine ziemliche Kampfansage – vor allem angesichts der Tatsache, dass Ultra-HD als der nächste große Meilenstein im PC-Gaming angesehen wird. Die Technologie ist immer noch sehr teuer und alles andere als ausgefeilt. Aber dennoch würden wir jede Wette eingehen, dass wir bei jedem eingefleischten Gamer Begeisterung wecken könnten, wenn wir ihn vor ein 32-zölliges Display mit 8,3 Millionen Pixeln Auflösung setzen würden – er würde das System nicht freiwillig zurückgeben. 4K dürfte das Schlachtfeld werden, auf dem sich AMD und Nvidia mit ihren Highend-GPUs künftig bekriegen werden.

Letzte Woche veranstaltete Nvidia im kanadischen Montreal ein Event, auf dem eine Handvoll Technologien und Initiativen angekündigt wurden – und auch eine kommenden Geforce GTX 780 Ti. Während Nvidia diesbezüglich beschäftigt war, enthüllte AMD ein paar Benchmark-Ergebnisse, laut denen die 290X in BioShock Infinite und Tomb Raider bei 3840 x 2160 Pixeln schneller war als eine Geforce GTX 780.

Was ist das Herz dieses neuen Boards, das trotz merklich niedrigerem Preis (UVP, wohlgemerkt) anscheinend mühelos an Nvidias immer noch über 520 Euro teurer GTX 780 vorbeizieht? Die Hawaii-GPU – ein deutlich komplexeres Stück Silizium als es Tahiti war, aber auf der gleichen ‘Graphics Core Next’-Architektur basierend. Letztlich ein Mix aus Neu und Alt.

AMD widmet sich wieder dem “Big GPU”-Ansatz

2007 änderte AMD seine GPU-Strategie und bewegte sich weg von großen, monolithischen Prozessoren hin zu stärker skalierbaren Designs. AMD baute danach eher GPUs mit sehr gutem Preis-Leistungs-Verhältnis und variierte entweder ein bisschen nach unten, um günstigere Ableger zu bekommen, oder packte zwei GPUs zusammen, wenn eine Ultra-Highend-Konfiguration gefragt war.

Im Lauf der Zeit tendierten AMDs Ingenieure zu immer komplexeren Chips und der RV670 mit seinen rund 100 Watt wurde vom RV770 mit rund 150 Watt abgelöst. Dann kamen die Cypress-GPU der Radeon HD 5870 (ca. 200 Watt), die Cayman-GPU der 6970 (rund 250 Watt) und danach die ähnlich hungrige Tahiti-GPU. Bei jeder Generation schaffte es AMD, zwei seiner Flagsschiff-GPUs auf ein gemeinsames PCB zu tackern, was in einer wahnsinnig schnellen Grafikkarte resultierte. Das jüngste Exemplar ist AMDs Radeon HD 7990, die allerdings auch schmucke 375 Watt verbrät.

Mit Hawaii scheint sich AMD von dieser früheren Sweet-Spot-Philosophie zu verabschieden. Die GPU hat 6,2 Milliarden Transistoren und ist somit 44 Prozent komplexer als Tahiti, wird aber dennoch in der gleichen 28-nm-Prozesstechnik hergestellt. Mit einer Die-Größe von 438 mm² ist die GPU immer noch ein ganzes Stück kleiner als Nvidias GK110. Dennoch ist Hawaii größer als jeder andere AMD-Grafikprozessor: Der R600 hatte 420 mm², Tahiti kam auf gerade einmal 352 mm².

Radeon R9 290X Radeon R9 280X GeForce GTX Titan GeForce GTX 780
Process 28 nm 28 nm 28 nm 28 nm
Transistors 6.2 Mrd. 4.3 Mrd. 7.1 Mrd. 7.1 Mrd.
GPU Clock 1 GHz 1 GHz 836 MHz 863 MHz
Shaders 2816 2048 2688 2304
FP32 Performance 5.6 TFLOPS 4.1 TFLOPS 4.5 TFLOPS 4.0 TFLOPS
Texture Units 176 128 224 192
Texture Fillrate 176 GT/s 128 GT/s 188 GT/s 166 GT/s
ROPs 64 32 48 48
Pixel Fillrate 64 GP/s 32 GP/s 40 GP/s 41 GP/s
Memory Bus 512-bit 384-bit 384-bit 384-bit
Memory 4 GB GDDR5 3 GB GDDR5 6 GB GDDR5 3 GB GDDR5
Memory Data Rate 5 Gb/s 6 Gb/s 6 Gb/s 6 Gb/s
Memory Bandwidth 320 GB/s 288 GB/s 288 GB/s 288 GB/s
Board Power 250 W (Claimed) 250 W 250 W 250 W

Noch einmal: Die grundlegende GCN-Architektur, auf der Hawaii basiert, bleibt praktisch gleich. Der Block der Compute Unit sieht identisch aus: 64 IEEE-754-2008-konforme Shader, die sich auf vier Vektor- und 16 ‘Textur Fetch Load / Store Units ‘-Einheiten aufteilen.

Es gibt allerdings ein paar Anpassungen am Design: Dazu gehören ‘Device Flat Addressing’ zur Unterstützung standardisierter Aufrufkonventionen, Präzisionsverbesserungen für die nativen LOG- und EXP-Operationen und Optimierungen für die MQSAD-Funktion (Masked Quad Sum of Absolute Difference), die Algorithmen für die Bewegungsschätzung auf Trab bringt. All diese Features erblickten übrigens mit der Bonaire-GPU das Licht der Welt, die wir im März diesen Jahres testeten (Testbericht AMD Radeon HD 7790: AMDs später Mittelklasse-Konter); AMD redete lediglich noch nicht darüber. Und mit der Einführung von DirectX 11.2 kommt sowohl bei Bonaire als auch bei Hawaii programmierbares LOD Clamping und die Fähigkeit dazu, einem Shader sagen zu können, ob eine Oberfläche resident ist – beides Tier-2-Features, die mit ‘Tiled Resources’ assoziiert werden.

Aber das Arrangement von AMDs Computing Units ist anders: Wo Tahiti bis zu 32 CUs hatte (also insgesamt 2048 Shader und 128 Textur-Einheiten), hat Hawaii 44 CUs die in vier sogenannten ‘Shader Engines’ organisiert sind. Das sind 2816 aggregierte Shader und 176 Textur-Einheiten. Das Ganze läuft mit bis zu einem Gigahertz (das wird später noch wichtig), was in 5,63 TFLOPS Fließkomma- oder – mit der gleichen ¼-Rate – 1,4 TFLOPS Double-Precision-Rechenleistung resultiert.

Hawaii verfügt außerdem über acht überarbeitete ACEs (Asynchronous Compute Engines), die dafür verantwortlich sind, Echtzeit- und Hintergrundaufgaben an die CUs zu verteilen. Jede ACE verwaltet bis zu acht Warteschlangen (zusammen 64 Queues) und kann auf L2-Cache und Shared Memory zugreifen. Tahiti hatte nur zwei ACEs. Die Kabini– und Temash-APUs, die wir dieses Jahr im Test hatten, kommen auf vier. Warum unterscheidet sich Hawaii so dramatisch? Wie sich herausstellt ist Hawaii‘s ACE-Ansatz stark durch das PlayStation-4-Design beeinflusst worden – anscheinend erwarten Sonys Ingenieure jede Menge rechenintensiver Effekte in Next-Generation-Games. Da macht es Sinn, der Vermittlung zwischen Berechnung und Grafik mehr dedizierte Ressourcen zu widmen – das ermöglicht eine Effizienz, die vorher nicht möglich gewesen wäre.

Tahiti s Frontend beschickte die Shader über ein Paar Geometrieprozessoren mit Vertex-Daten. Trotz seines Quad-Layouts für die Shader Engine verdoppelt Hawaii diese Zahl und unterstützt vier statt zwei Primitives pro Taktzyklus. Es gibt außerdem mehr Interstage-Speicher zwischen Front- und Backend, um Latenzen zu vermeiden und so viel Primitive-Spitzendurchsatz wie möglich zu realisieren.

Neben der dedizierten Geometrie-Engine (und 11 CUs) haben Shader Engines auch ihren eigenen Rasterer und vier Render-Backends, die 16 Pixel pro Taktzyklus schaffen. Das macht für die ganze GPU 64 Pixel pro Taktzyklus – das Doppelte von dem, was Tahiti schaffte. Hawaii ermöglicht bis zu 256 ‘Depth and Stencil Operations’ pro Taktzyklus und verdoppelt auch hier den Tahiti-Wert (128). Auf einer Grafikkarte, die für hohe Auflösungen spezialisiert ist, macht sich eine hohe Pixel-Füllrate immer gut – und in vielen Fällen verschiebt sich der Performance-Flaschenhals von der Füllrate hin zur Speicher-Bandbreite, so AMD.

Der gemeinsam genutzte L2-Schreib-/Lese-Cache wächst von 768 KByte bei Tahiti auf ein MByte bei Hawaii, wo er in 16 64-KByte-Partitionen aufgeteilt ist. Dieser 33-prozentige Zuwachs bedeutet einen korrespondieren Bandbreitenzuwachs von 33 Prozent zwischen den L1- und L2-Strukturen, die nun mit maximal einem TByte/s kommunizieren.

Der erhöhte Geometrie-Durchsatz, das Hinzufügen von 768 Shadern und die Verdopplung des Spitzenwerts der Backend-Pixel-Füllrate bedeuten gleichzeitig aber auch eine stärkere Belastung des Speicher-Subsystems von Hawaii. AMD adressiert dieses Problem mit einem überarbeiteten Controller. Die neue GPU integriert ein 512 Bit breites aggregiertes Speicher-Interface, das laut AMD 20 Prozent weniger Platz als das 384-Bit-Design von Tahiti beanspruchen und insgesamt 50 Prozent mehr Bandbreite pro Quadratmillimeter ermöglichen soll. Wie das möglich ist? Letztlich kosten sehr schnelle Datenraten Die-Platz. 6 GBit/s bei höherer Spannung machte Tahitis Bus weniger effizient als den von Hawaii, der niedriger zielt und mit niedrigerer Spannung arbeitet und somit auch kleiner sein kann. Die mit 5 GBit/s operierende R9 290X nutzt vier GByte GDDR5-Speicher und schiebt 320 GByte/s über den 512-Bit-Bus. Zum Vergleich: Bei Tahiti waren es maximal 288 GByte/s.

Natürlich könnten wir jetzt galant die Wortspielkasse mit fünf Euro auffüllen und einfach schreiben, dass die Schere zwischen dieser ultraflachen Tastatur mit Scissor-Keys und den obligatorischen Gummimatten mit Bling-Bling-Aufsatz doch schon recht weit auseinander klafft – aber lassen wir das besser.

Wer den Unterschied zwischen guten Notebook-Tastaturen mit definiertem Druckpunkt und den normalen 08/15-Rubberdomes kennt, der wird wissen, was wir meinen. Dem Rest empfehlen wir den kleinen Abschnitt auf Seite 3 zur Erklärung, was Scissor-Tasten eigentlich genau sind; ein kleiner Ausflug in die Welt der Scheren lohnt durchaus.

Zurück zum Testobjekt. Mit der Osmium hat Gigabyte ja bereits im Gaming-Bereich versucht, irgendwie Fuß zu fassen. Mit der Force K7 beweist Gigabyte aus unserer Sicht sogar noch etwas mehr Mut, denn man versucht hier sehr eindeutig eine Nische zu besetzen. Ultraflache Tastaturen wie die Force K7 sind beliebter als man meinen könnte, denn sie sind nicht nur für Gamer interessant. Die Hintergrundbeleuchtung ist dann aber auch schon die einzige Anbiederung an die Spitzklicker-Kolonne, denn der wirkliche Mehrwert liegt bei dieser Tastatur eher in der täglichen Arbeit mit derselben verborgen.

LG schien der Konkurrenz lange Zeit hinterher zu laufen. Zwar lieferte der Hersteller solide Smartphones ab, die technisch brauchbare Ausstattung mit vertretbaren Preisen kombinierten, aber ihr Charme ließ häufig zu wünschen übrig. Echte Highlights hatte der Hersteller nicht im Programm. Dies änderte sich erst vor einem Jahr, als die Koreaner zusammen mit Google das Nexus 4 entwickelten. Gleichzeitig brachten sie das vom Nexus 4 abgeleitete Optimus G Pro auf den Markt und meldeten sich so mit echten Flaggschiffen zurück.

Ausstattung: Hardware auf neustem Stand

Nun schickt sich mit dem LG G2 der Nachfolger an, den eingeschlagenen Weg weiterzuverfolgen. Schon ein Blick auf das Datenblatt zeigt, das bei den Komponenten kaum gespart wurde: Hinter einem üppigen 5,2-zölligen Display mit Full-HD-Auflösung sitzt mit dem Snapdragon 800 der aktuell schnellste Qualcomm-SoC, der zu den leistungsstärksten Vertretern seiner Art gehört. Dazu kommt noch eine rückseitige Kamera, die mit einer Auflösung von 13 Megapixeln qualitativ hochwertige Fotos produzieren soll. Eine kleine Besonderheit findet sich überdies in direkter Nachbarschaft zum Foto-Sensor: Die Hardware-Tasten befinden sich anders als üblich nicht an der Seite des Geräts, sondern hinten.

LG geizt mit Apps

Software-seitig ist das LG G2 dagegen weniger innovativ: Wie beim zeitgleich auf den Markt gekommenen Sony Xperia Z1 gibt es “nur” Android 4.2.2. Auch wenn die Neuerungen der aktuellsten Version nicht gerade bahnbrechend gewesen sind, hätte man bei einem Smartphone dieser Kategorie doch auf die neuste Version des Betriebssystem hoffen können – seit dem offiziellen Erscheinen der letzten ‘Jelly Bean’-Version gingen immerhin rund drei Monate ins Land.

Spärlich ist auch das App-Aufgebot. Echte Highlights fehlen, nicht mal eine vollwertige mobile Office-Suite liefert der Hersteller mit. Stattdessen gibt es von Polaris einen Viewer für Office-Dokumente. Hier dürften sich vor allem Business-Anwender mehr gewünscht haben. Ansonsten gibt es von Haus aus nur zwei Notiz-Apps (Notizen und Notebook) sowie die praktische Quick-Memo-Funktion von LG.

Technische Daten
Hersteller & Modell: LG G2
Betriebssystem: Android 4.2.2
Display: 5,2″, IPS-Panel, Full-HD-Auflösung (1920 x 1080 Pixel)
CPU: Qualcomm Snapdragon 800 (MSM8974), Quad-Core, 4x 2,26 GHz
GPU: Adreno 330
Arbeitsspeicher: 2048 MByte
Interner Speicher: 32 GByte
Externer Speicher:
WLAN: a/b/g/n/ac
Bluetooth: 4.0
Funknetze: GSM 850/900/1800/1900
UMTS 850/900/1900/2100
LTE 850/900/1800/2100/2600
Datennetze: GPRS/EDGE/HSDPA/HSUPA/HSPA+
Kamera: Rückseite: 13-MP-Kamera, Full-HD-Videoaufzeichnung
Frontseite: 2,1-MP-Kamera
Akku:
3000 mAh
Abmessungen: 13,85 x 7,09 x 0,89 cm
Gewicht: 143 g
Straßenpreis: ca. 470/540 Euro (16/32 GByte)

Mit dem im letzten Jahr erschienen Windows 8 hat Microsoft die Schar seiner Anhänger gespalten. Die einen mochten die Kacheloberfläche, begeisterten sich gerade auf Mobilgeräten für das neue Bedienkonzept. Gleichzeitig läutete selbiges aber auch das Ende eines guten alten Bekannten ein: Der klassische Windows-Desktop mit seiner über viele Jahre gewachsenen Form der Bedienung musste dran glauben.

Viele Desktop-User fühlten sich zum Wechsel zu einem Betriebssystem hin gedrängt, das eigentlich nicht mehr für ihre Ansprüche, sondern für die der hippen Mobilgeräte konzipiert war. Microsoft ist der Groll dieser Nutzer nicht verborgen geblieben. Nicht zuletzt, weil sich das neue Betriebssystem, das für Microsoft der Schlüssel für die zukünftige Entwicklung werden sollte, längst nicht so durchsetzen konnte wie erhofft – und das trotz einer großzügigen Rabattaktion, in deren Rahmen Windows 8 Pro zum Launch für nur 29 Euro erworben werden konnte.

Nur langsam steigt der weltweite Marktanteil über den des ebenfalls nicht gerade beliebten Windows Vista. Da wundert es nicht weiter, dass der Softwarehersteller schon frühzeitig die Reißleine zieht und mit einem umfangreichen Update – das lässt zumindest die 3,63 GByte große Installationsdatei vermuten – auf die Kritik einzugehen versucht.

So viel sei vorweggenommen: An dem mit Windows 8 eingeschlagenen Weg ändert sich grundsätzlich nichts. Ein Blick auf die Neuerungen – gerade aus der Perspektive des klassischen Schreibtisch-Nutzers – lohnt sich trotzdem.

Auf den ersten Blick: Alles wie gewohnt

Die Installation des vorgestern vorgestellten Updates 8.1 (wir berichteten) selbst geht ohne Schwierigkeiten von der Hand. Vorab kursierende Gerüchte, laut denen nach einer Installation des Updates zwar die Daten noch vorhanden sind, die Programme jedoch neu eingerichtet werden müssen, haben sich wie zu erwarten nicht bestätigt.

Vielmehr begrüßt wie gewohnt die Kacheloberfläche in dem Zustand, in dem man sie vor der Aktualisierung zurückgelassen hat. Die einzigen offensichtlichen Unterschiede: Die Farbigkeit der Kästchen hat zugenommen und unter ihnen zeigt ein kleiner Pfeil nach unten, über den nun alle installierten Apps direkt angezeigt werden; der Umweg über die Suche entfällt.

Mehr Gestaltungsspielraum bei den Kacheln

Eine weitere Neuerung: Die früher Metro und später Modern UI genannte Oberfläche bietet nun deutlich mehr Möglichkeiten zur Anpassung an den persönlichen Geschmack. Allerdings traut Microsoft den Nutzern an dieser Stelle weit weniger zu als sich mancher erhofft haben mag. Zwar gibt es nun eine Vielzahl neuer Hintergründe, die hinter die Kästchen gepackt werden können, eigene Bilder sind aber nach wie vor nicht vorgesehen. Mit einem kleinen Umweg lässt sich aber auch der hinter den Kacheln liegende Hintergrund nach eigenen Wünschen gestalten.

Dennoch lassen sich die Kästchen nun deutlich besser organisieren als zuvor. So können Anwendungen nun nicht nur in eigene Gruppen einsortiert, sondern selbige auch mit einem Namen versehen werden – das verbessert die Ordnung unter den bunten Rechtecken ganz enorm.

Apropos Rechtecke: Hier gibt Microsoft dem Nutzer ebenfalls mehr Freiheiten, wenngleich in einem begrenzten Umfang. Denn ab sofort kann die Größe der einzelnen Kästchen – wenngleich in eingeschränktem Umfang – verändert werden. Einfache Apps können als kleine oder große Quadrate dargestellt werden, die Windows-Live-Kacheln lassen sich noch weiter vergrößern und überdies in die Breite ziehen, sodass die darin präsentierten Inhalte mehr Platz erhalten.

Das Namenskürzel “DS” steht beim neuesten Aerocool-Gehäuse für “Dead Silence”. Dem Wunsch nach Totenstille scheint das vorgesehene Kühlkonzept zu entsprechen: Die Lüfter gehen mit 500 U/min (20-cm-Frontlüfter) sowie 900 U/min (12-cm-Hecklüfter) beschaulich ans Werk. Dennoch verspricht das Gehäuse, auch leistungshungrigen Gaming-Systemen im µATX- oder ITX-Format ausreichend Kühlleistung zur Verfügung zu stellen.

Im Bedarfsfall kann nicht nur auf zusätzliche Lüfter oder einen 24-cm-Radiator zurückgegriffen werden, auch ein optionaler Mesh-Einsatz für den Gehäusedeckel sorgt auf Wunsch für einen besseren Abtransport der Wärme aus dem Gehäuseinneren. Ein Zwei-Kammer-System, bei dem die wärmekritischen Komponenten wie Mainboard, Prozessor und Grafikkarte einen eigenen Bereich im Gehäuse erhalten, sorgt zudem für einen in diesem Bereich ungestörten Luftdurchzug.

Was genau man sich bei Aerocool hat einfallen lassen, um mit dem DS eine möglichst gute Balance aus geringer Größe und Lautstärke sowie guten Kühleigenschaften bereitzustellen (und ob das Vorhaben gelingt), zeigen wir auf den folgenden Seiten.

Das DS soll jedenfalls in wenigen Tagen zu einem Preis von unter 70 Euro in verschiedenen Farbvarianten am Markt erhältlich sein und wird bereits von den Preisvergleichsdiensten gelistet. Der Interessent hat nicht nur die Wahl unter sechs verschiedenen Farbkombinationen (Schwarz, Schwarz/Rot, Schwarz/Orange, Schwarz/Gold, Schwarz/Weiß sowie Weiß), sondern kann auch zwischen einer Version mit (Window Edition) oder ohne seitlichem Sichtfenster (Steel Edition) wählen.

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen