Monat: Juli 2014

Von den Fakten und den seit sieben Monaten bekannten technischen Daten her könnte man durchaus geneigt sein, das Ganze einfach mit “just another APU” abzutun – und würde damit wahrscheinlich noch nicht einmal sonderlich schief liegen.

Denn mit dem Flagschiff A10 7850K samt offenem Multiplikator ist die Leistungsspitze bereits seit längerem markiert und auch nach unten hin ist der Markt gut bestückt. Wozu zur Hölle also nunmehr mit der A10 7800 noch eine Art A10 7850K light, die schon allein von der UVP her dem Original relativ nah auf die Pelle rückt?

Die Ausrichtung der neuen APU auf maximale Effizienz ist allerdings schon einen näheren Blick wert und so legen wir Dinge wie AMDs Reviewers Guide und andere Marketing-Hilfen galant beiseite und konzentrieren uns statt der 1001. Benchmarkwiederholung auf das wirklich Wesentliche, nämlich die Frage, ob es nunmehr gelungen ist, den Sweet-Spot dieser APU-Architektur zu erkennen und das Ganze als möglichst effiziente APU umzusetzen.

Gleichzeitig haben wir nach einem möglichst sparsamen Mainboard gesucht und sind mit dem MSI A88XM auch fündig geworden. Dieser Artikel wird also Messungen zur Gaming- und Compute-Performance der APU mit sehr aufwändigen Messungen der Leistungsaufnahme von Mainboard und APU kombinieren, wobei der Schwerpunkt eindeutig auf Letzterem liegt.

Just another APU-Review? Mitnichten, denn wir werden versuchen, eine A10-7850K auf das Niveau der A10-7800 herunterzutakten und im Gegenzug eine A10-7700K mittels Übertaktung dazu bewegen, in ungefähr die gleiche Leistung bereitzustellen. Auch dies werden wir mit sehr detaillierten Messungen bewerten und am Schluss beurteilen, ob AMD mit der A10-7800 wirklich das selbsternannte Sahnestück dieser Baureihe präsentieren kann. 

Zunächst wollen wir aber schnell noch ein Auge auf die Ausgangslage unserer drei Testkandidaten werfen, wobei wir uns diesmal nur auf die jeweiligen APUs unter- und obehalb unserer Testkandidatin konzentrieren:

Modell AMD A10-7850K AMD A10-7800 AMD A10-7700K AMD A8-7600
CPU-Kerne/Threads: 4/4 4/4 4/4 4/4
CPU-Basistakt: 3,7 GHz 3,5 GHz 3,4 GHz 3,1 GHz
Turbo-Takt max.: 4,0 GHz 3,9 GHz 3,8 GHz 3,8 GHz
L2-Cache: 4 MByte 4 MByte 4 MByte 4 MByte
GPU: Radeon R7 Radeon R7 Radeon R7 Radeon R7
Compute Units: 8 8
6 6
Shader: 512 512 384 384
GPU-Takt: 720 MHz 720 MHz 720 MHz 720 MHz
TDP: 95 Watt 65 Watt 95 Watt 65 Watt
Preis: ab 138 EUR
(Straße)
ca. 125-130 EUR
Straße (Schätzung)
ab 119 EUR
(Strasse)
nicht lieferbar

Kommen wir als Nächstes zum Testsystem, denn auch hier kann man schnell viel Effizienz auf der Straße liegen lassen. Denn am Ende zeigt sich erneut, dass eine APU nur so gut ist wie die Plattform, auf der sie sitzt.

Bei wem mal eingebrochen wurde oder wer schon mal im Bekanntenkreis einen Einbruch erlebt hat, der wird seine vier Wände mit gemischten Gefühlen verlassen. Dies geht nicht nur den “paranoid Schizophrenen” so – auch der besorgte Wohnungs- oder Hausbesitzer möchte gerne informiert werden, wenn jemand ohne seine Zustimmung sein Eigentum betritt.

Gleich vorweg: Eine Kameraüberwachung ersetzt keine sichere Schließanlage und erst recht keine Alarmanlage. Wer Zweifel an der Einbruchsicherheit seines Heims hat, kann sich bei der nächsten Polizeidienststelle kompetent beraten lassen.

Eine richtig geplante und installierte Videoüberwachung kann jedoch im richtigen Moment informieren und Bildmaterial vom Übeltäter erstellen – vorausgesetzt man hat die passende Technik parat. Eine wichtige Komponente des Gesamtpakets liefern viele NAS-Hersteller zusammen mit ihren Geräten aus: Surveillance-Software.

Warum Surveillance-Software nutzen?

Teurere Kameramodelle verfügen schon über Detektions- und Aufzeichnungsfunktionen und sind meist auch in der Lage, ihre Aufzeichnungen auf einer Speicherkarte oder gar auf einem Netzwerk-Share abzulegen. Also welche zusätzlichen Möglichkeiten bietet einem eine solche Surveillance-Software?

  • Möglichkeit 1: Umfängliches Alerting. Auch wenn die Firmware einer Kamera in der Lage sein sollte, E-Mails zu versenden – eine Surveillance-Software bietet meist deutlich mehr Möglichkeiten der Alarmierung (z.B. SMS- oder Push-Dienste).
  • Möglichkeit 2: Gesicherte Aufzeichnungen. Selbst wenn ein Unbefugter die Kamera entwenden sollte, so liegt die Aufzeichnung selbst auf dem nicht gleich für den Eindringling sichtbaren Netzwerkspeicher. Die Beweise, die den Eindringling identifizieren könnten, sind für diesen nicht sofort direkt greifbar. Voraussetzung ist dafür natürlich, dass das NAS nicht gerade direkt unter der Kamera steht…
  • Möglichkeit 3: Bessere Usability. Spätestens wenn man eine zweite Kamera einsetzt, wird das Konfigurieren und Verwalten von mehreren Kameras, die womöglich aufgrund des Einsatzortes noch von verschiedenen Herstellern stammen, wirklich umständlich. Da die Überwachung nach dem Verlassen der Wohnung möglichst bequem aktiviert werden soll, schränkt dies die Auswahl möglicher Kameras noch mehr ein. Denn eines sind IP-Kameras in der Regel nicht: Einfach zu konfigurieren und bequem zu aktivieren. Hinzu kommt, dass die App-Unterstützung bei einigen Herstellern sehr zu wünschen übrig lässt.
  • Möglichkeit 4: Abgesicherte Kameras. Wer die Anzahl netzwerkfähiger Geräte, die Zugriff zum Internet haben sollen, auf ein Minimum begrenzen möchte, der kann beim Einsatz einer Surveillance-Software den Internetzugriff der Kameras beispielsweise über die Kindersicherung des Heimrouters unterbinden. Es genügt dann, dass das zentrale NAS-System Zugang zum Internet erhält.

Für unseren Praxistest haben wir uns für das NAS-System DS214+ aus dem Haus Synology entschieden, denn Synology bringt im Bereich Surveillance-Software langjährige Erfahrung mit. Das DS214+ gibt es zu Straßenpreisen ab knapp 290 Euro. Wer ein NAS von anderen Herstellern wie beispielsweise Asustor oder QNAP besitzt, kann natürlich auch deren Surveillance-Software nutzen.

Samsung kämpft nicht zuletzt wegen Herstellern wie Huawei mit rückläufigen Umsätzen bei Smartphones und Tablets. Die Chinesen sind längst nicht mehr nur ein Anbieter billiger Mobilgeräte, sondern verpacken ihre Hardware in schicken Außenschalen. Dies gilt einmal mehr für das Ascend P7. Doch ist bei dem chinesischen Hersteller alles nur schöner Schein oder ist das Smartphone eine ernsthafte Alternative zu den Boliden der etablierten Premium-Fabrikanten?

Der erste Eindruck

Optisch ist das Huawei Ascend P7 mit seinem schlanken Gehäuse ein echter Hingucker und vermittelt einen sehr hochwertigen Eindruck. Im Inneren unterscheidet sich das Smartphone jedoch von der High-End-Konkurrenz: An Stelle des üblichen Qualcomm Snapdragon 80x kommt mit dem Hisilicon Kirin 910T ein Prozessor aus der eigenen Entwicklung zum Einsatz, der vier mit 1,8 GHz getaktete Kerne besitzt. Als GPU steckt in dem SoC einem Mali 450, die auch nicht mehr zu den schnellsten Grafikeinheiten auf dem Markt gehört.

Beim Bildschirm zieht das Huawei-Smartphone dann wieder mit der Konkurrenz gleich. Der Touchscreen hat eine Diagonale von fünf Zoll und präsentiert die Inhalte in Full-HD-Auflösung (1080p, 1920 x 1080 Pixel). Leistungsfähigkeit verspricht auch die Kamera, die auf der Rückseite Bilder mit einer Auflösung von 13 Megapixeln aufnimmt; an der Front ist ein 8-MP-Sensor verbaut. Ambivalent ist dagegen die Schnittstellenausstattung: LTE ist genauso an Bord wie ein NFC-Chip, aber beim WLAN-Funkchip müssen Abstriche gemacht werden, der lediglich nach b/g/n-Standard funkt.

Farbenfrohe Oberfläche

Bei der Nutzeroberfläche kann Huawei seine Herkunft nicht verleugnen. Denn der Hersteller hat dem vorinstallierten Android 4.4.2 eine hauseigene Oberfläche verpasst, deren Farbgebung in den Augen eines europäischen Nutzers recht knallig wirken dürfte. Huawei-typisch fehlt der Emotion UI auch ein eigener Bildschirm, auf dem die Apps gesammelt werden. Die Anwendungen werden allesamt auf den Startbildschirm gepackt und können dort lediglich mit Hilfe von Ordnern strukturiert werden.

Daneben kann sich der Nutzer aber auch für eine vereinfachte Oberfläche mit großen Kästchen und Schriften entscheiden, die etwas an den Schnell-Modus Acers erinnert, allerdings hinsichtlich der Funktionalität nicht ganz so mächtig ist.

Immerhin bieten die Chinesen bereits von Haus aus ein recht üppiges App-Angebot: Vorinstalliert ist etwa das – wenn auch nicht mehr ganz so aktuelle – Polaris Office 4.0, einige Spiele wie Spiderman: The Ultimate Power und ein paar nützliche Werkzeuge wie eine App für Tonaufnahmen. 

Technische Daten

Nachfolgend noch einmal die technischen Daten zum Huawei Ascend P7 sowie eine kurze Zusammenfassung zum Gerät selbst.

Bei Office-Monitoren macht sich mittlerweile 27 Zoll als die bevorzugte Größe breit, oft mit der vierfachen HD-Auflösung von 2560 x 1440 Pixeln. Im Gamer-Bereich setzen die Hersteller dagegen weiterhin überwiegend auf Monitore mit Diagonalen zwischen 23 und 24 Zoll. Und die native Auflösung ist quasi gesetzt: Full-HD, denn die 1920 x 1080 Bildpunkte entsprechen für gewöhnlich der höchsten Auflösung aktueller 3D-Spiele und markieren oft genug auch die Obergrenze der Leistungsfähigkeit der Grafik-Hardware.

Wer was auf sich hält und einen entsprechenden Spiele-PC sein eigen nennt, der will die virtuellen Welten dann natürlich auch bestmöglich wiedergegeben sehen. Also Full-HD, mindestens. Die Auflösung ist aber nur ein Auswahlkriterium. Noch wichtiger ist den meisten Spielern das Reaktionsverhalten des Monitors, namentlich Bildwechselzeit und Latenz.

Um diesen Ansprüchen gerecht zu werden, verbauen die Hersteller nicht die bei Office-Monitoren häufig genutzten IPS-Panels. Vielmehr kommen in erster Linie TN-Panels zum Einsatz. Diesen Weg gehen drei der vier Hersteller in diesem Roundup, nämlich Aoc, Asus und Philips. Lediglich Eizo versucht, mit einem MVA-Panel zu punkten. 

Preislich markiert der Asus VX238H-W mit einem Online-Preis ab knapp 150 Euro den Einstieg – zumindest das schwarze Modell, das von uns getestete weiße gibt es anscheinend nirgendwo. Mindestens 270 Euro muss investieren, wer sich für den AOC g2460Pqu interessiert. Rund 310 Euro sind dann für den Philips 242G5DJEB fällig. Richtig teuer wird es allerdings beim Eizo Foris FG2421-BK. Unter 500 Euro ist da kaum etwas zu machen, viele Angebote liegen noch deutlich höher. Ob der Aufpreis gerechtfertigt ist, muss sich erst noch zeigen. Happig ist er allemal.

Oft schließen sich Anforderungen an ein Produkt aus oder erzwingen zumindest einen Kompromiss: Ein Sportwagen, der nur drei Liter auf 100 Kilometer verbraucht, ist ebenso wenig denkbar wie ein Netzteil der 1000-Watt-Klasse mit extrem hohem Wirkungsgrad. Unsere fünf Testkandidaten behaupten allerdings von sich selbst, genau diesen Spagat zu schaffen und maximale Leistung mit maximaler Effizienz zu kombinieren. Im Optimalfall sieht das auf dem Datenblatt so aus: 1500 Watt Dauerleistung bei einem Wirkungsgrad von 90 bis 94 Prozent.

Schaffen soll das die aktuelle Speerspitze aus dem Portfolio von Corsair – das AX1500i, das erste Netzteil im Labor von Tom’s Hardware, das ein 80 Plus Titanium-Logo ziert. Eine höhere Effizienz-Einstufung gibt es bis dato nicht. Wer jedoch diesen Boliden sein Eigen nennen will, muss tief in die Tasche greifen: 375 Euro werden laut Preisvergleichsdiensten dafür mindestens fällig.

Dagegen wirken die vier Mitstreiter – alle mindestens 1200 Watt stark und durchgehend mit Platinum-Einstufung – fast wie Schnäppchen. Das Antec HCP-1300 Platinum etwa gibt es aktuell ab 255 Euro, das gleichstarke Cooler Master V1200 kostet rund 260 Euro. Das Flaggschiff von Enermax, das Platimax EPM1500EGT, ist dem Corsair AX1500i in Sachen Leistung ebenbürtig, kostet jedoch “nur” knapp 300 Euro. Das knapp günstigste Netzteil in diesem Roundup ist das Seasonic Platinum 1200 mit Preisen ab knapp über 240 Euro. Normalerweise zählt Seasonic nicht zu den günstigeren Vertretern – ob man deshalb bei dem 1200-Watt-Netzteil mit Abstrichen rechnen muss? Wir lassen uns überraschen.

Doch beschäftigen wir uns erst einmal mit der Frage, wer ein solch leistungsstarkes Netzteil überhaupt braucht. Für einen normalen PC, wie er in den meisten Haushalten genutzt wird, reicht ein 400-Watt-Netzteil dicke aus. Ab Werk werden solche Systeme oft sogar mit billigen Netzteilen mit weniger als 300 Watt ausgeliefert. Doch selbst ein reinrassiges Gaming-System dringt normalerweise nicht in diese Leistungsregionen vor – es sei denn die CPU ist stark übertaktet und mehrere Grafikkarten kommen parallel zum Einsatz.

Solche reinrassigen Gaming-Boliden sind aber eher die Ausnahme, zumal moderne Grafikkarten in Verbindung mit einer leistungsstarken CPU auch für anspruchsvollste Spiele ausreichen. Ein Grafikkartenverbund wie SLI von Nvidia oder AMD Crossfire ist meist gar nicht erforderlich, wenn man sich nicht gerade Richtung 4K-Gaming bewegt. Zudem arbeiten Systeme mit Grafikkartenverbund oft nicht ganz einwandfrei.

Dennoch ist die Nachfrage nach Netzteilen mit mehr als 1000 Watt Leistung in den vergangenen Monaten sprunghaft angestiegen. Der Grund: Bitcoin Mining. Das Schürfen der digitalen Währung erfordert enorm viel Rechenleistung, die in einer Vielzahl der Mining Rigs – der Name ist angelehnt an Begriffe wie Förderturm oder Bohrinsel – von mehreren Grafikkarten erbracht wird.

Systeme mit sechs und mehr GPUs sind dabei keine Seltenheit – und die treiben den Leistungsbedarf in schwindelerregende Höhen. Enermax beschreibt die Nachfrage nach dem Platimax 1500 sinngemäß so: “Die Dinger werden uns regelrecht aus der Hand gerissen.” Gut, dass wenigstens noch ein Testgerät für uns abgefallen ist. Die übrigen Hersteller in diesem Test stoßen mehr oder weniger in dasselbe Horn – und keines der Testgeräte war einfach zu bekommen.

Exkurs: 80 Plus-Zertifizierung bei 230 Volt

Bisher hat die 80 Plus Organisation Netzteile stets nur bei 115 Volt zertifiziert. Für diese Spannung galten auch die Vorgaben in puncto Wirkungsgrad für die einzelnen Einstufungen von 80 Plus bis 80 Plus Titanium. Netzteile, die ausschließlich bei 230 Volt betrieben werden können, konnten also eigentlich keine 80 Plus-Zertifizierung erhalten, da sich die Wirkungsgrade nicht 1:1 von 115 auf 230 Volt übertragen lassen.

Aufgrund der geringeren Stromstärken arbeiten Netzteile bei 230 Volt naturgemäß etwas effizienter. Dennoch tragen einige 230-Volt-only-Geräte auch die begehrten Logos – getestet und zertifiziert wurden in dem Fall aber ihre 115-Volt-Pendants. Ob diese Praxis ehrlich und kundenfreundlich ist, sei einmal dahingestellt.

Die mittlerweile als Ecova auftretende Zertifizierungs-Organisation hat nun jedenfalls auch Grenzwerte für 230-Volt-Netzteile definiert. Die Vorgaben wurden zunächst ohne Veränderung von den Werten für 115-Volt-Netze adaptiert. Aufgrund laut werdender Kritik hat Ecova die Grenzwerte dann aber nach oben korrigiert, um der per se höheren Effizienz in 230-Volt-Umgebungen Rechnung zu tragen. Denn die Unterschiede in den einzelnen Lastzuständen betragen zwischen zwei und drei Prozentpunkte.

Auch ein neues Logo hat Ecova dafür entworfen, das zeigen soll, dass ein Netzteil speziell bei 230 Volt geprüft wurde. Bisher ist jedoch auf der Webseite von Ecova kein einziges 230-Volt-Netzteil zu finden. Vielleicht sind die Grenzwerte so manchem Hersteller doch ein wenig zu ambitioniert. Daher prangt auch noch keines der neuen 230-Volt-Logos auf der Packung der Highend-Netzteile dieses Roundups.

Technische Daten aller Testgeräte

In unserem Artikel Do-It-Yourself: Wir bauen eine passiv gekühlte GeForce GTX 750 Ti hatten wir ja bereits die Machbarkeit einer rein passiven Umsetzung ausgelotet und auf die möglichen thermischen Beeinflussungen und Performance-Einbußen hingewiesen. An dieser Stelle setzt Palit mit der GTX 750 Ti KalmX an.

Asus hingegen sucht einen komplett anderen Lösungsansatz. Mit einem für diese GPU geradezu riesigen, aktiven Kühler und einer ausgeklügelten Lüftersteuerung setzt man auf einen semi-passiven Betrieb. Das heißt nichts anderes, als dass die Lüfter erst dann anlaufen, wenn eine bestimmte Temperatur erreicht ist. Im Idle und bei minimaler Last ist auch diese Karte faktisch eine passive Lösung. Unter Last wird dann aktiv belüftet.

Doch welcher Ansatz ist nun der bessere?

Um dies herauszufinden und auch verständlich erklären zu können, haben wir diesmal die Reihenfolge der einzelnen Tests im Artikel umgestellt, damit vor allem die Performance-Werte transparent begründet werden können. Wir testen auch diesmal beide Karten sowohl im offenen Aufbau, als auch in unserem Referenz-Gehäuse – übrigens mit einem erstaunlichen Resultat. Doch wir wollen nicht vorgreifen und spoilern, das mindert nur die Spannung.

Werfen wir zunächst wie immer einen Blick auf die technischen Daten, bevor wir uns die beiden Kandidaten zur Brust nehmen:

GeForce GTX 750 Ti
Referenz
Palit
GTX 750 Ti KalmX
Asus
GTX 750 Ti StriX
GPU: GM107 GM107 GM107
Architektur: Maxwell Maxwell Maxwell
SMs: 5 5
5
GPCs: 1 1
1
Shader-Kerne: 640 640
640
Textur-Einheiten: 40 40
40
ROPs: 16 16
16
Prozesstechnik: 28 nm 28 nm 28 nm
Kern-/Boost-Takt: 1020 /1085 MHz 1020 /1085 MHz
1124 /1202 MHz
Speichertakt: 1350 MHz 1350 MHz
1350 MHz
Speicherbus: 128 Bit 128 Bit
128 Bit
Speicherbandbreite: 86.4 GB/s 86.4 GB/s 86.4 GB/s
Grafikspeicher (GDDR5): 1 oder 2 GByte 2 GByte
2 GByte
Stromanschlüsse: None None None
Maximale TDP: 60 Watt 60 Watt
60 Watt

Wie wir sehen, hat Asus bei der GPU-Taktrate ordentlich nachgelegt, während es Palit es beim Referenztakt belässt. Kommen wir nun als nächstes zu den Äußerlichkeiten.

 

  

Man platziert das Nash 20 preislich nur knapp unter dem Creative Aurvana Live!2, das wir ja unlängst erst im Test hatten. Der Unterschied ist aber auf den ersten Blick bereits sichtbar, denn das Nash 20 verfügt über einen richtigen Mikrofonarm und wird damit zum echten Headset, während das Creative-Produkt eher ein Kopfhörer mit Freisprechfunktion ist.

Der erste Eindruck ist kein schlechter: Die Verpackung verzichtet auf den üblichen Gaming- und Klarsicht-Klimbim und wirkt als Schuber solide und ansprechend. Man verzichtet zudem auf eine aufwändige Innenverpackung und belässt es mit einer einfachen Formschale, die ihre Funktion für die Transportsicherung gut erfüllt.

Kommen wir zunächst noch schnell zur tabellarischen Übersicht der technischen Daten, die wir wie üblich mit eigenen Messwerten ergänzt haben. Denn die beispielsweise auf der Homepage angegebenen 900 g für das Gewicht waren nicht sonderlich plausibel:

Nun geht es zum Unboxing sowie zur Beurteilung des Äußeren und der Funktionalität. Bitte umblättern!

Aufgrund rückläufiger Verkaufszahlen im Bereich der Desktop-PCs und einer zunehmenden Akzeptanz von mobilen Geräten sowie der Cloud orientiert sich auch Nvidia zunehmend am Mobile-Gaming-Trend. Im letzten Jahr präsentierten die Kalifornier bereits das Tegra Note 7 Tablet sowie die Shield: Eine tragbare Spielekonsole mit einem 5,5 Zoll großen Bildschirm in 720p-Auflösung auf Basis des Tegra 4 SoC.

Auf der diesjährigen CES wurden dann letzte Zweifel hinsichtlich der Neuorientierung von Nvidia in Bezug auf den sich schnell wandelnden Markt für mobile Endgeräte zerstreut: Der Hersteller kündigte an, sich bei künftigen GPU-Generationen zunächst auf die Entwicklung der entsprechenden mobilen Derivate konzentrieren zu wollen.

Tegra Note 7 und Shield sollten zunächst die Verbreitung der eigenen Tegra 4-SoCs vorantreiben und Android als Gaming-Plattform etablieren. Auf dieser Basis konnte Nvidia im Verlauf des letzten Jahres Erfahrungen und Anwender-Feedback im mobilen Bereich sammeln und die Zahl der zur Shield kompatiblen Spiele insgesamt verdreifachen. Darauf baut der Hersteller nun weiter auf und präsentiert die nächste Evolutionsstufe des eigenen Produktangebots im mobilen Spielbereich.

Nvidias neues Shield Tablet weist in mehrfacher Hinsicht Verbesserungen gegenüber dem Tegra Not 7 auf. In Verbindung mit dem neuen, kabellosen Gamepad ist es zudem in der Lage, die gleiche Spieletauglichkeit zu bieten wie die nunmehr in “Shield Portable” umbenannte oiginale tragbare Spielekonsole.

Technische Spezifikationen

Die im Shield Tablet verbauten Komponenten haben gegenüber dem Vorgänger deutliche Upgrades erfahren. Unter anderem kommt das neue Tegra K1-SoC zum Einsatz. Das Nvidia Tegra K1 setzt weiterhin auf vier für hohe Leistung ausgelegte ARM Cortex-A15-Kerne sowie einen weiteren A15-Kern, der für einen möglichst stromsparenden Betrieb optimiert wurde.

Diese Aufteilung entspricht dem, was wir bereits vom Tegra 4 aus dem Tegra Note 7 kennen. Allerdings wird das Tegra K1 SoC im 28-nm-HPM-Verfahren gefertigt und die Cortex-A15-CPUs kommen in einer neuen, dritten Revision zum Einsatz. Die maximale Taktfrequenz des Prozessors liegt bei 2,2 GHz; das entspricht einer Steigerung um 20 Prozent gegenüber dem Tegra Note 7.

Die zusätzliche Prozessorleistung ist erfreulich, aber die eigentliche Stärke des Tegra K1 ist seine GPU. Hier treffen wir nicht mehr auf die Geforce ULP, die Nvidia in den vorigen SOCs nutzte und die gegenüber anderen mobilen High-End-GPUs stets etwas hinterherhinkte. Stattdessen kommt eine Lösung auf Basis der Kepler-Architektur aus dem Desktop-Bereich zum Einsatz.

Die mobile Version hat zwar erwartungsgemäß nur eine arg abgespeckte Ausbaustufe (auf dem Tegra K1 werkelt lediglich eine einzelne SMX-Einheit mit 192 CUDA-Cores), aufgrund der ansonsten identischen Architektur kann die mobile Kepler-Variante allerdings volle Software-Kompatibilität bieten.

Wer sich weiter in die Thematik einlesen möchte, sollte sich unseren Grundlagenartikel zum Nvidia Tegra K1 zu Gemüte führen.

Bislang hatten wir noch keine Gelegenheit, den Tegra K1 durch unseren Benchmark-Parcours zu scheuchen. Nvidias eigenen Messungen zufolge fällt die GPU-Leistung etwa drei Mal höher aus als bei der Adreno 330, die beispielsweise in Samsungs Tab Pro 8.4 oder im Rahmen des PowerVR G6430-Chipsatzes im iPad Air zum Einsatz kommt.

Hier scheint sich also einiges getan zu haben: Nvidia sollte mit dem Tegra K1 für sich beanspruchen können, die aktuell leistungsstärkste mobile Grafiklösung in petto zu haben und sich noch vor Qualcomms aktuellen Adreno 420 im Snapdragon 805 platzieren können. Nvidia selbst behauptet, mit dem Tegra K1 eine ähnliche Grafikleistung bieten zu können, wie wir sie ansonsten von der Xbox 360 und der PS3 kennen.

Aber die Kepler-GPU im Tegra Shield bietet noch mehr als nur reine Rechenpower. Sie unterstützt auch die aktuell in Desktop-PCs und Konsolen verwendeten APIs OpenGL 4.4 und DriectX12. Warum das so wichtig ist? Durch die identische GPU-Architektur und die Kompatibilität zu denselben APIs wird es in Anbetracht der erheblichen Leistungssteigerung der mobilen Grafikeinheit künftig viel leichter möglich sein, die PC- und Konsolenversionen von Spielen zu portieren.

Dadurch erhalten das Shield Tablet sowie andere künftige Endgeräte auf Basis des Tegra K1-SoCs die Möglichkeit, auf den bereits bestehenden, riesigen Spielekatalog von PC, Xbox 360 und PS3 zurückgreifen zu können. In der Theorie bedeutet das nicht nur, dass massenhaft ältere Konsolentitel für das Shield Tablet veröffentlicht werden könnten, sondern auch aktuelle Spiele sollten nach einigen Anpassungen lauffähig sein.

Dadurch wiederum könnte durch das Shield Tablet und den Tegra K1 eine neue Ära im Bereich des mobilen Gaming eingeläutet werden, in der das vorherrschende Spielegenre nicht mehr aus irgendwelchen Flappy-Bird-Klonen besteht, sondern aus genau den Titeln, auf die wir alle seit dem Zeitpunkt hoffen, an dem Nvidia sich im mobilen Gaming-Bereich zu engagieren begann.

Dies war zumindest der Grundtenor der diesjährigen Präsentation auf der diesjährigen Google I/O, wo auf dem Tegra K1 eine beeindruckend aussehende Demo auf Basis der Unreal Engine 4 vorgeführt wurde – einschließlich volumetrischem Nebel, erweiterter Ausleuchtung und Raucheffekten. Ermöglicht wird diese höhere Darstellungsqualität durch die Unterstützung des Android Extension Packs (AEP), wobei es sich um einen Satz von Erweiterungen für API (OpenGL ES 3.1) handelt, mit dem sich der Feature-Abstand zu DirectX11 überbrücken lässt.

Preis und Verfügbarkeit

Nvidia bietet das Shield Tablet in zwei Ausstattungsvarianten an: Eine Version mit 16 GByte Speicher und integriertem WLAN für 299,99 Euro sowie eine Version mit 32 GByte Speicher und zusätzlichen LTE-Modul für 379,99 Euro. Das kabellose, “Shield Controller” getaufte Gamepad schlägt mit zusätzlichen 59,99 Euro zu Buche. Selbstverständlich wird auch eine passende Schutzhülle für das Gerät für 29,99 Euro angeboten werden.

Im Gegensatz zum Shield Portable und Tegra Note 7, die allein in den USA verfügbar waren, soll das Shield Tablet ab dem 14. August auch in Deutschland vertrieben werden.

Die versammelte Smartphone-Elite aus dem Android-Lager hat ihre Flaggschiffe bereits auf den Markt gebracht. HTC One M8, Samsung Galaxy S5 und Sony Xperia Z2 setzen allesamt auf Full-HD-Displays mit einer Diagonale von mindestens fünf Zoll. Technische Basis ist bei allen drei Geräten der aktuell wohl schnellste Smartphone-Prozessor, der Qualcomm Snapdragon 801.

Samsung taktet den Prozessor bisher am höchsten. Damit stellt das Samsung Galaxy S5 derzeit die Performance-Speerspitze dar. In Sachen Haptik und Materialqualität legt das HTC One M8 aber noch eine gehörige Schippe drauf. Das Sony Xperia Z2 bietet im Gegenzug mit 5,2 Zoll bisher das größte Display in der High-End-Klasse. Und jetzt stößt also das LG G3 hinzu. Was soll da noch groß kommen?

Größe zum Beispiel: Das neue Top-Modell der Südkoreaner misst 5,5 Zoll in der Diagonale und geht damit als astreines Phablet durch. Noch ein Beispiel gefällig? Auflösung. Ganze 2560 x 1440 Pixel stellt das Display des G3 dar. Der Name für die vierfache HD-Auflösung: WQHD. Noch was? Ja: Ein lasergestützter Autofokus für besonders schnelle Schnappschüsse, auch im Zwielicht.

Der Rest ist dann wieder “High-End-Hausmannskost” – sprich: Qualcomm Snapdragon 801, zwei GByte Arbeitsspeicher und 16 GByte Flash-Speicher, natürlich erweiterbar um bis zu zwei Terabyte – theoretisch, versteht sich. Die 13-MP-Hauptkamera verfügt über einen optischen Bildstabilisator, der ein Watt starke Monolautsprecher über einen Bassverstärker. Kosten soll das Ganze 549 Euro. Das günstigste Angebot zum Testzeitpunkt lag bei knapp unter 500 Euro.

Gleichzeitig mit dem G3 stellt LG auch sein erstes Android-basiertes Wearable vor, die LG G Watch. Natürlich werfen wir auch darauf einen Blick – und auf das Fitnessarmband Lifeband Touch.

ITX-Gehäuse müssen nicht unbedingt die Gestalt voluminöser Quader einnehmen, um Hochleistungs-Prozessoren und entsprechend platzintensive Kühllösungen nebst einem ATX-, SFX- oder TFX-Netzteil beherbergen zu können. CPUs wurden in den letzten Jahren zunehmend effizienter und bieten mittlerweile auch bei vergleichsweise geringem Stromverbrauch eine ansprechende Leistung.

Zudem sind auch die integrierten Grafiklösungen stärker geworden, so dass sicher nicht jedes denkbare Einsatzszenario eine zusätzliche Grafikkarte zur Anbindung über PCI-Express erfordert. Für alltägliche und multimediale Anwendungen reichen die integrierten Lösungen meist aus und bedeuten noch einmal eine zusätzliche Stromersparnis.

Auf Basis derartiger Komponenten lassen sich somit auch sehr schlanke Systeme in entsprechenden Mini-Gehäusen konzipieren. Diese bieten in der Regel Platz für ein ITX-Mainboard samt CPU und Arbeitsspeicher, ein bis zwei Festplatten im 2,5-Zoll-Format (bei Nutzung eines entsprechenden Mainboards mit mSATA-Anschlussmöglichkeit sind noch nicht einmal diese nötig), teilweise einen Einschub für ein optisches Laufwerk im Slim-Format und meist auch Montageplätze für Zusatzlüfter.

Generell sollte übrigens bedacht werden: Ist nicht ohnehin schon eine Festplatte oder SSD im 2,5-Zoll-Format vorhanden, die hier Verwendung finden soll, sollte man besser gleich auf ein deutlich platzsparenderes Modell mit mSATA- oder M.2-Anschluss setzen, wenn das verwendete Mainboard einen entsprechenden Anschluss bietet.

Da der Strombedarf derartiger Systeme meist problemlos über den Einsatz eines externen Netzteils gedeckt werden kann, kommen hier überwiegend Modelle zwischen 60 und 120 Watt zum Einsatz. Solche Netzteile dürften den meisten Anwendern vom eigenen Notebook her bekannt sein und reduzieren den Platzbedarf des Gehäuses an sich noch einmal. Der folgende Artikel beschränkt sich ausschließlich auf Gehäuse mit externer Stromzufuhr aus dem Performance-Segment ab 90 Watt Leistung.

Ein am Aufbau eines derartigen Mini-Systems interessierter Anwender sollte sich vorab neben der optischen vor allem auch funktionelle Fragen stellen – denn der Markt bietet eine große Vielfalt und nebenbei auch eine Reihe von Möglichkeiten, um die Flexibilität der Hardware-Behausungen durch optional erhältliches Zubehör zu erhöhen:

  1. Soll es ein edler, gebürsteter Aluminium-Look für den Einsatz als Wohnzimmer-PC sein oder reicht auch eine schlichte Alternativlösung aus lackiertem Stahl? 
  2. Soll das Gehäuse horizontal oder vertikal aufgestellt werden oder gar per VESA-Halterung an der Rückseite des Monitors angebracht werden?
  3. Welche und wie viele Laufwerke sollen untergebracht werden? Wie stark muss das mitgelieferte Netzteil sein bzw. gibt es optional stärkere Modelle?

Wir haben uns drei unterschiedliche Kandidaten ins Labor geholt und vergleichen das – zumindest gemessen am Testfeld – etwas größere Inter-Tech E-I7 aus gebürstetem Aluminium mit der Möglichkeit zur Unterbringung eines optischen Slot-In-Drives sowie einer Low-Profile-Karte, das sich ebenfalls im gebürsteten Aluminiumkleid präsentierende, kleinere MS-Tech CI-70 und schließlich das Chieftecs IX-03B.

Letzteres ist im Auslieferungszustand das kleinste Gehäuse im Testfeld und besteht “nur” aus schwarz lackiertem Blech, bietet dafür aber viel Flexibilität durch Umrüstmöglichkeiten zur Vergrößerung und Erweiterung des Gehäuses und die Möglichkeit zur Montage an einer VESA-Halterung am Monitor.

Tabellarische Übersicht

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen