Monat: November 2013

Über viele Jahre fand der Fortschritt bei Speicherlaufwerken auf ähnliche Weise statt: Datendichte und Datentransferrate stiegen von Generation zu Generation, gleichzeitig sinken die Kosten. Inzwischen haben sich zwei Dinge verändert. Zum einen lässt sich die Datendichte bei Festplatten nur noch mit deutlich steigendem Aufwand weiter erhöhen. Zum anderen laufen Solid State Drives der klassischen Festplatte bei allen Aufgaben, bei denen es nicht nur um schnöde Datenablage geht, den Rang ab: SSDs sind schneller, energieeffizienter, praktisch lautlos, robuster und in der Regel auch langlebiger. Wir haben uns dazu entschieden, ein paar ältere sowie aktuelle Festplatten mit einem TByte Speicherplatz der aktuell einzigen vergleichbaren Terabyte-SSD gegenüberzustellen, der Samsung SSD 840 EVO. Ring frei!

Rückblick: Festplatten

Eine höhere Speicherdichte bei Festplatten geht normalerweise mit einem höheren Datendurchsatz einher. Recht deutlich wurde das bei unserem letzten Laufwerks-Generationentreffen, bei dem wir die Leistung von drei Versionen der Hitachi Deskstar 7K1000 miteinander verglichen. Mit Perpendicular Recording im Gepäck nahm Hitachi im Jahr 2007 mit der Deskstar 7K1000 als erster Hersteller die prestigeträchtige 1-TByte-Hürde. In der Ur-Ausgabe des 3,5-Zoll-Laufwerks brauchte es dafür noch fünf Platter mit je 200 GByte. Spätere Versionen schrumpften dank effizienter senkrechter Aufzeichnung auf drei Platter (Deskstar 7K1000.B, 2008) und schließlich zwei Platter (Deskstar 7K1000.C, 2009). Im Test lief die Deskstar 7K1000.C aufgrund ihrer höchsten Speicherdichte als erste durchs Ziel, dann folgten die Deskstar 7K1000.B und schließlich die Deskstar 7K1000.

Doch lässt sich dieses Ergebnis auch auf aktuellere Laufwerke übertragen, also solche, die zwischen 2010 und heute erschienen sind und nach wie vor Perpendicular Magnetic Recording (PMR) einsetzen? Wie sieht es darüber hinaus mit den Leistungsunterschieden aus – sind die älteren Laufwerke grundsätzlich langsamer oder unterscheidet sich ein 2013er Modell einer 1-TByte-Festplatte in punkto Performance nicht wesentlich von einem 2007er-Jahrgang?

Hier folgt nun die Neuauflage mit insgesamt fünf Festplatten, die eine Kapazität von einem Terabyte als gemeinsamen Nenner haben. Zur Hitachi Deskstar 7K1000, dem Urmodell der 1-TByte-Modelle, gesellen sich noch vier weitere 3,5- und 2,5-zöllige Laufwerke gleicher Kapazität, die unseren Test-Parcours durchlaufen. Die Laufwerke wurden in den Jahren 2010, 2011, 2012 und 2013 hergestellt, sind also mindestens drei Jahre jünger als die Hitachi Deskstar 7K1000.

Das Ergebnis überrascht: Zwischen einer sechs Jahre alten SATA-Festplatte und einem brandaktuellen 1-TByte-Modell gleicher Drehzahl gibt es teilweise viel geringere Leistungsunterschiede, als man vermuten könnte.

Ausblick: Die Terabyte SSD Samsung SSD 840 EVO

Seit Herbst gibt es von Samsung die SSD 840 EVO, die nach der M500 von Crucial mit 960 GB die erste “echte” Terabyte-SSD mit exakt einem Terabyte Speicherkapazität darstellt. Mit Preisen ab knapp 500 Euro ist diese in der Praxis gut sechs Mal so teuer wie aktuelle Festplatten gleicher Kapazität. Dafür bietet sie vielfach höhere Transferraten und eine sehr hohe, in der Praxis noch wichtigere I/O-Leistung. Als Systemlaufwerk zählt dieser Wert für die empfundene Leistungsfähigkeit am meisten. Dank einem Terabyte Speicherkapazität kombiniert dieses Laufwerk hohe Speicherkapazität mit der so wichtigen I/O-Leistung, so dass für die aller meisten Anwender im Notebook dieses Laufwerk die beste Wahl sein könnte – wenn das Budget ausreicht.

Eine RAM-Disk ist ein temporäres, virtuelles Laufwerk im Arbeitsspeicher eines Rechners, das als schneller Zwischenspeicher fungiert. Angesichts der niedrigen Speicherpreise ist eine ausreichend große Menge RAM heutzutage kein Thema mehr; selbst bei Wald-und-Wiesen-Rechnern sind vier oder acht GByte Hauptspeicher heute eine übliche Größe. Eine RAM-Disk wird mittels Software-Tools angelegt und kann dann zum Beispiel für Datenbank-Operationen oder ähnliches genutzt werden.

In Sachen I/O-Geschwindigkeit läuft der in aktuellen PCs eingesetzte DDR3-SDRAM-Arbeitsspeicher jeder SSD auf und davon, ist also eine interessante Alternative zu einem Flash-Laufwerk. So kommt etwa ein DDR3-800-Riegel pro Modul auf eine theoretische Übertragungsrate von mindestens 6,5 GByte/s, während die schnellsten SSDs unter 600 MByte/s bleiben und damit um den Faktor zehn langsamer laufen – und das ist nur 800er RAM.

Weitere Vorteile: Bei einem 32-Bit-OS macht eine RAM-Disk-Anwendung den Speicherbereich nutzbar, der jenseits der 3,2-GByte-Schwelle liegt und vom Betriebssystem normalerweise nicht verwendet wird. Bei einem 64-Bit-Windows liegt die Grenze des maximal nutzbaren Speichers zwar höher, aber auch hier gilt das gleiche Prinzip: Die RAM-Disk kann auch solche Speicherbereiche verwenden, die oberhalb dieser je nach OS unterschiedlich hoch angesetzten Schwelle liegen.

Beispielsweise lassen sich bei einem PC, der mit Windows Vista Home Basic läuft und mit 16 GByte RAM ausgestattet ist, aufgrund der OS-Limitationen nur acht GByte nutzen – die anderen acht könnte man also der RAM-Disk spendieren. Anders sieht es zum Beispiel bei der 64-Bit-Version von Windows 7 Pro, Enterprise oder Ultimate aus, die bis zu 192 GB Speicher adressieren können. Hier zweigt man einfach den gewünschten Teil des oftmals gar nicht voll genutzten Hauptspeichers ab und profitiert dann ebenfalls von den Vorzügen einer RAM-Disk.

Bleibt die Frage: Wie stark können RAM-Disks die Systemleistung oder zumindest die Lese- und Schreibzugriffe der auf ihnen abgelegten Dateien beschleunigen? Auf den folgenden Seiten haben wir dazu fünf aktuelle RAM-Disk-Tools unter die Lupe genommen, die teils kostenpflichtig, teils gratis sind. Soviel vorweg: Nicht alle Programme überzeugen hinsichtlich ihrer Performance restlos, aber selbst das langsamste Tool kann eine SSD noch das Fürchten lehren. Mit IOMeter haben wir teilweise über 1.000.000 I/Os gemessen – SSD-Boliden wie die in unserer Testplattform verwendete Samsung 840 Pro erreichen hier “nur” 80.000 I/Os.

Das Jahr 2013 stand ganz im Zeichen einer neuen Produktkategorie: Die Phablets. Man könnte die großen Smartphones aber einfach auch als das bezeichnen, was sie sind: Große Smartphones. Wie dem auch sei, Vorreiter Samsung hat bereits die dritte Generation seiner erfolgreichen Note-Reihe am Start, während andere Premium-Hersteller wie etwa HTC noch am ersten Riesen-Smartphone basteln.

Doch die Südkoreaner mussten auch was tun. Das Smartphone-Aushängeschild Galaxy S4 ist aktuell nicht mehr das Nonplusultra und muss mit dem LG G2 sogar starke Konkurrenz aus dem eigenen Land fürchten – und bis zum S5 vergehen noch ein paar Monate.

Also hat man sich bei Samsung erst einmal auf die neue Zwischengröße gestürzt und dort alles reingepackt, was aktuell Rang und Namen hat. Auch das Display wurde moderat vergrößert. Mit nunmehr 5,7 Zoll zählt das Samsung Galaxy Note 3 aber nur noch zur oberen Mittelklasse unter den Phablets – wohlgemerkt nur, was die Größe betrifft.

Bei den inneren Werten sucht das Note 3 hingegen seinesgleichen – vergebens. Das kürzlich getestete Sony Xperia Z Ultra kommt dem Boliden aus Südkorea aktuell noch am nächsten. Dennoch wird der Vorsprung des Note 3 nahezu an jeder Ecke deutlich. Das beginnt bereits beim Herzstück, dem System-on-Chip. Zwar handelt es sich mit dem Qualcomm Snapdragon 800 (inklusive Adreno-330-GPU) um den identischen Prozessor wie im Sony-Phablet. Dessen vier Kerne sind allerdings bei Samsung mit 2,3 statt wie bei Sony mit 2,2 GHz getaktet. Ein geringer Unterschied, sicher. Aber beim Arbeitsspeicher wird der Abstand schon größer. Erstmals verbaut ein Hersteller in einem Smartphone satte drei GByte RAM.

Und Samsung sorgt noch für ein weiteres Novum: Der kombinierte USB-/Ladeport unterstützt USB 3.0. Das beschleunigt einerseits den Datenaustausch und erlaubt andererseits größere Ladeströme, was bei den ständig wachsenden Akkukapazitäten nur von Vorteil sein kann. Wie bei all ihren Highend-Geräten setzen die Koreaner auf ein Super-AMOLED-Display mit Full-HD-Auflösung, das verschiedene Bildmodi erlaubt und unter anderem auch den AdobeRGB-Farbraum weitgehend abdecken soll.

Die weitere Ausstattung birgt für ein Highend-Smartphone wenig Überraschungen. Mit an Bord sind WLAN nach 802.11ac, LTE, NFC, Bluetooth 4.0, Infrarot und ein aGPS-Empfänger mit GLONASS-Unterstützung. Der interne Speicher misst ordentliche 32 GByte und ist um weitere 64 GByte erweiterbar. Und natürlich darf der Note-typische Eingabestift nicht fehlen. Die Kameramodule sind dieselben wie im Galaxy S4, also vorne mit zwei MP Auflösung, hinten mit satten 13.

Als Betriebssystem kommt das noch aktuelle Android 4.3 (“Jelly Bean”) zum Einsatz. Für dieses schon auf dem Papier beeindruckende Gesamtpaket ruft Samsung knapp 750 Euro auf. Wie immer liegen die Straßenpreise für Samsung-Geräte deutlich darunter. Schon zur Markteinführung gibt es das Note 3 in den einschlägigen Online-Shops für unter 620 Euro.

Und dann taucht da immer wieder ein Bundle mit der Smartwatch Galaxy Gear auf. Also haben wir die Android-Uhr auch noch bestellt, um ein Gefühl für die smarte Uhr zu bekommen. Zuerst widmen uns aber dem Note 3.

Netgear setzt bei der 300er Serie auf den in dieser NAS-Klasse derzeit nicht unüblichen Intel-Atom-Prozessor D2700 mit 2,1 GHz Taktfrequenz und stellt diesem zwei GByte RAM zur Seite. Äußerlich unterscheidet sich das NAS kaum von den früheren Modellen. Wo also ist die Revolution?

Der Name ReadyNAS steht bei Netgear für “Storage Made Easy” und so tritt das ReadyNAS 312 auch auf: Ganz egal, ob es als die eigene Cloud oder als ein Media-Server fungieren oder lediglich für Backup-/Restore Zwecke für das Home-Netzwerk bzw. das kleine Büro herhalten soll – die Konfiguration soll einfach und schnell vonstatten gehen. Helfen soll hier auch das neue Betriebssystem OS6 mit der Unterstützung des B-Free Filesystems Btrfs.

Technische Eckdaten Netgear ReadyNAS 312

CPU: Intel Atom D2700
Taktrate: 2x 2,1 GHz
RAM: 2 GByte, DDR3
Speicher: maximal 2 x 2,5″/3,5″ SATA/SSD HDD
maximal 8 TByte Bruttokapazität
Anschlüsse: 2x Gigabit Ethernet RJ45
1x USB 2.0 Front
2x USB 3.0 Back
1x HDMI
1x eSATA
Art der Statusanzeige: Status-LEDs
Abmessungen (HxBxT): 10,1 x 14,2 x 22,0 cm
Gewicht: 2,22 kg
Preis: ca. 440 EUR inkl. 2x 2-TByte-Festplatten

Die Vorstellung der neuen iPhone-Generation brachte keine großen Überraschungen. Wie immer gab es einen neuen Prozessor mit signifikant höherer Leistung und ein kleines Goodie. Diesmal war es der Fingerprint-Reader, der im Home-Button sein Zuhause findet. Sonst blieb alles beim Alten.

Wer nun denkt, bei der Einführung des neuen Tablet-Topmodells von Apple wäre es genauso langweilig zugegangen, der irrt. Denn endlich haben sich die Amerikaner auch mal wieder das Gehäuse des iPads vorgenommen. Herausgekommen ist das bis dato leichteste und kompakteste Tablet der 10-Zoll-Klasse. Sein vielsagender Name: iPad Air.

Es wiegt in der WLAN-Variante nur 464 Gramm und misst in der Breite 24 und in der Höhe 17 Zentimeter. Mit 7,5 Millimetern Bauhöhe ist es zudem sehr flach, auch wenn es mit dem Sony Xperia Tablet Z noch ein flacheres 10-Zoll-Tablet gibt. Die Messlatte liegt also weiterhin bei 6,9 Millimetern.

Ansonsten hat sich am grundlegenden Erscheinungsbild nichts geändert. Das Apple iPad Air besitzt nach wie vor ein 9,7 Zoll großes Display. Zudem bleiben die Amerikaner dem 4:3-Bildformat und der “altbekannten” Retina-Auflösung von nach wie vor beeindruckenden 2048 x 1536 Bildpunkten treu. Das iPad Air sieht nun aus wie ein großes iPad Mini. Zum Vorgänger hat sich auch die Farbgestaltung geändert, die sich am iPhone 5S orientiert. Es gibt mit Spacegrau und Silber allerdings weiterhin nur zwei Farben. Die goldene Variante bleibt vorerst dem Smartphone aus Cupertino vorbehalten.

Wie das iPhone-Topmodell bekommt auch das Apple iPad Air den neuen A7-Chip – mit leicht erhöhter Taktfrequenz – und die Unterstützung zusätzlicher LTE-Bänder bei der Cellular-Version. WLAN nach 802.11ac, NFC oder USB 3.0 sind weiterhin Fehlanzeige. Und der Akku musste aufgrund des kompakteren Gehäuses deutlich schrumpfen. Apple verspricht dennoch eine mindestens ebenso lange Laufzeit wie beim Vorgänger.

Möglich machen soll’s das neue SoC, das wie im iPhone auch den Motion-Coprozessor M7 beherbergt und die Grafikeinheit PowerVR G6430 von Imagination. Diese GPU ist sicher eine der aktuell schnellsten ihrer Art und dürfte in etwa auf dem Niveau einer Qualcomm Adreno 330 liegen, die beispielsweise im Samsung Galaxy Note 3 – dessen Test kommt nächste Woche – verbaut ist.

Wie bei der vierten Generation gibt es auch beim iPad Air wieder vier verschiedene Speichergrößen (16, 32, 64 und 128 GB) und die Versionen Wifi und Wifi + Cellular. Die Preise haben allerdings leicht nachgegeben. So kostet das Einstiegsmodell mit 479 Euro immerhin 20 Euro weniger als beim iPad 4. Zudem beträgt der Sprung von einer Speichergröße zur nächsten „nur“ noch je 90 Euro. Der Aufpreis für die LTE-Version liegt durch die Bank bei satten 120 Euro.

Technische Daten und Ausstattung

Hersteller: Apple
Modell: iPad Air
CPU-Modell / Kerne: Apple A7 / 2
CPU-Takt: 1400 MHz
Arbeitsspeicher: 1024 MByte
Grafikeinheit / Kerne: Imagination PowerVR G6430 / 4
Displaygröße/Auflösung /Technologie: 24,6 cm / 9,7 Zoll, 2048 x 1536 / Apple Retina/IPS
Touchscreen, Typ: Kapazitiv, Multi-Touch
Betriebssystem: Apple iOS 7.0.3
Speicher intern: 16 / 32  (Testgerät) / 64 / 128 GB
Speicher zusätzlich: nein
Kamera: Front: 1,2 MP; Rear: 5 MP
USB, HDMI, Docking, Sonstige: ja/über Adapter/nein/Lightning
Bluetooth / Version: 4.0
WLAN: 802.11a/ b/g/n
UMTS: nein (LTE-Version gegen Aufpreis)
Telefonfunktion: nein
GPS: nur bei LTE-Version
Abmessungen (H x B x T): 240 x 169,5 x 7,5 mm
Gewicht: 469 g
Batterietyp / Kapazität: Li-Polymer, 32,4 Wh
Lieferumfang: Netzteil, Lightning-auf-USB-Kabel
UVP laut Hersteller: 569 Euro
Straßenpreis zum Testzeitpunkt: 542 Euro

Irgendwie musste es nach dem zuletzt zusammengebauten Koloss (AIO Drone Station) einfach mal etwas Leichtgewichtiges und Graziles sein. Da mich unlängst ein nettes Päckchen von Cieftec mit einem sehr günstigen Mini-ITX-Gehäuse samt DC-DC-Netzteil erreichte, war der Gedankengang bis hin zum fertigen Small-All-In-One PC dann bloß noch eine Art Kurzstreckenlauf. Was also lag näher, mal einen unserer drei Acer GD245HQ zu schnappen, das aus ihnen bestehende Eyefinity-Setup für die Zeit des Zusammenbaus temporär zu zerstören und dort auf der Rückseite dieses Monitors einen kleinen, aber feinen All-In-One zu verbauen?

Das Lustigste daran: Nach unserem abschließenden Test für die Eignung als Multimedia-PC, bei dem unserer angestammter PC mal temporär aus der Laborküche verbannt wurde, steht der Monitor wieder brav im Test-Ausbau. Samt Huckepack übrigens, denn ich nutze diesen kleinen, anschraubten PC nunmehr zur Überwachung und als kleinen Notfall-Server, denn eine Leistungsaufnahme von unter 15 Watt an der Steckdose ist nichts, was einen wirklich erschrecken müsste.

Man kann dieses Bauvorgaben beliebig modifizieren, der Schwerpunkt liegt auf dem Test zum Gehäuse samt Netzteil. Das endgültige Einsatzgebiet des kleinen PCs ist jedem selbst und seiner Phantasie überlassen. Praktisch ist so ein Winzling allemal, fast unsichtbar auch.

Der Shadow Rock 2 gehört ebenso wie Thermalrights Macho HR-02 zu den Kühlflächen-Monstern unter der Single-Tower-Kühlern. Im Gegensatz zu Kühlern, die auf eine möglichst geringe Bautiefe und somit Kompatibilität ausgelegt sind, bieten die großflächigeren Modelle eine bessere Kühlleistung gerade bei geringer Lüfterdrehzahl oder im (semi-)passiven Betrieb.

Die Interpretation der besonders massiven Single-Tower-Bauform aus dem Hause be quiet! weicht etwas vom Standard ab und macht somit gespannt auf die erzielbaren Temperatur- und Lautstärkewerte: Der Shadow Rock 2 bietet in seiner Preis- und Gewichtsklasse vier 8-mm-Heatpipes statt der üblichen sechs 6-mm-Exemplare und lässt aufgrund seines Aufbaus und der Verwendung eines 120-mm-Lüfters auf die Möglichkeit zu einem besonders leisen Betrieb bei guter Kühlleistung hoffen.

Verpackung und Lieferumfang

Schwarz und schlicht – das ist die Form von Understatement, die wir von be quiet! gewohnt sind und dementsprechend zeichnet sich auch die Umverpackung des Shadow Rock 2 durch ein nüchternes, klares Design und vorwiegend schwarze Farbgebung aus.

Das dem Kühlkörper beiliegende Zubehör umfasst eine Universalbackplate samt Montageklammern und Drehteilen, um den Shadow Rock 2 auf allen angegebenen Sockeln anbringen zu können. Ansonsten findet sich hier eine kleine Tube Wärmeleitpaste, eine mehrsprachige Montageanteilung und der bereits mittels zweier Halteklammern am Kühlkörper angebrachte 120-mm-Lüfter. Die gleichzeitige Nutzung von zwei Lüftern ist am be quiet! Shadow Rock prinzipiell möglich, ein zweiter Satz Halteklammern jedoch leider nicht Bestandteil des regulären Lieferumfangs.

Die Idee hinter diesem Artikel ist so simpel wie verlockend:  Ich habe noch die Forenkommentare im Ohr, in denen man unlängst möglichst die gleiche Kühlungs- und Betriebsbedingungen für die verglichenen Karten forderte – bitte schön, das geht ja durchaus.

Man möge mir allerdings vergeben, dass ich bewusst auf die Einbeziehung der aktuellen Hawaii-Karten von AMD verzichtet habe. Erstens wäre ein Vergleich von Referenzkartzen und Custom-Lösungen ein unwürdiger und ungerechter Äpfel- und Birnen-Vergleich und zweitens täte man der aktuellen AMD-Generation damit wirklich Unrecht. Nein, die Aufgabe lautet vielmehr herauszufinden, wie sich verschiedene Ausbaustufen des GK110 auf nahezu identischen Platinen und mit dem gleichen Kühler verhalten.

Vier Karten, ein Kühler - direkter kann man nicht vergleichenVier Karten, ein Kühler – direkter kann man nicht vergleichen

Immerhin gibt es mit einer Custom-Titan OC und der ursprünglichen OC-Variante der Gigabyte GTX 780 Windforce noch zwei weitere, interessante Testobjekte zur Abrundung. Hubraum oder Drehzahl, Stream-Prozessoren oder doch mehr Takt?

Ich habe diesmal den Schwerpunkt vor allem auf eine Effizienzanalyse und eine sehr detaillierte und transparente Dokumentation der Leistungsaufnahme gelegt, obwohl natürlich auch Benchmarks auf der Tageskarte stehen. Außerdem geht es in erster Linie ja auch um zwei neue Produkte, die man demnächst im Handel sichten dürfte und auf die ich bereits mehr als nur einen Blick werfen konnte.

Prototyp eines Windforce-Kühlers für die GTX Titan aus unserer SammlungPrototyp eines Windforce-Kühlers für die GTX Titan aus unserer Sammlung

Gigabyte GTX 780 Ti Windforce OC

Gigabyte konnte es einfach nicht erwarten und geht mit dieser Karte den gleichen Weg wie schon mit der GeForce GTX 780 ohne Ti. Zunächst wird erneut eine Referenzplatine verwendet und mit dem bereits entwickelten Windforce-Kühler und einem eigenen BIOS versehen. Später wird mit Sicherheit noch eine andere Lösung mit eigenem PCB folgen, wobei bereits bei der vorigen Karte die Standardlösung gut gefallen konnte. Was aber unterscheidet die Referenzkarte von dieser neuen Gigabyte-Lösung?

Gigabyte GTX 780 Windforce GHz Edition

Ach ja, da war doch was… Richtig: Den Begriff “GHz Edition” schien AMD ja bisher mit Wolllust fest gepachtet zu haben. Nun aber gibt es auch eine GeForce mit diesem Namenszusatz und es wird sicher interessant sein herauszufinden, wie sich dieses Plus an Takt in den Ergebnissen widerspiegeln kann und wird. Diese Karte ist natürlich günstiger als die neue GTX 780 Ti – aber kann sie der größeren Schwester zumindest etwas nahe kommen? Kannibalisierung wäre ja sinnlos, aber ein bisschen Träumen für weniger Kapitaleinsatz ist auch eine schöne Perspektive.

  Gigabyte GeForce
GTX 780
Winforce OC
Gigabyte GeForce
GTX 780
GHz Edition
Gigabyte GeForce
GTX Titan
Windforce OC
Gigabyte GeForce
GTX 780 Ti
Windforce OC
Shader-Einheiten: 2304 2304
2688 2880
ROPs: 48 48
48 48
Speicher: 3072 MByte 3072 MByte
6144 MByte 3072 MByte
Speicherbandbreite: 384 Bit 384 Bit
384 Bit 384 Bit
Kern-Takt: 954 MHz+ 1020 MHz+
1000 MHz+ 1020 MHz+
Speicher-Takt: 1502 MHz 1502 MHz
1502 MHz 1750 MHz

Wer sich auf der Suche nach einem Smartphone begibt, muss sich derzeit zunächst zwischen zwei grundlegenden Richtungen wählen: Entweder man entscheidet sich für ein Highend-Gerät und damit auch für ein Display mit einer Größe von wenigstens fünf Zoll oder man ist bereit, in Sachen Leistung deutliche Abstriche zu machen, und kann dafür aus einer Vielzahl unterschiedlicher Formate auswählen.

Lange Zeit wurden jedoch Anwender ignoriert, die hohe Leistung mit einer kompakten Bauform kombiniert sehen wollten. Doch so langsam kristallisiert sich der Trend heraus, mit kompakteren Ausgaben der jeweiligen Flaggschiffe Alternativen zu bieten. Diesen Trend hat letztlich HTC mit der aus drei leistungstechnisch unterschiedlichen Modellen bestehenden One-Serie im vergangenen Jahr initiiert. Mittlerweile konnten auch Motorola mit dem RAZR i und Samsung mit dem Galaxy S3 Mini und S4 Mini mit einem ähnlichen Ansatz nachziehen. Und natürlich haben die Taiwanesen ihrem aktuellen One-Flaggschiff ebenfalls eine in den Außenmaßen reduzierte Ausgabe zur Seite gestellt.

Hardware bewegt sich auf gehobenem Mittelklasse-Niveau

Auch beim HTC One Mini muss der Nutzer nicht nur mit einer von fünf auf 4,3 Zoll reduzierten Displaygröße, sondern auch mit leistungstechnischen Einschränkungen im Vergleich zum Topmodell leben, denn mit dem Qualcomm Snapdragon 400 ist auch der Prozessor eine Liga tiefer angesiedelt. Immerhin bringt das Smartphone von Haus einen 16 GByte großen Datenspeicher mit und macht auch beim LTE-fähigen Funkchip keine Abstriche. Mit der Ultrapixel-Kamera kommt zudem eine Eigenentwicklung HTCs zum Einsatz, bei der die Anzahl der Megapixel laut Hersteller nebenrangig ist – vier Megapixel sollen hier für gute Bilder ausreichen.

Eigene Oberfläche und umfangreiches App-Paket

Software-seitig versucht sich HTC von seinen Konkurrenten abzusetzen. Zwar nutzt der Hersteller als Betriebssystem wie so viele andere auch Googles Android in der Version 4.2.2, traditionell verpasst man dieser jedoch die hauseigene Sense-Oberfläche in der Version 5.0, die mit einigen Eigenheiten aufwarten kann. Dazu gehört beispielsweise ein eigener Startbildschirm, der nach der Aktivierung des Bildschirms zunächst die aktuellen Nachrichten aus den sozialen Netzwerken präsentiert und damit vor allem Privatanwender anspricht. Leider sind die Vorgaben an dieser Stelle recht restriktiv; in die HTC-Kacheln kann nur integriert werden, was HTC erlaubt.

Familienfreundlich ist dagegen, dass Nutzer einen spezifischen ‘Elternbereich’ selbst festlegen können. Doch auch Business-Nutzer sind willkommen: Auf dem aufgeräumten Anwendungsbildschirm finden sich im Ordner ‘Produktivität’ ein vollwertiges Polaris-Office, eine Notiz-App, ein PDF-Viewer, ein Dropbox-Zugang und sogar ein VPN-Client.

Unschön ist jedoch die Tastatur: Bei der Standardvariante lässt sich leider kein Swype aktivieren, was bei den vergleichsweise schmalen Buchstaben eines 4,3-zölligen Displays gerade für etwas wurstigere Finger eine Erleichterung gewesen wäre.

Ausstattungstabelle
Modell: HTC One Mini
Betriebssystem: Android 4.2.2
Display: 4,3 Zoll, SLCD-Display, 1280 x 720 Pixel
CPU: Qualcomm Snapdragon 400, 2 x 1,4 GHz
GPU: Adreno 305
Arbeitsspeicher: 1024 MByte
Interner Speicher: 16 GByte
Externer Speicher:
WLAN: 802.11a/b/g/n
Bluetooth: 4.0
Funknetze: GSM 850/900/1800/1900
UMTS 900/1900/2100
LTE 800/1800/2600
Datennetze: GPRS/EDGE/HSDPA/HSUPA/HSPA+
Kamera: Front: 4-MP-Kamera, Full-HD-Videoaufzeichnung
Rear: 1,6-MP-Kamera
Akku:
1800 mAh
Abmessungen: 13,2 x 6,32 x 0,925 cm
Gewicht: 122 g
Straßenpreis: ab ca. 360 Euro (abhängig von Farbvariante)

Spätestens seit unserem ausführlichen Launch-Artikel zur Radeon R9 290X wissen wir, dass der Referenzkühler ein verflixt heißes Eisen ist. Nach dem ganzen Hickhack um die Lüfterproblematik – speziell nachdem wir zusammen mit AMD die fehlerhafte PWM-Steuerung als Ursache für das Überhitzen einiger Radeon R9 290 ausmachen konnten und auch nach dem Umbauartikel zur R9 290 mit dem Arctic Accelero Extreme III – erreichte uns jede Menge Feedback zum Thema. Dabei kristallisierten sich zwei Kernfragen heraus, die wir heute mit diesem Artikel beantworten möchten:

1.) Was bringt ein Tausch der originalen Wärmeleitpaste?
2.) Läuft eine so besser gekühlte Karte danach auch effizienter?

Also haben wir uns eine weitere Retail-Karte der R9 290X besorgt. Nach Asus und Sapphire ist es diesmal eine auf Gigabyte gelabelte Karte. Gelabelt deshalb, weil alle Hersteller die fertigen Karten bei AMD einkaufen müssen und selbst keinen Einfluss auf die Verarbeitungsqualität haben. Das schreiben wir an dieser Stelle deshalb so deutlich und an exponierter Stelle vorab, weil keinen der jeweiligen Bord-Partner eine Schuld trifft, wenn mit der Karte etwas nicht stimmt. So in diesem Falle auch Gigabyte, denn auf persönliche Rückfrage in Taiwan wurde uns bestätigt, dass an der Karte nichts geändert worden sei. Warum wir überhaupt so weit ausholen, klärt sich gleich.

Um die eingangs zum Gegenstand des Artikels gemachten beiden Fragen zu beantworten, haben wir die Karte zunächst vorsichtig “geschlachtet”. Nach dem Abnehmen des original verschraubten Kühlers bot sich uns folgendes Bild:

Sowohl der Chip als auch der Heatsink waren mit Wärmeleitpaste nur so zugespachtelt. Das solche Massen nicht wirklich produktiv und effizient sind, wissen wir spätestens seit unserem Wärmeleitpasten-Tutorial. Anlass genug, um das hier Gesehene mit einem leichten Stirnrunzeln zu quittieren.

Die verwendete Paste haben wir übrigens sorgfältig eingesammelt und zusammen mit den Resten der anderen Karten für einen gelegentlichen Test in unserem Wärmeleitpasten-Setup zu verwenden. Die Menge von nur zwei Karten reicht nämlich bereits, um eine ganze CPU zu bekleistern. Außerdem widersprechen Art und Menge des Auftrags einer Massenproduktion. Das stützt unserer Meinung nach die Annahme, dass die Radeon R9 290X eben nicht aus der Massenproduktion stammt, sondern in einer kleineren Serie von Hand assembliert wird – denn dazu gehört auch das Auftragen der Wärmeleitpaste.

Ein wenig geschockt waren wir allerdings schon, nachdem wir den Heatsink von den Überresten der grauen Tortenschlacht befreit hatte. Der Blick fällt nämlich auf eine nicht sonderlich ebene und vor allem total zerkratzte Oberfläche. Sieht so ein fachmännisch montierter und vor allem fabrikneuer Kühler aus?

Wenn man sich die Scharten im Detail betrachtet, dann sieht die Platte fast aus wie ein frisch umgegrabener Acker. Betrachten wir auch dies noch einmal im Detail, denn Montage- und Druckspuren sehen wirklich anders aus:

Die mittlerweile gereinigte GPU hingegen kann aufatmen und wartet auf eine neue Beschichtung. Unsere Wärmeleitpasten-Charts zeigen uns eigentlich zwei bis drei Performance-Favoriten, wobei die IC Diamond 24 mit Sicherheit leistungsmäßig außerhalb jeglicher Kritik stehen sollte. Allerdings hatten wir sowieso vor, die Ergebnisse noch mit einem zweiten und dritten Umbau zu verifizieren.

Die beim zweiten Durchlauf verwendete Gelid GC Extreme schnitt nämlich genauso gut ab, kostet zudem wesentlich weniger und lässt sich besser auftragen. Das gilt auch für die Cooler Master X1 Extreme Fusion aus dem dritten Umbau, wobei alle 3 Pasten auf ungefähr gleich hohem Level agierten. Direkte Temperaturunterschiede findet man beim Referenzmodell auf Grund der hohen Target-Temperatur ja keine, jedoch waren Leistungsaufnahme und Performance in etwa gleich. Alle nachfolgenden Messungen beruhen übrigens auf dem zweiten Test mit der Gelid GC-Extreme.

Temperaturverlauf

Der Unterschied ist deutlich sichtbar: Die Karte rennt nicht schon nach 60 Sekunden, sondern erst nach drei Minuten in den Limiter, weil die 94°C erreicht sind. Und der Umstieg ist auch im Kleinen vorteilhaft, weil Power Tune nicht ganz so restriktiv eingreifen muss.

Dass dies so ist und sich anhand der Leistungsaufnahme sogar extrem deutlich belegen lässt, sehen wir auf der nächsten Seite und später noch viel eindrucksvoller in der Effizienzbetrachtung.

Wichtige Anmerkung

Der gesamte Test wurde im Quiet-Mode durchgeführt, da der Uber-Mode einfach nicht für eines ganzen Arbeitstages zu ertragen ist. Volle sechs Stunden Test sind mit so einer Karte dann einfach nicht mehr realisierbar – auch nicht durch Igor, unseren Benchmark-Felsen in der Grafik-Brandung.

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen