Monat: Juli 2012

Spätestens seit Apples MacBook Air steht Intel in der Pflicht, PC-Herstellern bei der Entwicklung von vergleichbar dünnen, leichten und zugleich leistungsstarken Notebooks zu helfen. Bis jetzt sind sie damit noch nicht sonderlich weit gekommen, und der Grund liegt auf der Hand: Die Ultrabooks, die wir bisher in den Händen hatten, sind in keinem Bereich besser als der Titelverteidiger von Apple. Noch dazu sind sie immer noch teuer. Jeder möchte doch heute schlanke Hardware für unterwegs – keiner aber möchte für mittelmäßige Performance mehr bezahlen, nur weil sie der Hersteller schöner und kleiner verpackt. Und so warten wir immer noch auf einen ernst zu nehmender Herausforderer, der rundum überzeugen kann.

Dünne und leichte Notebooks, die es schon vor Intels Ultrabooks gab, hatten in der Regel 11″- oder 13″-Displays, ULV-Prozessoren mit ultraniedriger Betriebsspannung und integrierte Grafik. Der Schwerpunkt lag dabei immer darauf, den Energieverbrauch zu senken, damit neben einer attraktiven Form des Notebooks auch eine ausreichende Batterielaufzeit erreicht wurde. Das ging in der Regel stets auf Kosten der Performance.

Das erste MacBook Air kam vor mehr als vier Jahren auf den Markt und lief mit einem Core 2 Duo-Prozessor und später mit einem Grafikchip von Nvidia. Mit der im letzten Jahr vorgestellten Sandy-Bridge-Architektur wurden auf einen Schlag dünne Geräte mit deutlich mehr Performance und längerer Akkulaufzeit möglich. Für einen Preisrutsch sorgte das bisher leider noch nicht. Die Ultrabooks der ersten Generation mussten per Intel-Dekret mit Sandy-Bridge- CPUs der 17-Watt-Klasse ausgestattet werden und lieferten Batterielaufzeiten von mehr als 5 Stunden, kosteten aber selbst im günstigsten Fall mindestens 600 bis 700 Euro.

Wenn wir nur auf x86-Performance blicken, ist Intels Ivy Bridge ohne Zweifel gegenüber Sandy Bridge nur ein evolutionärer Schritt nach vorn. Doch der 22-nm-Herstellungsprozess erlaubt es, trotz gleich gebliebener TDP von 17 Watt eine deutlich kräftigere Grafikeinheit zu verbauen. Intel geht daher davon aus, dass die zweite Generation der Ultrabooks jetzt den Mainstream-Markt für kleinere und schnellere Geräte erobern wird. Lenovos IdeaPad U310 (mit einem Core i3-3317U) findet man beispielsweise im Online-Handel bereits ab 655 Euro – bedenkt man, wie jung die mobilen Ivy-Bridge-CPUs noch sind, ist das viel versprechend.

Mobile Ivy Bridge heute: Dual-Cores mit 35W und 17W

Schon mit Sandy-Bridge-CPUs erreichte Intel schon die TDP-Bereiche 17W, 25W und 35W. Um sich aber auch wirklich Ultrabook nennen zu dürfen, musste im Innern schon ein CULV-Modell mit 17-Watt-TDP stecken, wobei CULV für Consumer Ultra-Low Voltage steht. Das gilt ebenso für die zweite Ultrabook-Generation . Doch während Sandy Bridge in 32 nm gefertigt wurde, nutzt Intel bei Ivy Bridge kleinere 22-nm-Strukturen und kann so auf gleichem Raum mehr Transistoren unterbringen. Zu einem großen Teil hat Intel diese in die GPU investiert.

Mobile Core-CPUs der dritten Generation: Dual Core Prozessoren
Modellnummer Cores / Threads Basistakt CPU Max. CPU-Turbo L3-
Cache
HD Graphics Basistakt GPU Max.
GPU-Turbo
TDP (W) Preis*
Core i7
-3667U 2/4 2,0 GHz 3,2 GHz 4 MB 4000 350 MHz 1,15 GHz 17 $346
-3520M 2/4
2,9 GHz
3,6 GHz
4 MB
4000
650 MHz
1,25 GHz
35
$346
-3517U 2/4 1,9 GHz 3,0 GHz 4 MB 4000 350 MHz 1,15 GHz 17 ?
Core i5
-3427U 2/4 1,8 GHz 2,8 GHz
3 MB
4000 350 MHz 1,15 GHz 17 $225
-3360M 2/4
2,8 GHz
3,5 GHz
3 MB
4000
650 MHz
1,20 GHz
35
$266
-3320M 2/4
2,6 GHz
3,3 GHz
3 MB
4000
650 MHz
1,20 GHz
35
$225
-3317U 2/4 1,7 GHz 2,6 GHz 3 MB 4000 350 MHz 1,05 GHz 17 ?
-3210M 2/4
2,5 GHz
3,1 GHz
3 MB
4000
650 MHz
1,10 GHz
35
?

*Intel gibt die offiziellen Preise nur in Dollar an.

Die Modelle Core i5-3667U, -3517U, -3427U, und -3317U sind für uns am interessantesten, weil sie die einzigen Ivy-Bridge-CPUs sind, die Intels Ultrabook-Spezifikation erfüllen (thermische Verlustleistung bis maximal 17W). Um das zu erreichen, muss Intel allerdings an einigen Stellschrauben drehen. Verglichen mit einem Core i7-3720QM, der in einem normal großen Notebook besser aufgehoben ist, müssen die ULV-Versionen auf zwei CPU-Kerne und rund die Hälfte des L3-Caches verzichten. Zudem fällt der Basistakt der GPU deutlich niedriger aus.

Zum Glück ändert sich der Maximaltaktbei der Grafikeinheit nicht nennenswert. Während die mobilen Ivy-Bridge-Prozessoren der 45-Watt-Klasse ihre HD Graphics 4000 bis auf 1,3 GHz bringen, ist bei den 17W-Modellen bei 1,15 GHz Schluss – übrigens genau die GPU-Geschwindigkeit, die ein Core i7-3770K auf dem Desktop erreicht. Da Hyper-Threading aktiv ist, können bis zu vier Threads gleichzeitig laufen.

Das Namensschema bei Mobile Ivy Bridge

Intel ordnet jeder Stelle in der Modellbezeichnung seiner CPUs eine bestimmte Bedeutung zu: Die erste Stelle, in diesem Fall die 3, weist auf die Ivy Bridge-Architektur hin, also auf Intels Core-CPUs der dritten Generation, wie sie offiziell heißen. Ein angehängtes M steht für Modelle mit Standardspannung, also 35W. Modelle, die auf Performance hin ausgerichtet sind, tragen die Bezeichnungen XM oder QM. Dazu zählen die Quad-Cores und die Extreme Editions.

Sandy-Bridge-Modelle, deren Modellnummer auf 9 endete, waren Low-Voltage-Bauteile (LV). Die 17-Watt-Varianten (ULV für ultra-low-voltage) endeten auf 7. Aktuell gibt es keine Ivy Bridge-basierten CPUs mit 25W, dafür aber noch weitere 17-Watt-Prozessoren mit dem Modellnamen xxx7U.

Wir haben über die Architektur und den Chipsatz-Unterbau von Ivy Bridge bereits in unserem Launch-Artikel Intel Core i7-3770K im Test: Wie Sandy Bridge, nur etwas mehr berichtet. Im wesentlich gibt profitieren Intels neue Chipsätze der 7-Serie von drei Neuerungen: die Unterstützung von nativem USB 3.0, die Möglichkeit, bis zu drei Displays gleichzeitig anzusteuern, und die Option, einen Thunderbolt-Controller anzuschließen.

Von den dreien ist die Multi-Monitor-Funktionalität vermutlich die interessanteste, denn damit gehört die Beschränkung auf nur ein externes Display auch endlich bei Intel-Notebooks mit integrierter Grafik der Vergangenheit an. Ivy-Bridge-CPUs können also neben dem eingebauten Panel noch zwei weitere angeschlossene Displays antreiben.

Intels Ivy Bridge-basiertes Referenz-Ultrabook in der Praxis

Intel ist natürlich bestrebt, möglichst bald das volle Potential der 2012er-Ultrabooks unter Beweis zu stellen, und so schickte man uns ein von Intel-Ingenieuren entwickeltes Referenz-Design um zu zeigen, was Hersteller aus dieser Plattform machen können. Intel versucht zwar, einige der Unzulänglichkeiten damit zu entschuldigen, dass das Produkt in der gegenwärtigen Form den Einzelhandel nicht erreichen wird, aber dennoch ist dieses Proto-Ultrabook hinreichend dünn, leicht und schnell genug, um als „echtes“ Ultrabook durchzugehen

Intel stattete unser Testgerät mit einem Core i5-3427U Dual-Core-Prozessor (1,6 GHz), 4 GB Speicher und einer 240 GB SSD aus. Alle Features einer Ivy Bridge nutzt dieses Gerät noch gar nicht: So gibt es z.B. nur einen HDMI-Ausgang, aber immerhin zwei USB 3.0 Schnittstellen, einen Kopfhörerausgang und einen Kartenleser. Mit einer Auflösung von 1600×900 ist das Display eine leichte Verbesserung gegenüber Apples 1440×900, die das aktuelle MacBook Air zeigt. Vermutlich werden aber nicht alle Hersteller diese bessere Auflösung anbieten.

Intels Ultrabook der zweiten Generation im Test

Um einige der Variablen auszuschließen, die unsere Resultate potentiell verfälschen könnten, testen wir mit einem externen Display anstelle des eingebauten: Das LCD eines Notebooks kann schnell einmal die Hälfte des gesamten Energieverbrauchs ausmachen. Individuelle Einstellungen andererseits bringen ebenfalls die Ergebnisse durcheinander, besonders wenn es sich um ein Referenzgerät handelt, das nicht für den Einzelhandel bestimmt ist. Mit einem externen Bildschirm können wir den Energieverbrauch genauer präzisieren und so konkrete Rückschlüsse auf die verbaute Hardware ziehen.

Es überraschte kaum, dass Intel das Referenz-Ultrabook mit einer der hauseigenen SSD 520 ausstattete. Wir entschlossen uns, mit einer 256 GB großen Crucial  m4zu testen, da wir diese SSD auch in unserem Test von leistungsstärkeren Ivy Bridge-Modellen verwendeten und die Ergebnisse miteinander vergleichen wollten.

Alle Netzwerk-Test liefen über unser LAN, um die Leistungsunterschiede verschiedener drahtloser Lösungen zu eliminieren.

Test Hardware: Mobile Systeme
Prozessoren Intel Core i5-2467M (Dual-Core, 1,8 GHz) Intel Core i5-3427U (Dual-Core, 1,6 GHz) Intel Core i7-2820QM (Quad-Core, 2,3 GHz) Intel Core i7-3720QM (Quad-Core, 2,6 GHz)
Arbeitsspeicher 4 GB DDR3-1333 4 GB DDR3-1600 8 GB DDR3-1333 8 GB DDR3-1600
Grafiklösung HD Graphics 3000 HD Graphics 4000 HD Graphics 3000 HD Graphics 4000
 GeForce GT 630M
Notebook Acer S3-951-6828 Intel Reference Design
Unknown Clevo model Asus N56Vm
Systemlaufwerk Crucial m4 256 GB SATA 6Gb/s
DirectX DirectX 11
Betriebssystem Windows 7 Ultimate 64-bit
Grafiktreiber Intel 8.15.10.2725 Intel 8.15.10.2725 Intel 8.15.10.2725 Intel 8.15.10.2725
Nvidia 301.24

In den vergangen beiden Roundups haben wir uns mit günstigen Kühlern der Sub-20- und Sub-30-Euroklasse beschäftigt. Unser Fazit: Für den Alltagsgebrauch ausreichend, unter Volllast kommen die meisten jedoch an ihre Grenzen und müssen ihre Lüfter voll aufdrehen. Dann wird es oft recht laut. Wer einen Kühler sucht, der höchsten Anforderungen gelassener gegenüber steht, der muss tiefer in die Tasche greifen und nach einem Oberklasse-Kühler Ausschau halten. Wir haben die Hersteller gebeten, den ihrer Meinung nach auf diese Beschreibung am besten passenden Turmkühler zum Test einzusenden. Warum Turmkühler? Zum einen, weil das die aktuell am meisten verbreitete Kühlergattung im Nachrüstbereich ist, zum anderen weil wir Top- bzw. Down-Blower im nächsten Roundup unter die Lupe nehmen werden.

Einer der Testkandidaten: Xigmatek Prime SD1484Einer der Testkandidaten: Xigmatek Prime SD1484
Rechtzeitig in unserem Testlabor eingetroffen sind der Dark Rock 2 von be quiet!, der EKL Alpenföhn Himalaya, der Noctua NH-U9B in der Special Edition SE2, der Black Megahalems von Prolimatech, der Frio Advanced von Thermaltake und der Xigmatek Prime SD1484. Die Preisspanne der sechs Oberklasse-Turmkühler reicht bei den einschlägigen Online-Versendern von gut 40 Euro bis knapp 50 Euro. Letztlich spielen alle Kühler dieses Roundups preislich also in derselben Liga. Das heißt aber noch lange nicht, dass sich die Kühler untereinander gleichen wie ein Ei dem anderen. Im Gegenteil: Der Noctua-Kühler beispielsweise nimmt sich als echter „Zwerg“ gegenüber den anderen Testkandidaten aus. Auch bei der Technologie der Bodenplatte unterscheiden sich die Turmkühler, ebenso bei der Lüfterausstattung. Und natürlich wird auch das Thema Montage von jedem Hersteller anders interpretiert.

So wie jedes Rechner-Equipment zieht auch eine Tastatur unvermeidlich Staub an. Sitzt man häufig am PC, bleibt es aber meistens nicht bei der ein oder anderen Fluse, denn durch die regelmäßige Berührung gelangen noch diverse andere Ablagerungen auf das Eingabegerät. Dabei reicht es schon, wenn man verschwitzte Hände hat oder zuvor die lecker Schokolade eingeworfen hat, deren Rückstände noch an den Fingern haften – mit der Zeit bildet sich eine Patina auf der Tastatur, besonders ausgeprägt auf den häufig gedrückten Tasten. Wer Mahlzeiten direkt am PC einnimmt, etwa aus Zeitgründen oder einfach deshalb, weil man sich gerade möglichst wenig vom Rechner wegbewegen will, handelt seiner Tastatur zusätzliche Krümel ein, die auf oder zwischen die Tasten segeln. Bei der Aufzählung dürfen auch Missgeschicke wie verschüttete Getränke nicht fehlen, die der Tastaturhygiene einen herben Schlag versetzen können.

Um den gesammelten Dreck wieder loszuwerden, bieten sich viele Mittel an, angefangen beim feuchten Tuch, um die Tasten abzuwischen, die Schnellreinigung per Staubsauger oder ein Kopfstand für die Tastatur, um versteckte Krümel hervorzuholen. Als Beispiel für verschmutzte PC-Eingabegeräte könnte man freilich auch die Maus nehmen, doch wegen ihrer vielen Zwischenräume und für Putzlappen oder Staubsauger schwer zugänglichlichen Stellen ist die Tastatur eine besondere Herausforderung. Genau dafür soll sich mit CyberClean als ein weiteres Reinigungsmittel bestens eignen.

Die laut Packungsaufdruck patentierte, “Schmutz absorbierende High-Tech Reinigungsmasse” CyberClean soll selbst diejenigen Zwischenräume sauberbekommen, bei denen übliche Reinigungsmittel und -methoden versagen. Gleichzeitig will CyberClean die Geräteoberfläche von Keimen befreien. Den Profischrubber muss man laut Bedienungsanleitung lediglich aufdrücken, anschließend seitlich abziehen und darf sich anschließend wieder über saubere Geräte freuen. Ob sich die vollmundigen Versprechen auch in der Praxis bewahrheiten, haben wir gleich an mehreren harten Nüssen getestet, den Tastaturen von zwei Testrechnern und der eines unserer täglich genutzten Notebooks.

Sagt man “Gaming-PC”, dann denkt man gemeinhin an einen bis auf die Zähne hochgerüsteten Tower mit High-End-Prozessor und ebenso potenter Grafiklösung. Die Vokabel “Gaming-Notebook” ruft Assoziationen an gleichsam kräftig ausgestattete tragbare, wenngleich nicht wirklich mobile Rechner mit Bildschirmdiagonalen von mindestens 15 Zoll hervor. Doch wer sagt, dass ein Gaming-Notebook groß sein muss?

Mit dem Kauf von Alienware hat sich Dell neben Gaming-Know-How auch eine bekannte Marke gesichert, und die M-Serie darf wohl im Consumer-Bereich als die am besten ausgestattete und klar auf Gaming ausgerichtete Produktreihe gelten. Das drückt sich neben dem Styling auch in einigen Lösungen und der wählbaren Ausstattung aus – und schlägt sich am Ende bei entsprechender Konfiguration auch im Preis nieder. Groß kann wie erwähnt jeder, doch das M14x R2 zeigt mit seinen 14 Zoll, dass man auch auf kleinem Raum viel Spielspaß unterbringen kann. Früher ging es sogar noch kleiner, doch das M11x hat Dell inzwischen auslaufen lassen.

Genau diese Lücke füllt Schenker mit dem XMG A102 sehr geschickt, und das zu einem durchaus akzeptablen Preis, wenn man Konfiguration, Leistung und Größe ins Verhältnis setzt. Auf den ersten Blick würde der Schenkers kleiner Gamer als leicht übergewichtiges Netbook durchgehen, kann aber in der getesteten Ausstattung auch manchen Desktop vor Neid erblassen lassen.

So viel zu den Rahmenbedingungen. Bleibt die Frage zu klären: Geht Gaming bis 14 Zoll wirklich, oder muss man zu viele Kompromisse eingehen?

Preislich gesehen, ist die derzeit ca. 290 Euro teure MSI 7870 Hawk kaum 10 Euro billiger, als die HD 7950 TwinFrozr aus dem gleichen Haus, die allerdings nur mit 880 MHz getaktet ist, aber ebenfalls noch ein erhebliches Übertaktungspotential besitzt. Leistungsmäßig sollten sich beide Karten auf dem Niveau des geweils festgelegten Werkstakts nichts nehmen, wobei dies natürlich auf Grund der unterschiedlichen Architekturen der Karten auch variieren kann. Die ab Werk mehr oder weniger stark übertakteten Hawk-Modelle der oberen Mittelklasse (wie z.B. die geradezu legendäre GTX 460 Hawk) besaßen bis jetzt ja überwiegend einen sehr guten Ruf, so das ein Test sicher auch dieses Mal von Interesse sein dürfte.

Lohnt sich die kleinere, übertaktete Karte gegenüber der größeren Schwester? Schaun wir mal, ob wir den 10 Euro Unterschied einen größeren Vorteil abgewinnen können…

2,5-Zoll-Festplatten sind zwar konstruktionsbedingt langsamer als ihre 3,5-Zoll-Kollegen, doch sie haben nicht nur in punkto Kapazität ordentlich aufgeholt. Durch die gestiegene Speicherdichte hat sich auch die Geschwindigkeit der kleinen Laufwerke erhöht. Wie der Vergleichstest zeigt, erreichen mittlerweile selbst Laufwerke, die vorrangig als leise und energiesparende Laufwerke angeboten werden, sequenzielle Transferraten von mehr als 85 MB/s, auf Performance ausgelegte Festplatten sogar schon knapp unter 100 MB/s.

Wir haben unseren Vergleichstest der 2,5-Zoll-Festplatten um vier neue Laufwerke erweitert: Hitachi Travelstar 7K750, Hitachi Travelstar 5K1000, Toshiba MQ01ABD100 und Western Digital Scorpio Blue WD5000LPVT. Dabei ist die Travelstar 7K750 auf Performance ausgelegt, während die Travelstar 5K1000 sowie die Laufwerke von Toshiba und Western Digital “grüne” Tugenden wie ein leises Betriebsgeräusch und eine geringe Leistungsaufnahme mindestens so hoch wie den reinen Datendurchsatz einschätzen.

Die Rechenlast, die Videobearbeitung verursachen kann, ist ja unrühmlich bekannt: Schon ein paar 1080p-Videosequenzen und ein oder zwei Filter bringen die CPU-Last in vielen Systemen auf 100%. Dass auch die Bearbeitung von Digitalphotos eine hohe Rechenlast verursachen kann, ist schon weniger Anwendern bewusst. Wenn man nur ein 8-Megapixel-Digitalfoto mittels eines Sepiafilters auf alt trimmen will, ist das noch kein großes Drama, aber wie sieht es aus, wenn man ein RAW-Foto mit 18 Megapixeln gezielt unscharf rechnen will?

Selbst wenn Fotobearbeitung ihren Rechner nicht auf Stunden lahmlegen wird, können manche Bearbeitungsvorgänge trotzdem unangenehm lang dauern, insbesondere wenn man eine ganze Fotostrecke automatisiert bearbeiten will. Je länger der Bearbeitungsvorgang dauert, desto länger muss man auf das Ergebnis warten, und insbesondere für Profi-Fotographen ist Zeit ja Geld. Gerade bei kreativer Tätigkeit führen Verzögerungen ja oft auch zu Ablenkungen – die Gedanken wandern und man fragt sich dann gelegentlich, was man eigentlich machen wollte. Im Idealfall sollte man eine kreative Idee nach der anderen sofort ohne Verzögerung umsetzen können.

Diese Problematik ist auch den Herstellern von Bildbearbeitungsprogrammen nicht entgangen und sie versuchen, Wege zu finden, auch rechenaufwändige Bearbeitungsvorgänge rasant abzuwickeln. In früheren Artikeln haben wir diskutiert, wie moderne Grafikprozessoren (GPUs) mit Hilfe von standardisierten APIs Videonachbearbeitung und Computerspiele beschleunigen können. Ähnliches wird jetzt zunehmend auch bei der Fotonachbearbeitung praktiziert.

Um nur ein Beispiel zu nennen: Die Firma Adobe verwendet schon seit vielen Jahren Hardwarebeschleunigung für die Bildbearbeitung. Schon die Version CS4 von Photoshop kann OpenGL verwenden, um manche Bearbeitungsvorgänge zu beschleunigen, und in jedem neuen Release ist die Palette der beschleunigten Funktionen stetig gewachsen. Die Version CS6 kann nunmehr auch OpenCL verwenden und dadurch eine noch größere Anzahl von Funktionen beschleunigen.

Aber nicht nur Adobe ist auf den GPU-Zug aufgesprungen. Ein kleines, aber feines Bildbearbeitungsprogramm namens Musemage verwendet ebenfalls OpenGL und OpenCL durch die Bank in allen Bearbeitungsschritten. Das deutlich bekanntere Open-Source-Programm GIMP verwendet diese GPU-APIs mittlerweile ebenfalls für einige Bearbeitungsfunktionen. Zu guter Letzt haben wir von Corel eine Vorabversion von AfterShot Pro bekommen, die speziell für diesen Test den noch in der Qualitätssicherungsphase befindlichen OpenCL-Support freigeschaltet hat.

Wir testen diese Programme auf fünf verschiedenen Systemkonfigurationen und versuchen, aus den Benchmarkergebnissen einige allgemein gültige Tatsachen und Empfehlungen herauszudestillieren. Wie stark kann ein Grafikkarten-API einen Bildbearbeitungsalgorithmus wirklich beschleunigen? Macht es einen großen Unterschied, ob man eine APU oder eine GPU-Slotkarte einsetzt? Skaliert die resultierende Beschleunigung mit der Grafikleistung deutlich oder nur ein bisschen? Wir sind gespannt, die Antworten auf diese Fragen zu finden.

Vor etwas mehr als zwei Jahren hatten wir die ersten NAS-Geräte mit Intels Dual-Core Atom-CPU D510 im Test. Qnap TS-459 Pro und Thecus N4200 zeigten damals, dass die dritte Generation der Atom-CPUs eine solide Basis für NAS-Geräte ist und sich damit auch höhere Datenübertragungsraten im Netzwerk realisieren lassen als z.B. mit einem damals gängigen Marvell Kirkwood mv6281 ARM-Prozessor oder einer Freescale MPC8533 CPU (PPC-Architektur).

Bei der weiteren Entwicklung der Atom-Prozessoren vom Intel Atom D510 zum Intel Atom D525 war unsere Begeisterung geringer. Wie sich bei einem Vergleich der Qnap-Geräte TS-559 Pro (Atom D510) und TS-559 Pro+ (Atom D525) zeigte, ergaben sich durch den neuen Prozessor nur marginale Geschwindigkeitsvorteile bei den Datenübertragungsraten.

Die Entwicklung bleibt aber nicht stehen, und bei Intel hat man Ende 2011 die Atom-Prozessoren der Cedarview-Serie präsentiert. Im Unterschied zu den Pineview-Prozessoren D510 und D525, deren Herstellung noch im 45-nm-Verfahren stattfand, werden Cedarview-CPUs nun in 32 nm gefertigt. Hierdurch sank die maximale TDP von 13 Watt (Pineview) auf 10 Watt (Cedarview), und die Modelle N2600, N2800 und D2700 haben den Grafikkern GMA 3650 spendiert bekommen. Vor allem der Intel Atom D2700 wird aufgrund seiner hohen Taktrate von 2,13 GHz gerne in NAS-Geräten eingesetzt, und so mancher NAS-Hersteller nutzt den integrierten Grafikkern auch und stattet das Gerät mit einer HDMI-Schnittstelle aus. Ob dies bei einem NAS-Gerät sinnvoll ist oder nicht, das sei hier einmal dahingestellt. War zudem die Verwendung von DDR3-Speicher beim Atom D525 noch optional, so ist dies bei Cedarview-Prozessoren nun ein Muss.

Für aktuelle Produkte von NAS-Herstellern wie Synology und Thecus bedeutet dies, dass man sich vom Atom D525 mehr oder weniger verabschiedet und nun den Atom D2700 einsetzt. Kurioses Detail am Rande: Intel hat zwischenzeitlich den im 3. Quartal des letzten Jahres vorgestellten Atom D2700 abgekündigt, während der ältere Atom D525 auch noch weiterhin verfügbar ist.

Stellt sich die Frage ob sich für die Hersteller und vor allem die Kunden der Umstieg von D525 auf D2700 lohnt. Stellvertretend für Geräte mit Atom D2700 CPU haben wir uns das Synology DS412+ sowie das Thecus N4800 ins Labor geholt und einen Blick auf deren Ausstattung, Merkmale und natürlich die Datenübertragungsraten geworfen.

Smartphones haben sich zu alltäglichen Begleitern entwickelt, die nicht nur Kommunikations- sondern auch Multimedia-Anwendungen in fast jeder Lebenssituation verfügbar machen können. Dabei geht der Trend zu immer größeren Displays. Sieht man mal vom iPhone 4S ab, dann verfügen die Flaggschiffe aller Hersteller mittlerweile über Bildschirme mit Diagonalen von wenigsten 4,3“. Auch hinsichtlich der Rechenleistung steigt das Niveau im Halbjahrestakt. Dualcore-CPUs gelten heute schon als Standard, Quadcore-Architekturen sind verstärkt auf dem Vormarsch. Damit ist die Leistungsfähigkeit der Hardware, die in einem Smartphone steckt, nicht mehr weit von dem entfernt, was Netbooks oder Einsteiger-Notebooks liefern. Dies schlägt sich jedoch auf den Preis nieder: Schnell muss man für ein Smartphone Preise jenseits der 300 Euro berappen; für ihre Flaggschiffe verlangen Hersteller gern auch weit über 500 Euro.

Doch auch wer nur einen Bruchteil des Geldes ausgeben will, bekommt ein Smartphone, auf dem mit Googles Android sogar das Betriebssystem der Stunde installiert ist. Allerdings sollte dann von vornherein klar sein, dass man längst nicht den gleichen Leistungsumfang erwarten kann. Den benötigen viele Nutzer jedoch auch nicht. In vielen Fällen geht es darum, mit einem Smartphone auf die zusätzlichen Kommunikationskanäle wie Skype, Whatsapp oder Google Talk zugreifen zu können, unterwegs die E-Mails abzurufen, mit praktischen Apps nach der Abfahrtszeit des nächsten Busses zu schauen oder ein Taxi zu finden. Auch für das eine oder andere Spielchen sollte die Power reichen. Nur: Reicht dafür ein Smartphone, dass nicht mehr als 130 € kostet?

Budget-Smartphones: Kompakte Kisten mit viel Plastik

Dass die Hersteller bei günstigen Smartphones bemüht sind, die Herstellungskosten in Grenzen zu halten, wird schon auf den ersten Blick deutlich. Die Displays sind deutlich kompakter geschnitten als bei ihren großen Brüdern, was sich deutlich auf ihre Außenmaße – und so manchen Nutzer freuen dürfte. Denn während man schon Mühe hat, manchen Boliden problemlos in Hosen- oder Jackentasche unterzubringen, können die knapp geschnittenen Gehäuse der Einsteigergeräte hinsichtlich ihrer Mobilität durchaus gefallen und stellen auch kleinere Frauenhänden nicht vor unlösbare Aufgaben – zudem liegen sie gut in der Hand.

So misst das HTC Explorer gerade einmal 102,8 x 57,2 mm und gefällt zudem mit einem Gewicht von nur 108 g. Mit 12,9 mm ist das kleinste der HTC-Smartphones allerdings schon recht hoch. Auch bei der Verarbeitung ist nicht alles Gold was glänzt. Zwar weiß das Explorer optisch zu gefallen und präsentiert sich in einem ansprechenden Gewand, das versucht die Vorzüge der kompakten Bauform nach außen zu tragen, doch knarzt der Deckel, der das Smartphone umschließt, an den Seiten schon bei leichtem Druck.

Nur wenig anders als das HTC Explorer, von seinen Außenmaßen besehen, ist das LG Optimus L3; die Länge von 102,6 mm ist praktisch identisch. Auch die mit 11,7 mm einen Millimeter geringere Bauhöhe bemerkt man in der Hand kaum. Lediglich die um 5 mm größere Breite (61,6 mm) lässt sich in der Hand spüren, ohne dass sie dabei stört. Das Gewicht von 103 g ist ebenfalls ähnlich gering. Im Gegensatz zum HTC Explorer finden sich beim L3 keine Kritikpunkte bei der Verarbeitung. Zwar kommt auch hier als Material ausschließlich Plastik zum Einsatz, das Gehäuse gibt aber auch bei größerem Druck keinen Mucks von sich. Optisch wirkt das Smartphone allerdings recht bieder, was von den verchromten Seiten geradezu unterstrichen wird. Zudem erscheint die Lautstärkewippe wenig liebevoll ausgeführt.

Die optische Langweile wird vom Huawei Ascend Y200 noch einmal deutlich gesteigert: Eine dröge schwarze Kiste, die heutzutage kaum Emotionen auszulösen vermag. Im Gegensatz zu den beiden ersten Smartphones ist es zudem deutlich größer. Zwar sind die Gerätebreite und -höhe mit 61,5 mm bzw. 11,7 mm fast identisch zu den Maßen des LG Optimus L3. Mit einer Gesamtlänge von 117 mm weißt das Smartphone jedoch daraufhin, dass hier ein etwas größeres Display als bei der Konkurrenz  zum Einsatz kommt. Außerdem ist das Gewicht mit 125 g schon recht hoch. Insgesamt hält man dennoch ein wertig verarbeitetes Smartphone in den Händen.

Turbinen-Look und Turbo-ModusTurbinen-Look und Turbo-Modus

Es gibt sie ja doch noch, die Grafikkarten, die auch optisch und technisch gleichermaßen auffallen. Man kann das Rad zwar nicht neu erfinden, wohl aber über die Reifen, die eine oder andere Leistungssteigerung erreichen. Diese Erkenntnis dürfte wohl auch Gigabyte dazu bewogen haben, das Kühlprinzip im wahrsten Sinne des Wortes einfach einmal auf den Kopf zu stellen. Mit der neuen Windforce-5X-Kühlung will man die Abwärme konsequent vom Mainboard weg zur Oberkante der Platte führen, um sie dann dort über (hoffentlich vorhandene, weil zwingend notwendige) Öffnungen in der Gehäuse-Seitenwand in die Umwelt zu entlassen. Interessant ist diese Lösung nicht nur wegen der versprochenen thermischen Entlastung des Innenlebens, sondern auch wegen der Art der technischen Umsetzung. Schließlich lassen sich ja keine Lüfter mit großem Durchmesser verwenden, und der benötigte Ansaugdruck muss bandförmig über die gesamte Länge des Kaminkühlers oberhalb der Karte erzeugt werden.

Blick von oben auf die 5 ansaugenden 4cm-LüfterBlick von oben auf die 5 ansaugenden 4cm-Lüfter

Uns interessieren nun im Detail gleichzeitig 3 Dinge: wie laut, wie kühl und wie schnell agiert diese Karte. Die Befürchtung, die 5 kleinen Lüfter, könnten das Inferno eines Hurrikans noch übertreffen, haben sich in Gänze nicht bewahrheitet. Trotzdem mussten wir auch diesmal Hand anlegen, um eine optimales Ergebnis zu erhalten. Ob es sich gelohnt hat, wird nun der Test auf den nachfolgenden Seiten zeigen.

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen