Monat: November 2010

Mit Lian Li asoziiert man von jeher eine ganz bestimmte Sorte Gehäuse. Sachliche, formschöne und in Ihrer Eleganz und Anmutung einzigartige Produkte, die im mittleren und oberen Preissegment angesiedelt sind. Wer käme da schon auf den Gedanken, fast schon majestätsbeleidigend Hand anzulegen und so eine Stilikone zu modden? Wenn aber nun Lian Li selbst so ein Case mit Window-Kit auf den Markt bringt, dann provoziert das Bastlerhände wohl in gleichem Maße, als würde Mercedes-Benz den Kofferaumdeckel der S-Klasse bereits mit vorgebohrten Öffnungen für schwergewichtige Spoiler versehen. Da wir natürlich am eigentlichen Äußeren nichts verbessern können und wollen, haben wir uns diesmal, auch im Hinblick auf die üblichen Illuminationen rund um den Weihnachtsbaum, für einen oppulenten Light-Mod entschieden. Sachlichkeit trifft Licht. Völlig ausreichend und zudem auch eine Herausforderung.

Was den Leser erwartet

Wir werden das Gehäuse natülich nicht nur bunt be- sondern auch gründlich durchleuchten. Neben dem Einbau hochwertiger und sehr leistungsfähiger Technik stehen natürlich Handhabbarkeit, Nutzen, Temperaturen und Lautstärke im Mittelpunkt. Nur dass wir am Ende vorm Fazit noch eine LED-Party veranstalten und unserem Affen gewissermaßen vorweihnachtlichen Zucker geben. Vielleicht bekommt der eine oder andere ja noch Lust auf einen Umbau? Warum nicht das Geld statt in eine Tannekieferfichte in ein schönes Moddingprojekt stecken? Denn LEDs nadeln und brennen nicht. Und selbst wenn es triftige Gründe geben sollte, dies dann doch nicht zu tun – wir freuen uns einfach, unseren Lesern zum Jahresende noch einen etwas anderen Test präsentieren zu können, der es diesmal im wahrsten Sinne des Wortes in sich hat.

Samsung und Western Digital bieten jeweils eine, deren Vertreter auf Energieffizienz getrimmt sind. Die Laufwerke sollen deshalb leiser arbeiten als Standardgeräte, dabei weniger Wärme produzieren und trotz „grüner“ Spezialisierung durchwegs flott unterwegs sein. Western Digital führt seine Energiespar-Laufwerke unter der Bezeichnung Caviar Green, bei Samsung heißt die Serie EcoGreen.

Niedrige Drehzahl, hoher Energiespar-Effekt

Auffälligstes Unterscheidungsmerkmal gegenüber herkömmlichen Laufwerken ist die reduzierte Drehzahl: Die Energiespar-Festplatten setzen nicht auf die klassentypischen 7.200 U/Min, sondern arbeiten mit 5.400 U/Min, was in einer geringeren Leistungsaufnahme resultiert. Primäres Einsatzgebiet der „grünen“ Laufwerke sind PC-Umgebungen, in denen ein möglichst geräuscharmer und kühler Betrieb gefragt ist. Die Energiespar-Laufwerke machen sich deshalb vor allem in heimischen Rechnern gut und lohnen sich zudem für Festplatten-Receiver oder NAS-Systeme, die nicht nur im Serverraum, sondern auch auf dem Schreibtisch eine akustisch gute Figur machen sollen.

Im Test: Samsung Spinpoint F4EG HD204UI und Western Digital WD20EARS

Wir haben zwei aktuelle Vertreter der Energiespar-Festplatten unter die Lupe genommen: Mit der Samsung Spinpoint F4EG HD204UI und Western Digital WD20EARS gehen zwei 3,5“-Festplatten ins Rennen, die über jeweils 2 TB Kapazität verfügen. Abgesehen vom Stromspar-Etikett und der reduzierten Drehzahl lesen sich die technischen Daten wie die gewöhnlicher Festplatten: So gehört zum Beispiel ein SATA/300-Anschlusebenso zur Standardausstattung wie Native Command Queueing (NCQ) oder ein mindestens 32 MB großer Cache.

2 TB, 3 Platter, 4 KB große Sektoren

Weil sich allein durch eine reduzierte Drehzahl noch kein Blumentopf gewinnen lässt, setzen beide Laufwerke auf weitere Trumpfkarten. Um die Leistung konkurrenzwürdig zu halten, haben Samsung und WD den Testkandidaten eine hohe Speicherdichte von 667 GB pro Platter spendiert. Beide Laufwerke kommen daher mit nur drei Magnetscheiben aus. Damit können sie pro Umdrehung mehr Daten auslesen oder schreiben als gleich schnell drehende Festplatten, die ihre Bits und Bytes weniger kompakt anordnen. Western Digital zeigt übrigens, dass sich die Speicherdichte noch weiter steigern lässt: Die WD30EZRS ist die erste erhältliche 3-TB-Festplatte und speichert satte 750 GB pro Platter. Wir haben den Speicherriesen bereits getestet.

Mehr Speicherplatz mit Advanced Format

Um die hohe Speicherdichte zu erreichen, nutzen Samsungs Spinpoint F4EG HD204UI und die Western Digital WD20EARS das so genannte Advanced Format (AF). Das setzt auf Sektoren mit 4.096 statt 512 Byte Nutzdaten, wodurch sich die verfügbare Kapazität erhöht. Der Grund: Jeder Sektor einer Festplatte steckt zwischen Datenblöcken mit Synchronisierungs- und Fehlerkorrektur-Informationen (ECC) und ist obendrein noch durch eine Toleranzzone von benachbarten Sektoren getrennt. Mit AF lassen sich pro 4.096-Byte-Abschnitt acht dieser Bereiche einsparen, wobei die ECC-Blöcke den größten Teil davon ausmachen. Insgesamt erhöht sich die verfügbare Speicherkapazität durch das AF laut Herstellerangaben um 7 bis 11 Prozent.

Das Advanced Format sorgt indes nicht nur für Freude. Zwar sind Nutzer von Windows Vista und 7 fein heraus, weil die beiden Betriebssystem-Versionen die größeren Sektoren automatisch unterstützen. Bei einem älteren Betriebssystem wie Windows XP können die 4-KB-Sektoren aber zu Leistungseinbußen führen, wie sich im Test zeigt. Solchen Inkompatibitäten begegnen die Hersteller mit unterschiedlichen Anzätzen.

AF-Hilfsmittel für Betriebssysteme

Bei Western Digital sorgt das Hilfsprogramm WD Align Tool für die passende Sektorierung. Wer die Festplatte unter Windows XP mit nur einer einzigen Partition betreiben will, kann alternativ einen Jumper auf dem WD-Laufwerk umsetzen. Samsung verzichtet auf Hilfsmittel oder Zusatzprogramme und greift dafür zu einem Trick. Die HD204UI verwendet eine 512-KB-Sektor-Emulation, damit auch ältere Betriebssysteme das Laufwerk problemlos einsetzen können.

Auf die Details der Brazos und Zacate Plattformen sind wir bereits in unserem ersten Artikel zu dieser neuen Technologie eingegangen. Heute wollen wir unseren Lesern die Benchmark-Ergebnisse präsentieren. Wer noch keine Zeit für unseren vorherigen Artikel hatte, findet hier eine kurze Zusammenfassung aller Details zu Brazos, Zacate und Ontario:

Bobcat: Der Name der Prozessorarchitektur hinter den künftigen Zacate- und Ontario-APUs von AMD.

Brazos: AMDs Name für die 2011 erscheinenden ULV Zacate/Ontario-APUs und die Hudson-Southbridge. Brazos ist der Nachfolger der im Mai 2010 eingeführten Nile-Plattform.

Test Hardware
CPUs Intel Atom D525 (Dual-Core, 1,8 GHz) Intel Core 2 Duo SU7300 (Dual-Core, 1,3 GHz) Intel Core i3-330UM (Dual-Core, 1,2 GHz)
(simuliert)
Intel Core i3-350M (Dual-Core, 2,26 GHz) Intel Core i3-540M (Dual-Core, 2,53 GHz) AMD Athlon II Neo K125 (Single-Core, 1,7 GHz) AMD E-350 (Dual-Core, 1,6 GHz)
RAM 4 GB DDR3-1066 4 GB DDR2-800 4 GB DDR3-1066 4 GB DDR3-1066 4 GB DDR3-1333 4 GB DDR3-1333 4 GB DDR3-1333
Grafik Nvidia Ion2
Intel GMA 3150
(Optimus)
Intel GMA 4500MHD AMD Radeon HD 5450, 1 GB DDR2
650 MHz/800 MHz
Intel HD Graphics Nvidia Quadro NVS 3100M AMD Radeon HD 4225 AMD Radeon HD 6310
500/1066 MHz
Notebook Asus eeePC 1215N Asus UL20A Desktop System Dell Vostro 3300 Lenovo Thinkpad T510 Asus eeePC 1215T
OS Windows 7 Ultimate 64-bit
DirectX Direct X11
Grafik-
treiber
260.99 (Nvidia)
8.14.10.2117 (Intel)
8. 14.10.2117 8.782 8. 14.10.2226 260.99 8.782 8.789

Da wir es hier mit Notebooks zu tun haben, besteht für uns überwiegend keine Möglichkeit, die Speicher-Timings anzupassen. Bedenkt man, dass Plattformen oftmals mit speziellem, für diese Produktlinie zertifiziertem Speicher angeboten werden, haben wir davon abgesehen die Konfiguration der Speichermodule zu verändern.

Benchmarks und Einstellungen

Video Encoding

Cyberlink MediaExpresso 6

Version: 6.0.1026.32053, Convert 1080p 16 Mb/s H.264 video file to MPEG-2 352×288 6 Mb/s

Anwendungen

WinRAR 3.93

Version 3.93 (64-bit), Benchmark: THG-Workload (334 MB)

Dragon NaturallySpeaking

Version 11.00.200.049, Transcribe Audio 14.1 MB Wav Recording (Duration: 11:12)

Adobe Photoshop CS5 (64-bit) Radial Blur, Shape Blur, Median, Polar Coordinates filters
Norton Antivirus Version: 18.1.0.37, Benchmark: Scan 334 MB Folder of ZIP/RAR compressed files

Synthetik-Benchmarks und Einstellungen

3DMark Vantage

Version: 1.02, GPU and CPU scores

PCMark Vantage

Version: 1.00, System, Memories, TV and Movies, and Productivity benchmarks, Windows Media Player 10.00.00.3646

SiSoftware Sandra 2010

CPU Test=CPU Arithmetic/Multimedia, Memory Test=Bandwidth Benchmark

Spiele
World of Warcraft: Wrath of the Lich King
3.4.0
Fair Quality Setting, No AA / 2xAF, 4xAA / 16xAF, vsync off, 1280×720, 4 minute sequence, Fraps
Aliens vs. Predator Benchmark Ultra High Settings, 4xAA / 16xAF, 1366×768, Built-In Benchmark
DiRT 2 Modified Medium Setting, 2xAA 1366×768, In-Game Benchmark, Steam Version

Nett, aber kein Netbook: Das MacBook Air 11.Nett, aber kein Netbook: Das MacBook Air 11.

Ein Netbook wollte Steve Jobs nie im Apple-Sortiment sehen, doch das, was man mit dem runderneuerten und um ein 11-Zoll-Modell ergänzten MacBook Air abliefert, erinnert sehr stark genau an diese Geräteklasse. Bis auf den Preis, versteht sich. Doch dazu später mehr. Optisch gibt es jedenfalls keinen Zweifel, dass es sich hier um einen Apple-Rechner handelt, und das MacBook Air ist Kreuzung zwischen dem bisherigen Air und den großen MacBook Pros: Flach wie sein Vorgänger, aber mit zusätzlichem USB-Port und dem Glas-Trackpad. Auf den ersten Blick ist es eine geschrumpfte Version des alten MacBook Air, das zudem noch dünner geworden ist.

Die ''Kleinen'' unter sich: MacBook Air 11 und MacBook Pro 13.Die ”Kleinen” unter sich: MacBook Air 11 und MacBook Pro 13.Das komplett aus Aluminium gefertigte und aus einem Stück gearbeitete Chassis ist sehr gut verarbeitet, verwindungsresistent und vor allem sehr leicht. Mitsamt fest verbauter Batterie bringt das MacBook Air (“MBA”) in der 11-Zoll-Variante nur 1.052 Gramm auf die Waage. Das Netzteil wiegt 330 Gramm, sodass beide zusammen so viel wiegen wie manches 10-Zoll-Netbook. Der Deckel profitiert ebenfalls vom Werkstoff, denn er lässt sich obwohl er dünn ist nur sehr wenig verbiegen und ist hart genug, um auch den einen oder anderen Stoß einer harten Kante wegzustecken.

Im Profil wird deutlich, wie schlank das MacBook Air ist.Im Profil wird deutlich, wie schlank das MacBook Air ist.Die mit den ersten MacBooks eingeführte Chiclet-Tastatur findet sich auch hier, und wer diese Art Keyboard mag, wird sich auch am MacBook Air gleich zurecht finden. Das Layout ist Apple-typisch: Die F-Tasten sind primär mit Funktionen wie Helligkeit, Lautstärke, Mediensteuerung und der Exposé-Ansicht belegt, während man sich als PC-Nutzer an eine andere Platzierung der @-Taste gewöhnen muss. Ansonsten ist nur Umlernen bei den Tasten-Shortcuts angesagt. Der Hub ist kurz, der Anschlag knackig. Je nach eigenem Empfinden könnten die Tasten allerdings minimal mehr Widerstand vertragen. Das Tippgefühl der großen MacBook Pros erreicht das Leichtgewicht nicht, kommt ihnen aber sehr, sehr nahe. Auf die beleuchteten Tasten muss man verzichten – die gibt es nur noch in den Pro-Modellen. 

Die Chiclet-Tastatur ist bis auf die fehlende Beleuchtung mit denen der Pro-Modelle identisch.Die Chiclet-Tastatur ist bis auf die fehlende Beleuchtung mit denen der Pro-Modelle identisch.Ebenfalls inzwischen Standard bei Apples Mobilrechnern ist das Trackpad aus Glas. Hier ist die gesamte Eingabefläche gleichzeitig die Maustaste. Das erfordert Umgewöhnung, ist aber nach kurzer Zeit schon sehr eingängig. Extrem praktisch sind auch die Multi-Touch-Gesten: Mit zwei Fingern scrollt man durch vertikales Wischen, mit horizontalem Drei-Finger-Wisch blättert man in Webseiten oder Fotoalben vor oder zurück. Das ist so intuitiv, dass man sich durch die Scroll-Leisten anderer Notebooks schon bald regelrecht behindert fühlt. Die Klassiker wie Drehen und Pinch-Zoom sind selbstverständlich ebenfalls implementiert. Das Trackpad reagiert sehr präzise. Trotz seiner Breite kam es während des Tests nicht ein Mal vor, dass eine versehentliche Berührung durch den Handballen den Cursor verschoben hätte. Insgesamt also keine Kritik an Tastatur und Mausersatz.

Die Besten SSDs im Test

Der SSD-Markt befindet sich seiterhin in heftiger Bewegung und bietet mittlerweile Produkte in einer Preisspanne zwischen 100 Euro und fast 1000 Euro. SSDs in dieser Preiskategorie findet man eine Speicherkapazität zwischen 30 GB und 256 GB. Moderne Laufwerke sind dabei deutlich schneller als jegliche herkömmliche Festplatte und verbessern, wenn als Systemlaufwerk eingesetzt, Reaktionsfreudigkeit und Performance des Systems so deutlich, dass sich kaum ein ernsthafter Anwender der Versuchung entziehen kann.

Gleichzeitig nehmen SSDs weniger Leistung auf als konventionelle Festplatten und sind mechanisch robuster. In diesem Artikel haben wir sieben weitere SSD-Produkte getestet und im Benchmark-Abschnitt insgesamt 24 Laufwerke miteinander verglichen, da es deutliche Unterschiede zwischen den Testkandidaten gibt. Heute neu: AData Nobility N002, Corsair Force F160, Kingston SSDNow V und SSDNow V+, Patriot Inferno und die nagelneue 470-Serie von Samsung.

Der SSD-Markt – Ein Überblick

Viele SSD-Anbieter verwenden die erhältlichen, populären Controller und Architekturen bzw. kaufen fertige Laufwerke und etikettieren diese um. Die Zahl der SSD-Anbieter nimmt stetig zu, da immer mehr Unternehmen sich am wachsenden Markt und dem potenziellen Profiten beteiligen.

Der Großteil der Silizium-Architektur kommt von Indilinx, Intel, JMicron, Marvel, Samsung, Sandforce und Toshiba. Auch Seagate und Western Digital haben mittlerweile Lösungen im Angebot, allerdings spielen diese für die SSD-Welt noch keine entscheidende Rolle. Einige Hersteller von NAND-Flash-Speicher einschließlich Hynix, Intel, Micron, Samsung und Toshiba, aber nur zwei SSD-Hersteller können tatsächlich den gesamten Herstellungsprozess einschließlich Controller-Design, NAND-Flash und Fertigung kontollieren. Das Hauptaugenmerk richtet sich hier auf die Tatsache, dass sie das können; das ist nicht unbedingt immer der Fall.

Controller Sind Wichtig

SSD-Anbieter haben einen gewissen Spielraum für Verbesserungen, so z.B. seitens der Firmware und der Art und Weise, wie verfügbare Flash-Speicher-Kanäle ausgestattet werden. Deshalb ist lediglich eine allgemeine Bewertung möglich, wie die Performance eines SSD-Laufwerks mit dem einen oder anderen Controller aussehen sollte. Allerdings bietet lediglich ein umfassender Produkttest ein entsprechendes Gesamtbild.

Die Leiterplatine der Corsair F160-SSD. Sie basiert auf dem SF-1200-Controller von Sandforce und Intel NAND-Flash-Speicher.

Dabei spielt es eine wichtige Rolle, sich ein wenig auf Controller zu konzentrieren, da in diesem Bereich am meisten Innovation stattfindet. Alle SSD-Anbieter verwenden gleichartige Flash-Speicher. In den letzten Jahren haben die Taktraten zugenommen, aber MLC NAND-Flash-Speicher bringt auch weiterhin zwei Bits pro Zelle unter. Es sind allerdings die Controller, die für die Optimierung von Performance und eine schnellere Interface-Bandbreite verantwortlich sind. Zukünftige Produkte werden aufgrund einer höheren Speicherdichte und größeren Kapazitäten in der Lage sein, mehr als zwei Bits pro Zelle zu speichern. Im Augenblick ist der neue Toggle-Modus DDR NAND-Flash-Speicher von Samsung eine der interessantesten Neuerungen – bei dieser Technologie wird Double-Data-Rate-Technologie auf NAND Flash-Speicher angewandt. Damit kann sich der Durchsatz theoretisch verdoppeln; die Technologie ist mittlerweile auch auf der 470-Serie erhältlich, die wie im heutigen Artikel testen.

Burnout Syndrom oder Neuanfang? Ausgebrannt oder überraschend anders? Das werden sich wohl auch die Verantwortlichen von EA Games gedacht haben, als sie mit Criterion die Macher von “Burnout Paradise” ins Boot geholt und zum Make-Up-Artist für die doch schon etwas angeknackste NFS-Reihe befördert haben. Schließlich landete Criterion mit “Burnout Paradise”einen Mega-Seller, was also lag näher, auf Bewährtes zu setzen und damit die mittlerweile doch schon etwas degenerierte NFS-DNS etwas aufzufrischen?

Nur: Namen sind Schall und Rauch und ein erfolgreiches Studio nicht der Garant für einen einfach einzufahrenden Erfolg. Denn Criterion brachte auch eine andere Engine mit ins Spiel. Ob damit Hot Pursuit zu einem neuen Burnout Paradise mutiert oder als Spiel eigenständige Maßstäbe setzen und an die alten Erfolge von Need For Speed anknüpfen kann, das wollen wir nach dem Durchspielen kritisch hinterfragen. Eine Portierung von Konsole auf PC umweht zudem stets der Hauch einer widerwilligen Weiterverwertung ohne eigene Akzente und des mangelnden Bestrebens, die Möglichkeiten der aktuellen PCs auch wirklich auszunutzen. Wir wollen dem Fazit an dieser Stelle natürlich nicht vorgreifen, aber man sollte die nachfolgenden Seiten durchaus auch als das betrachten, was sie neben einem reinen Tests sein sollen: ein Aufruf der PC-Spieler an die Spieleindustrie, dass auch sie gleichberechtigte Mitglieder der Spielergemeinde sind und nicht nur das schmierige Aschenputtel, das eher geduldet als geliebt wird. Denn auch diese Spieler haben für das Spiel bezahlt.

Im Hochpreis-Segment leistungsstarker 12- und 13-Zoller ist ab 1.500 Euro die Vielfalt der Modelle gering. Hier tummeln sich ein HP EliteBook 2540p (12,1-Zoll, 1100-1900 Euro), ein Lenovo ThinkPad X201 (12,1-Zoll, 1400-2050 Euro) oder auch ein  Sony Vaio VPCZ12 (13,1-Zoll, 1750-2300 Euro). Alle diese Subnotebooks haben eines gemeinsam: Sie versuchen mit Standard- (z. B. Core i5-540M) oder Low-Voltage-HighEnd-Prozessoren (z. B: Core i7-640LM) inklusive einem SSD-Speicher Mobilität und Leistung zu vereinen.

In diesem Marktumfeld darf Toshiba mit seiner Premium-Serie Portégé nicht fehlen. War in der Vergangenheit ein extrem geringes Gewicht das Ziel aller Anstrengungen (Portégé R500 = 900 Gramm), so geht es heute wie bei der Konkurrenz um Leistung und Laufzeit.

Wir haben uns das HighEnd-Modell des Toshiba Portégé R700 in die Redaktion geholt. Dieses kostet stolze 1.949 Euro (günstigster Marktpreis). Es gibt auch Varianten für deutlich weniger Geld: R700-174 mit Core i5-460M; R700-173 mit Core i3-370M; R700-1CQ mit Core i5-560M; sowie R700-19H mit Core i5-520M. Alle genannten R700 haben eine 320 GB HDD, nur das teure Model R700-172, wie wir es im Test haben, hat eine SSD.

Mit Core i7-620M und 128 GB SSD versucht das Portégé R700-172 die anspruchsvollsten Kunden zufrieden zu stellen. Das geringe Gewicht von 1,53 Kilogramm, das entspiegelte Display und die zielsichere Eingabe sollen den R700 im mobilen Betrieb und an der Docking-Station im Büro zum mobilen aber bei Bedarf performanten Business-Begleiter machen.

Kann so ein kleines und leichtes Chassis die Leistung eines Core i7 kühlen? Wie schafft es der Hersteller, dem Gerät eine anständige Subnotebook-Laufzeit zu verpassen? Wird sich die SSD als Turbo für die Arbeitsgeschwindigkeit erweisen? Wenn dem nicht so ist, dann könnten alle Kunden ja auch zu den günstigeren HDD-Versionen greifen.

Gehäuse – Nicht steif aber solide

Das R700 basiert auf einem Magnesiumgehäuse mit integrierter Wabenstruktur. Diese Struktur sorgt zumindest ansatzweise dafür, dass die dünnen weil leichten Flächen wirksam stabilisiert werden. Dennoch, die Stabilität des leichten Magnesium-Kunststoff-Verbundes ist im Vergleich zu Aluminium bewährten Notebooks geringer, aber angesichts des niedrigen Gewichts sehr gut.

Das Gewicht liegt bei 1,53 Kilogramm, woran aber der starke 93-Wattstunden-Akku schuld ist. Der Akkumulator bringt allein 450 Gramm auf die Waage. Die Flächen der Handauflage und der Tastatur geben nirgends nach. Die Handauflage ist zur Schaffung einer rauen Oberfläche leicht gebürstet worden. Gleiches Verfahren hat der Hersteller für die matte Fläche des Deckels angewandt.

Ein Vergleich: Der deutlich günstigere 13,3-Zoller Acer Aspire TimelineX 3820TG wiegt 2,11 Kilogramm. Die Aluminium-Flächen auf Deckel und Arbeitsumgebung bringen dem Consumer-Subnotebook eine höhere Stabilität ein. Haptik und Optik des R700 sind hingegen nüchterner und schlichter. Doch genau das wird der Stil sein, den Business-Profis oder anspruchsvolle Konsumenten suchen.

Fünf Mini-ITX-Gehäuse im Test

Mini-ITX-Systeme sind wesentlich kompakter als normale Desktop-Rechner und bringen es auf Mainboard-Abmessungen von gerade einmal 170×170 mm. Damit eignet sich der im Jahr 2008 von VIA definierte und inzwischen allseits adaptierte Formfaktor besonders gut, um möglichst kleine PC-Plattformen aufzusetzen. Mini-ITX ist rund 61 Prozent kleiner als Full-Size ATX, mehr als doppelt so klein wie Micro-ATX und immer noch ein gutes Drittel kleiner als Flex-ATX.

So leistungsstark wie Standard-PCs

Die ersten Mini-ITX-Rechner basierten noch auf leistungsschwachen CPUs wie VIAs Eden und kamen dadurch allenfalls als Thin Clients oder genügsame Arbeitsplatz-Rechner in Frage. Mittlerweile haben die Hersteller aber nachgebessert und bieten eine breite Palette an Mini-ITX-Plattformen an, die es in Sachen Leistung sogar mit ausgewachsenen Systemen aufnehmen kann. Dadurch hat sich das Einsatzgebiet der kleinen Rechner deutlich erweitert und inzwischen wildern sie auch munter im Revier der „Großen“.

Entscheidend: Das Mini-ITX-Gehäuse

Aktuelle Mini-ITX-PCs machen als vollwertige Spielestation eine ebenso gute Figur wie als Home Theater PC (HTPC). Weil die vielfältigen Einsatzmöglichkeiten aber ganz unterschiedliche Anforderungen an das System stellen, müssen neben den inneren Werten auch die äußeren überzeugen. So bringt das beste Mini-ITX-Board wenig, wenn das Gehäuse zum Beispiel zu wenig Platz für die Grafikkarte bietet, über ein zu schwaches Netzteil verfügt, mit ungünstig angebrachten USB-Anschlüssen nervt, die im Betrieb entstehende Wärme nur unzureichend abführen kann oder zu wenig Erweiterungsmöglichkeiten bietet.

Fünf Mini-ITX-Gehäuse im Test

Die Wahl der richtigen Mini-ITX-Platine und des dazu passenden Prozessors ist eine kleine Wissenschaft für sich. Die Frage, was das System leisten und wofür es eigentlich eingesetzt werden soll, steht daher an erster Stelle. Genauso verhält es sich bei Mini-ITX-Gehäusen, denn je nach Hersteller gibt es beträchtliche Unterschiede bei Ausstattung, verfügbarem Platz und Optik. Je nachdem, ob der Mini-PC den Arbeitsrechner beherbergen, auf LAN-Partys mitgenommen werden oder als Multimedia-Lieferant im Wohnzimmer stehen soll, kommt daher ein anderer Gehäusetyp in Frage.

Wir haben fünf aktuelle Gehäuse für Mini-ITX-Platinen unter die Lupe genommen, sie dabei auf ihre Stärken und Schwächen abgeklopft und ermittelt, für welchen Einsatzzweck sie sich am besten eignen. Als Testboard zum Einbau in alle Produkte kommt das Gigabyte H55N-USB3 zum Einsatz, das wir mit einer Intel Core-i5-CPU samt Standard-Intel-Kühler (boxed) bestückt haben. Folgende Testkandidaten sind mit dabei: Antec ISK 310-150, Chieftec BT-02B, Lian Li PC-Q08, LUXA2 LM100 und Silverstone SG05. Die Gehäuse sind allesamt leer, verfügen aber abgesehen vom Lian Li aber jeweils über ein Netzteil.

Nicht jede PC-Hardware passt

Die kleinen Abmessungen der Mini-ITX-Gehäuse machen es nicht zwangsläufig schwierig, PC-Komponenten in „Standardgröße“ zu verbauen. So erlauben fast alle Testkandidaten den gleichzeitigen Einbau einer 3,5“-Festplatte und eines optischen Laufwerks im gewöhnlichen 5,25“-Format. Schwieriger kann es dagegen bei Prozessorlüftern oder Steckkarten werden, die mitunter zu groß respektive zu lang sind, um noch ins Gehäuse zu passen. Doch selbst wenn ein Gehäuse vermeintlich für den Einbau von Standardkomponenten gerüstet ist, kann es mitunter eng werden.

Die SATA –Schnittstelle mit 3 Gb/s hat uns lange Zeit gute Dienste geleistet. Selbst heutzutage sind herkömmliche Festplatten nicht in der Lage, dieses Interface tatsächlich mit 3 Gb/s an Daten zu sättigen. Selbst die meisten SSDs sind dazu nicht imstande. AMDs aktuelle Southbridge SB850 hat nun aber sogar einen Controller für SATA mit 6 Gb/s an Bord. In den kommenden Monaten dürfte Intel bei diesem Feature mit dem P67-Chipsatz nachziehen. Für den Desktop-Markt sind diese Speicher-Interfaces allerdings noch nicht unbedingt spannend.

Anders sieht es im Enterprise-Segment aus, wo die 6 Gb/s-Verbindung bereits verwendet wird. Der schnellere Transfer-Link zwischen kompatiblem RAID-Controller und Mittelebene bedeutet, dass man doppelt so viele Geräte an jeden Port anschließen kann, bevor der Spielraum ausgeschöpft ist. Das Ganze ist nicht schwer zu verstehen: Wenn ein Link mit 6 Gb/s bis zu 600 MB/s liefern kann, sollte man drei oder vier Disks an einen Expander anschließen können, ohne dass es dabei zu einem Performance-Flaschenhals kommt – selbst wenn alle vier voll ausgelastet sind. Mit einer Konnektivität von 3 Gb/s war das Ende der Fahnenstange deutlich schneller erreicht.

Natürlich sieht man SAS-Expander bzw. SAS-Port-Multiplier im Desktop-Segment eher selten. Bei Enthusiasten kann man von einem Gerät pro Anschluss ausgehen. Angesichts der 6-Gb/s-Konnektivität können wir lange warten, bis ein einzelnes Laufwerk diesen Link mit Daten sättigen kann.

Es stellt sich also die Frage, weshalb OCZ jetzt sein eigenes Interface vorstellt, mit dem bestehende Verbindungsbeschränkungen behoben werden sollen. Genau diese Frage haben wir Ryan Peterson, dem CEO des Unternehmens, gestellt.

OCZ Kündigt Eigenen High-Speed Daten-Link An

Neue Technologien zielen in erster Linie nicht auf den Mainstream ab. Normalerweise geben sie ihr Debüt im teuren Top-Segment und finden allmählich ihren Weg in den Mainstream, wo sie als einfachere aber auch preiswertere Varianten verfügbar werden, die auch für die weniger gut betuchte Käuferschaft erschwinglich sind. Genau das ist auch hier der Fall. Ein High-Speed Daten-Link lässt vermuten, dass der Bedarf nach mehr sequentiellem und zufälligem I/O-Durchsatz besteht, als er derzeit über SAS verfügbar ist. Laut Ryan hat sich das Unternehmen für den Ultra-High-Performance-Markt entschieden – angefangen bei Supercomputing bis hin zu (vermutlich recht wohlhabenden) Power-Usern mit Bedarf nach höherem Datendurchsatz.

Die angepeilte Käuferschaft, die vom Enthusiasten mit großem Geldbeutel bis zum Oracle Database-Administratoren reicht, dürfte die Kosten für noch nicht ganz ausgereifte Speicher-Technologie weniger interessieren. Es ist aber auch nicht OCZs ziel, mit seinem High-Speed Data Link eine neue Kategorie unerschwinglich teurer Speicherprodukte zu erstellen. Ein erster Blick auf die neuen SSDs des Unternehmens auf HSDL-Basis zeigt, dass die angepeilten Preispunkte sogar sinnvoll gewählt und nachvollziehbar sind.

Teilenummer / Kapazität UVP
OCZ3HSD1IBS1-960G $2799
OCZ3HSD1IBS1-720G $2149
OCZ3HSD1IBS1-480G $1299
OCZ3HSD1IBS1-360G $1099
OCZ3HSD1IBS1-240G $739
OCZ3HSD1IBS1-160G $629
OCZ3HSD1IBS1-100G $529

$530 für eine Speicherkapazität von 100 GB sind schon etwas lächerlich. Allerdings kann man auch davon ausgehen, $800 für ein X25-M in RAID 0 mit 320 GB auf die Ladentheke legen zu müssen. Deshalb wirken $1100 für ein IBIS-Laufwerk mit 360 GB nicht ganz so unvernünftig, sofern die Performance stimmt. Wenn man speziell auf der Suche nach einem Produkt ist, das mit HSDL aus der SAS-Welt mithalten kann, benötigt man einen RAID-Controller, der die Kosten nach oben treibt. OCZ bietet diese Laufwerke im Bundle mit den für die HSDL-Verbindung notwendigen Controller-Karten an.

Die IBIS-Laufwerke sind interessanterweise teurer als das kürzlich erschienene RevoDrive von OCZ auf PCI Express-Basis. Laut Unternehmen zielt das RevoDrive auf ein optimiertes Preis-Performance-Verhältnis ab und soll vor allem Enthusiasten ansprechen. Das IBIS eignet sich besser für Workstations und den HPC-Markt. Diese Vorhersagen stützen sich vor allem auf die ersten Performance-Werte von OCZ. Laut Unternehmen liegen die Lese- und Schreibgeschwindigkeiten bei bis zu 740 MB/s und bis zu 120.000 IOPS. Diese Werte sind absoluter Wahnsinn und übersteigen eindeutig alles, was ein einzelnes SAS- oder SATA-Interface bieten könnte. Aussagen von OCZ zufolge ist handelt es sich hierbaei noch um die erste Generation dieser Technologie, und die soll in Zukunft noch schneller werden. Werfen wir einen Blick auf das HSDL-Interface und seine Fähigkeiten.

AMD Fusion: Das Brazos-Preview, Teil I

The Future is Fusion – für AMD ist das mehr als ein Slogan, es ist Programm. Die Konvergenz von Hauptprozessor und Grafikeinheit bahnt sich schon seit einigen Jahren an, und zwei der drei im nächsten Jahr bei AMD kommenden Prozessorfamilien werden nicht mehr reine CPUs sein, sondern APUs, wie die Chipschmiede sie nennt – Accelerated Processing Units. Neben dem klassischen CPU-Kern beinhalten sie auch eine Grafikeinheit, die weit leistungsfähiger zu werden verspricht, als alle bisher gesehenen integrierten Grafiklösungen. Im Gegensatz zu Intels bisherigen On-Chip-Grafiklösungen bei den Arrandale-, Clarkdale- und Pine View-Familien ist sie allerdings Teil des Dies – eben die Fusion der ehemals einzelnen Komponenten.

Neben dem Plattform-, Stromverbrauchs- und Kostenvorteil sieht AMD noch einen weiteren Vorzug, nämlich bei der Software-Entwicklung und –Nutzung. APUs vereinen hoch performante Recheneinheiten, die einerseits auf parallele (GPU) und andererseits auf serielle Verarbeitung (CPU) hin optimiert sind und so das beste aus beiden Welten mitbringen. Über Schnittstellen wie OpenCL soll Software in Zukunft alle verfügbaren Ressourcen nutzen können, anstatt sich entweder komplett auf die CPU oder die GPU zu konzentrieren. Das geht über die klassischen Anwendungsgebiete wie HD-Video-Wiedergabe, Musik etc hinaus und soll laut AMD beispielsweise im Mainstream-Gaming-Bereich ebenso Vorteile bringen wie beim in Hardware beschleunigten Transkodieren von Videos. Auch dafür hat AMD einen Begriff parat: Heterogenous Computing, also heterogene Verarbeitung.

Fusion ist das Ergebnis der Verschmelzung von AMD und ATI und ist aus Sicht des Prozessorhauses der nächsten Schritt im Prozessordesign, nachdem das goldene Zeitalter der Mehrkern-CPUs nun ihren Zenith überschritten habe.

Bekanntermaßen ist ein System immer nur so schnell wie seine langsamste Komponente. Bei jeder Art von Berechnung ergeben sich aber immer Flaschenhälse, die teils auf die zur Verfügung stehende Bandbreite, teils auf die Latenzen zurückzuführen sind. AMD versteht APUs als heterogene Prozessoren, die mit ihrem GPU-Teil ein großes SIMD-Array mitbringen, dessen flexibel einsetzbare und programmierbare Skalar- und Vektoreinheiten sich gut für diverse Zwecke einsetzen lassen. Weil die GPU den größten Teil der Chipfläche bei Fusion-CPUs ausmachen wird, werden APUs speziell in gut parallelisierbaren Aufgaben glänzen können. Dabei ermöglicht ihnen der kurze Weg zum (gemeinsamen) Arbeitsspeicher niedrigere Latenzen als bei vorherigen integrierten GPUs.

Das bedeutet nun natürlich nicht das Ende der guten alten Grafikkarte zum Nachrüsten, aber APUs werden speziell preisbewussten Käufern eine Alternative bieten, die weit leistungsfähiger ist als AMDs bisherige Lösungen.

So viel zur Theorie. Die eigentliche Frage ist aber: Wie kann Fusion alltägliche Aufgaben beschleunigen? Selbst wenn man davon ausgeht, dass die Prozessorkerne der APU auf dem gleichen Leistungsniveau wie aktuelle CPUs sind, was darf man von der GPU erwarten? Wir hatten die Gelegenheit, mit Tom Vaughan von CyberLink genau darüber zu sprechen. Wenn es um GPU-Technologien geht, ist diese Firma immerhin gern ganz vorn mit dabei. Aus CyberLinks Sicht wird es in Zukunft so sein, dass die Fähigkeiten von APUs und Grafikkarten durch eine Schnittstelle wie OpenCL gemeinsam genutzt werden können. Hat man also Beispielsweise ein APU mit 400 und eine Grafikkarte mit 1600 Shader Kernen (oder Stream Processors, wie sie bei AMD heißen), könnte man sie sinnvollerweise kombinieren, um eine Aufgabe schneller abzuarbeiten. Oder man schließt den Monitor an die integrierte Grafiklösung an, und die gesteckte Grafikkarte schaltet sich nur dazu, wenn eine 3D-Anwendung mehr Leistung benötigt. Dadurch könnten sich Stromspareffekte einstellen. Genau solche Lösung gab es ja immerhin schon, auch wenn sie nie wirklich weite Verbreitung fanden.

Konkreter gesprochen wäre der Vorteil einer entsprechend hoch entwickelten integrierten GPU – und eine solche Verspricht uns AMD ja immerhin selbst bei Ontario/Zacate und später mit Llano – dass sie ähnliche Performance liefert, wie eine klassische Kombination aus CPU und einer gesteckten Grafikkarte. Immerhin kann man sich so den „Umweg“ über den PCI-Express-Bus sparen, was die Latenzen verringert. Der eigentliche Vorteil besteht jedoch in der Integration. Indem man ein weiteres leistungsfähiges Subsystem direkt in den Hauptprozessor wandern lässt, spart man sich eine zusätzliche Steckkarte, vereinfacht das Motherboard-Design und verringert zudem noch die Leistungsaufnahme. Im Endeffekt bekommt man so also eine Lösung, die für weniger Geld das gleiche leistet – und das weiß wohl jeder zu schätzen.

Bislang hatten integrierte Grafiklösungen einen gemischten Ruf. Speziell Intel verkauft seine Chipsatzgrafik eher als „Bonus“ denn als wirkliches Feature, da sie nur für einen kleinen Teil seiner Kunden ausreichend schnell ist. Wer nicht nur Office-Programme und den Browser nutzt, braucht oft eine zusätzliche Grafikkarte.

Im Mobilbereich sieht das ein wenig anders aus, denn insgesamt sind die Erwartungen an die Grafikleistung dort meist niedriger. Außerdem ist die Nutzung zusätzlicher Grafikchips gerade im Mobilbereich aus zwei Gründen problematisch, denn sie erhöhen den Stromverbrauch und die Fertigungskosten. Für die stetig wachsende Gruppe der Mobilnutzer ist integrierte Grafik also durchaus relevant und höhere Performance gern gesehen. Natürlich gibt es auch hier wieder eine Gruppe, die mehr Leistung braucht, welche nur eine zusätzliche GPU bieten kann. Aber diese Schwelle verschiebt sich mit Fusion im unten gezeigten Kosten-Nutzen-Diagramm nach rechts. Auf Atom trifft das auch mit der aktuellen Grafik nicht zu.

Auch wenn wir uns heute mit Brazos „nur“ eine Mainstream-Plattform für das mobile Budget- bis Mittelklasse-Segment anschauen, zeigen sich deutliche Performance-Vorteile, die sich aus der Optimierung für eine Architektur nach dem Fusion-Schema ergeben. Deutlich spannender wird es, wenn Lynx und Sabine erscheinen, die Llano-Varianten für die Desktop- bzw. Notebook-Plattform, denn dann werden die Vorteile einer stärkeren GPU in Erscheinung treten. Sabine und Lynx werden wir uns schon bald ebenfalls widmen. Heute soll es aber erst einmal um Brazos gehen.

  • 1
  • 2

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen