Monat: Mai 2009

Atom trifft Nvidia: Zotacs ION ITX im Test

Tom’s Hardware hat sich in den vergangenen Monaten eingehend mit Intels Atom-Plattform auseinandergesetzt. Dabei ging es unter anderem um die Eignung der Atom-Plattform als Office-PC und um einen Effizienzvergleich mit AMDs Athlon sowie Intels eigenem Core 2 – von diversen Netbook-Tests und dem Vergleich mit VIAs Nano abgesehen. Basierend auf unseren Erfahrungen lautete unser Fazit bislang, dass die CPU sich im Netbook-Bereich sehr gut schlägt, für einen Desktop aufgrund der Performance-Defizite jedoch nicht geeignet ist.

Intels 945G-Chipsatz-Familie hatte auch ihren Anteil an dieser Einschätzung, da sie bislang die einzige Basis für den Atom-Prozessor dargestsellt hat.

Vor einigen Monaten hatte Tom’s Hardware bereits Gelegenheit, sich die erste Atom-Plattform anzusehen, die gegen Intels schwachbrüstige Angebote antreten sollte: Nvidias ION. Als wir auf der diesjährigen CES den ersten Prototypen in Augenschein nehmen konnten, waren wir beeindruckt, wie viele moderne Anschlüsse Nvidia zusammen mit einer vergleichsweise leistungsfähigen GPU auf so geringem Platz unterbringen konnte.

Nun sind sechs Monate vergangen, Acer hat inzwischen seinen Aspire Revo genannten Nettop auf ION-Basis vorgestellt (ein Test folgt bald) und auch Lenovo hat ein ION-Netbook angekündigt. Parallel kommen auch erste Mini-ITX-Mainboards mit ION-Chipsatz auf den Markt, mit denen sich Bastler einen Kleinst-PC mit einer Atom-CPU bauen können. Die Kernfrage lautet somit: Lohnt sich das?

Nvidias ION: Features bis zum Umfallen
Der erste ION-Prototyp war mit Features geradezu vollgestopft. Er bot jede Menge USB-2.0-Ports, analogen 7.1-Sound, einen optischen Digitalausgang, DVI, HDMI, Gigabit-Ethernet- und SATA-Anschlüsse. All diese Fähigkeiten verdankte die kleine Box Nvidias GeForce-9300-Chipsatz, den die Firma jetzt »ION Graphics Processor nennt«. Bislang stand die Abkürzung IGP für »integrated graphics processor«. Unterm Strich vereint der GeForce 9300 beziehungsweise IGP in einem Chip die Funktionalität einer klassischen Northbridge-Southbridge-Kombination.

Der IGP zeigt sich extrem anschlussfreudig: Er bietet bis zu fünf PCI-Steckplätze, sechs SATA-Ports mit 3 Gb/s, insgesamt 20 PCI-Express Lanes, die in einen x16-Pfad und vier x1-Lanes aufgeteilt sind, einen integrierten Gigabit-Ethernet-Controller, 12 USB-2.0-Ports und HD-Audio.

Der Northbridge-artige Teil des IGP enthält einen Dual-Channel-Speicher-Controller, der entweder mit DDR2-800-Modulen oder DDR3-Riegeln mit bis zu 1333 MHz umgehen kann. Laut Nvidia verträgt der Chipsatz einen Front Side Bus von bis zu 1333 MHz und unterstützt damit alle CPUs vom Atom über den Celeron und den Pentium 4 bis hin zur aktuellen Core-2-Familie. In unserem Fall bringen uns aber die modernen, umfangreichen Speicher- und FSB-Fähigkeiten wenig, denn der Atom 330, den Zotac auf sein kleines Board lötet, nutzt einen 533 MHz schnellen FSB und DDR2-Arbeitsspeicher.

Dann gibt es noch die integrierte Grafiklösung. Als Derivat von Nvidias G86-GPU verfügt sie über 16 Shader-Prozessoren und zweigt sich ihren Grafikspeicher vom RAM des Rechners ab. Der Grafikkern selbst läuft mit 450 MHz, während die Shader mit 1100 MHz getaktet sind – also ein wenig langsamer als beim unserem Test des GeForce 9300 vom letzten Oktober.

Aber genug der technischen Daten, sehen wir uns an, wie Zotacs Umsetzung eines Mini-ITX-Mainboards mit Nvidias IGP aussieht.

Die gehobene Mittelklasse hat einiges an Leistung und Ausstattung zu bieten. Um das Preisniveau zu rechtfertigen versehen Hersteller die Platinen mit einer besseren Kühlung oder viel Grafikspeicher. Nimmt man nur die 3D-Geschwindigkeit als Maßstab, ist der Unterschied zur Spitze geringer als vermutet. Sieht man eine GTX 285 als schnellste Einzelchipkarten an, dann liegt eine Geforce GTX 260 oder eine Radeon HD 4870 in der Gesamtleistung nur knapp 25 Prozent darunter. Im Preis macht sich dies allerdings mit 100 bis 150 Euro Ersparnis bemerkbar.

5 Karten bis 200 Euro.5 Karten bis 200 Euro.

Wer jetzt intelligent einkauft, bekommt für 150 Euro ausreichend 3D-Performance, die den PC auch in den kommenden Monaten noch gut versorgt. Vor allem Geforce GTX 260 Grafikkarten erfuhren in jüngster Zeit einen starken Preisrutsch und Käufer älterer Modelle mit 192 Stream-Prozessoren geben nochmals bis zu 30 Euro weniger aus. Wer sich weniger für Schnäppchenangebote interessiert, erhält verbesserte Modelle die mit 1 oder 2 GByte Grafikspeicher für SLI oder Crossfire vorbereitet sind. Eine gute Basis, falls man in ein paar Monaten eine weitere Karte nachkaufen möchte um die Grafikkarten dann im Dual-Modus mit hohen Auflösungen zu betreiben.

Windows mit 64 Bit: Wo der Motor stottert

64-Bit-Varianten aller wichtigen Betriebssysteme gibt es bereits seit einigen Jahren. Besser sieht es mit der Hardware aus, denn die Verfügbarkeit von 64-Bit-fähigen Systemen ist seit längerer Zeit gegeben. AMD war mit seiner Athlon-64-Familie der Vorreiter gefolgt von Intels 64-Bit-Unterstützung bei ausgewählten Pentium-4-Modellen. Heutzutage unterstützt selbst preiswerte Hardware 64-Bit-Umgebungen. Aber was genau steckt hinter der 64-Bit-Thematik? Wir haben uns bestehende Probleme genauer angesehen.

Haben Sie ein 64-Bit-Betriebssystem?

Wenn Sie diese Frage nicht auf Anhieb beantworten können wahrscheinlich nicht. 32-Bit- und 64-Bit-Versionen von Windows unterscheiden sich weder im Verhalten noch in der Erscheinung. Welches Betriebssystem Sie nutzen, können Sie am einfachsten herausfinden, indem Sie unter Systemeigenschaften das Bedienfeld “System” anklicken (rechter Mausklick auf Ihrem Computer und “Eigenschaften” auswählen). Das Fenster (siehe Screenshot) gibt Ihnen Auskunft über alle Einzelheiten Ihrer Windows-Version, Ihrer Hardware und der Systemart. In diesem Fall handelt es sich um ein ’64-Bit-Betriebssystem’. Aber worin unterscheiden sich 32 und 64 Bit?

Unterschiede zwischen 32- und 64-Bit-Systemen

Ist die Rede von 64-Bit Systemen, so müssen wir zwischen 64-Bit-Verarbeitung und 64-Bit-Addressierung unterscheiden – erstes ist für hohe Performance wichtig, letzteres zur Unterstützung großer Speichermengen. Ein 64-Bit-System verfügt über 64-Bit breite Register, die 64-Bit-Datentypen unterstützen und intern 64 Bits adressieren (16 Exabyte statt 4 Gigabyte). Allerdings können sich die interne Verarbeitung externe Busse unterscheiden. Als Beisspiel dient hier der Speicher-Adressraum, der meist auf 40 oder 48 Bit beschränkt ist.

Ein 64-Bit-Betriebssystem benötigt für den Betrieb einen 64-Bit-Prozessor. Die meisten 64-Bit-Systeme haben mit der Ausführung von 32-Bit-Software im so genannten Kompatibilitätsmodus keine Probleme, was wiederum nützlich ist, da 64-Bit-Anwendungen nach wie vor spärlich vertreten sind. Sofern notwendig schaltet der Prozessor für individuelle Taktzyklen in den 32-Bit-Modus. Der Betrieb eines 32-Bit-Betriebssystems auf einem 64-Bit-Prozessor führt normalerweise dazu, dass die CPU die ganze Zeit über im Legacy-Modus läuft. Während 64-Bit-Software bei guter Implementierung auf einem 64-Bit-System bessere Performance liefern kann als die 32-Bit-Pendants, bieten 32-Bit-Anwendungen auf 64-Bit-Systemen in etwa die gleiche bzw. nur leicht veränderte Performance.

64-Bit – Vorteile

Wir wollen ein paar Dinge erwähnen, da 64-Bit-Systeme tatsächlich Vorteile bieten, die über die der Datenverarbeitung und Adressierung hinausgehen. Zunächst wäre da das gute, alte 32-Bit Windows: Diese Versionen sind auf maximal 4 GB RAM beschränkt und bieten Ihnen nicht den vollen Speicher für Ihre Anwendungen, da Prozesse des Betriebssystems in den Addressraum mit aufgenommen werden; das führt wiederum zu einer effektiven Speicherkapazität von 3 GB, manchmal auch etwas mehr. Mit steigender Speicherkapazität steht Ihnen durch eine 64-Bit-Version von Windows also effektiv mehr Hauptspeicher zur Verfügung. Weiterhin ist die Handhabung großer Dateien auf einem 64-Bit-System mit viel Speicher bedeutend einfacher. Denken Sie dabei z.B. an eine Datei mit 5 GB auf einem 32-Bit Windows System mit lediglich 3 GB verfügbarem Speicher: Das System muss die erforderliche Dateiinhalte neu in den verfügbaren Speicher mappen, was das System gegebenenfalls ständig damit beschäftigt. Und schließlich gibt es tatsächlich auch wissenschaftliche Anwendungen, die auf 32-Bit-Systemen keine ausreichen präzisen Ergebnisse bei Fließkomma-Operationen liefern, wodurch 64-Bit-Anwendungen auf einem 64-Bit-System in solchen Fällen klar die einzig richtige Wahl sind.

64-Bit – Nachteile

Die Nachteile finden Ausdruck in einer komplexeren Handhabung des Speichers durch größere Pointer, wodurch effektiv eine größere Speicherkapazität zur Verwaltung notwendig ist, sowie durch die lediglich sporadische Verfügbarkeit von 64-Bit-Software. Einerseits würden aber nicht alle Anwendungen davon profitieren, in 64 Bit portiert zu werden. Andererseits sind noch nicht für alle Geräte, die Sie eventuell betreiben müssen, Low-Level-Komponenten wie Treiber verfügbar. Treiber laufen zwischen Hardware und dem Betriebssystem, was wiederum zur Folge hat, dass kaum ein Treiber im 32-Bit-Kompatibilitätsmodus ausgeführt werden kann. Mit anderen Worten: Solange es für Scanner, Drucker, Videokarten oder ähnliches keine nativen 64-Bit-Treiber gibt ist eine Verwendung in einer 64-Bit Umgebung fast immer unmöglich.

Kurztest: Mac mini


Einleitung

So hoch wie ein Stapel CDs und nur etwas breiter: der Mac mini.So hoch wie ein Stapel CDs und nur etwas breiter: der Mac mini.Wer seinen Computer nur für Korrespondenz und die alltäglichen Büroaufgaben sowie das gelegentliche (Web-)Video nutzt, braucht keinen großen lauten Tower. Die derzeitige Technik erlaubt es, selbst im kleinen Format sehr viel Rechenleistung unterzubringen. Nutzt man dazu Notebook-Technik, kann der Rechner auch noch sehr leise und sparsam ausfallen. Lässt man zu guter Letzt noch einen erfahrenen Designer das Äußere entwerfen, hat man am Ende einen schicken, kleinen, leisen und ausreichen leistungsfähigen Desktoprechner. Heißt die Firma, die hinter diesem Rechner steht, Apple, ist das Endergebnis der Mac mini.

Kurzer Rückblick

Apple legte unserem Testgerät Bluetooth-Maus und Tastatur bei.Apple legte unserem Testgerät Bluetooth-Maus und Tastatur bei.Unter dem Motto “Bring your own display, keyboard and mouse” führte Apple im Januar 2005 den Mac mini ein. Der enorm kompakte Desktop-Rechner sollte wechselwillige und/oder frustrierte Windows-Nutzer überzeugen, zu Apple überzulaufen. Die Idee dahinter leuchtet ein: Wer bereits einen PC hat, braucht kein Komplettangebot mit Tastatur, Bildschirm und Maus – warum also dafür extra zahlen? So konnte Apple den Mac mini als preiswertesten Mac positionieren. Preiswert bleibt dabei natürlich ein relativer Begriff, denn auch das ursprüngliche Einstiegs-Modell mit selbst damals vergleichsweise langsamem 1,25 GHz G4-Prozessor kostete 489 Euro. Auch die restliche Ausstattung gehörte nicht mal annähernd zum schnellsten, was der damalige Markt zu bieten hatte. Für die alltägliche Büroarbeit oder Korrespondenz reichte die Rechenleistung aus.

Trotz geringer größe bietet der Bonsai-Mac fünf USB-Ports, zwei Display-Anschlusse, Firewire 800 und digitale wie analoge Audio Ausgänge.Trotz geringer größe bietet der Bonsai-Mac fünf USB-Ports, zwei Display-Anschlusse, Firewire 800 und digitale wie analoge Audio Ausgänge.Es folgten verschiedene Revisionen, die jedoch alle mehr oder weniger stark hinter den Hoffnungen und Erwartungen der Apple-Gemeinde zurückblieben und Zweifel daran aufkommen ließen, dass es Apple mit dem “Umstiegs-Rechner” wirklich ernst war. Kritikpunkte waren vor allem der kleine Speicherausbau, die magere Grafiklösung und die geringe Taktfrequenz. Immerhin stieg man auf Intel-Technik um, mit der man durch BootCamp auch Windows auf dem Mac laufen lassen konnte.

Erst die aktuelle Revision, die im März 2009 vorgestellt wurde, darf als zeitgemäß gelten: Anstelle des betagten Intel-Grafikchips GMA 950, der im Chipsatz integriert war, sitzt in der aktuellen Version ein GeForce 9400M Chipsatz, die denselben Grafikkern besitzt, wie praktisch alle MacBook-(Pro)-Modelle. Beim Speicherausbau hat Apple 2007 nachgebessert: Auch das kleine Modell bekommt ab Werk 1 GB Arbeitsspeicher – für OS X ist das gerade so ausreichend. Bei der CPU ist man nun immerhin bei der 2-GHz-Marke angelangt – was heute aber auch das untere Ende der Skala markiert. Immerhin lassen sich beide Varianten (gegen Aufpreis) auf 2,26 GHz aufrüsten.

Zeno Clash im Test

Wir haben uns in diesem Test absichtlich etwas vom allgemeinen Mainstream abgewandt und sind dabei auf ein Spiel gestoßen, das so skurril, punkig und auf liebenswerte Weise auch ein wenig verrückt ist, dass man es eigentlich nicht übersehen sollte: Zeno Clash.

Dieses erfrischend andere Spiel ist das erste kommerzielle Produkt der chilenischen Spieleschmiede ACE. Deren Gründer sind in der Szene wiederum altbekannte Hasen, die zuvor überwiegend Mod-Packs und Erweiterungen für diverse Spiele erstellt haben bzw. bereits sogar selbst als Gestalter an bekannten Spielen mitwirkten. Bis heute ist man bestrebt, gestalterischen Freiheiten und eine gewisse inhaltliche Unabhängigkeit mit Hilfe des neu gegründeten Independent-Labels ACE zu erhalten.

“…I don’t think we have limitations as a studio to make “epic” games since no studios are really independent devs unless they are really well known or big studios. It’s the publisher that funds large scale games for the devs, so it’s not really an economic limitation of our part…”
(Carlos Bordeu, Entwickler)

Der Held des Spiels und seine AmazoneDer Held des Spiels und seine Amazone

So entstand, durchaus auch in kritischer Selbsteinschätzung der vorhandenen Möglichkeiten und Ressourcen, ein kurzweiliges und vor allem auch nicht überlanges Spiel, das man mit etwas gutem Willen und Geschick in weniger als 12 Stunden durchspielen kann. Die Untergliederung verleitet jedoch dazu, sich einen der Level als virtuelles Leckerli zu gönnen. Das Spiel kann und will keine tagefüllende Langzeit-Herausforderung sein, sondern ein netter Zeitvertreib für nebenbei. Man kann einzelne Level wiederholen, gemeinsam mit Freunden oder Gästen spielen oder es zwischendurch beiseitelegen und auch später wieder einsteigen, ohne den Faden zu verlieren (den man wohl sowieso nie vollständig hat).

Das Spiel wurde von Entwicklern geschaffen, die es bisher gewohnt waren, fremde Spielinhalte frei zu überarbeiten, zu überzeichnen und sogar durch eigene Ideen zu ergänzen. Das nun im ersten eigenen Spiel manchmal Disziplin und Chronologie auf der Strecke geblieben sind, ist unseres Erachtens durchaus zu verschmerzen.

Wenn man das Spiel unter den bereits genannten Gesichtspunkten betrachtet, dann sollte man einen Blick auf die folgenden Seiten des Artikels und auch auf die frei verfügbare Demo riskieren. Lediglich 20 Euro für das volle Spiel sind durchaus ein fairer Preis, bei dem man eigentlich wenig falsch machen kann.

Wir haben daher vorurteilsfrei getestet – und wurden überrascht.

Surreale Landschaften entschädigen für kleine Unzulänglichkeiten.Surreale Landschaften entschädigen für kleine Unzulänglichkeiten.

Was Geräusche angeht sollte man zwei Dinge beachten: Zum einen kann es sich dabei um eine Begleiterscheinung von High-Performance-Komponenten oder von Kühlmaßnahmen handeln, zum anderen sind auch komplexe Ursachen möglich. Allerdings sind Geräusche immer störend, es sei denn, Sie sind geräuschunempfindlich. Wir haben zwei unterschiedliche Produkte getestet, die beide darauf ausgerichtet sind, Festplattengeräusche zu reduzieren.

Geräuschquellen

Jedes System gibt ein gewisses Maß an Geräuschen ab, denn nur Systeme mit gänzlich passiv gekühlten Komponenten können als geräuschlos bezeichnet werden. Festplatten und optische Laufwerke basieren auf sich drehenden Scheiben, Stellmotoren müssen die ganze Zeit hinweg Köpfe neu in Stellung bringen, was aufgrund der entstehenden Schwingungen Geräusche verursacht. CPU- und Grafikkühler sowie Systemlüfter erzeugen aufgrund ihrer Rotation und der daraus resultierenden Luftbewegung ebenfalls Geräusche. Auch hier gilt Vibration als Hauptursache für Geräusche.

Geräusche – Eine Definition

Das Problem mit Geräuschen ist, dass das menschliche Ohr für die unterschiedlichen Frequenzen des Tonspektrums nicht gleichermaßen empfänglich ist. Infolgedessen ist es durchaus möglich, dass ein Geräusch, das Sie stört, mir überhaupt nichts ausmacht. Obwohl das Geräuschempfinden subjektiv ist, lässt es sich in Dezibel messen. Dabei wirddie Größe des Schallpegels (Schalldruck) im Verhältnis zu einem Bezugspegel gesetzt. Ein Schalldruckpegel von 0 dB entspricht völliger Stille, wobei die Dezibel-Skala entwickelt wurde, um das Leistungsverhältnis eines bestimmten Schalldrucks zu bestimmen. Dezibel ist eine Logarithmus-Einheit auf der Basis 10, somit sind 40 dB doppelt so viel Schalldruck wie 30 dB, 50 dB doppelt soviel wie 40 dB etc.

Schallisolierung

Da Geräusche ihre Ursache in Vibrationen haben, gibt es zwei Möglichkeiten, Geräusche zu verringern. Zum einen können Sie die Geräuschquelle in ein schalldichtes Gehäuse verpacken. Durch feste Materialien im Inneren des Gehäuses, die akkustische Wellen reflektieren, verlaufen sich durch Luft übertragbare Schwingungen. Zum anderen lassen sich Geräuschquellen von anderen Materialien abgekoppelt montieren, die von den Schwingungen der Geräuschquelle beeinflusst sein und dadurch selbst zusätzliche Vibrationen erzeugen könnten. Das erste Produkt im Test ist ein Computer-Gehäuse von 3Rsystem, das mit einem separaten Festplattenkäfig geliefert wird, mit welchen Sie die Festplatte vom Gehäuse abkoppeln und damit verhindern, dass sich Schwingungen ausbreiten können. Das zweite Produkt ist ein Gehäuse zur Laufwerksdämpfung von GrowUp Japan, ein so genannter Drive Silencer.

Durch den Zugriff auf die Recheneinheiten von Grafikkarten entstehen im Moment viele spannende Anwendungen. Mit CUDA lassen sich Nvidia-Grafikkarten mit Geforce 8, 9 und GTX 200 für neue Aufgaben verwenden; dazu zählen die Berechnung von Datenpaketen aus Folding@Home, Physikeffekte in Spielen mit PhysX und das extrem schnelle Umwandeln von Videoformaten. Das Erfolgskonzept ist die Anzahl der Einheiten, mit denen viele Berechnungen gleichzeitig durchgeführt werden. CUDA ist ein fester Bestandteil im Nvidia-Grafiktreiber. Hat man die passende Anwendung laufen, so muss man nichts zusätzlich installieren. Für Entwickler gibt es ein eigenes Toolkit, die Nvidia Cuda Zone.

Grafikkarte rechnet Filme um.Grafikkarte rechnet Filme um.

Der folgende Test beschäftigt sich mit dem Faktor Geschwindigkeit, wenn man digital Filme in ein anderes Format umwandeln möchte – dieser Vorgang beansprucht auf modernen Prozessoren noch immer viel Zeit. Auf die Bildqualität der verschiedenen Codecs wird nicht eingegangen, obwohl diese bislang nicht ganz die Qualität hochwertiger Software-Transcoding-Tools erreicht. In einigen Präsentationen werben die Hersteller mit bis zu 25-fachem Leistungszuwachs wenn man die Grafikkarte gegen eine CPU antreten lässt. In diesem Test fällt der Geschwindigkeitsschub nicht so drastisch aus, da auch die verwendete Core i7-CPU kein Schwächling ist und Taktfrequenz sowie Anzahl der Kerne ihren Teil beitragen.

In über 150 Einzeltests kann man die Zeitersparnis vergleichen, die man beim Geforce 8, 9 und GTX 200 erhält, wenn man die Grafikchips gegen eine übertaktete Core Intel i7 920-CPU mit 3,8 GHz stellt. In vielen Fällen bedeutet Zeitersparnis durch eine schnelle Grafikkarte sogar weniger Energiekosten: Je schneller sich der Film im neuen Format befindet, desto weniger Strom wird über die gesamte Laufzeit von der Steckdose aufgenommen.

Als Testprogramm kommt Badaboom in der Version 1.1.1.194 zum Einsatz. ATI und deren Stream-Technologie wird nicht unterstützt, weshalb sich die Kartenauswahl in diesem Test auf Nvidia-Produkte mit CUDA-Kompatibilität beschränkt. Badaboom ist in der aktuellen Version sehr weit entwickelt, beherrscht fast alle gängigen Formate und nun auch den Umgang mit dem Tool FRAPS, welches viele 3D-Gamer zum Aufnehmen von Sequenzen aus Spielen verwenden.

Im Downloadbereich von Elemental Technologies gibt es eine kostenlose Trial-Version, mit der man bis zu 30 Filme in andere Formate umwandeln kann. Die Filmlänge ist dabei nicht beschränkt, es wird nur ein Wasserzeichen des Herstellers eingeblendet. Wer eine passende Grafikkarte besitzt, kann die Ergebnisse auf seinem eigenen Rechner jederzeit nachstellen.

Hier gibt es Badaboom zum Download.

Der Test besteht aus typischen Praxisbeispielen, wie das Umwandeln eines FRAPS-Videos für YouTube oder eine TV-Serie von DivX und Xvid auf iPod-Format. Um es einfach zu halten wurden die Standard-Einstellungen verwendet. Sollten Durchläufe von diesen Werten abweichen, wird darauf hingewiesen.

Eine Liste mit Grafikprozessoren (GPUs) und Beschleunigern, die CUDA unterstützen, finden man unter folgendem Link: http://www.nvidia.com/object/cuda_learn_products.html

Unser altes Storage-Testsystem hat uns fünf Jahre lang treue Dienste geleistet und uns zum Test von mehr als 250 Festplatten und SSDs sowie duzenden Host-Adaptern und RAID-Controllern gedient. Die Plattform bestand aus einem 3,6 GHz Xeon Nocone Single Core-Prozessor auf einem E7520-Motherboard mit 1 GB DDR2-400 RAM, was auch für heutige Verhältnisse und Ansprüchen noch nicht gänzlich veraltet klingt. Allerdings ist es Zeit für einen Neuanfang und die Umstellung auf ein neues Storage-Testsystem.

Wir haben uns für einen Intel Core i7-920 und ein flexibles X58-Motherboard von Supermicro entschieden und gleich zu Beginn neue Desktop-, Mobil- und SSD-Charts erstellt.

Storage-Tests – Ein kurzer Abriss

Für einen direkten Vergleich verschiedener Produkte benötigt man möglichst viele Testergebnisse, wobei es wichtig ist, mit einer konstanten Testkonfiguration zu arbeiten. Das zuvor erwähnte Xeon-System hat seine Aufgabe hervorragend erledigt, da der Prozessor schnell genug war und das Asus NCL-DS Motherboard PCI-, PCI-X- und PCI Express-Steckplätze geboten hat, mit denen wir allerhand Storage-Adapter und Festplatten auf einem einzigen System testen konnten. Infolgedessen waren wir in der Lage, Ergebnisse direkt zu vergleichen und sogar Laufwerke über unterschiedliche Marktsegmente hinweg zu vergleichen. Die Ergebnisse stehen Ihnen nach Marktsegment sortiert in unseren Charts zur Verfügung:

3,5“ Desktop-Festplatten-Charts

2,5” Mobil-Festplatten-Charts

Server- & Workstation Festplatten-Charts

Flash-SSD-Charts

Externe Festplatten-Charts

RAID-Charts

Die 3,5”-Desktop-Festplatten-Charts umfassen die Mehrzahl der erhältlichen 3,5”-Festplatten. Dabei handelt es sich zumeist um Modelle mit 7.200 U/Min, allerdings sind auch aktuelle Stromspar-Laufwerke mit 5.400 U/Min dabei. Die Charts reichen bis 2005 zurück und umfassen neben den neuesten Modellen auch alte Festplatten mit z.B. 80 GB.

Unsere 2,5”-Notebook-Festplatten-Charts beinhalten SATA- und UltraATA-Modelle sowie Versionen mit einer Umdrehungsgeschwindigkeit von 4.200 über 5.400 bis hin zu 7.200 U/Min. Die Enterprise-Festplatten-Charts umfassen Modelle im 2,5”- und 3,5”-Format mit 10.000 bzw. 15.000 U/Min. Zuguterletzt bieten wir Ihnen noch die Charts mit externen Festplatten, eine repräsentative Auswahl aktueller und bereits etwas ausgereifterer Speicherprodukte. Die SSD-Charts sind als jüngstes Mitglied zur Charts-Familie gestoßen – in diesen Charts finden Sie alles zum Vergleich von Solid State-Laufwerken.

Gründe für den Wechsel

Auch wenn wir unsere Plattform noch einige Zeit hätten nutzen können schien die Zeit für einen Neuanfang gekommen. Einerseits wird Windows Server 2003 für Laufwerke mit mehr als 2 TB bald zum Problem werden, da ältere Betriebssysteme wie dieses größere Partitionen nicht immer unterstützen. Unter Windows XP oder Server 2003 können Sie selbstverständlich eine zukünftige Festplatte mit z.B. 3 TB Speicherplatz betreiben; allerdings liegt die maximale Partitionsgröße bei 2 TB.

Andererseits gilt das Xeon-System nach heutigen Maßstäben als veraltet. Es ist verhältnismäßig laut und nimmt aufgrund eines ineffizienten 90-nm-Prozessors, der größtenteils dem Pentium 4 Prescott entspricht, im Leerlauf annähernd 250 W auf. Zudem dürfte die Performance die neusten Flash-SSDs einschränken. Für weitere Einzelheiten zum Thema Energieverbrauch versus Performance bei Flash-SSDs empfehlen wir Ihnen diesen Artikel: SSDsunter Volllast: Die Performance-Analyse.

Zusätzlich zu unseren Bedenken hinsichtlich Kapazität und Effizienz waren auch Funktionen ein Grund, uns von der alten Lösung zu verabschieden. Der integrierte Serial ATA-Controller basierte auf einem 6300ESB I/O-Controller-Hub und unterstützt somit lediglich SATA/150. Deshalb haben wir schon frühzeitig auf einen Promise FastTrak TX4310 SATA/300-Controller umgesattelt, der zunächst gute Arbeit geleistet hat, sich dann aber als Flaschenhals für Laufwerke mit einem Durchsatz von mehr als 100 MB/s erwies. Zum Zweck eines Vergleichs verursacht das keine Probleme, da die Performance mehrerer Laufwerke gleichermaßen limitiert war; allerdings bedeutete die begrenzte Controller-Performance für High Speed-Laufwerke wie Flash SSDs zusehends einen Flaschenhals.

Und schließlich war es nicht möglich, die Leerlaufleistung im so genannten Low Power Idle auf zahlreichen Laufwerken zu messen, da keiner der von uns verwendeten Desktop- oder Workstation-Controller die vom Gerät initiierte Energieverwaltung unterstützt hat. Das neue System, das auf einem X58-Chipsatz und ICH10R basiert, unterstützt endlich alle aktuellen Funktionen und bietet und damit etwas Kopffreiheit, bis im kommenden Jahr voraussichtlich SATA/600 auf den Markt kommt. Zudem erledigt das neue Core i7-System seine Arbeit bei einer Leerlaufleistung von gerade einmal etwas mehr als 100 W.

Display-Künstler: VillageTronic ViBook

Aktuelle Grafikkarten zum Einbau in den Computer bieten Anwendern meist von Haus aus die Möglichkeit, zwei Monitore am Computer zu betreiben. Wer einmal angefangen hat, seine tägliche Arbeit auf zwei Monitoren mit einer großen Bilddiagonalen und einer hohen Auflösung zu verteilen möchte diesen Komfort nicht mehr missen.

Eingeschränkte Anschlussmöglichkeiten

In dieser Hinsicht sind Notebook- und vor allem Netbook-Besitzer benachteiligt. Zwar bieten viele Notebooks die Möglichkeit, einen externen Monitor per D-Sub, DVI- oder HDMI-Ausgang anzuschließen; der kleinere Monitor bleibt jedoch stets das Notebook-Display. Aktuelle Netbooks bieten Anwendern zumeist sogar überhaupt keine Anschlussmöglichkeiten für einen externen Monitor. 

Dabei bieten doch auch gerade Netbooks durchaus genügend Leistung, um alltägliche Aufgaben wie das Senden und Empfangen von E-Mails, das Surfen im Internet oder das Erstellen und Bearbeiten von Textdokumenten zu erledigen.

USB-Grafikkarten

Damit auch Besitzer von Netbooks in den Genuss eines externen Monitors kommen können bietet es sich an, auf eine externe Grafikkarte zurückzugreifen, die per USB an das jeweilige Gerät angeschlossen wird. Durch diese Art des Anschlusses profitieren auch Besitzer von Computern, die nur einen Grafikkartenausgang besitzen und bei denen das Um- oder Nachrüsten einer Grafikkarte nicht möglich ist. 

Man denke hierbei zum Beispiel an PC-Gehäuse mit einer niedrigen Bauhöhe – so genannten Low-Profile Gehäusen. Mit dieser Lösung lassen sich somit auch an Notebooks mehr als ein externer Monitor anschließen, was sicherlich im einen oder anderen Anwendungsfall gewünscht sein kann.

Nachdem wir bereits im Artikel “USB-Grafikkarten: Alternative für zweiten Monitor” einen generellen Blick auf die Funktionsweise von USB-Grafikkarten geworfen sowie deren Vor- und Nachteile näher beleuchtet haben, werfen wir in diesem Artikel einen Blick auf die USB-Grafikkarte ViBook des Herstellers VillageTronic.

Die Performance-Eigenschaften von Solid-State-Laufwerken auf Flash-Basis, sogenannte Flash SSDs, sind nicht unumstritten. Während bei den neuesten Produkten die Spitzenleistung mit einem Durchsatz von nahezu 250 MB/s und mehrere tausend I/O-Vorgänge pro Sekunde mehr als beeindruckend ist, kann die Performance im alltäglichen Gebrauch ganz anders aussehen. Sie kann nämlich dermaßen abfallen, dass selbst herkömmliche Festplatten eine konstantere Performance bieten. Von den Produkten mit schwacher Performance einmal abgesehen bieten die jüngsten Produktgenerationen von Intel und Samsung aber dennoch mehr Vor- als Nachteile. Wir haben im Detail analysiert.

Wie definiert sich Performance?

Im Vergleich zu Flash-SSDs ist die Performance-Bewertung von normalen Festplatten einfach: Für Desktop- und Notebook-Laufwerke ist der Datendurchsatz in Megabytes pro Sekunde und die Zugriffszeit in Millisekunden entscheidend. Bei Servern und Workstation-Produkten benötigen Sie vor allem hohe I/O-Performance, um eine entsprechende Kaufentscheidungen treffen zu können. Obwohl auch die Energieeffizienz immer wichtiger wird, sind die angesprochenen Charakteristika weiterhin die entscheidenden Eckpunkte.

Für die Messung der Performance in realen Umgebungen verwendet man Anwendungs-Benchmarks, da diese repräsentative Betriebssequenzen simulieren. Das Festplatten-Format (3,5”/2,5”), die Aufzeichnungstechnologie, Datendichte und die Umdrehungsgeschwindigkeit sind die Schlüsselfaktoren mit dem größten Einfluss auf die Performance. Abgesehen davon sind verbleibende Faktoren wie die Interface-Bandbreite oder Cache-Kapazität lediglich zweitrangig.

Flash-SSDs sind anders

Im Wesentlichen eignen sich Festplatten am besten zum sequentiellen Lesen und Schreiben von Daten. Wenn allerdings die Köpfe zur Bearbeitung zufälliger Vorgänge neu positioniert werden müssen, so verlangsamt das den Durchsatz und die Anzahl der möglichen I/O-Operationen pro Sekunde entsprechend. Hier treten Flash-SSDs ins Rampenlicht: Diese Produkte zeichnen sich durch eine äußerst kurze Zugriffszeit aus, da sie statt mechanische Komponenten zu bewegen lediglich die richtige Position innerhalb des Speicher-Arrays ansprechen müssen. Zudem bieten aktuelle SSDs ungefähr den doppelten maximalen Durchsatz einer herkömmlichen Festplatte, indem sie – ähnlich wie bei 2- und 3-Kanal-RAM-Konfigurationen bzw. der RAID-Technologie – den Flash-Speicher in mehreren Kanälen aufreihen. Erst durch die Auswertung der I/O-Performance wird schließlich die Intelligenz des Flash-Controllers deutlich, der in einer Flash-SSD eingesetzt wird: Durch den Controller wird die Performance maximiert und Wear Leveling für die Flash-Zellen zur Verfügung gestellt, so dass diese sich gleichmäßig abnutzen.

Die SSD als Black Box

Flash-SSDs sind mit der Zeit immer komplexer geworden und ähneln mittlerweile einer Art Black Box. Während man sich bei herkömmlichen Festplatten noch leicht vorstellen kann, wie Daten gespeichert werden, ist die physische Positionierung und Strategie zum Speichern von Daten bei Flash-SSDs nicht ganz so einfach. Je nach Typ des NAND-Flash-Speichers können Sie einschätzen, ob eine Flash-SSD lediglich bei sequentiellen Lesevorgängen gut ist oder ob diese zudem auch hohe Schreib- und I/O-Performance bietet. SLC-Flash (Single Level Cell) ist schneller, da es pro Flash-Zelle nur ein einzelnes Bit speichert. Allerdings ist SLC generell teuer – und damit meist zu teuer für Mainstream-Produkte. Die Alternative nennt sich MLC-Flash (Multi Level Cell). Dieser Typ speichert anhand mehrerer Spannungsebenen mehrere Bits pro Flash-Segment und bietet dadurch höhere Kapazitäten.

Allerdings führt die Kombination von klugen Controllern und mehreren Flash-Kanälen zu einer dynamisch angepassten Nutzung der verfügbaren Flash-Ressourcen. Ein sequentieller Datenstrom wird also niemals wirklich sequentiell geschrieben. Da eine Datei wenige Bytes bis hin zu vielen Gigabytes groß sein kann und Schreibvorgänge oft ein Auslesen, Löschen und Neubeschreiben von MLC-Zellen beinhalten, nimmt die Komplexität der Datenspeicherung tendenziell zu, was einen erheblichen Einfluss auf die Flash-SSD-Performance haben kann. Die Performance-Einflüsse werden umso stärker, sofern Sie die gesamte SSD-Kapazität nutzen, wodurch dem Flash-Controller weniger Möglichkeiten zur Optimierung der Performance bleiben. Diesbezüglich stehen allerdings ein paar Möglichkeiten zum Gegensteuern zur Verfügung – wie auch Firmware-Aktualisierungen einzelner Hersteller. Letztere dienen der Optimierung der Flash-Controller und verringern etwaige Performance-Schwankungen, bis zukünftige Betriebssysteme hoffentlich neue Dateisystemen bieten, die sich des zugrundeliegenden Speichertyps (Flash oder Festplatte) bewusst sind und Schreibvorgänge entsprechend anpassen.

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen