Monat: Januar 2010

Notebook-Festplatten: Gestern und Heute

Wir haben kürzlich getestet, welchen Einfluss die Aufrüstung einer Festplatte auf einen Desktop-PC hat und wollten wissen, ob es sinnvoll ist, eine drei Jahre alte Festplatte durch eine neue zu ersetzen. Diesen Vorgang betrachteten wir im Zusammenhang mit einem möglichen Betriebssystem-Update von Windows XP oder Vista auf Windows 7, was zahlreiche Anwender dieser Tage in Erwägung ziehen. Hinsichtlich der Leistungsaufnahme waren die Vorteile zwar lediglich gering, jedoch  konnten wir die entwicklungsüblichen Performance-Steigerungen nachweisen. Kurz gesagt: Sofern Sie mit dem Gedanken spielen, Ihr System komplett umzumodeln, ist es durchaus sinnvoll, auch eine neue Festplatte zu installieren. Immerhin ist das Niveau im Hinblick auf Kapazität, Performance und Leistungsaufnahme merklich gestiegen. Wie sieht es damit aber bei mobilen PCs aus? Lässt sich durch einen Austausch der Festplatte auch in diesem Segment die Performance oder die Akku-Laufzeit deutlich steigern?

Obwohl Desktop-Laufwerke mittlerweile auch mit einer Kapazität von bis zu 2 TB erhältlich sind, muss gesagt werden, dass der Fortschritt im mobilen Segment größer war. Einerseits sind die 2,5-Zoll-Festplatten üblicherweise noch immer deutlich langsamer als Desktop-Festplatten. Andererseits sind Speicherkapazitäten auf gerade einmal ein Drittel der Kapazität im Desktop-Segment beschränkt (derzeit 640 GB). Zudem besteht durchaus der Bedarf die Leistungsaufnahme und Effizienz weiter zu verbessern. Schließlich ist das mobile Segment deutlich stärker gewachsen als der Desktop-Bereich.

Mobile 2,5-Zoll-Festplatten lassen sich in zwei Kategorien aufteilen: Mainstream und High-Performance. Mainstream-Laufwerke bieten im Regelfall hohe Kapazitäten bei einer Umdrehungsgeschwindigkeit von 5.400 U/Min, wohingegen High-Performance-Modelle mit 7.200 U/Min rotieren, dafür aber meist eine geringere Kapazität bieten. Mainstream-Laufwerke sind mit einer Kapazität von bis zu 640 GB erhältlich (9,5 mm Bauhöhe), während die Kapazität im High-Performance-Segment bei 500 GB liegt.

Für unsere Tests haben wir einen Dell Latitude D630 Laptop mit einer Hitachi TravelStar 7K200 mit 160 GB verwendet. Dabei handelt es sich um eine der ersten SATA-Festplatten mit 7.200 U/Min. Erst vor kurzem hat Hitachi seine TravelStar 7K500 Festplatten auf den Markt gebracht, die zwei Generationen jünger sind als die 7K200. Wie groß ist die Auswirkung auf die Performance unseres Core 2-Notebooks? Ist das neue Laufwerk effizient genug, um die Akku-Laufzeit zu verlängern? Finden wir es heraus.

AMD-Netbook: Acer Ferrari One 200

Netbooks gibt es viele, doch die meisten basieren auf Intels Atom-Plattform. Einige wenige scheren aus und nutzen VIAs Nano-Prozessor. AMD-CPUs findet man hingegen selten. Dabei hat der Intel-Konkurrent auch vergleichsweise sparsame Rechenwerke im Programm, auch wenn es sich bei den Neos und den genügsamen Athlon-X2-Varianten eigentlich mehr um für den Mobilbetrieb abgewandelte Desktop-Architekturen handelt als um von Grund auf für Notebooks entwickelte CPUs. Acers Ferrari-Familie ist komplett auf AMD-CPUs abonniert, und so kommt hier trotz Netbook-Formats eben keine Intel Architektur zum Einsatz sondern eine Kombination aus AMD Athlon X2 L310 (den man jedoch auf AMDs Webseite vergeblich sucht) und der mobilen Variante des 780G-Chipsatzes.

Design

Das Ferrari-Branding verpflichtet natürlich zu einem gewissen sportlich-schicken Design: Der feurrote Hochglanz-Deckel mit Ferrari-Logo macht zwar optisch viel her, zeigt aber schnell Fingerabdrücke. Das schwarze Interieur wirkt sportlich und zurückhaltend zugleich; seine geriffelte Handballenauflage erinnert an eine Zielflagge beim F1-Rennen und trägt unten rechts ebenfalls das Ferrari-Emblem. In der silber-farbenen Trackpadtasten-Wippe findet sich der „Ferrari One“ Schriftzug wieder. Für farbliche Abwechslung ist gesorgt, denn neben der rot leuchtenden Power-Taste finden sich noch diverse blaue, orange-farbene und weiße Status-LEDs in der Arbeitsfläche

Auch der POST-Bildschirm bleibt nicht außen vor und zeigt einen F1-Flitzer in voller Fahrt – das ist definitiv ansehnlicher als ein schnödes Acer-Logo oder die technisch-kühle Anzeige beim Selbsttest. Etwas übertrieben ist dann die Soundkulisse beim Windows-Start, denn dann röhrt der Rennwagen, der als Hintergrundbild dient, als Start-Sound laut auf. Beim ersten Mal erschrickt man, wenn man es nicht kennt oder erwartet, und nach kurzer Zeit sucht man sich etwas genervt einen anderen Klang.

Fast jeder Prozessor lässt sich auf einem ordentlichen Motherboard entsprechend leicht übertakten. Allerdings gelangt man als Anwender irgendwann an den Punkt, an dem man für schnellere Taktraten die Spannung erhöhen muss. Dadurch nimmt der Prozessor dann allerdings deutlich mehr Leistung auf. Es versteht sich also fast von selbst, dass es einen Punkt gibt, an dem ein Prozessor die beste Performance pro Watt liefert. Nun ist es an der Zeit, diese perfekte Taktrate für den neuen Intel Clarkdale Dual-Core herauszufinden, der wiederum als Core i3 und Core i5 erhältlich ist.

Eine derartige Analyse haben wir bereits auf diversen anderen Systemen durchgeführt, wobei wir auf interessante Fakten gestoßen sind:

–      Der Phenom II X4 Quad-Core (Deneb) auf Sockel AM3 bietet die beste Performance bei noch akzeptabler Leistungsaufnahme bei etwa 3,6 GHz.
Lesen Sie hierzu unseren Artikel Optimizing Your Phenom II Overclock for Efficiency

–      Ein Core 2 Duo E8000 (Wolfdale) auf einem Sockel LGA 775 ist übertaktet bei ungefähr 3,8 GHz am effizientesten.
Lesen Sie hierzu unseren Artikel “Richtig schnell, trotzdem Sparsam: Core 2 perfekt übertaktet

–      Der Core i7-900 Quad-Core (Bloomfield) auf einem Sockel LGA 1366 liefert die beste Performance pro Watt bei 3,66 GHz.
Lesen Sie hierzu unseren Artikel Overclocking Core i7: Power versus Performance

–      Schließlich haben wir noch noch die beste Effizienz eines Core i5-700 Quad-Core (Lynnfield) auf einem Sockel LGA 1156 ermittelt: Diese liegt regulär bei 3,2 GHz und bei bis zu 3,84 GHz mit aktivierter TurboBoost-Funktion.
Lesen Sie hierzu unseren Artikel “Core i5 in Perfektion: Die optimale Taktrate

Während der 45-nm Core 2 Duo seine beste Performance pro Watt bei ungefähr 3,8 GHz erreicht, erwarten wir bei den Core i5 Dual-Core Prozessoren höhere Taktraten. Die neuen Chips haben selbst mit integrierter Grafikeinheit einen deutlichen Vorteil, da die CPU-Einheit jetzt mit dem 32-nm-Prozess gefertigt wird.

Zahlreiche Publikationen haben bereits darüber berichtet, dass man Core i5 Dual-Core Prozessoren mit relativ geringem Aufwand und mit Luftkühlung auf 4,2 – 4,5 GHz hochtreiben kann. Sofern Sie etwas genauer recherchieren, stoßen Sie zudem auf Berichte, in denen von 6 – 7 GHz unter Verwendung von Flüssigstickstoff die Rede ist – ein eindeutiger Beweis, dass diese Architektur ausreichend Spielraum nach oben bietet. Sobald Intel die modifizierten Prozessor-Steppings veröffentlicht, dürften in wenigen Monaten 5 GHz mit Luftkühlung durchaus möglich sein.

Wir haben uns das Core i5-661 Dual-Core-Testmodell geschnappt (3,33 GHz nominale Taktrate, 3,60 GHz max. mit TurboBoost, 900 MHz Grafiktakt) und dieses durch die Steigerung des Basistakts (Base Clock – BCLK) übertaktet. Hierbei ist es wichtig, die Taktrate des Grafik-Chips im Auge zu behalten, da diese vom Basistakt des Systems abhängt. Bei unserem Übertaktungsvorhaben ging es in erster Linie um die Steigerung des Basistakts, um so die nominale Geschwindigkeit des Prozessors zu erhöhen, während TurboBoost und sämtliche Energiesparfunktionen wie C-Steps und SpeedStep aktiviert bleiben.

Sicherheit ist heutzutage ein besonders wichtiges Thema – was allerdings hauptsächlich von Profis als solches gesehen wird. Sobald Sicherheit allerdings zu einem Verkaufsargument oder zu einem Geschwindigkeitsfaktor wird, dürfte das ganze auch für Unternehmen wie Intel bedeutend interessanter werden diese zu vermarkten. AES, der Advanced-Encryption-Standard, wurde von der NSA und der Regierung der Vereinigten Staaten sowie von zahlreichen anderen Einrichtungen zertifiziert. Die 32-nm Dual-Prozessor-Generation von Intel verspricht durch die Einführung neuer Befehlssätze nun deutliche Performance-Vorteile bei der Ver- und -Entschlüsselung mit AES (ausschließlich Core i5 Dual Cores). Wir haben die reellen Vorteile getestet und dafür einen Core i5-661 Dual Core mit Intels AES New Instructions (AES-NI) mit einem Core i7-870 Quad Core ohne Krypto-Funktionen verglichen.


Verschlüsselung wird weitaus häufiger eingesetzt als angenommen. Angefangen mit Webseiten, die wichtige Informationen wie persönliche Daten enthalten bzw. Seiten, die wichtige Daten für diverse Transaktionen nutzen: All diese Seiten verwenden TLS bzw. SSL. Dienste wie VoIP, Instant Messaging und Email werden auf dieselbe Art geschützt: VPNs, also Virtuelle Private Netzwerke, sind ein weiteres und zudem sehr bekanntes Beispiel. Auch für höchst sensible Vorgänge wie elektronische Zahlungen ist eine Verschlüsselung unerlässlich. Allerdings ist TLS/SSL ein kryptografisches Hybrid-Protokoll zur Datenübertragung, während AES, das von Intel mit der neuen 32-nm Prozessor-Generation beschleunigt wird, für mehrere Zwecke eingesetzt werden kann. So lassen sich mit AES zum Beispiel einzelne Dateien, Daten-Container und archivierten Dateien aber auch Speicher-Partitionen und ganze Laufwerke verschlüsseln– sei es ein USB-Stick oder eine Systemfestplatte. AES kann eine reine Softwarelösung sein und auch über die Hardware beschleunigt werden; immerhin geht es bei der Ver- und Entschlüsselung um recht umfangreiche Arbeitslasten. Lösungen wie Microsofts BitLocker, das Bestandteil von Windows Vista und Windows 7 Ultimate ist, oder TrueCrypt können gesamte Partitionen in Windeseile verschlüsseln.

Ob Sie sensible oder sogar kritische Daten auf Ihrem System haben, hängt natürlich neben Ihrer Definition dieser Eigenschaften auch von Ihrem persönlichen Komfortniveau ab. Hinzu kommt, dass Sicherheit immer auch von der richtigen Strategie und der Sorgfalt im Umgang mit sensiblen Daten abhängig ist. Angaben wie Kreditkartennummern einschließlich des Ablaufdatums und der Sicherheits-Codes oder PINs und TANs fürs Onlinebanking sollten niemals ungesichert abgespeichert werden.

Eines ist sicher: Vorsicht und Sorgfalt zahlen sich mit Sicherheit eher aus als ein lässiger Umgang mit solchen Daten – besonders wenn dazu nur ein geringer Aufwand notwendig ist. Der Ansatz von Intel, die AES-Beschleunigung zu integrieren, deckt zwar nicht alle Verschlüsselungsanwendungen und -szenarien vollständig ab, dafür aber den beliebtesten Standard – der auf allen künftigen 32-nm Desktop-Prozessoren im Mainstream und den gehobenen Segmenten kostenlos zur Verfügung stehen wird. Bietet AES-NI für typische Verschlüsselungs-Szenarien einen deutlichen Vorteil oder handelt es sich hierbei lediglich um einen Marketing-Gag? Wir haben es für Sie ausprobiert.

Zunächst möchten wir an dieser Stelle unbedingt auf den ersten Teil des Artikels verweisen, der die Grundlagen enthält, auf denen diese Fortsetzung aufbaut. Der erste Teil wird zum besseren Verständnis vorausgesetzt: ATI im Rückwärtsgang? 2D-Leistung bleibt auf der Strecke

In diesem zweiten Teil beschäftigen wir uns nun verstärkt mit der Relevanz des GDI, erklären die 2D-Grafikausgabe im Detail und stellen unseren einfachen 2D GDI-Benchmark vor. Um dessen Ergebnisse richtig einordnen zu können, sind natürlich einige theoretische Grundkenntnisse nötig. Wir haben deshalb die Thematik etwas weiter vertieft, wobei wir auch diesmal die Darstellung stark vereinfacht haben, so dass es einfach und verständlich bleibt. Natürlich bleiben dadurch technische Finessen auf der Strecke, aber die Verständlichkeit für die breite Leserschaft hat Vorrang.

Direct2D oder GDI? Oder sogar beides?Direct2D oder GDI? Oder sogar beides?

Warum testen wir in Zeiten von Windows 7 und Direct2D noch das GDI?

Man könnte meinen, spätestens seit der Einführung von DirectX10-fähigen Grafikkarten und Vista wäre das alte GDI für die Ausgabe der 2D-Zeicheninhalte überflüssig. Mit WPF (Windows Presentation Foundation) und damit auch Direct2D steht auf diesen Systemen der von Microsoft propagierte Nachfolger seit längerer Zeit schon in den Startlöchern. Allerdings gibt es auch heute noch eine Menge Argumente und Gründe, warum das GDI (Graphics Device Interface) immer noch eine nicht zu bestreitende Bedeutung besitzt und man deshalb einen Teil des Augenmerkes auch auf diesen Bereich legen sollte.

  • Das GDI unterstützt auch ältere Grafikkarten, Direct2D benötigt zumindest eine Grafikkarte mit DirectX10-Unterstützung
  • Das GDI gibt es, seit es Windows gibt, Direct2D läuft erst ab Vista und Windows 7
  • Alle Programme, die zu XP (und älter) kompatibel sind nutzen das GDI

Viele Softwarehersteller schrecken bis heute vor der Umstellung zurück, denn man greift bei unterschiedlichen Programmen oft genug auf die gleichen Bibliotheken zu, die einmal fertig erstellt wurden. Eine Umstellung dieser Module hätte auch eine Anpassung aller betroffenen Programme zur Folge. Da die Leistungssteigerung in vielen Fällen kaum subjektiv spürbar ist, verdrängen Softwarehersteller diese Umstellung gern aus ökonomischen Gründen. Wenn man zum Beispiel mit verfolgt, wie lange allein die Implementierung von Direct2D in Teile des Mozilla Firefox dauert, wird man die Industrie verstehen, wenn sie diese Umstellung nur sehr langsam vollzieht. Darüber hinaus wäre es für viele Firmen aus betriebswirtschaftlichen Gründen keine Option, XP-Kunden als Zielgruppe komplett auszuschließen. Beides zu implementieren würde sich dann auf den Preis niederschlagen, den keiner mehr zu zahlen bereit wäre. Das GDI wird uns allein aus diesen Gründen sicher noch so lange erhalten bleiben, wie XP eine nennenswerte Rolle im Endanwenderbereich spielt.

Direct2D als Teil der Direct3D-Ausgabe (D3D)Direct2D als Teil der Direct3D-Ausgabe (D3D)

Doch es gibt auch technische Gründe. Der bestehende und oft sehr ausgereifte Code ist nicht wirklich 1:1 portierbar. Direct2D erzeugt zudem einen nicht zu verachtenden Overhead und kann eigentlich nichts, was Direct3D auch könnte. Und wo man auf Direct3D lieber verzichtet, wird man die Gründe sicher gut abgewogen haben. Das GDI kann zudem unabhängig vom Ausgabegerät (Monitor, Drucker) genutzt werden. Eine einzige Routine kann so innerhalb eines Programmes gleichzeitig zum Anzeigen und zum Drucken aufgerufen werden, der Code und der Programmieraufwand reduzieren sich dadurch auf die Hälfte und auch die Fehlerwahrscheinlichkeit sinkt.  Viele der vorhandenen preiswerteren Drucker sind zudem GDI-Drucker, so dass  dieser Bestandteil des Betriebssystems  vorerst wohl auch weiter erhalten werden wird, zumal es immer noch genügend  Druckertreiber gibt, die nur das GDI unterstützen.  

Der Sinn des Ganzen

Wir selbst sehen die Umsetzung von WPF/Direct2D natürlich als von Microsoft forcierten und wohl sicher auch unumkehrbaren technischen Fortschritt, möchten aber bei aller Euphorie über neue Techniken mit diesem Artikel noch einmal nachdrücklich an die Gegenwart erinnern.  Es gibt einschließlich Windows XP noch so viele technische Altlasten, dass man sich nicht nur nach vorn orientieren kann, ohne die aktuelle Lage zu berücksichtigen. Dass so etwas schnell schief gehen kann, erkennt man am Beispiel der XP-Phobie der 780G/785G-Onboardgrafik wohl am besten.

Wir wollen die Benchmarks des ersten Teils noch einmal mit einem modifizierten Programm wiederholen und dieses dann allen Lesern zum Download bereit stellen. Nur so viel sei verraten, auch extrem teure Karten patzen bei simplen Operationen, wenn sie von Nachlässigkeiten im Treiber ausgebremst werden.

Zur Steigerung der Speicherkapazität mussten Anwender vor einigen Jahren ihre Festplatte entweder ersetzen oder ein zusätzliches Laufwerk installieren. Heute gibt es zahlreiche Möglichkeiten, den Speicherplatz durch zusätzliche externe Geräte zu erweitern. Tragbare Laufwerke im 2,5-Zoll-Format bringen bis zu 640 GB und dürften bald auch 1 TB erreichen; 3,5-Zoll-Festplatten bieten bis zu 2 TB auf einem einzelnen Laufwerk. Enthusiasten dürften sich in dieser Hinsicht für eine Storage-Box auf RAID-Basis entscheiden, die mehrere Festplatten nutzt. Allerdings hängt die Performance auch immer vom Interface ab, weshalb wir uns entschieden haben zwei beliebte Laufwerks-Optionen zu testen: Ein USB 2.0-Laufwerk mit hoher Kapazität und ein Combo-Produkt, das zudem Firewire 400, Firewire 800 und eSATA bietet.

2,5” vs. 3,5”

Das Bild in unserer Einführung zeigt auch ein tragbares 2,5-Zoll-Laufwerk. Alles, was wir im weiteren Verlauf besprechen werden, bezieht sich sowohl auf tragbare 2,5-Zoll-Laufwerke wie auch auf externe 3,5-Zoll-Laufwerke. Mit USB 2.0 liefern beide Formfaktoren eine ähnliche Performance, wohingegen die Modelle mit 2,5 Zoll nicht unbedingt ein zusätzliches Netzteil benötigen. Es gibt jedoch nur wenige 2,5-Zoll-eSATA-Laufwerke, wobei man bei 2,5-Zoll-Laufwerken weniger Durchsatz erwarten darf als bei den größeren 3,5 Zoll-Modellen.

USB gegen den Rest

USB 2.0 gibt es bereits seit vielen Jahren, wobei es auch nicht übertrieben ist zu behaupten, dass diese Schnittstelle mittlerweile auf jedem Computer verfügbar ist – ganz egal, ob von Desktop-PCs, Notebooks oder Servern und Windows- oder Apple-Systemen die Rede ist. Und obwohl USB 2.0 zur Verfügung steht, zuverlässig funktioniert, kompatibel und leicht zu verwenden ist, gibt es einen Nachteil, der die Industrie veranlasst hat, mit Blick auf die Zukunft etwas Neues zu entwickeln: USB 2.0 ist auf 480 Mbit/s beschränkt, was sich im alltäglichen Gebrauch in einer maximale Bandbreite von 30-35 MB/s äußert. Dies ist für die meisten Geräte und die übliche Nutzung sicherlich mehr als genug. Sobald man allerdings mehr will oder braucht, um zahlreiche Gigabytes and Daten regelmäßig hin- und herzubewegen, kommt mehr Bandbreite sehr gelegen.

Firewire bzw. IEEE 1394 ist ebenfalls schon seit mehreren Jahren verfügbar. Der erste Standard Firewire 400 bzw. 1394a bietet einen Durchsatz von 400 Mbit/s und eine isochrone Übertragung, die für die Datenübertragung in Echtzeit notwendig ist – was man zum Beispiel vor allem für die Übertragung digitaler Videodateien benötigt. Firewire 800 bzw. 1394b verdoppelt den Durchsatz auf 800 Mbit/s. Allerdings wurde weder der eine noch der andere Standard wirklich zum Mainstream. Obwohl Firewire beliebt und weitverbreitet ist, wird es nicht annähernd so häufig eingesetzt wie USB.

Schließlich wäre da auch noch eSATA, externes Serielles ATA. Hierbei handelt es sich um eine veränderte Version des SATA-Standards, den die meisten Computer  unterstützen, um Festplatten und optische Laufwerke anzuschließen. Um längere Kabel für externe Geräte zu unterstützen wurden die elektrischen Spezifikationen des SATA-Standards modifziert. Hinzu kommt, dass die Konnektoren unterschiedlich sind, um deren Verwechslung zu verhindern. Die Kabellänge von bis zu 2 m reicht für den Betrieb von Speichergeräten aus, wobei sowohl Firewire als auch USB längere Kabel von 4,5 m und 5 m unterstützen. Allerdings ist eSATA genauso schnell wie internes SATA, was bedeutet, dass es bis zu 300 MB/s für 3 Gbit/s SATA-Links liefert.

Zukünftige Firewire-Standards wie 1394d dürften bis zu 6,4 Gbit/s bieten. Allerdings werden diese womöglich auch nicht gerade als Mainstream taugen. USB 3.0 (auch als SuperSpeed USB bekannt) bietet 4,8 Gbit/s und dürfte einen effektiven Durchsatz von bis zu 400 MB/s erreichen. Dieser Standard wird derzeit schon verarbeitet, wobei es noch ungefähr eine weitere Chipsatz-Generation (also ein weiteres Jahr) dauern dürfte, bis die meisten Systeme tatsächlich mit USB 3.0 ausgestattet sein werden. eSATA mit 6 Gbit/s verfügt ebenfalls über das Potential zusätzliche Bandbreite zu liefern, allerdings glauben wir, dass USB 3.0 vorherrschen wird.

Stellt sich also die Frage: Was sollten Anwender einsetzen?

Combo-Laufwerke

Der Speichermarkt bietet hunderte tragbare und externe Festplatten, die die USB 2.0-Schnittstelle nutzen. Die meisten davon liefern eine ähnliche Performance. Zudem kann man beim Kauf eines derartigen Produktes wirklich nicht sonderlich viel falsch machen. Sollten Sie sich allerdings für ein Produkt mit höherer Speicherkapazität entscheiden, muss man beachten, dass es einige Stunden in Anspruch nimmt, hunderte Gigabytes zu lesen oder zu schreiben.

Laufwerke, die zu USB 2.0 noch weiteren Schnittstellen anbieten, scheinen ein guter Kompromiss: Firewire 800 bietet einen höheren Durchsatz und eSATA verspricht eine Festplatten-Performance ohne jeglichen Flaschenhals für moderne Speicherprodukte. Wir haben einen 2 TB-Riesen von Hitachi, der ausschließlich USB 2.0 bietet und ein 1 TB Quad-Interface-Combo-Laufwerk von G-Technology getestet, um den effektiven Performance-Unterschieden auf den Grund zu gehen.

Desktop-Festplatten fürs neue Jahr

Die Festplattenhersteller bereiten sich schon auf die nächst höheren Speicherdichten vor, um so die Anzahl der sich drehenden Platter für beliebte Kapazitäten wie 500 GB bzw. 1 TB zu verringern. Eine höhere Kapazität pro Platter führt ebenfalls zu einer höhereren Gesamtkapazität, da die derzeitige maximale Speicherkapazität von 2 TB pro Laufwerk 2010 übertroffen wird. Allerdings erwarten Anwender ein ausgewogenes Verhältnis von Geschwindigkeit, Kosten, Kapazität und Leistungsaufnahme. Wir haben drei Premium-Produkte von Hitachi, Samsung und Seagate für Sie getestet.

Bis zu 5 Platter

Festplatten mit hoher Kapazität und besonders hoher Platter-Anzahl bescherten Hitachi Global Storage Technologies, auch als Hitachi GST bzw. HGST bekannt, bislang entsprechenden Erfolg. Die jüngste Deskstar 5K2000 unseres heutigen Tests wie auch die Deskstar 7K1000 erster Generation mit 1 TB basieren beide auf fünf Platter, was wiederum auch für die 7K500 gilt. Für diesen Ansatz hat man sich bei Hitachi vor allem wegen der Widerstandsfähigkeit entschieden: Laut Unternehmen ist eine höhere Platteranzahl mit geringerer Speicherdichte pro Platter auch weiterhin die bessere Wahl. Obwohl wir keine spezifischen Ausfallraten zur Hand haben, können wir bestätigen, dass die jüngste Festplatten-Generation mit 5 Platter von Hitachi nicht sonderlich viel negative Presse hatte.

Wie immer gibt es keinen perfekten Ansatz, weshalb andere Festplattenhersteller versucht haben, die Platteranzahl so schnell wie möglich zu verringern. Hauptgrund dafür ist der sogenannte Sweet Spot des Festplattenmarktes, der sich auf die Kapazität mit einem idealen Verhältnis von Kosten pro Kapazität bezieht. Ganz offensichtlich sind die Gesamtkosten bei der Verwendung eines einzelnen Platters am geringsten. Hier ist der Hersteller im Vorteil, der die größte Kapazität auf einem einzelnen Platter unterbringen kann. Dabei sollte man allerdings auch weitere Faktoren wie die Umdrehungsgeschwindigkeit beachten, die ebenfalls einen merklichen Einfluß auf Performance, Leistungsaufnahme und natürlich auch die Speicherdichte hat.

Neue Laufwerke

Dieser Test umfasst drei Desktop-Festplatten im 3,5-Zoll-Format, die kaum unterschiedlicher sein könnten. Die Deskstar 7K2000 von Hitachi ist das neue Aushängeschild des Unternehmens mit 2 TB und fünf Platter. Samsung hat uns für diesen Test seine Spinpoint F3 mit einer eher durchschnittlichen Kapazität von 1 TB zugeschickt. Schließlich hat uns auch Seagate eine Barracuda XT 2 TB zur Verfügung gestellt, die als neues High Performance-Laufwerk gilt. Wie immer haben wir einen Blick auf Performance, Leistungsaufnahme, Geräuschniveau und Gesamteffizienz geworfen.

Der Universal Serial Bus (USB) hat sich seit seiner Einführung vor über zehn Jahren sehr stark weiterentwickelt. Das Interface mauserte sich über die Jahre hinweg zu einer der beliebtesten Schnittstellen im Computerbereich überhaupt. Dutzende verschiedene Geräte wie Speichersticks, MP3-Player, Handys, Drucker, Scanner oder Festplatten lassen sich inzwischen zuverlässig und unkompliziert an der Anfangs als Useless Serial Bus verspotteten Schnittstelle betreiben.


In den Anfangstagen lieferte die USB-Schnittstelle recht bescheidene Übertragungsraten von 1,5 MBit/s (USB-1.0) beziehungsweise 12 MBit/s (USB-1.1) was auch Grund zum Zweifel an der Daseinsberechtigung einer solchen Schnittstelle gab. Die heute bekannte Popularität erlangte die USB-Schnittstelle erst, nachdem im Jahr 2000 die Spezifikationen geändert und unter anderem die Datenraten auf bis zu 480 MBit/s erhöht wurden. Zwei Jahre später kamen dann verstärkt Peripheriegeräte auf den Markt, die die USB-2.0-Schnittstelle nutzen. Der Rest ist Geschichte.

Auch heute ist die Popularität der USB-Schnittstelle ungebrochen. Durch den Wandel der Technik und den damit einhergehenden immer größer werdenden Datenmengen zeigen sich jedoch die Grenzen der knapp 10 Jahre alten USB-2.0-Technologie und deren nicht mehr zeitgemäßen Datenübertragungsraten.

Backup auf externe Speichergeräte

Die USB-Schnittstelle ist durch ihre hohe Verbreitung und Akzeptanz sowohl bei Herstellern als auch bei Anwendern geradezu prädestiniert dafür, nicht nur Peripheriegeräte wie Scanner oder Drucker mit dem Computer zu verbinden, sondern auch als Schnittstelle zum Anschluss von externen Speichermedien zu dienen. Die für heutige Verhältnisse relativ geringe maximale Datenübertragungsrate von 480 MBit/s (60 MByte/s) bei USB-2.0 macht die Sicherung großer Datenmengen zu einem zeitaufwändigen Ereignis. Dieses Szenario lässt sich nicht nur auf Desktop-PCs Anwenden, auf denen mehrere hundert Gigabyte große Multimediasammlungen abgespeichert sein können, sondern zum Beispiel auch auf NAS-Geräte, bei denen Gesamtkapazitäten von vier Terabyte oder mehr keine Seltenheit mehr sind. Denn Speicherplatz ist in den vergangenen Jahren immer günstiger geworden und die Preise pro Terabyte liegen aktuell je nach Festplattenmodell bei erschwinglichen 60 Euro.

… wird endlich gut?  – mit USB 3.0?

Stellt sich also die Frage, wie sich dieser Vorgang schneller durchführen lässt. Alternativ zur USB-2.0-Schnittstelle stünde die eSATA-Schnittstelle zur Verfügung. Diese bietet wie ein interner SATA-Port nominelle Datenübertragungsraten von 150 beziehungsweise 300 MByte/s an, was zumindest im letzteren Falle einen umfangreichen Datenübertragungsvorgang gegenüber USB-2.0 theoretisch um den Faktor fünf beschleunigt.

Problem hierbei ist jedoch, dass die eSATA-Schnittstelle zwar seit einigen Jahren existiert, sie jedoch bis heute nicht die Popularität und Verbreitung aufbieten kann wie sie die USB-Schnittstelle vorweist. Dies ist sicherlich auch dem Umstand geschuldet, dass an einer eSATA-Schnittstelle nur dementsprechende Speichergeräte angeschlossen werden können und keinerlei Peripheriegeräte wie zum Beispiel Scanner, Kameras oder Drucker. Mangels Verbreitung und passender Geräte stellt die eSATA-Schnittstelle daher in vielen Fällen keine Alternative dar.

Seit der Einführung von Windows 7 sind einige Monate ins Land gegangen. Die Grafikkartenhersteller haben zum Teil neue Modelle vorgestellt, sowie Treiber weiterentwickelt und veröffentlicht. Somit sollte auch genügend Zeit vorhanden gewesen sein, um anfängliche Fehler auszumerzen und damit objektive Tests zu ermöglichen, die über ein reines Beta-Stadium hinaus gehen.

Wir fanden deshalb, dass es endlich auch einmal an der Zeit ist, nicht nur die 3D-Leistung der aktuellen Hardwaregeneration zu testen, sondern dass es sich durchaus auch lohnen kann, einen Blick auf einen Bereich zu werfen, den wir täglich wie selbstverständlich nutzen, ihm aber nie größere Aufmerksamkeit schenken: den 2D-Bereich.

Ehrlicherweise müssen wir dazu im Vorfeld jedoch auch anmerken, dass diese Idee eines umfangreicheren Tests nicht zufällig entstand. Während das Hauptaugenmerk der meisten Anwender fast nur auf der Anzeigegeschwindigkeit der Betriebssystemoberfläche liegt und Windows 7 im Vergleich zu Vista allerorts nur gelobt wird, haben wir leider feststellen müssen, dass die eigentliche „Neuerung“ von Windows 7, nämlich die propagierte Wiedereinführung der bis Windows XP vorhandenen und mit Vista still und leise abgeschafften 2D-Grafikbeschleunigung, ganz offensichtlich bei einem der Grafikchiphersteller noch nicht ganz angekommen zu sein scheint, zumindest wenn es sich um die Belange der sauberen Implementierung von GDI-Aufrufen (Graphics Device Interface) handelt. Die sogenannte „2D-Grafik“ besteht eben nicht nur aus netten Überblendeffekten und animierten Menüs mit Schatten, sondern zunächst erst einmal aus ganz trivialen Sachen wie Pixeln, Linien, Kurven, Rechtecken, Kreisen, Polygonen und vielem mehr.

Wichtige Vorbemerkung

Wir möchten diesem Artikel keine emotionale Note geben, auch wenn sich die Anhänger der einen oder anderen Grafikkartenfraktion sicher die Augen reiben werden. Wir haben uns, weil wir die Ergebnisse erster Tests so nicht glauben wollten, im Interesse aller Betroffenen extra mehr Zeit genommen, um möglichst aussagefähige Ergebnisse zu erhalten und diese dann auch möglichst objektiv miteinander vergleichen zu können. Wir werden auch keinem Hersteller eine bewusste Vernachlässigung dieses Anwenderbereiches unterstellen, sondern verstehen unseren Artikel als Beitrag und Hilfe für diejenigen, die an ihren PCs nicht nur spielen, sondern auch arbeiten wollen und müssen.

Ausgehend davon, dass es aktuell sehr schwierig ist, beispielsweise mit einer HD 5870 und den aktuellen Treibern unter Windows 7 einigermaßen produktiv im 2D-Bereich zu arbeiten (einfache vektorbasierte Zeichen- und Gestaltungsprogramme, einfache oder komplexere CAD-Anwendungen) oder 2D-Spiele in hoher Qualität zu spielen, wollten wir nicht nur pauschal kritisieren, sondern den eigentlichen Ursachen auf den Grund gehen.

Theorie und Praxis:

Da den meisten Lesern die eigentlichen Funktionen und Hintergründe der 2D-Beschleunigung von Windows XP bis Windows 7 nicht bekannt sein dürften, haben wir diesen sehr umfangreichen Artikel zweigeteilt. In diesem ersten Teil werden wir zunächst die wissenswerten Hintergründe und technischen Grundlagen vermitteln, damit die Tests des zweiten Teils auch so verstanden werden können, wie man sie interpretieren muss. Dazu haben wir passend ein eigenes kleines Benchmarkprogramm entwickelt, das wir dann natürlich auch allen interessierten Anwendern zum Download anbieten werden. Informativ, lesens- und wissenswert ist auf alle Fälle beides.

Beginnen wir deshalb zunächst mit den Grundlagen und merken, dass ein wenig Hintergrundwissen nicht unbedingt schadet.

Vor ein paar Tagen präsentierte Intel seine neue CPU-Familie der Einstiegs- bis Mittelkasse, der wir uns im Artikel Intels Core i5-661: Clarkdale kommt, Core 2 darf gehen widmeten. Diesen Doppelchip aus CPU und Grafikeinheit gibt es jetzt leicht modifiziert auch als Mobilvariante für Laptops – bislang unter dem Codenamen Arrandale bekannt. Die wesentlichen Unterschiede sind das bessere Stromsparverhalten und das Layout für die Notebook-Montage.

Wie die Desktop-Variante nutzt auch das Mobilderivat den High-K/Metal-Gate-Herstellungsprozess mit 32 nm, wodurch die CPUs je nach Modell eine Verlustleistungsklassen von 35 Watt, 25 Watt oder 18 Watt aufweisen. Aufmerksame Leser wissen, dass das genau dieselben Klassen wie bei den Standard-Varianten der in 45 nm gefertigten Core 2 Duo Chips sind. Da stellt sich die Frage, wo genau der Vorteil liegt.

Wie beim Clarkdale sitzen auch beim Arrandale zwei Dies auf einem Prozessorträger. Im einen steckt der eigentliche Hauptprozessor, der in 32 nm gefertigt wird und Hyper-Threading beherrscht, während der andere mit 45 nm Strukturbreite den neuen Grafikkern, einen Speicher-Controller sowie einen PCI-Express-Controller beinhaltet. Da viele der klassischen Northbridge-Funktionen damit direkt in die CPU gerutscht sind, handelt es sich hier ähnlich wie bei den Kombinationen Lynnfield/P55 und Clarkdale/H55/H57 hier um eine Zwei-Chip-Plattform bestehend aus CPU und Plattform Controller Hub (PCH). Allein dadurch, dass die Northbridge eingespart wird, die beim GM45-Chipsatz noch Grafikkern und den Speichercontroller enthielt, entfällt eine Komponente, die bis zu 12 Watt an Leistung aufnahm. Während Arrandale selbst also keine revolutionären Einsparungen beim Energieverbrauch mit sich bringt, ermöglicht die gesamte Plattform ein System, die potentiell trotz höherer Performance länger läuft als derzeitig verfügbare Notebooks mit vergleichbarer Ausstattung.

Den neuen Prozessoren stehen eine Reihe Chipsätze und WLAN-Module mit Centrino-Marke als Kombinationsmöglichkeiten zur Seite. Eine Mobilplattform ohne Unterbau ist wenig wert, doch glücklicherweise stellte uns ASUS mit seinem neuen Notebook K42F ein geeignetes Testmodell zur Verfügung, das gegen ein möglichst ähnlich ausgestattetes Noebook von HP antritt.

  • 1
  • 2

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen