Monat: März 2010

Gerade bei schwächeren Grafikkarten wird für Kühler und Lüfter kaum das Referenzdesign des Chipherstellers verwendet, falls es denn überhaupt eines gibt. Qualität und Lautstärke schwanken bei den unterschiedlichen Designs extrem. Der klare Sieger ist HIS mit der IceQ+, in gewohnter Qualität ist der Doppel-Slot-Kühler sehr leise und verfügt über einen eigenen Luftkanal.

Radeon HD 5750 und Geforce GT 240 im Test.Radeon HD 5750 und Geforce GT 240 im Test.

Konkurrenz kommt von Asus, die einen extrem leisen 75-mm-Lüfter auf ihre Variante der Radeon HD 5750 setzen. Zotac kontert von der Nvidia-Seite und hat eine lüfterlose Geforce GT 240 ins Rennen geschickt. Dank 40-nm-Fertigung bleibt der Grafikchip so kühl, dass er bei geräuschloser, passiver Kühlung 68 Grad Celsius halten kann.

Für die 3D-Vergleiche gibt es ein neues Testsystem, brandneue Benchmarks, über 30 Vergleichsauflösungen und Qualitätsstufen, in denen sich die Karten mit bis zu achtfacher Kantenglättung (8AA) unter DirectX 9, 10 und 11 austoben dürfen. Trotz der neuen Anforderungen schneiden die kleinen Flitzer überraschend gut ab. Brauchbare 3D-Leistung gibt es schon für 95 Euro.

Trotz beeindruckender Leistung und hoher Effizienz sind viele fast schon enttäuscht, dass Intel keine aggressivere Form der Turbo Boost-Funktion implementiert hat. Sofern mehr Performance benötigt wird und die thermischen Rahmenbedingungen dabei nicht überschritten werden, erhöht diese Funktion die Taktraten für einen oder auch mehrere Kerne. Wir haben einen Blick auf die Performance des Core i7-980X geworfen und wollten wissen, welche Takteinstellung die effizienteste ist.

Ein perfekter Prozessor bietet nicht nur eine beachtliche Multi-Core-Performance. Der neue Core i7-980X mit sechs Kernen, Codename „Gulftown“, bietet mehr als genug  Performance für Anwendungen, die von den sechs Kernen oder, mit aktiviertem Hyper-Threading, den bis zu 12 logischen Threads profitieren. Gemessen an der Taktrate ist der Core i7-980X allerdings nicht Intels schnellster Prozessor: Turbo Boost ermöglicht dem 3,33 GHz-Prozessor die Erhöhung der Taktrate eines einzelnen Kerns auf 3,60 GHz. Ein Core i5-66x für $196 bietet ähnliche Geschwindigkeiten und damit eine ähnliche Single-Thread-Performance; der Core i5 670 ist mit 3,73 GHz sogar noch schneller und kann Intels $1000-Sechs-Kern-Flagschiff bei Single-Threaded-Arbeitslasten praktisch sogar überholen.

Dies wollten wir ändern und dabei dem Sechs-Kern-Monster mehr Performance entlocken. Schließlich handelt es sich hierbei ebenfalls um einen 32-nm Prozessor wie die bereits erwähnten Clarkdale Core i5 Dual-Core Prozessoren, die bereits erstaunliche Übertaktungsfähigkeiten gezeigt haben. Obwohl der neueste Prozessor jetzt sechs Kerne hat, sollte es doch möglich sein, den Gulftown soweit zu beschleunigen, dass er ohne Probleme die Konkurrenz aus dem eigenen Haus schlagen kann, dabei aber nicht unverhältnismäßig viel Leistung aufnimmt.

Plattform: Intel DX58SO

Zuerst hatten wir ein MSI X58 Pro-E verwendet, das wir allerdings durch ein anderes Motherboard ersetzen mussten, da es aus irgendeinem Grund den Dienst versagte. Wie dem auch sei: Die BIOS-Version 5000 von Intel unterstützt den Gulftown-Prozessor mit sechs Kernen sowie eine feine Abstufung der Taktraten für die Turbo Boost-Funktion.

Es liegt in der Natur von Hardware-Enthusiasten wie uns, sich so früh wie möglich über anstehende Hardware zu informieren und wie News-Junkies jeden Bericht zu lesen. Sobald die ersten technischen Daten die Runde machen, fangen wir an, uns ein Bild zu machen – egal, ob es sich dabei noch um Gerüchte, Hörensagen oder offizielle White Papers handelt.

Nvidias GeForce GTX 480 und 470 sind aber ein Sonderfall, denn die Firma ließ wenig Raum für Spekulationen. Schon vergangenen September begann der Grafikspezialist, die Vorzüge seiner neuen Compute-Architektur ausführlich darzulegen. Wir müssen zugeben, uns gefiel, was wir hörten. Im Januar ging Nvidia dann sogar sehr detailliert auf den Aufbau des GF100 ein, jener GPU, die auf dem Fermi-Design basiert. Das Fazit aus Nvidias Sicht: In DirectX-11-Titeln mit viel Geometrie-Berechnung würden die neuen Karten die Konkurrenz auf die Ränge verweisen. So langsam kribbelte es uns dann schon gewaltig in den Fingern.

GeForce GTX 480: Kühlfläche, wohin das Auge blicktGeForce GTX 480: Kühlfläche, wohin das Auge blickt

Man könnte also sagen, dass sich Nvidia selbst ins Knie geschossen hat, weil man zu früh zu viel preisgab. Immerhin haben wir jetzt Ende März, und seitdem Nvidia die ersten Informationen zu Fermi herausgab, sind sechs Monate vergangen. Erst vor einer Woche landeten endlich die ersten Desktop-Karten, die auf die neue Architektur setzen, bei uns im Testlabor.

Zu kaufen gibt es die beiden Neulinge noch nicht. Die ersten Karten mit Referenzdesign werden noch von Nvidia selbst produziert und sind in diesem Moment auf dem Weg zu den Distributoren. Sie sollten in weniger als zwei Wochen in den Händlerregalen stehen. Spätere Boards werden dann von den Partnern gefertigt und sollen im Laufe des kommenden Monats auftauchen. Wie steht es aber um die Verfügbarkeit? Laut Nvidia sind rechtzeitig zur Vorstellung zehntausende GF100-Grafikkarten auf dem Weg in den Handel, und bis Mitte April soll jeder, der über das nötige finanzielle Polster verfügt, eine GeForce GTX 480 (offizieller Preis: 500 US-Dollar) oder eine GeForce GTX 470 (350 US-Dollar) kaufen können.

Inwiefern diese Vorhersage zutrifft, wird sich allerdings noch zeigen müssen. Immerhin war AMD bei der Vorstellung der HD-5800-Serie nicht minder optimistisch, was die Verfügbarkeit anbelangte. Letztlich sah die Realität allerdings anders aus, und nach wie vor sorgt die geringe Ausbeute bei TSMCs 40-nm-Fertigung dafür, dass die Stückzahlen bei DX11-Karten eher niedrig sind.

Die Vergangenheit ist Geschichte

Gut, Nvidia betritt den Windows 7/DirectX 11 Markt also sechs Monate nach seinem Konkurrenten. Was aber zählt ist, dass man jetzt auch angekommen ist. Allerdings ist eine weitere Auswirkung der Verzögerungen, dass heute nur zwei Nvidia-Karten neun Radeon-HD-5000-Modellen gegenüberstehen. AMD hat seinen zeitlichen Vorsprung genutzt und alle Bereiche fleißig besetzt. Aufgrund der Kartenpreise von 350 und 500 Dollar können wir das Testfeld aber weiter eingrenzen, womit auf ATI-Seite nur noch die Radeon HD 5850, HD5870 und HD 5970 im High-End übrig bleiben. An diesen drei DX11-Karten müssen sich Nvidias Neuzugänge messen lassen. Das bedeutet aber auch, dass Nvidia zwei Drittel von ATIs DX11-Sortiment vorerst nichts entgegenzusetzen hat. Das setzt natürlich voraus, dass der Käufer überhaupt eine DX11-Karte sucht…

Um einen Vergleich mit den Flaggschiffen der letzten Generation zu ermöglichen, nehmen wir noch drei DX10-Karten ins Testfeld auf. Für AMD steigt hier die Radeon HD 4870 X2 mit zwei GPUs in den Ring. Nvidias Gegenstück dazu ist die ebenfalls mit zwei Grafikchips ausgestattete GeForce GTX 295. Als schnellste Nvidia-Karte mit einer GPU kommt auch die GTX 285 zum Einsatz.

GeForce GTX 470: Eleganter, auch schnell und ebenfalls heiß.GeForce GTX 470: Eleganter, auch schnell und ebenfalls heiß.

Anfangs sorgte Nvidias Ankündigung, die Fermi-Architekur werde vor allem auf wissenschaftliche Berechnungen (Compute Performance) hin optimiert, unter Spielern für einige Besorgnis, drohte doch die klassische Rolle der GPU Spiele zu beschleunigen in den Hintergrund zu rücken. Ohne Frage zielt die Architektur (und damit auch der GF100-Chip) durch die Nutzung von ECC-Speicher und verbesserte Performance bei doppelter Genauigkeit  darauf, den Einzug von Nvidias Tesla-Karten zunehmend auch in anspruchsvollen Supercomputern zu sichern. Das wird Nvidia auch gelingen. Die Performance-Zuwächse, die durch die massive Parallelisierung bestimmter Aufgaben möglich sind, sind enorm. Da Nvidia bereits in die Software-Entwicklung investiert, hat die Firma in diesem wachsenden Markt einen beträchtlichen Vorsprung gegenüber AMD/ATI und Intel. Es bleibt aber abzuwarten, wie die GF100-GPU mit „dem ganzen Rest“ klarkommt.

Kann Nvidias GF100 auch in Spielen überzeugen? Genau darum soll es hier gehen. Alles ist vorbereitet, die Testplattform aufgewärmt und einige neue Spiele in unseren Benchmark-Parcours aufgenommen. Bevor wir uns aber auf die Benchmarks stürzen, sollten wir uns noch die GeForce GTX 480 und die GTX 470 genauer anschauen.

Es gibt Anwender, die viel Speicher brauchen. In manchen Fällen sind es echte Power-User, die auf dem heimischen Rechner die gleiche Leistungsfähigkeit benötigen wie auf der Workstation im Büro, in anderen geht es einfach darum, den Rechner nach der Devise viel hilft viel auszustatten – einfach weil man es kann. Den Speicherherstellern ist beides recht, und so stellen sie schon seit längerem Module her, die von der Kapazität her auch einem Server gut zu Gesicht stünden, aber nicht über die Fehlerkorrektur ECC verfügen. Bei DDR1-Speicher stellte das 1-GB-Modul die Obergrenze dar. Mit der Einführung von DDR2-Speicher wurde die alte Obergrenze die Standard-Kapazität der neuen Generation, deren maximale Kapazität von 4 GB pro RAM-Riegel recht schnell erreicht wurde. Als DDR3 die Bühne betrat, hätte man erwarten können, dass dieser Trend sich fortsetzt: Dann wären schnell 4-GB-Riegel erschienen, und inzwischen wären wir bei 16-GB-DIMMs angekommen. Beim DDR3-Speicher wiederholte sich das Schema aber nicht.

Man könnte jetzt spekulieren, dass die Nachfrage nach höheren Speicherdichten eine Plateauphase erreichte, als 1080p sich als Videoauflösung zunehmend verbreitete oder 12-MPixel-Bilder die Norm wurden. Das würde aber immer noch nicht erklären, warum DDR2 gut zwei Jahre lang die einzige Wahl darstellte, wenn man einen möglichst großen Arbeitsspeicherausbau wollte. Wer ein DDR3-System besaß, musste lange Zeit entweder vier Module (Dual-Channel-Systeme) oder sechs Riegel (Triple-Channel) zusammenstecken, um auf 8 GB bzw. 12 GB zu kommen. Sollten es sogar 16 GB sein, musste man zu extrem teuren 4-GB-Module greifen, die aber zunächst auch noch auf sich warten ließen. Selbst als das 4-GB-DDR3-Modul im Mobilbereich kein Exot mehr war, musste man auf dem Desktop bis zu achtmal mehr zahlen, um den Speicherausbau mit DDR3-RAM zu verdoppeln.   

Der Durchbruch kam erst gegen Ende Herbst letztes Jahr, als G.Skill sein erstes Speicherkit mit hoher Kapazität vorstellte, das „nur“ viermal so viel kostete, wie Kits mit halb so viel Speicher. Nach und nach folgten auch andere Hersteller, und heute gibt es endlich einige 8GB-DDR3-Kits mit zwei Modulen, die sich die meisten High-End-Kunden auch leisten können.

Preislich liegen die getesteten Kits zwischen 320 und 430 Euro. Alle haben offiziell eine CAS-Latenz von 9 Takten, und sie scheinen sich nur bei der Datenrate zu unterscheiden, die je nach Kit entweder 1,333 MHz oder 1,600 MHz beträgt. Um herauszufinden, welcher Hersteller in diesem Preisbereich am meisten fürs Geld bietet, machten wir uns daran zu ermitteln, mit welchen möglichst niedrigen Latenzen die Kits noch stabil laufen, und welchen Takt sie maximal vertragen.

Festplatten im 1,8-Zoll-Format werden von vielen bereits totgesagt. Allerdings bewahrt ein konstanter Kapazitätszuwachs diesen kleinen Formfaktor vor dem Aussterben. Flash-Speicher, der eine logische Alternative zu Festplatten mit kleinem Formfaktor darstellt, wird den Kapazitätsansprüchen der Anwender im Consumer-Segment derzeit noch nicht gerecht. Mit anderen Worten: Flash-Laufwerke mit einer Kapazität von mehreren hundert Gigabyte Kapazität sind derzeit einfach noch zu teuer. Daher haben wir uns dazu entschieden, einen Blick auf die drei jüngsten 1,8-Zoll-Laufwerksgenerationen von Toshiba zu werfen und zu schauen, in welche Richtung sich Performance und Effizienz entwickeln.

Wer benutzt überhaupt noch 1,8-Zoll-Laufwerke?

Die Industrie hat vorausgesagt, dass Speicherlösungen für ultra-portable Notebooks und Netbooks zunehmend auf dem 1,8-Zoll-Formfaktor basieren. Dies ist zwar der Fall, allerdings trifft die Voraussage nur auf High-End- und Ultra-Portable-Notebooks zu. Bei Netbooks, eines der am schnellsten wachsenden Segmente, verzichtete man auf die Verwendung von Flash-Speicher, da diese Speicherart derzeit nicht die im Consumer-Segment erforderlichen Kapazitäten zu einem niedrigen Preis bietet, was eine Voraussetzung für die Fertigung kostengünstiger Netbooks ist. Daher basieren zahlreiche Netbooks heutzutage auf herkömmlichen 2,5-Zoll-Laufwerken.

Festplatten im 1,8-Zoll-Format werden derzeit für alle möglichen ultra-portablen Geräte eingesetzt, die eine hohe Kapazität und einen attraktiven Preis vereinen  müssen. Das ist neben zahlreichen MP3-Playern mit umfangreichen Funktionen wie dem Zune 80/120 von Microsoft, verschiedenen Internet Medien-Geräten wir denen von Archos oder ultra-mobilen PCs (UMPCs) der Fall. Hinzu kommt, dass der 1,8-Zoll-Formfaktor für sehr kleine portable Speicherprodukte ziemlich beliebt ist.

Einige Fakten

Hitachi hatte früher ein komplettes Portfolio von 1,8-Zoll-Festplatten im Programm; Seagate bot eine gewisse Zeit lang seine 1,8-Zoll »Lyrion« Produkte an. Allerdings haben beide Hersteller dem 1,8-Zoll-Segment schon vor Jahren den Rücken gekehrt. WD hingegen hat in diesem Bereich niemals Produkte angeboten. Derzeit sind lediglich Samsung und vor allem Toshiba in diesem Segment aktiv: Samsung konzentriert sich auf Produkte für den Einzelhandel, während Toshiba sämtliche oben genannte Produktmöglichkeiten dieses Marktbereichs ausschöpft und bedient.

Ältere 1,8-Zoll-Festplatten diverser Hersteller wurden mit 3.600 oder 4.200 U/Min betrieben und lieferten damit keine sonderlich beeindruckende Performance. Samsung und Toshiba beschleunigten ihre Produkte auf 5.400 U/Min zu einem Zeitpunkt, als ATA-Interfaces mit ZIF-Konnektoren durch Serial ATA ersetzt wurden. Die meisten der derzeit erhältlichen 1,8-Zoll-Festplatten basieren auf SATA/300-Schnittstellen mit Micro SATA-Konnektoren. Die Performance von 1,8-Zoll-Laufwerken bleibt hinter der Performance von 2,5-Zoll oder 3,5“-Modellen zurück. Im Gegenzug sind die 1,8-Zoll-Laufwerke jedoch robust, leise und deutlich kleiner.

Analyse: Drei Produktgenerationen

Wir haben drei unterschiedliche Laufwerke im 1,8-Zoll-Formfaktor von Toshiba getestet und deren Performance und Leistungseffizienz verglichen: Eine MK1617GSG mit 160 GB aus dem Jahr 2008, die 250 GB MK2529GSG, die Anfang 2009 auf den Markt kam, und die neueste MK3233GSG mit 320 GB, die erst seit wenigen Monaten verfügbar ist.

Die meisten 1,8-Zoll-Laufwerke verwenden Micro SATA-Konnektoren.Die meisten 1,8-Zoll-Laufwerke verwenden Micro SATA-Konnektoren.

In der vergangenen Woche stellte AC Ryan gleich zwei Full-HD-Player vor. Zum einen den PlayON! HD, der mit einer Festplatte und Zusatzfeatures wie Samba- und Bittorrent-Client ausgestattet ist, zum Anderen den PlayON! HD Mini. Der HD-Mini kommt ohne interne Festplatte aus und kann externe Festplatten via USB ansprechen. Außerdem können beide Player über das Netzwerk Multimedia-Dateien abspielen.

FullHD-Player von A.C.RyanFullHD-Player von A.C.Ryan

In den Grundfunktionen sind die Media-Player von A.C. Ryan fast identisch. Beide können übers Netzwerk Videos, Musik streamen oder Bilder am Bildschirm wiedergeben. Der große Bruder, der PlayON! HD besitzt interne eine Festplatte, die bis zu 1,5 Terabyte Speicherkapazität aufweist. Beim Kleinen können Laufwerke nur extern via USB hin zugesteckt werden. Ein interner Anschluss ist nicht vorhanden oder zugänglich. Beide Modelle basieren auf dem Realtek RTD1073DD-Chip, der zur Zeit alle aktuellen Video- und Audio-Codec wiedergeben kann. Eine der Besonderheiten des Chips ist, dass er DTS-Sound in Echtzeit auf Stereo umrechnen kann. Anwender die keinen DTS-Decoder haben, können hiermit die Audioausgabe auch ohne einen entsprechenden DTS-Decoder hören.

Flaschenhals für SATA 6G und USB 3.0

2010 steht ganz im Zeichen der Erhöhung der Bandbreite für Speicherprodukte und Peripheriegeräte. SATA mit einer Übertragungsrate von 6 Gbit/s verspricht eine schnellere Anbindung für neue Solid-State-Laufwerke (SSDs) und Festplatten. Zudem werden wir auch außerhalb des PCs immer mehr USB 3.0-Lösungen zu sehen bekommen, mit denen Daten bei maximaler Gesschwidigkeit der Speichergeräte hin- und herbewegt werden können. Derzeit noch bestehende Flaschenhälse werden von der Bildfläche verschwinden – allerdings nur theoretisch, da einige Designs dem ganzen schlichtweg nicht gewachsen sind.

USB 3.0 und SATA 6G – Hardware

Endgeräte und Controller-Hardware für USB 3.0 und SATA 6G sind bereits seit einigen Monaten erhältlich und dürften in den nächsten Tagen und Wochen auch verstärkt auch für die breite Masse verfügbar sein. NEC hat als erster Hersteller einen USB 3.0-Controller (µPD720200) auf den Markt gebracht. Die Abwärtskompatibilität zu USB 2.0 wird von Anwendern als selbstverständlich erachtet und uns ist auch noch kein USB 3.0-Gerät untergekommen, das nicht zu  USB 2.0 abwärtskompatibel gewesen wäre. GDA hat Design-Pläne in der Schublade und VIA bietet ebenfalls USB 3.0 Hub-Controller an, wobei weitere Designs sicherlich bald folgen. Was SATA 6G angeht, ist die Situation ähnlich. Der 88SE9123 von Marvell ist hier der dominierende Chip und die gesamte Speicherindustrie konzentriert sich dieses Jahr auf die Umstellung von 3 auf 6 Gbit/s. Allerdings können nicht alle Systeme die notwendige Bandbreite liefern.

PCI Express – Bandbreiten-Probleme

Das Problem ist nicht die Verfügbarkeit der Produkte, sondern es sind die Anschlüsse und die Bandbreite. Solange USB 3.0 und SATA 6G nicht in Mainstream-Chipsätze integriert werden, wird es sich dabei weiterhin lediglich um Add-On-Geräte handeln, für die ein entsprechendes Interface erforderlich ist. Das Interface ist hierbei für gewöhnlich PCI Express, das in zwei verschiedenen Geschwindigkeiten verfügbar ist: PCI Express 2.0 bietet einen Durchsatz von 500 MB/s pro Lane und PCI Express 1.x noch 250 MB/s. Hier wird deutlich, dass eine einzelne Lane die maximale Bandbreite von 600 MB/s bei SATA 6G oder USB 3.0 nicht liefern kann. Die 500 MB/s-Bandbreite von PCIe 2.0 gilt als angemessen.

Die PCI Express 2.0 Anschlüsse in bestehenden Chipsätzen wurden hauptsächlich für PCI Express-Links mit 16 Lanes eingesetzt, um so eine ausreichende Bandbreite für Grafikkarten zu bieten. Fast alle Mainstream-Chipsätze bieten für die Grafik 16 PCI Express 2.0-Lanes; Chipsätze der Enthusiasten-Kategorie bieten das Doppelte. Alle anderen PCI Express-Lanes bieten leider nur die halbe Geschwindigkeit – allerdings gibt es einen interessanten Unterschied zwischen AMD und Intel, der durchaus erwähnenswert ist.

AMD versus Intel

Aus irgend einem Grund steuern derzeit erhältliche Intel-Chipsätze, wie die Chipsätze der Serie 4 und 5 mit ICH10 und höher, lediglich die primären PCIe-Steckplätze, die für den Betrieb von Grafikkarten verwendet werden, per PCI Express 2.0 an. Die gesamten sekundären PCI Express-Steckplätze für Add-On-Komponenten sind auf PCI Express 1.1 beschränkt, wie es bei den Intel PCI Express-Chipsätzen angefangen mit der 900-Serie der Fall ist. AMD hingegen hat sich dazu entschieden, die Link-Geschwindigkeit aller PCI Express-Lanes auf seinen Chipsätzen der 700- und 800-Serie aufzurüsten. Dies bedeutet, dass aktuelle AMD-Chipsätze aus dem Mainstream- und Enthusiasten-Segment für ultraschnelle Add-On-Geräte keinen Flaschenhals mehr  darstellen.

Wir haben drei P55-Motherboards von Gigabyte und MSI getestet, die unterschiedliche Ansätze zur Anbindung von USB 3.0- und SATA 6G verfolgen. Wir haben die SATA 6G-Performance sowohl mit dem neuen RealSSD C300 von Crucial als auch mit einer Seagate Barracuda XT getestet und dabei herausgefunden, dass nicht alle Lösungen eine ausreichende Bandbreite liefern.

Gewöhnliche SD-Karten und SD-Karten mit einer hohen Kapazität (SDHC) sind wichtige Komponenten unseres digitalen Lebens: Digitalkameras, GPS-Geräte, Infotainment-Lösungen in Autos sowie viele weitere Geräte im Consumer-Bereich machen sich dieses Kartenformat zu Nutze. Enthusiasten benötigen jedoch nicht nur irgendeine Speicherkarte – sie wollen die Beste.

SD-Karten (die Abkürzung SD steht für Secure Digital) basieren auf dem MMC-Format (Multi Media Card). Der Hauptunterschied besteht darin, dass SD und SDHC-Karten mit einem physischen Schalter ausgestattet sind, mit dem sich der  Schreibzugriff auf die Karte unterbinden lässt. Daher sind SD-Karten dicker als MMC-Karten. Obwohl die meisten SD-Karten MBR-Partitionen nutzen und bereits ab Werk mit FAT32 vorformatiert sind, ist es möglich, die Karten auch mit anderen Dateisystemen zu nutzen. Karten die nach den SD 1.0 und 1.1 Spezifikationen gefertigt werden unterstützen eine Kapazität von bis zu 2 GB. Karten mit 4 GB und darüber basieren auf den SD 2.0-Spezifikationen die auch unter der Bezeichnung SDHC bekannt sind. Kartenleser die das SDHC/SD 2.0-Format unterstützen sind abwärtskompatibel. Das Auslesen einer SDHC-Karte in einem älteren Kartenleser, der sich lediglich auf die SD 1.0 bzw. 1.1-Spezifikationen versteht, funktioniert hingegen nicht.

Weiterhin existieren noch die Formate miniSD und microSD die hauptsächlich in kleinen, tragbaren Geräten wie zum Beispiel Mobiltelefonen zum Einsatz kommen. Die Reduzierung der Größe bringt allerdings auch eine Reduzierung der Geschwindigkeit mit sich. Die SD Association hat verschiedene Geschwindigkeitsklassen für SD-Speicherkarten festgelegt. Während bei den gewohnten X-Klassifizierungen die Transferraten von den Datenübertragungsraten der CD-ROM abgeleitet werden (z.B. 60x bedeutet die 60-fache Geschwindigkeit einer CD-ROM – 60x 150 KB/s = 9000 KB/s) hat sich bei SD-Karten die Einteilung in Klassen durchgesetzt. So steht die Bezeichnung Class 2 für eine Datenübertragungsrate von 2 MB/s, Class 4 für 4 MB/s, Class 6 für 6 MB/s und so weiter.

Alle in diesem Artikel behandelten Karten entsprechen bis auf einer der Class 10. Hierbei muss man allerdings beachten, dass die Klassifizierung nichts über den maximalen Datendurchsatz aussagt sondern lediglich Auskunft über die minimal erzielbare, kontinuierliche Transferrate gibt. Wir haben uns daher Karten mit Kapazitäten von 8 GB und 16 GB der Hersteller Lexar, Samsung, San Disk Silicon Power sowie Transcend genauer angesehen.

Core i7-980X: 6 Kerne oder 12 Threads?

Hyper-Threading kam bei Intel erstmals 2002 mit dem Pentium 4 “Northwood”-Prozessor mit 3,06 GHz und dem Xeon MP “Foster” zum Einsatz. Die Technologie ist  Intel-spezifisch und bezweckt in erster Linie die Verbesserung der Prozessor-Nutzung durch die Steigerung der Parallelisierung. Mit Intels neuestem Core i7-980X und sechs physischen Kernen verdoppelt sich diese Anzahl durch Hyper-Threading auf zwölf virtuelle Kerne.

Dadurch stellen sich folgende Fragen: Wieviele Programme gibt es, die einen Nutzen aus den 8 und mehr Threads ziehen? Ist Hyper-Threading gut oder schlecht für die Leistungseffizienz? Wäre es sinnvoller, bei sechs physischen Kernen zu bleiben anstatt zu riskieren, dass weniger stark ge-threadete Anwendungen Arbeitslasten auf virtuelle Einheiten verteilen?

Der Gulftown von Intel implementiert Hyper-Threading, um so 12 virtuelle Prozessorkerne zu bieten. Ernstzunehmende Performance-Steigerungen lassen sich nur bei ein paar speziellen Anwendungen feststellen.

Hyper-Threading in der Vergangenheit …

Erlauben Sie uns die Behauptung, dass Hyper-Threading schon fast aus einer Notwendigkeit heraus entstand: Da die Pentium 4 Prozessorgeneration auf eher großen Instruction-Pipelines basierte, war es unerlässlich, die Taktraten zu erhöhen  und so die Pipeline kontinuierlich auszulasten. Daher verdoppelte Intel die Einheiten, die den architektonischen Status speichern, wodurch ein Prozessorkern mit Hyper-Threading gegenüber dem Betriebssystem als zwei logische Kerne in Erscheinung treten kann. Der Scheduler kann jetzt zwei Threads bzw. Vorgänge gleichzeitig losschicken; sofern die Branch-Prediction von Intel gut funktioniert, stellt diese dann sicher, dass Anweisungen auf effiziente Weise geladen und ausgeführt werden.

Die Vorteile durch einen Pentium 4 lagen hauptsächlich in einer gesteigerten Reaktionsfähigkeit des Systems bei Single Core-Systemen und in leichten  Performance-Steigerungen bei Anwendungen. Allerdings gilt das für den Desktop-Bereich. Auf Servern, bei denen Parallel-Processing besonders wichtig ist, stellten sich durch Hyper-Threading größerere Effekte ein.

… und heute

Mit dem Core 2-Prozessor verschwand Hyper-Threading von der Bildfläche. Allerdings entschied sich Intel dazu, diese Funktion mit der Nehalem-Architektur wiederauferstehen zu lassen, die als Grundlage aller heute erhältlichen Core i7-, i5- und i3-Prozessoren dient – einschließlich des erst kürzlich erschienenen 6-Kern Core i7-980X.

Die Lage hat sich allerdings geändert. AMD kann derzeit im Performance-Segment keinen Druck auf Intel ausüben, wobei sich Hyper-Threading mehr und mehr zu einer zusätzliche Funktion gewandelt hat, die mittlerweile eher zur Unterschiedung diverser Modellreihen dient anstatt dem Ruf als Must-Have-Innovation gerecht zu werden. Macht Hyper-Threading in Verbindung mit sechs physischen Kernen überhaupt noch Sinn?

Wir haben uns dazu entschieden, den Quad-Core Core i7-975 und den neuen Hexa-Core Core i7-980X zu testen und sowohl die Performance als auch die  Leistungseffizienz unter Zuhilfenahme unserer aktualisierten Plattform-Benchmark-Suite zu vergleichen.

Der Markt für NAS-Geräte im Consumer- und semi-professionellen Bereich ist verglichen mit anderen Marktsegmenten recht übersichtlich. Hier haben sich vor allem die Hersteller Synology, Thecus und Qnap durch leistungsfähige Produkte mit einem hohen Funktionsumfang und breiter Produktpalette einen guten Namen erarbeitet.


Doch ab und an kann auch ein Blick auf die Geräte weniger bekannter Hersteller erhellend sein und außergewöhnliches zu Tage fördern. So geschehen, als wir die Anfrage eines Distributors erhielten, ob wir Interesse daran hätten ein “sprechendes NAS-Gerät” des aus dem beschaulichen Heidelberg stammenden Herstellers Certon zu testen. Da wir uns im ersten Moment nicht viel darunter vorstellen konnten und ein “sprechendes NAS-Gerät” auch nichts alltägliches ist, baten wir um die Zusendung eines Testexemplars.

Eines vorweg: Das auf den Namen smartRaid getaufte Gerät spricht wirklich zu seinen Benutzern und auch hinsichtlich der Verarbeitung und Hardwareausstattung braucht sich das Gerät des Herstellers Certon nicht hinter den Produkten der Eingangs erwähnten Global Player zu verstecken. Welche Erfahrungen wir sonst noch mit dem etwas anderen NAS-Gerät gemach haben, lesen sie ab Seite zwei dieses Artikels.

Waschmaschinen und NAS-Geräte

Das zweite Gerät in unserem Test stammt hingegen von einem Weltunternehmen mit Sitz in Seoul, das nicht nur Produkte aus dem Bereich Informationstechnik anbietet, sondern auch  in den Bereichen Unterhaltungselektronik, Haushaltsgeräte und Mobilfunk sehr stark vertreten ist. Die Rede ist hier von LG Electronics, das sicherlich jedem von uns ein Begriff ist.

LG schickt sich  an auch im NAS-Geräte-Markt vertreten zu sein und bietet zur Zeit drei verschiedene Modelle an. Die Geräte unterscheiden sich zum Einen durch die Anzahl der möglichen Festplatten und zum Anderen durch das Vorhandensein eines Blu-ray-Brenners. Letzteres gehört aktuell sicherlich nicht zum Standardlieferumfang eines NAS-Geräts, wobei der Schwerpunkt unseres Interesses darauf lag, welchen Funktionsumfang ein Consumer-NAS-Gerät von LG bietet, wie es sich bedienen lässt und welche Datenübertragungsraten erreicht werden. All dies lesen Sie ab Seite drei dieses Artikels. Doch wenden wir uns zuerst dem NAS-Gerät des Herstellers aus Heidelberg zu.

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen