Monat: Februar 2012

Der Hardware-Geek an sich hat gern die neuesten, schnellsten und, wenn möglich, teuersten Spielzeuge auf oder unter dem Schreibtisch. Für Spieler ist das eine Ehrensache, denn immerhin will man ein flüssiges, ungetrübtes Spielerlebnis genießen. Verdient man mit seinem Rechner Geld, lohnt sich wiederum die Investition in einen teuren Hexa-Core-Prozessor mit 12 Threads, weil jede gesparte Minute bares Geld bedeuten kann. Oft genug vergessen wir aber auch, dass nicht jede Aufgabe brachiale Rechenleistung erfordert. Wer nur im Web surft, Emails schreibt oder sogar den klassischen „Papierkram“ wie Rechnungen, Anschreiben usw. am Computer abarbeitet, braucht wohl kaum einen Multi-Gigahertz-Boliden mit zig Kernen und Flaggschiff-GPU. Ein Nettop tut es, nüchtern betrachtet, auch.

Mancher belächelt die vergleichsweise schwachbrüstigen Rechnerchen, und absolut gesehen ist ihre Performance auch nicht gerade beeindruckend. Auch bei der Effizienz stehen sie oft nur bedingt gut da. Sie haben aber auch unbestreitbare Vorteile. Zum einen erlauben sie sehr kleine und dennoch leise Bauformen, die mehr an einen Stapel CDs als einen PC erinnern. Zum anderen sind sie eben doch stromsparend, und für die eingangs genannten Aufgaben liefern auch Nettops genug Rechenleistung.

Doch Nettop ist nicht gleich Nettop, und inzwischen trifft man in den kleinen Fertigrechner diverse Plattformen an. Deshalb wollen wir heute aktuelle Nettop-Hardware sichten. Eigentlich hatten wir zu dem Zweck verschiedene Hersteller mit der Bitte angeschrieben, uns einige Modelle zum Test zur Verfügung zu stellen. Oft genug wurden wir aber entweder auf die nahende CeBIT und/oder bald kommende neue Produkte verwiesen. Kurzum: Letztlich wollten uns die allermeisten Firmen praktisch identische Modelle schicken, was weder sonderlich spannend gewesen wäre noch einen guten Überblick gegeben hätte. Also mussten wir umdenken.

Die Lösung war relativ einfach: Wir beschränken uns auf eine Firma mit breitem Portfolio in diesem Bereich, und zwar Zotac. In den ZBOX genannten Mini-Rechnern dieses Herstellers trifft man diverse Hardware-Kombinationen an, was diese Geräte geradezu für einen Vergleich wie diesen prädestiniert. Dennoch, selbst wenn alle Geräte vom selben Hersteller stammen, soll es hier in allererster Linie um die Plattformen gehen, nicht die konkreten Geräte, auch wenn wir diese auf der kommenden Seite kurz vorstellen wollen – sozusagen als beispielhafte Ausgestaltung der jeweiligen Plattform.

So kamen wir zu unserem Testfeld, das aus sechs Kandidaten von Intel, AMD und auch VIA besteht. AMD lässt sich durch seine beiden Brazos-Spitzenmodelle E-350 und E-450 vertreten, während Intel mit einem Atom D525 mit Ion-2-Grafik, einem Atom D2700 mit GeForce GT 520M und einem Sandy-Bridge-Celeron 857 mit HD Graphics antritt. VIA trifft man als CPU-Hersteller heute nur noch selten an. Umso mehr freut uns, dass wir auch ein Exemplar des Nano X2 in Form des U4025 ins Testfeld aufnehmen konnten. Grafisch wird der durch eine Chrome9-GPU unterstützt, die trotz ihres Alters immerhin schon diverse Videoformate in Hardware beschleunigt wiedergeben kann.

Sicher, wir hätten den Test beider Tastaturen auch schon vor zwei Monaten schreiben können. Allerdings hatten wir noch im letzten Jahr beschlossen, die zu testenden Tastaturen, soweit sinnvoll und möglich, jeweils erst einmal eine Weile im täglichen Gebrauch zu betreiben, um anschließend daran sowohl über die persönliche Eindrücke als auch über eventuelle Abnutzungserscheinungen zu berichten. Beide Tastaturen von Qpad, die rot beleuchtete MK-85 mit mechanischen Cherry MX-Red-Switches und das ähnliche Schwestermodell MK-50 ohne Beleuchtung (mit weniger Funktionen, aber den gleichen Schaltern), sind mittlerweile durchaus gefragte Objekte, die sich übrigens auch auf der Homepage des Herstellers problemlos bestellen lassen. Dort hat man sogar die Möglichkeit, sich die Schalter seiner Wahl selbst zu bestimmen – der Aufpreis für Auswahl und Versand ist erträglich, wenn auch nicht sonderlich billig.

Schon mal getestet: MK-80 mit Cherry MX-BlueSchon mal getestet: MK-80 mit Cherry MX-Blue

Wir hatten ja bereits vor über einem Jahr eine sehr ähnliche Tastatur von Ione getestet und später auch noch die MK-80 von Qpad mit den blauen MX-Switches von Cherry, die der Ione bis auf die Firmware absolut glich – beide Tastaturen befanden sich zudem seit dem Eintreffen in der Redaktion im täglichen Einsatz. Zusammen mit den nun vorgestellten MK-85 und MK-50 ergibt sich bei 3 verschiedenen Nutzern und vielen Betriebsstunden ein recht gefestigtes Bild bei der Bewertung und Beurteilung.

Natürlich soll auch dieses Mal nicht nur ein stupider Produkttest abgespult werden. Warum eigentlich nicht einmal die eigene Tastatur gegentesten? Wir erklären noch einmal leicht verständlich das N-Key-Rollover-Problem und machen danach gemeinsam einen einfach nachvollziehbaren Test. Parallel dazu klären wir, ob die versprochene Funktion, Tastatureingaben und den eingebauten Hub gleichzeitig über ein (dünneres) USB-Kabel zu übertragen, wirklich funktioniert und ob das Weglassen des PS/2-Anschlusses bei der MK-85 im Vergleich zu den anderen Tastaturen (MK-80, MK-50) am Ende kein Nachteil ist.

Auch wenn immer wieder gern Gerüchte vom nahenden Tod der CPU die Runde machen, ist es noch lange nicht soweit. Verglichen mit FPGAs (vom Anwender frei programmierbaren Logikchips) sind moderne CPUs meist deutlich schneller, universeller einsetzbar und funktional besser integriert. Oft siegt die einfachere Lösung. Zweifelsohne haben auch Spezialprozessoren ihren Platz, zum Beispiel in speziellen Marktnischen, wo es um maximale Performance geht. (Anm.: Der Übersetzer dieses Artikels entwickelt gerade eine FPGA-Platine zum Bitcoin-Mining, und sie wird mindestens eine Zehnerpotenz schneller sein als die allerschnellste CPU.) Wir erwarten jedoch, dass heterogenes Computing, also die Koexistenz von einer traditionellen und einer massiv parallelen Rechenplattform in einem einzigen Gehäuse (oder sogar einem einzigen Chip) für mehr und mehr Standardanwendungen populär wird. Und mit den Fortschritten in der Halbleitertechnik einhergehend werden auch diese massiv parallelen Plattformen schneller und komplexer werden.

Die logische Konsequenz aus dieser Entwicklung wird letztendlich ein System-on-a-Chip (SoC) sein, wo alle (oder zumindest die meisten) funktionalen Einheiten auf einem einzigen Chip sitzen. Beispielsweise sind die AMD Geode-Chips, die unter anderem im ‘One Laptop per Child’-Projekt zum Einsatz kommen, aus SoC-Designs der 90er-Jahre hervorgegangen. Obwohl die meisten SoC-Chips noch nicht ganz an dem Punkt angekommen sind, wo sie als Herz eines handelsüblichen Desktop-PCs fungieren können, gibt es mittlerweile von Intel und AMD SoC-Chips, die ein oder mehrere CPU-Cores, eine Grafikeinheit und einen RAM-Controller beinhalten. Diese APUs (accelerated processing units), wie sie AMD nennt, kommen mittlerweile schon an das Performanceniveau eines typischen PCs heran oder übertreffen es sogar. Eine APU ergänzt ein traditionelles CPU-Design mit einer großen Zahl einfacher ALUs, die im Normalfall für 3D-Grafik benutzt werden. Aber diese vielen programmierbaren Einheiten müssen nicht zwangsläufig nur für Gaming verwendet werden. Viele andere Algorithmen sind von Natur aus parallel, und wenn man eine APU mit hunderten Cores auf dieselben loslässt, und nicht nur die CPU mit zwei oder vier Cores, entwickeln sich zwangsläufig interessante Diskussionen über das Potential von Software, die von vornherein auf diese hochintegrierten SoCs ausgelegt ist.

Vor ein paar Jahren noch war die eingebaute Grafikeinheit, wenn überhaupt vorhanden, in der North Bridge des Chipsatzes eingebaut. Da CPU und GPU in so einem Design aber physisch getrennt waren und sowohl in Bezug auf Bandbreite als auch Latenzzeiten Flaschenhälse vorhanden waren, wurde es immer schwieriger, die Performance von einer Chipsatzgeneration zur nächsten weiter zu steigern. Unter anderem deshalb ist die Grafikeinheit unlängst in die CPU gewandert, und diese neuen integrierten Chips bieten nicht nur eine höhere Gaming-Performance, sondern sind durchaus geeignet, allgemeine Rechenaufgaben von der CPU zu übernehmen und diese dadurch zu entlasten.

Für AMD war die Markteinführung dieser integrierten Chips der Abschluss einer mehrere Jahre dauernden Entwicklung mit dem Codenamen ‘Fusion’. Vermutlich war Fusion sogar die treibende Kraft hinter dem Kauf von ATI, der 2006 über die Bühne ging. AMD hat recht früh das Marktpotential der Kombination der hauseigenen CPU-Technologie und der Grafiktechnologie von ATI erkannt – nämlich, dass der Marktanteil solcher integrierter Chips nur steigen kann. Die in Sunnyvale im Silicon Valley angesiedelte Firma beschloss, hierbei die Vorreiterrolle zu übernehmen. Intel hat ähnliches mit der hauseigenen Grafiktechnologie gemacht, aber nicht so radikal. Der Hauptfokus von Intel war immer die CPU-Technologie und weniger die Grafiktechnologie.

Anfang 2011 stellte AMD die ersten APUs der C- und E-Serie vor, allesamt auf einem 40 nm-Prozess basierend. Die Kombination von CPU und GPU auf einen Chip ermöglichte auch stromsparende APU-Modelle mit 9 bzw. 18 W, die in ultraportablen Notebooks Verwendung fanden. Derzeit ist die auf der Llano-Architektur basierende A-Serie der APUs verfügbar, die mit Hilfe von 32 nm-Lithographie Desktop-Performance wohlfeil macht.

Obwohl in der untenstehenden Tabelle viele technische Daten aufgeführt sind, ist wahrscheinlich die jeweils eingebaute Grafikeinheit das Interessanteste. Die A8-APU verfügt über eine Grafikeinheit, die AMD als Radeon HD 6550D bezeichnet. Sie besteht aus 400 Stream-Prozessoren/Radeon-Cores/Shadern (die Bezeichnung variiert schon mal, je nachdem, mit wem man gerader spricht). Die A6-Version liegt mit der Radeon HD 6530 Grafikeinheit und 320 Stream-Prozessoren eine Stufe darunter. Und die A4 hat die Radeon HD 6410D mit ‘nur’ 160 Stream-Prozessoren eingebaut.

Wir haben CPUs und APUs unterhalb der 175€-Preisgrenze schon einer Reihe von Gaming-Benchmarks unterzogen und wissen daher genau, wie sich die APUs in aktuellen Spielen (mehr oder weniger gut) schlagen. In diesem Artikel wollen wir uns jetzt ansehen, wie Power-User ihre gesamte Rechenleistung anderweitig nutzen können, und zwar mit Anwendungen, die sowohl normale CPUs als auch die vielen Recheneinheiten, die in einer Grafikkarte oder APU stecken, auslasten können.

Dieser erste Teil einer neunteiligen Artikelserie beschäftigt sich mit Videonachbearbeitung. Noch vor wenigen Jahren wäre Videobearbeitung zur CPU-Tortur ausgeartet, Mehrkern-CPUs mit eingeschlossen. Da es sich hier aber um massiv parallele Algorithmen handelt, haben einige Firmen begonnen, diese Algorithmen mit Hilfe der vielen Rechenkerne einer Grafikkarte zu beschleunigen und somit sowohl die Programmperformance zu steigern als auch die Produktivität des Anwenders zu erhöhen.

Wir haben AMD für diese Artikelserie um Unterstützung gebeten, also ist es nur Recht und Billig, dass wir uns hier vorwiegend mit der Grafikhardware dieser Firma beschäftigen. Was uns interessiert, ist zum Beispiel: Wie gut (oder nicht so gut) bewältigt eine bloße CPU Software, die eigentlich für OpenCL-Beschleunigung ausgelegt ist? Schneidet eine Llano-basierte APU hier bereits besser ab? Letztendlich bringen wir auch PCIe-Grafikkarten ins Spiel und kombinieren sie mit den preisgünstigen APUs und teuren high-end CPUs, um zu sehen, inwieweit die Anwendungsperformance skaliert.

Als die ersten Tablets auf dem Markt erschienen, fanden sich vor allem unter den Computer-affineren Nutzern viele kritische Stimmen, die dem neuen Geräteformat seinen Sinn absprachen und dieses vor allem dafür bestimmt sahen, damit es in den Kassen der Hersteller klingelt – dazu passte auch, dass lange Zeit das iPad kaum auf Konkurrenten stieß. Dies änderte sich mit dem vergangenen Jahr, als viele der etablierten Hersteller ihre Vorstellung eines Tablet-PC präsentierten. Eines der hervorstechenden Geräte war in diesem Rahmen das ASUS Transformer, das mit einer eigenen Bedien-Philosophie viele Nutzer überzeugen konnte: Es kombinierte Touch und Taste, indem es zu seinem Tablet eine Dockingstation anbot, die neben einer vollwertigen QWERTZ-Tastatur auch zahlreiche Schnittstellen als Erweiterung lieferte. Die Idee dahinter ist offensichtlich. Dank der Tastatur soll die Flexibilität des Tablets erhöht werden und aus diesem im Bedarfsfall ein Netbook werden lassen, das sich auch für den einen oder anderen Arbeitseinsatz nutzen lässt.

Alt neben neu: Was das Transformer Prime anders als sein Vorgänger machtAlt neben neu: Was das Transformer Prime anders als sein Vorgänger macht

Kaum ein halbes Jahr später erhält dieser Ansatz mit dem Transformer Prime ein erstes Update, das auf dem Papier einen erheblichen Produktivitätsschub verspricht, denn mit dem Nvidia Tegra 3 steckt einer der aktuell schnellsten Prozessoren der Klasse unter dem Display. Galt der Vorgänger aufgrund der Tastatur als ein Vorzeige-Gerät, ist das Transformer Prime das inoffizielle Referenzgerät für Nvidias Tegra 3. Doch kann der Mehrwert, den das Vorgängermodell in der Tablet-Klasse einführte, mit einem neuerlichen Leistungsschub gesteigert werden?

Schnäppchen-Jäger mit kleinem Budget

Nehmen wir an, ein alter Fertig-PC aus dem XYZ-Markt hat so gut wie fertig und es krankt wie fast immer daran, dass sich die in Massenfertigung mit spitzem Bleistift zusammenkalkulierten Blechgehäuse nicht für einen Umbau oder eine Erweiterung eignen. Das eigene Budget ist aber leider in vielen Fällen genauso niedrig, wie die Leistung der verbauten Komponenten. Wer sich trotzdem mit dem Vorhandenen bescheiden möchte,  aber wenigstens die äußeren und inneren Werte etwas aufhübschen möchte, wird das Ganze unter dem Begriff Werterhaltung verbuchen. Falls das Geld dann sogar noch für eine gebrauchte Grafikkarte reicht, sind weniger Anspruchsvolle schon fast im siebten Himmel. Denn sind wir mal ehrlich: oftmals reicht auch ältere Hardware zumindest für mittlere Ansprüche noch einigermaßen aus und man muss wirklich nicht immer alles gleich neu und teuer zusammenbauen. Blieben am Ende wohl zwei Baustellen zu bearbeiten.

Baustelle Nummer 1: das Gehäuse

Hier wollen wir bei 30 Euro die Obergrenze setzen und schielen, geizig wie wir sind, dann doch lieber noch etwas nach unten. Es soll optisch einigermaßen etwas hermachen, dabei mit etwas Bling-Bling punkten können und vor allem nicht so billig verarbeitet sein, dass man sich beim Umbau die Finger zerschneidet.

Baustelle Nummer 2: das Netzteil

Einen Stromversorger, der schon einige Jahre auf dem Buckel hat, sollte man durchaus auch einmal ersetzen. Natürlich darf man hier nicht nur einfach eine Knallbüchse gegen die nächste tauschen, das wäre am Ende einfach nur Geldverbrennung. Sie sollte sicherer, leiser und auch effizienter sein.

Womit wir bei einer Gesamtsumme von ca. 60 Euro angekommen wären. Wem aber geben wir nun unser Geld? Das Rasurbo Vort-X U2 bekommt man aktuell ab ca. 30 Euro, ab und zu findet man das Gehäuse auch als Schnäppchen bereits ab 25 Euro. Fast in allen Fällen wird man auf das etwas teurere Rasurbo Vort-X U3 verzichten können, wenn man keine USB-3.0-fähige Hardware besitzt. Außerdem ist das Gehäuse ein guter alter Bekannter unter neuer Flagge, aber dazu später mehr. Das Rasurbo Real&Power 350W schlägt ebenfalls mit ca. 30 Euro zu Buche, auch hier schwanken die Preise zwischen kurz unter bis knapp über 30 Euro und im Inneren findet man bekannte Technik. Bauen wir einfach einmal einen Alt-PC um und verpassen dem bereits in die Jahre gekommenen Boliden nun ein Facelift und einen Herzschrittmacher.

Natürlich sind die preisgünstigsten Workstation-Karten keine Rennpferde, aber auf vielen professionellen Aufgabengebieten durchaus ausreichend, solange die Aufgaben im überschaubaren Rahmen bleiben. Zeitnah zum Launch der FirePro V3900 wollen wir deshalb einmal testen, was man mit solchen einfachen Karten wirklich anstellen kann und wie sich die neue Karte am Ende gegen die direkten Mitbewerberinnen schlägt.

Ein Preis von 119 (UVP) Euro ist im Bereich der professionellen Karten schon eine kleine Ansage, wenn zum günstigen Anschaffungspreis dann auch noch die passende Leistung kommt. AMD erklärt höchstselbst die Quadro 400 von Nvidia zur direkten Gegnerin, was auf Grund des ähnlichen Preises in dieser Form sicher auch sehr nahe liegt. Was also spricht dagegen, die FirePro 3900 im direkten Vergleich zur Quadro 400 zu testen? Theoretisch eigentlich nichts, praktisch allerdings Nvidia selbst, weil man uns mit dem Verweis auf Kepler (wann auch immer die Quadro-Karten der neuen Architektur irgendwann kommen mögen) das erbetene Testmuster glatt verweigerte. Solche Reaktionen wecken natürlich erst recht unser Interesse und so haben wir die klaffende Lücke zusammen mit Alternate (dank zur Verfügung gestellten Testkarten) und PNY schnell wieder schließen können.

Wenn schon, dann gleich richtig, und so haben wir auch noch eine Quadro 600, eine HIS HD 6570 (die fast baugleich zur V3900 ist), eine GT 430 und eine GT 440 von MSI (die der Quadro 600 ähneln) aus unserem Archiv mit auf die Benchmark-Reise geschickt. Auch wenn die aktuellen HD 7750 von AMD als Referenzkarte so knapp zu sein scheinen, dass AMD uns um die zwischenzeitliche Rücksendung der Karte gebeten hat, um auch anderen Testern eine Chance zu geben – wir konnten zumindest die Benchmarks ohne Antialiasing mit absolvieren. Somit haben wir am Ende dann doch noch ein recht illustres Testfeld zusammen bekommen. Wer hat die Nase vorn: Profi- oder Consumer-Karte? Lohnt der Aufpreis für den exklusiven Treiber und falls ja, bei welcher Karte am ehesten?

Lange Zeit galten Intels SSD-Controller als das Nonplusultra, und die darauf basierenden Laufwerke waren der Maßstab, an dem sich alle Anderen orientierten. Ging es um die Postville-Modelle alias X25, bekamen Enthusiasten glänzende Augen. Es schien, als sei die Kombination aus Intel-Controller und Intel-Flashbausteinen unschlagbar. Warum sollte Intel also auf einen anderen Controller-Hersteller zurückgreifen?

Offenbar verstand Intel seine Rolle aber anders, nämlich als die des Starthilfegebers. Nachdem andere Firmen mit eigenen Entwicklungen zu Intel aufgeschlossen oder den Chipriesen sogar überholt hatten, tat der etwas Unerwartetes: Er zog sich praktisch aus der Controller-Entwicklung zurück. Zwar kam in der SSD 320 eine überarbeitete Variante des bisherigen Controllers in Verbindung mit 25-nm-Flash zum Einsatz, es blieb aber beim SATA-II-Interface mit maximal 3 Gb/s. Dieselbe Kombination findet sich übrigens beim Enterprise-Modell SSD 710, über das wir kürzlich berichteten. Das High-End-Modell SSD 510 hingegen setzte weiter auf 34-nm-Flash und konnte mit einem 6-Gb/s-Interface aufwarten – nutzte dafür aber einen Controller von Marvell. Im Vergleich zu Crucials m4, die den gleichen Chip einsetzt, konnte die Intel-Variante allerdings nicht vollends überzeugen.

Mit der neuen SSD 520 nimmt Intel nun erneut Anlauf, um im High-End-Segment wieder mitmischen zu können, und erneut sitzt auf der Platine nicht ein Intel-Controller. Wer nun eine ausgefallene, speziell entwickelte High-End-Lösung erwartet hat, dürfte überrascht sein, denn Intels Wahl fiel bei seinem neuen Spitzenmodell auf – SandForce! Konkret verbaut Intel den gleichen Steuerchip, der seit einem Jahr OCZs Vertex 3 zu extrem guter Performance verhilft und inzwischen auch die meisten anderen SSDs antreibt. Vielen werden diese Chips allerdings aufgrund der Firmware-Probleme in Erinnerung geblieben sein, die teils „nur“ zu einem Bluescreen führten, teils das gesamte Laufwerk unbrauchbar machten. Dabei hatte Intel bislang immer mit der Schnittmenge aus Qualität, Geschwindigkeit und Zuverlässigkeit gepunktet. Passt das also zusammen?

Laut Intel schon, denn für den Einsatz auf der SSD 520 wähle man nur die allerbesten Flash-Bausteine der 25-nm-Generation aus, die dem mit Micron zusammen betriebenen Joint-Venture IMFT entstammen. Diese Variable hat man also vollends unter Kontrolle. Auch bei der Firmware habe man besonders sorgfältig gearbeitet und an vielen Stellen selbst Hand angelegt. Die Aussage: Bei Intel bekommt man nach die beste Kombination aus Speicher und Controller, wobei die Sicherheit der Daten jederzeit gewährleistet ist.

So gesehen haben wir es heute also mit einem interessanten Zwitter zu tun, der die hohe Performance eines SandForce-Controllers mit Intels extremem Schwerpunkt beim Thema Datensicherheit verbinden will. Für Anwender, denen beide Aspekte wichtig sind, ist das eine hoch attraktive Mischung – zumal sich wohl fast alle zu dieser Gruppe zählen dürften.

Doch nicht umsonst heißt es “Vertrauen ist gut, Kontrolle ist besser”, und ohne Intels Behauptungen selbst zu prüfen, werden wir weder der Firma unser Geld bzw. diesem Laufwerk unsere sensibelsten Daten anvertrauen. Was macht Intel anders, als andere SandForce-Kunden? Wie umschifft die Firma die Probleme, mit denen sich andere nach wie vor herumplagen? Genau das wollen wir heute herausfinden.

Intels SSD 520

Aufgrund der Entscheidung, als Controller den SandForce SF-2281 Controller einzusetzen, hat die SSD 520 bei der Hardware mehr Ähnlichkeiten mit vielen konkurrierenden Produkten als mit anderen aktuellen Laufwerken aus eigenem Haus. Im Innern finden wir also, wenig überraschend, ein Acht-Kanal-Design, das in 25 nm Strukturbreite hergestellte ONFi-2.2-NAND-Bausteine von IMFT nutzt. Das Intel/Micron-Joint-Venture hat zwar bereits 20-nm-Dies mit einer Speicherdichte von 64 Gb angekündigt, doch wird es noch ein Weilchen dauern, bis diese ihren Weg in SSDs finden.

Während Intels letztes Performance-Laufwerk, die SSD 510 mit Marvells 88SS9174-Controller, in den Größen 120 und 250 GB verfügbar war, wird es die SSD 520 in den Kapazitäten 60, 120, 180, 240 und 480 GB geben. Man darf davon ausgehen, dass die Performance mit zunehmender Kapazität besser ausfällt. Genau das hatten wir bereits bei Crucials m4-Familie und Samsungs 470-Serie beobachtet.

Aufgrund der Ähnlichkeiten darf man zudem erwarten, dass die theoretische Spitzenperformance von Intels SSD 520 mit der anderer SandForce-SSDs in etwa gleichauf liegt. Beispielsweise soll die Vertex 3 mit 240 GB laut OCZ mit 550 MB/s sequentiell lesen und mit 520 MB/s sequentiell schreiben. Intel gibt exakt die gleichen Zahlen an. OCZ gibt für zufälliges Lesen und Schreiben bei einer Blockgröße von 4 KB 60.000 bzw. 80.000 IOPS an, bei Intel sind es mit 50.000 und 80.000 IOPS etwas weniger.

Klar sind diese Werte niedriger als bei OCZ  – aber sie liegen dennoch weit höher, als bei allen bisherigen Intel-SSDs. Außerdem behauptet die Firma wie erwähnt, dass die Firmware komplett selbst implementiert wurde, was möglicherweise den Nachteil bei den Papierwerten erklärt. Hat Intel noch an anderer Stelle Hand angelegt? In der Tat.

Nutzbarer Speicher: Unterschiede bei 120 GB

Modell NAND-Bruttokapazität IDEMA RAISE OP effektiv Nutzbarer Speicher (laut Windows)
OCZ Vertex 3 60 GB
Intel SSD 520 60 GB
64 GB 60 GB 0 GB 4 GB 55,9 GiB
Crucial m4 64 GB
Samsung 830 64 GB
64 GB 64 GB 59,63 GiB
OCZ Vertex 3 120 GB 128 GB
120 GB 8 GB 0 GB
111,79 GiB
Intel SSD 520 120 GB 128 GB
120 GB 0 GB 8 GB
111,79 GiB
Crucial m4 128 GB
Samsung 830 128 GB
128 GB 128 GB 119,24 GiB
OCZ Vertex 3 240 GB
Intel SSD 520 240 GB
256 GB 240 GB 8 GB 8 GB 223,57 GiB
Crucial m4 256 GB
Samsung 830 256 GB
256 GB 256 GB 238,47 GiB

Der tatsächlich nutzbare Speicherplatz rückte vergangenes Jahr jäh in den Mittelpunkt des Käuferinteresses als herauskam, dass OCZ ohne weitere Ankündigung den Speicher einiger Vertex-2-Modelle von 3x nm Größe auf 2x-nm-Speicher umgestellt hatte – ohne dabei die Bezeichnung zu ändern. Wir berichteten darüber in unserem Artikel OCZ Vertex 2 25nm: Kleiner und langsamer? 

Die SSD 520 folgt dem gleichen Muster, das wir bei SandForce-SSDs inzwischen als Normalfall ansehen, denn bei der gesamten Serie reserviert Intel 7 Prozent des Bruttospeichers und stellt ihn als Reserve fürs Overprovisioning ab. So stecken im 60-GB-Modell beispielsweise eigentlich sogar 64 GB Flash-Speicher, doch für den Nutzer sind unter Windows 55,9 GB nutzbar (nachdem man von der dezimalen auf die binäre Kapazitätsangabe umgerechnet hat). Laufwerke von Crucial und Samsung verzichten hingegen auf Overprovisioning, weshalb sie auch 64 GB als Kapazität angeben können, wenngleich Windows auch hier eine geringere nutzbare Kapazität von 59,6 GB anzeigt.

Darüber hinaus muss man aber noch SandForces RAISE-Technologie  (Redundant Array of Independent Silicon Elements) berücksichtigen, mit der Intel ebenfalls das erste Mal zu tun hat. RAISE sorgt dafür, nicht korrigierbaren Speicherfehlern vorzubeugen, die ECC nicht verhindern kann. Um es zu aktivieren, müsste Intel einen kompletten NAND-Die an Kapazität dafür reservieren. Bei einer 60-GB-SSD wären das bei einem Die immerhin 8 GB. Deshalb entscheiden sich die meisten Anbieter dagegen, dieses Feature auf den kleineren Modellen bereitzustellen. Dafür findet man RAISE fast durchweg bei den 240-GB-Modellen, und selbst bei einigen 120-GB-Versionen ist es aktiviert.

Im obigen Screenshot zeigt Windows 7 an, dass sowohl Intels 120 GB große SSD 520 als auch OCZs ebenso große Vertex 3 jeweils über 111,79 GiB an Kapazität verfügen. Dennoch gibt es trotz identischer Speicherkapazität zwischen den beiden einen Unterschied. Indem OCZ bei seinem Modell RAISE aktiviert, stellt die Firma 8 GB des Bruttospeichers für dieses Feature ab, verzichtet aber dafür auf Overprovisioning. Intel geht den umgekehrten Weg, lässt RAISE beim 120-GB-Modell deaktiviert und knapst lieber 8 GB für Overprovisioning ab.

Ist es nun problematisch, dass Intels SSD 520 bei 60 und 120 GB ohne RAISE auskommen müssen? Laut Intel nicht. Die Firma argumentiert, dass SandForce das RAISE-Feature entwickelt hat, um Anbietern in Verbindung mit den besseren Controllern der SF2xx-Familie die Verwendung preiswerterer NAND-Chips von niedrigerer Qualität zu erlauben, ohne dabei bei der Lebenserwartung der Laufwerke Abstriche machen zu müssen. Weil Intel aber beim Flash-Speicher ohnehin nur das Beste vom Besten verwendet, sei RAISE nicht nötig. So zumindest Intels Sicht der Dinge.

Berlin, 16. Februar 2012 – Antec, der Weltmarktführer für hochperformante PC-Komponenten kündigt mit der EarthWatts Platinum die neueste Innovation seiner leistungsstarken Netzteilserie an. Die EarthWatts Platinum Serie erweitert die sehr erfolgreiche EarthWatts Familie, um den höchsten Effizienzstandard.

Antec’s neuste Desktop-Netzteilserie mit einer Gesamtleistung von wahlweise 450W, 550W und 650W sorgt dafür, dass umweltbewusste Unternehmen und energiesparende  Endverbraucher gleichermaßen von den Vorteilen der 80 PLUS® PLATINUM Zertifizierung profitieren. 

Hohe Effizienz – Als ein Vorreiter des 80 PLUS® Platinum Trends am Netzteilmarkt, bietet die EarthWatts Platinum Serie die ideale Kombination aus Zuverlässigkeit, garantierter Energiezufuhr und bis zu 93% Effizienz im Vergleich zu vorherigen Modellen. All dies, um wertvolle Umweltressourcen zu schonen und die Stromkosten um bis zu 25% zu senken.

Flüsterleise – Ein 120 mm großer Lüfter mit doppeltem Kugellager, der dank Antec’s bewährter Thermal Manager Technologie, selbst bei Vollauslastung,  für ein optimales Hitze & Geräuschmanagement und eine besonders lange Lebensdauer sorgt.

Premium Komponenten – EarthWatts Platinum verwendet vier +12V Stromschienen mit hoher Belastbarkeit und bietet dadurch ein Maximum an CPU und GPU Kompatibilität. Das technische Design mit ausschließlich japanischen Kondensatoren bietet die stabilste Form der Gleichstromabgabe & Regulation.

Sicherheitsmerkmale – Patentiertes CircuitShield™, ein kompletter Satz von Sicherungen in Industriequalität: Überstromschutz (OCP), Überspannungsschutz (OVP), Unterspannungsschutz (UVP), Schutz vor Kurzschlüssen (SCP), Überlastschutz (OPP) und Spannungsstoss- & Einschaltstromschutz (SIP).

„Die 80 PLUS® PLATINUM zertifizierten Netzteile waren bisher lediglich mit weitaus größerer Watt Zahl verfügbar und nicht für den alltäglichen Einsatz gedacht.“ sagt Mafalda Cogliani, Global Marketing Director für Antec. „Unsere EarthWatts Platinum Netzteile sorgen nun dafür, dass sowohl alltägliche Anwender als auch Systemintegratoren den Energieverbrauch des Systems signifikant reduzieren können. Dies entlastet zum einen die Umwelt und reduziert nebenbei noch die Stromkosten.“

Für weitere Informationen besuchen Sie bitte unsere EarthWatts Platinum Produktseite.

Die EarthWatts Platinum Netzteilserie ist ab sofort in Deutschland, Österreich und Schweiz erhältlich.

EarthWatts Modell UVP
EA-450 Platinum € 89,00
EA-550 Platinum € 105,00
EA-650 Platinum € 119,00

  

Über Antec

Seit seiner Gründung vor 26 Jahren  hat Antec sich als weltweit  führender Hersteller von Computer-Hardware und -Zubehör für den Upgrade- und DIY-Markt etabliert.  Als Pionier des Quiet Computing und Entwickler von innovativen Produkten wie dem P280 und dem SOLO II, konnte Antec sich ebenso einen Namen machen, wie auch aufgrund der herausragenden Qualität seiner Produkte, die durch die niedrigste RMA-Rate der gesamten Industrie unterstützt wird.

Antec führt seinen erfolgreichen Weg mit State-of-the–Art Produkten, wie den Mini-ITX Gehäusen, der ISK-Serie und dem effizienten und funktionalen Gaming Gehäuse Eleven Hundred fort und setzt damit immer wieder neue industrielle Standards.  Antec hat weiterhin den Weg für Netzteile wie der umweltfreundlichen EarthWatts Serie, der effizienten und leisen VP-Serie und der auf Gaming spezialisierten HCG und HCP Serie geebnet. 

Soundscience, eine hundertprozentige Tochtergesellschaft der Antec, Inc. produziert Audio- und Videofähige Lifestyle-Produkte sowie Zubehör für PCs und für das Home Entertainment, wie z.B. das rockus Lautsprechersystem.

Antec wurde 1986 gegründet und hat seinen Hauptsitz in Fremont, Kalifornien. Die global operierende Marketingabteilung befindet sich in Berlin, Deutschland. Weiterhin unterhält Antec Niederlassungen in den Niederlanden, China und Taiwan.

Für weitere Informationen, besuchen Sie bitte unsere Antec Online Webseiten.

Besuchen Sie unsere offizielle Antec Facebook Seite oder unseren Antec Blog.

Bericht: Virtualisierung und Datenrettung

Die Virtualisierung trifft bei kleinen wie großen Unternehmen auf reges Interesse, denn sie erlaubt es, bestehende Hard- und Software effizient auszunutzen und legt die Grundlagen für den Einstieg in Cloud Computing. Server-Virtualisierung steht laut einer Umfrage von InformationWeek Research bei vielen IT-Managern hoch im Kurs. Ein Viertel aller Befragten will sogar aufs Ganze gehen und dieses Jahr 75 bis 90 der jeweiligen Unternehmens-Server virtualisieren. Die Liste der Gründe, warum das geschehen soll, umfasst dabei stets die gleichen Punkte: Den Befragten geht es vor allem um hohe Verfügbarkeiten, mehr Flexibilität und Vorteile bei der Datenrettung.

Besonders der letzte Punkt lässt aufhorchen, denn virtualisierte Systeme erlauben zwar eine intelligentere Datenverwaltung, gehen aber mit einer höheren Komplexität einher und erfordern damit vom Administrator ein gerütteltes Maß an Know-How. Es gilt, die Software für Verwaltung und Automatisierung zu beherrschen und mit Bedacht vorzugehen, da sich virtuelle Maschinen mit einem Mausklick installieren, verschieben und neu konfigurieren lassen. Ein übereilter Mausklick oder eine ausgefallene Hardware-Komponente können dann im Ernstfall gleich mehrere Funktionen auf Anwenderseite lahm legen.

Um ein Backup ihrer Systeme kümmert sich jedoch nur ein Bruchteil der Unternehmen. Das US-amerikanische Magazin Informationweek fand heraus, dass nur die Hälfte der befragten Unternehmen mindestens wöchentlich ein Backup für alle ihre virtuellen Server erstellt. Bei 22 Prozent wird sogar weniger als die Hälfte der virtuellen Server wöchentlich gesichert. Vor dem Hintergrund, dass kleine wie große Unternehmen inzwischen so stark auf elektronische Daten und ihre Verarbeitung angewiesen sind, dass sie sich längere Ausfallzeiten nicht mehr leisten können, macht sich das gar nicht gut. Laut Forrester Reserach und dem Disaster Recovery Journal liegen die durchschnittlichen Kosten für den Ausfall wichtiger IT-Systeme bei umgerechnet fast 110.000 Euro pro Stunde. Doch wie ist es eigentlich um die Sicherheit von virtuellen Systemen bestellt, welche Probleme sind denkbar und wie steht es um den Ausfallschutz? Diesen Themenkomplex wollen wir im Folgenden ansprechen.

Seit kurzem geben wir in unserer Serie Die besten Grafikkarten fürs Geld einen Überblick, welche Karten wir in den verschiedenen Performance- und Preisklassen für besonders empfehlenswert halten. Aufgrund der Marktpreise schwanken die Empfehlungen natürlich, doch hat sich gerade in der Klasse bis 150 Euro gezeigt, dass AMD mit der Radeon HD 6870, 6850 und darunter mit der HD 6670, sowie der HD 5570 recht starke Karten im Angebot hat, was das Preis-Leistungs-Verhältnis anbelangt. Die Konkurrenz ist allerdings ebenso stark in diesem heiß umkämpften Segment. Verständlich, dass AMD in diesem Bereich, der aufgrund des Preises auch für viele Käufer mit etwas geringerem Gaming-Anspruch interessant ist, auch weiterhin gut aufgestellt bleiben möchte.

Nachdem man mit der kurz vor Jahresende 2011 vorgestellten Radeon HD 7970 alias Tahiti XT und der im Januar erschienenen Radeon HD 7950 (Tahiti Pro) bereits das High-End abgedeckt hat, schaltet AMD nun zwei Gänge zurück und versucht, das Portfolio im Einsteiger- und Mittelklassebereich mit neuen Karten auszubauen. Diese Familie trägt die Bezeichnung HD 7700 und wird wie die Tahiti-Chips der Flaggschiff-Karten in 28 nm gefertigt. Außerdem nutzen die Neuvorstellungen die gleiche GCN-Architektur (Graphics Core Next), die auf GPU-Berechnungen hin optimiert worden ist, und bringen andere Boni wie eine anständige Multi-Monitor-Unterstützung und eine dedizierte Video-Encoding-Einheit mit – zumindest auf dem Papier, doch dazu später mehr. 

Leicht werden es die neuen Karten aber nicht unbedingt haben, und das liegt nicht mal an den konkurrierenden Nvidia-Angeboten. Die ärgsten Rivalen kommen aus eigenem Hause, denn wie eingangs erwähnt, hat AMD bereits einige bezahlbare Modelle im Angebot, die durchaus angemessene Performance  bieten.

High-End? Check. Low-End? Check.

AMDs Umstieg auf die GCN-Architektur ist also nun in vollem Gange. Die HD-7900-Serie mit Tahiti-GPUs zeigte bereits, was für Rechenleistung in diesem neuen Design auch abseits der Grafikaufbereitung steckt. Die beiden Modelle Radeon HD 7770 und 7750 bringen GCN nun in den Einsteiger- und unteren Mittelklassebereich. Beide Karten basieren auf einer GPU mit dem internen Codenamen Cape Verde, die wie erwähnt in 28 nm gefertigt wird, sich aber je nach Karte im Ausbau unterscheidet.

Im Gegensatz zur Tahiti-GPU, die ihre 4,31 Milliarden Transistoren auf einem 365 mm² großen Die unterbringt, sind die 1,5 Milliarden Schaltkreise und die Die-Größe von 123 mm² geradezu schlank zu nennen. In voller Ausbaustufe besitzt Cape Verde 10 Compute Units, die jeweils vier Vector Units mit je 16 Stream Processors enthalten. Insgesamt kommt man also auf maximal 640 Shader mit neuer GCN-Architektur.

Cape Verde bringt vier ROP-Partitionen mit, also nur halb so viele wie Tahiti. Maximal sind so also 16 Rasteroperationen pro Takt möglich. Per Crossbar-Verbindung kommunizieren diese Partitionen mit zwei 64-Bit-Speichercontrollern; Cape Verde hat also ein 128-Bit-Speicherinterface.

Wie man sieht, ist AMD ist einen interessanten Weg gegangen, um vom Tahiti-Chip der Radeon HD 7970 zu Cape Verde in der 7700-Familie zu gelangen. Der kleine Chip besitzt 31 Prozent der Shader, 50 Prozent der ROP-Partitionen, 66 Prozent des L2-Caches und nur 27 Prozent des maximalen Speicherdurchsatzes der Flaggschiff-GPU. AMD erklärte uns, dass sich nach vielen Simulationen diese Konfiguration als diejenige herauskristallisiert habe, die die beste Performance bot. Das Ziel war dabei nach eigenen Angaben, spielbare Performance bei 1920×1080 zu erreichen. Die Performance mag also bei höheren Auflösungen mit Anti Aliasing abfallen, doch ist das bei einer Einsteiger- bis Mittelklassekarte durchaus akzeptabel. Man sollte sich aber gleich aus dem Kopf schlagen, mit dieser Karte auf mehreren Monitoren spielen zu können.

Noch klafft zwischen der High-End und Einsteigerklasse eine Lücke, lange wird das aber nicht mehr der Fall sein. Den Bereich, in dem derzeit die Radeon HD 6870 und die 6900-Familie zu finden sind, soll schon bald eine dritte GCN-GPU ausfüllen, die den Namen Pitcairn trägt. Aber alles zu seiner Zeit…

Radeon HD 7770 und 7750

Offiziell heißt die schnellere der beiden Cape-Verde-Karten Radeon HD 7770 GHz Edition, ein Hinweis darauf, dass die Karte mit einem Kerntakt von eben 1 GHz läuft. Aus AMDs Sicht ist dies ein Meilenstein, und alle Partnerkarten werden diese Bezeichnung tragen, unabhängig davon, ob sie mit Referenztakt oder erhöhten Taktraten und eigenem Kühler antreten. Andererseits ist es kein Geheimnis, dass der Kerntakt nur eine Variable ist, die sich am Ende auf die Performance auswirkt. Insofern hinterlässt der Beiname einen faden, effektheischenden Marketing-Beigeschmack

Die 1 GHz schnelle Cape-Verde-GPU der Radeon HD 7700 kann auf alle 640 Shader zurückgreifen und erreicht damit eine theoretische Rechenleistung von 1,28 TFLOPS. Da jede der Compute Units vier Textureinheiten enthält, sind es bei der HD 7770 insgesamt 40 an der Zahl. Auch das Backend läuft in voller Ausführung und besitzt vier ROP-Partitionen und einen 128 Bit breiten Speicherbus, an dem 1 GB GDDR5-Speicher mit einem Takt von 1125 MHz hängt.

Mit einer Länge von 21,6 cm ist die Radeon HD 7770 fast genauso lang wie die Radeon HD 5770, gegen die sie sich unter anderem in diesem Feld behaupten muss. Doch wo sich die alte Juniper-basierte Karte eines Radiallüfters bedient, um sich der warmen Kühlluft zu entledigen, trägt die Radeon HD 7770 einen zentral angeordneten Axiallüfter, der auf einem extrudierten Aluminiumkühlkörper sitzt. Normalerweise sind wir nicht gerade Fans von Kühllösungen, die ihre Abluft einfach wieder im Gehäuse verwirbeln, allerdings liegt die TDP mit 80 Watt niedrig genug, dass sich die zusätzliche Wärme nicht wirklich auf die anderen Komponenten auswirken sollte.

Thermisch sind die 80 Watt also kein Problem, bedeuten aber, dass sich die Karte beim Strom nicht allein aus dem PCI-Express-Slot versorgen kann; der darf nur maximal 75 Watt bereitstellen. Deshalb trägt die HD 7770 einen zusätzlichen Sechs-Pin-Stromanschluss. Der Fortschritt gegenüber der HD 5770 ist aber deutlich, denn die alte Karte war mit 108 Watt angesetzt – das sind beinahe 30 Watt mehr. Die HD 7770 baut ihren Stromsparvorteil dank ZeroCore sogar noch weiter aus, wenn der Bildschirm sich in den Standby schaltet, denn dann soll die gesamte Karte weniger als 3 Watt aufnehmen.

Auch wenn eine der beiden rückwärtigen Blenden für die Entlüftung reserviert ist, finden sich mit einem Dual-Link DVI-Ausgang, einem HDMI-Port in voller Größe und zwei mini-DisplayPorts eine gute und flexible Auswahl an Anschlussmöglichkeiten. Theoretisch kann die Karte sogar bis zu sechs Displays gleichzeitig ansteuern, aber dazu fehlen derzeit noch die passenden DisplayPort 1.2 Multi-Stream Transport Hubs.

Radeon HD 7770 Radeon HD 7750 Radeon HD 6850 Radeon HD 5770
Stream processors 640
512
960 800
Textureinheiten 40
32
48 40
ROPs 16
16
32 16
GPU-Takt 1000 MHz
800 MHz 775 MHz 850 MHz
Texturfüllrate 40 Gtex/s
25.6 Gtex/s
37.2 Gtex/s 49.4 Gtex/s
Speichertakt 1125 MHz
1125 MHz 1000 MHz 1200 MHz
Speicheranbindung 128-bit
128-bit 256-bit 128-bit
Speicherdurchsatz 72 GB/s
72 GB/s
128 GB/s 76.8 GB/s
Grafikspeicher 1 GB GDDR5
1 GB GDDR5
1 GB GDDR5 1 GB GDDR5
Die-Größe 123 mm2
123 mm2
255 mm2 166 mm2
Transistoren (Milliarden) 1.5
1.5
1.7 1.04
Strukturbreite 28 nm
28 nm 40 nm 40 nm
Stromanschlüsse 1 x 6-pin
None 1 x 6-pin 1 x 6-pin
max. Leistungsaufnahme 80 W
55 W
127 W 108 W
PCI Express 3.0
3.0
2.0 2.0
Preis 159 € (UVP)
109 € (UVP)
~120 € (Straße) ~100 € (Straße)

Obwohl beide Cape-Verde-Karten auf dem gleichen Chip basieren, würde man die Radeon HD 7750 optisch nicht in der gleichen Familie wie ihre große Schwester einordnen – sie geht einen ganz anderen Weg. Dank ihrer maximalen Leistungsaufnahme von 55 Watt kommt sie beispielsweise komplett ohne zusätzliche Stromanschlüsse aus; ihr reicht der PCI-Express-x16-Slot als Stromgeber. Außerdem ist die Karte mit einer Länge von 16,5 cm klein genug, um auch in besonders engen Gehäusen untergebracht zu werden, zum Beispiel kleinen Desktops oder HTPCs. Bemerkenswert ist auch, dass die HD 7750 mit einer relativ einfachen Single-Slot-Kühllösung auskommt. Es ist schon eine Weile her, dass wir eine ernstzunehmende Karte mit einem so einfachen Kühler gesehen haben.

Natürlich klappt all das nicht ohne gewisse Kompromisse. AMD hat beim kleineren Cape-Verde-Modell zwei der CUs abgeklemmt, womit der HD 5570 noch 512 funktionierende Shader und 32 Textureinheiten bleiben. Außerdem liegt der Kerntakt mit 800 MHz niedriger, womit die theoretische Rechenleistung auf 819 GFLOPS sinkt. Am Back-End ändert AMD glücklicherweise nichts, und so findet man auch beim kleineren Chip vier ROP-Partitionen und einen 128-Bit-Speicherbus, an dem 1 GB GDDR5-RAM bei 1125 MHz hängt.

Laut AMD kann auch die HD 7750 bis zu sechs Bildschirme antreiben. Da sie aber nur einen Dual-Link DVI-Anschluss, einen HDMI-Ausgang und einen mini-DisplayPort-Ausgang mitbringt, dürfte sich die Umsetzung einer solchen Konfiguration noch schwieriger als bei der HD 7770 gestalten.

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen