Monat: Oktober 2011

Praxistest: Ruggedized-USB-Sticks

Ruggedized-Geräte sind besonders widerstandsfähig gegen äußere Einflüsse wie Stöße, Stürze, Staub, Flüssigkeiten oder extreme Temperaturen. Typische Vertreter dieser ultrastabilen Spezies sind Notebooks, Tablet-PCs und externe Festplatten, aber auch Mobiltelefone und USB-Sticks. Letztere verfügen bereits ab Werk über einen gewissen Ruggedized-Bonus, zumindest was die Erschütterungsfestigkeit betrifft. Lässt man Schiebemechanismen oder abnehmbare Verschlusskappen außen vor, besitzen USB-Sticks keine beweglichen Bauteile. Kombiniert mit ihrer geringen Masse nehmen die Datenstifte daher einen unfreiwilligen Fall vom Tisch nur in den seltensten Fällen übel und lassen sich höchstens einen Kratzer oder einen Sprung im Gehäuse abringen.

Will man bei den Speicherstiften trotzdem ganz auf Nummer sicher gehen, was die Daten betrifft, führt kein Weg an Ruggedized-Modellen vorbei. Genauso wie Ruggedized-Festplatten erhalten die Ruggedized-Datenstifte ihre Nehmerfähigkeiten durch besonders robuste Gehäuse. Je nach Herstellerangabe sind die Sticks dann resistent gegen Staub, Wasser oder Erschütterungen und lassen sich selbst von einem LKW überfahren, ohne dabei Schaden zu nehmen. Zugegeben, den Tom’s Hardware-Truck haben wir in der Garage stehen gelassen, alle USB-Sticks jedoch gründlich auf ihre Nehmerfähigkeiten getestet. Mit dabei sind folgende Produkte: Corsair Flash Voyager GT, LaCie XtremKey, PQI i812 und Transcend JetFlash V70.

Gegenüber Standardmodellen steht bei den vier Ruggedized USB-Sticks die Sicherheit an erster Stelle. Das klingt angesichts der Geräteklasse selbstverständlich, heißt aber, dass man in Sachen Speicherkapazität und Schnittstellentempo nicht die höchsten Ansprüche stellen sollte. Bei gleichem Preis bieten die Testkandidaten deshalb tendenziell weniger Kapazität als gewöhnliche USB-Sticks und ein USB-3.0-Interface ist eher Ausnahme als Regel. Lediglich Corsair und LaCie bieten bis zu 64 GB Speicherplatz, wobei nur ersterer auch über eine USB-3.0-Schnittstelle verfügt. PQI und Transcend speichern maximal 32 GB Daten.

Einen optischen Unterschied zu USB-Standardmodellen kann man übrigens nur beim LaCie XtremKey erkennen, dort aber gleich auf den ersten Blick: Mit seinem Metallgehäuse und der verschraubbaren Verschlusskappe wirkt der Ruggedized-USB-Stick sehr robust und geradezu unverwüstlich.

Wer hat den Größten? Verpackung des Strike-X ST im Vergleich zu HP Touchpad und Samsungs Omnia 7.Wer hat den Größten? Verpackung des Strike-X ST im Vergleich zu HP Touchpad und Samsungs Omnia 7.

Groß, größer, Strike-X ST?  ST steht im aktuellen Fall für Supertower, anhand der Dimensionen sicherlich auch keine Übertreibung. Wir haben die ernsthaften Bemühungen Aerocools, das LED-beleuchtete Kiddie-Turbinengehäuse-Image früherer Jahre loszuwerden, bereits anhand einiger Gehäusetests aktueller Modelle nachvollziehen können, aber ein ausgewachsener Big-Tower mit einem gewissen Premiumanspruch ist dann doch was Neues und somit auch eine Herausforderung. Was passt rein, in den neuen Supertower und wo liegen die eventuelle Stärken und Schwächen? Wir testen den Boliden zum Verkaufsstart und bestücken ihn zudem mit der inneren Heizkraft zweier HD 6990 und eines übertakteten Phenom II X6. Alpenglühen oder eiskalter Gletscher? Wir wollten es einfach wissen…

Selbst wenn die Virtualisierung nicht gerade ein neues Konzept ist – die Basis für dazu wurde bereits 1974 von Popek und Goldberg entwickelt – muss man jedoch zur Kenntnis nehmen, dass sich die Lösungen zur Virtualisierung gerade in den letzten Jahren vervielfacht haben, weil sowohl die Technologie als auch die Hardware einen gewissen Reifegrad erreicht haben.

Umso interessanter sind dabei natürlich Systeme, die zum einen ein professionelles Arbeiten erlauben, zum anderen aber gratis sind. Daher sollen im Folgenden drei kostenlose Lösungen näher betrachtet werden, die für einen Einsatz auf Servern angedacht sind: Microsoft Hyper-V Server 2008 R2 (SP1), VMWare vSphere Hypervisor (ESXi) 4.1 und Citrix XenServer 6.

Als Nvidia 2009 seine 3D-Vision-Technologie vorstellte, war das  das bislang größte Bekenntnis eines großen Herstellers zu 3D-Gaming. Zwar basiert diese Technologie auf einer proprietären Kombination aus aktiven Shutterbrillen mit 120 Hz, die auf lizenzierten Bildschirmen zusammen mit  den hauseigenen Treiberlösungen ein räumliches Bild aufs Display zaubern, doch hatten Anwender von Anfang an sämtliche benötigten Hardware-Puzzleteile in der Hand. Es fehlte lediglich die Software, und so hat sich Nvidias berühmtes Team zur Unterstützung von Entwicklern  gleich an die Arbeit gemacht und Spielehersteller bei der Entwicklung von Titeln mit 3D Vision unterstützt. Dennoch läuft bei 3D Vision auch heute noch nicht immer alles ganz rund. Andererseits  ist es nach wie vor die derzeit umfangreichere End-to-End-Lösung für 3D-Gaming.

AMD brauchte beinahe zwei Jahre, um Nvidias 3D-Offensive zu kontern. Erst mit der  Einführung der Radeon-HD-6800-Karten startete AMDs eigene 3D-Initiative mit Namen HD3D, die einen ganz anderen Ansatz verfolgt, um räumliche Bilder am PC zu ermöglichen.An Stelle eines proprietären Systems bietet AMD Spiele-Entwicklern Treiber-Schnittstellen   und überlässt es Drittherstellern, die passenden 3D-Displays und -Brillen anzubieten. Aufgrund des offeneren Umfelds dauerte es zwar deutlich länger, bis sich HD3D als brauchbare Lösung nutzen ließ. Immerhin mussten andere Unternehmen entsprechende Hardware und Software liefern, die HD3D  unterstützen. Inzwischen ist  ein Jahr vergangen, und es gibt DisplayPort-Monitore, die 120 Hz schaffen und uns so endlich einen Direktvergleich der beiden Technologien ermöglichen.

Dann gibt es natürlich noch  Intels HD Graphics 2000/3000, also die integrierte Grafikeinheit der  Sandy-Bridge-Prozessoren. Dank zahlreicher Fixed-Function Decodereinheiten  macht Intel bei der Wiedergabe von Blu-ray 3D-Inhalten eine überraschend gute Figur. Im heutigen Artikel geht es allerdings in erster Linie um stereoskopisches Gaming mit spielbaren Bildraten – und dafür fehlt Intels HD-Graphics-Hardware einfach die notwendige Power. Anwender mit anspruchsvoller Home-Theater-Ausstattung, die lediglich an Blu-ray 3D interessiert sind sollten allerdings wissen, dass die Intel-Hardware dieser Aufgabe absolut gewachsen ist.

An dieser Stelle wollen wir nicht noch einmal die Grundlagen der stereoskopischen Darstellung erklären. Wir gehen davon aus, dass die grundlegende Funktionsweise unseren Lesern bekannt sein dürfte. Stattdessen wollen wir die Systeme der beiden großen CPU-Hersteller gegenüberstellen.

Ein kurzer Vergleich

Die Unterschiede zwischen 3D Vision von Nvidia und HD3D von AMD lassen sich am besten in einer Tabelle darstellen:

Nvidia 3D Vision AMD HD3D
Grafik-Hardware: verschiedene GeForce-Karten
(vollständige Liste hier)
mindestens AMD Radeon HD 5000
(hardwarebeschleunigte
3D-Blu-ray-Wiedergabe
setzt eine Radeon HD 6000 voraus)

Unterstützte Displays: 3D-Vision-Monitore per DVI-D
(60 FPS/1080p)
3D-fähige Fernseher per HDMI
(24 FPS/1080p oder 60 FPS/720p)
3D-fähige Monitore mit 120 Hz per DisplayPort
(60 FPS/1080p)
3D-fähige Fernseher per HDMI
(24 FPS/1080p or 60 FPS/720p)
3D-Brillen: 3D Vision:
aktive 3D-Vision-Brille mit 120 Hz
3D-fähiger Fernseher per HDMI:
aktiv
oder passiv
(je nach Displaytyp)
aktiv oder passiv
(je nach Displaytyp)
Spiele-Software: 3D-Vision-Monitor:
GeForce Treiber

3D-fähiger Fernseher per HDMI:
3DTV Play
Je nach Anwendung: TriDef– oder iZ3D-Treiber
für Spiele; derzeit zwei Spiele mit nativer
 HD3D-Unterstützung 
Blu-ray 3D-Software: ArcSoft TotalMedia Theatre, Cyberlink PowerDVD und
Corel WinDVD
für Blu-ray 3D
Mehrkarten-Unterstützung: Ja (SLI)  Nein (CrossFire noch nicht unterstützt)
Multi-monitor 3D-Unterstützung: Ja (mit SLI) Ja (nur mit einer Karte)

Offen oder geschlossen?

Geht man von der Tabelle aus, halten sich die Unterschiede bei den Fähigkeiten von 3D Vision und HD3D in Grenzen. Die beiden Technologien unterscheiden sich vor allem folgendermaßen: Wirft man einen Blick auf ein 3D-fähiges Gaming-System, wirkt der Ansatz von Nvidia deutlich einfacher: Hier geht es lediglich um eine proprietäre Zertifizierung, nämlich 3D Vision. Man benötigt nur ein 3D Vision-Kit mit aktiven Brillen, eine 3D Vision-fähige GeForce Grafikkarte und einen 3D-Vision-fertigen Monitor. Anwender, die eine angenehme 3D-Erfahrung sicherstellen wollen (auch wenn die Anzahl verifizierter 3D Vision-fähiger Spiele noch relativ gering ist), sollten sich an Spiele halten, die für 3D Vision zertifiziert sind. Andererseits kann man auch mehrere Karten im SLI-Modus betreiben, um die Performance zu steigern. Das ist zudem eine nette Option, da räumliches 3D die Bildraten praktisch halbiert, was oftmals leistungsfähigere Grafik-Hardware erforderlich macht.

Bei einer Lösung auf AMDs HD3D-Basis kombiniert man eine Radeon HD 5000- bzw. 6000-Grafikkarte, einen TriDef- oder iZ3D 3D-Middleware Game-Treiber (oder beide) und einen 3D-fähigen 120 Hz DisplayPort-Monitor mit zugehöriger 3D-Brillen. Es scheint keine offizielle TriDef- oder iZ3D-Zertifizierung für Spiele zu geben. Will man wissen, ob ein Spiel mit einem der Treiber kompatibel ist, muss man deshalb ein wenig Eigenrecherche in Artikeln wie diesem betreiben. Leider gibt es noch nicht allzu viele Berichte, ob und wie gut welche Spiele funktionieren.

Spiele mit nativer HD3D-Unterstützung benötigen keine Middleware, allerdings gibt bislang es lediglich zwei Beispiele: Deus Ex: Human Revolution und DiRT3. Angeblich bietet ab sofort auch Battlefield 3 native HD3D-Unterstützung. Eine CrossFire-Nutzung von AMD Radeon-Karten ist derzeit zur Optimierung von räumlicher 3D-Performance noch nicht möglich. Das ist vor allem für Anwender wichtig, deren Board nicht leistungsstark genug ist für entsprechend hohe Bildraten des Lieblingsspiels.

Aber es gibt auch Gutes über AMDs HD3D-Technologie zu sagen. Auch diese Lösung bietet ein hervorragendes 3D-Erlebnis. In einigen Spielen schneidet AMD sogar besser ab als 3D Vision von Nvidia. Der zuvor angesprochene 3D-Ansatz entscheidet allerdings über die Effektivität jeder Initiative. 3D Vision ist die proprietäre Apple-artige Lösung mit stark kontrollierten Komponenten, während HD3D eher einem PC-Modell entspricht – mit Standards, an die sich separate Anbieter von Komponenten halten müssen. Kein Ansatz ist richtig oder falsch. Allerdings hat jede Lösung jeweils Vor- und Nachteile.

Eine Debatte unter Gamern

In unserem Artikel geht es ausschließlich um Gaming auf 3D-fähigen Monitoren, die mit einem 120 Hz-Panel eine Framerate von 60 FPS zu erreichen versuchen. In Bezug auf Blu-ray 3D über eine HDMI-Verbindung auf einem 3D-fähigen Fernsehgerät sind Nvidia, AMD und sogar Intel bei 1080p auf 24 FPS begrenzt und können mit allen möglichen mitgelieferten Brillen eingesetzt werden. Der HDMI 1.4a-Standard stößt bei 24 FPS und 1920×1080 an seine Grenzen. Allerdings ist auch eine Performance von 60 FPS über HDMI möglich, wenn man die Auflösung auf 1280×720 (720p) verringert. Für Gelegenheitsspieler  dürfte das ausreichen. Enthusiastische Gamer dürften allerdings native Auflösungen und volle Frameraten wollen und kommen daher nicht um 120 Hz 3D-fähige Monitore herum.

Der Prozessor kommt mit dem Rechnen nicht hinterher, die magere RAM-Ausstattung sorgt für lange Wartezeiten und die Grafikkarte versteht sich nur auf die Darstellung von Ruckelorgien – Hardware-Engpässe können PC-Nutzer an vielerlei Stelle plagen. Systemkomponenten wie Festplatten darf man jedoch getrost von der Flaschenhals-Liste streichen, denn bereits 2,5-Zoll-Laufwerke halbwegs aktuellen Datums bieten mit typischerweise 500 GB mehr als genug Speicherplatz für alltägliche PC-Belange. Angesichts dieser Kapazität fällt die Größe der Windows-Partition kaum ins Gewicht und lässt noch viel freien Raum für weitere Daten, etwa die Musik-, Spiele- oder Bildersammlung. Noch einen Schritt weiter gehen 3,5-Zoll-Laufwerke, die quasi die Antithese zum Flaschenhals darstellen. Je nach Modell und Anbieter bekommt man das GB hier teilweise schon für drei Cent und muss folglich für ein 2-TB-Laufwerk nur noch etwa 60 Euro investieren. Diesen Speicherplatz auszureizen erfordert mitunter schon einige Anstrengung, doch wer zum Beispiel eine umfangreiche Videosammlung besitzt, kann selbst so eine Festplatte relativ leicht füllen.

Ganz anders sieht die Situation bei SSD-Laufwerken aus. Auch sie lassen sich ganz mühelos mit Daten betanken, doch verglichen mit Festplatten bieten sie wesentlich weniger Kapazität und so wiegt jedes zusätzlich belegte GB ungleich schwerer. Buchstäblich wertvoller ist es ohnehin, denn mit Preisen von etwa 1 Euro pro GB sind die SSDs um einiges kostspieliger als Festplatten und so sind gerade diejenigen Flashlaufwerke am beliebtesten, die den Geldbeutel am meisten schonen, dafür jedoch vergleichsweise geringe Kapazitäten bieten.

Besonders die kleinen SSDs mit Kapazitäten um die 60 GB geraten sehr schnell an die Grenze ihres Fassungsvermögens, wenn Windows samt weiterer Anwendungen wie etwa ein Office-Paket und ein Mail-Programm samt Mailarchiv darauf Platz finden muss und obendrein noch freier Speicher übrig bleiben soll. Das Kapazitätsproblem wird noch durch die Empfehlung seitens der Hersteller verschärft, eine SSD nicht komplett mit Daten zu füllen, weil sonst die Laufwerke ihrer Aufgabe nicht nachkommen können, eine gleichmäßige Abnutzung der Flash-Zellen mittels Wear Leveling-Algorithmen zu erreichen. Um keinen wertvollen SSD-Speicherplatz zu verschenken, fahren viele Anwender deshalb einen Mischbetrieb aus Betriebssystem-SSD und einer zusätzlichen Festplatte und verbinden so das Beste aus beiden Lagern. Dabei fungiert das Flashlaufwerk als schnelles Windows-Laufwerk und die Festplatte als Datenspeicher.

Methoden, mit denen sich freier Speicherplatz bei einer SSD zurückgewinnen lässt, haben wir bereits in einem eigenen Artikel beleuchtet (Praxis: Kann man mehr Platz und Performance aus einer SSD herausholen?). Hier wollen wir die Vor- und Nachteile einer weiteren Möglichkeit vorstellen, die Windows ab Werk bietet und die, sofern erst einmal aktiviert, kein weiteres Zutun vom Nutzer erfordert. Die Rede ist von der Datenkompressions-Funktion des NTFS-Dateisystems. Wir haben uns im Testlabor eingehend damit beschäftigt und zeigen im Folgenden, was dahintersteckt und wann sie sinnvoll ist. Dabei gehen wir auf alle wichtigen Fragen ein: Wie aktiviert man die Datenkompression, was wird komprimiert, wie viel Speicherplatz lässt sich bei einer typischen Windows-Installation gewinnen und wie stark wirkt sich diese Funktion auf die Leistung der SSD aus?

LG P530LG P530

Bei unseren Notebook-Tests ist es normalerweise so: Wir suchen uns ein Modell oder ein Thema aus, bitten bei den Herstellern um ein Leihgerät und  beginnen mit dem Test (sofern wir unser Wunschmodell bekommen). Dieses Mal liegen die Dinge anders, denn LG fragte uns, ob wir uns das LG P530 anschauen wollten – ein 15,6″-Modell mit Core i7 mit einer UVP jenseits der 1000 Euro. Da konnten wir natürlich nur schwer nein sagen.

Beim Design des P530 gibt sich LG klassisch und zeitlos, denn die Silberoptik wirkt edel und gefällig. Der flache Notebookdeckel präsentiert sich im gebürsteten silbrig-matten Alulook. LG verzichtet größtenteils darauf, dort große Designelemente unterzubringen – allein ein LG-Logo oben rechts hebt hervor, dass sich darunter ein Notebook von eben dieser Firma verbirgt. Der dünne Notebookdeckel trägt auf der Innenseite ein 15,6-Zoll-Display hinter eine Glasscheibe. Allerdings füllt das Display die Deckelinnenseite nicht voll aus sondern besitzt praktisch zwei schwarze Rahmen – einen unter dem Glas, einen weiteren darum. Oben mittig sitzt die Webcam.

LG bleibt auch auf der Tastatur und Trackpadfläche beim edlen, schlichten Silberdesign. So ist oberhalb der Tastatur ein fein-gelochter Balken hinter dem sich die Lautsprecher verbergen. Eingesetzt oben rechts ist ebenfalls der An/Aus Knopf, der, wenn das Notebook in Betrieb ist schwach weiß leuchtet.

Die Tastatur mit ihren schwarzen Tasten sitzt leicht vertieft unterhalb dieses gelochten Balkens. Auf Grund der Größe hat LG ebenfalls ein Nummernblock verbaut, der nahtlos an der Tastatur rechts anschließt. Unterhalb der Tastatur befindet sich das Trackpad mit Tastenwippe, welches sich nur minimal durch leichte Einkerbungen in die Handballenauflagen von eben diesen absetzt.

Ohne Strom geht nichts, mit auch nicht.Ohne Strom geht nichts, mit auch nicht.

Eine nicht wirklich gelungene Eigenheit beim P530 ist die Anordnung von Stromkabelanschluss und optischem Laufwerk. Der Stromanschluss liegt an der rechten Gehäuseseite direkt hinter der DVD-Lade, und so blockiert das abgewinkelte Kabel im ungünstigsten Fall den Auswurf von optischen Medien. Das ist doppelt ärgerlich, denn nicht nur sollte so etwas dem Design-Team auffallen, auf der anderen Gehäuseseite wäre auch ausreichend Platz für den Stromanschluss gewesen – und schon hätte man das Problem gar nicht erst gehabt.

Lesen Sie bitte zuvor auch den ersten Teil:
Nachbauprojekt Silent-PC: Tom’s Cube – lautloses Gaming auf kleinstem Raum (Teil 1)

Was erwartet uns im Teil 2?

Im ersten Teil hatten wir unser Bauprojekt ja bereits in Betrieb genommen. Als reiner HTPC für minimale Spieleanforderungen bereits gut geeignet, wollen wir nun versuchen, in einzelnen Schritten dem Ziel eines Gaming-PCs näher zu kommen. Geringer Platz, Wärmeentwicklung und richtige Grafikkartenauswahl sind nur einige der antstehenden Probleme, die wir Stück für Stück lösen müssen.

Der PC aus dem ersten Teil - grafisch momentan nur mit der APU befeuert.Der PC aus dem ersten Teil – grafisch momentan nur mit der APU befeuert.

Allerdings müssen wir jeden der Schritte auch finanziell hinterfragen, denn beim Passivumbau kann man sehr schnell auch sehr viel Geld verbrennen. Außerdem wollten wir ja noch die Frage nach CrossfireX mit APU und aus diskreten Einzelkarten klären, schließlich hatten wir ja im ersten Teil auch ein für CrossfireX gut geeignetes Board empfohlen.

Das MSI A75-P35 lässt auch Drei-Slot-Lösungen zu und eignet sich daher auch für unsere Kombinationen kleinerer Karten mit großen VGA-Kühlern außerhalb der Kompatibilitätslisten. Für CrossfireX-Lösungen mit 2 diskreten Grafikkarten muss jedoch das Gigabyte-Board aus Teil 1 verwendet werden.

Wir experimentieren je nach Umbau in diesem zweiten Teil mit zwei Mainboards und bitten deshalb auch, den Hinweis auf das jeweilig verwendete Board zu berücksichtigen, wenn ein eigener Nachbau geplant ist!

be quiet!, laut GfK seit fünf Jahren der Marktführer für PC-Netzteile in Deutschland*, stellt heute seine neue “Straight Power”-Modellreihe vor. Die meistverkaufte Netzteilserie von be quiet! wurde komplett erneuert. Nun verfügt sie unter anderem über einen 135 mm großen SilentWings-Lüfter und eine 80-PLUS-Gold-Zertifizierung. Außerdem ist Straight Power E9 die erste Serie mit einer fünfjährigen Herstellergarantie.

Die Vorgängergeneration E8 war die meistverkaufte Netzteilserie von be quiet! und erhielt über 29 Auszeichnungen von internationalen Medien. Jetzt stellt be quiet! die nächste Entwicklungsstufe der Straight-Power-Serie vor. Die deutsche Firma und ihr Design-Team haben es geschafft, den Vorgänger in jeder Hinsicht zu verbessern.

SilentWings jetzt in 135 mm

Die neuen Netzteile bringen ein überarbeitetes Kühlungssystem mit sich, inklusive einem 135 mm SilentWings-Lüfter mit hochwertigem FDB(Fluid Dynamic Bearing)-Lager. Die neue Kühllösung ist unhörbar und extrem zuverlässig. 135 Millimeter ist das größte Lüftermaß, das sich in das Straight-Power-Gehäuse einbauen lässt. Diese Sondergröße wurde von be quiet! extra für den Einsatz in Netzteilen konzipiert. Dank des größeren Durchmessers können die neuen Lüfter die gleiche Luftmenge bei geringerer Drehzahl und geringerer Lautstärke befördern. Durch das Low-Noise-Lüftergitter und die entkoppelte Anbringung gehören die E9-Modelle zu den leisesten auf dem Markt. Jeder SilentWings-Lüfter wird bei der Produktion individuell mit kleinen Gewichten austariert, ähnlich wie bei einem Autoreifen. Durch die Modifikation elektrischer und mechanischer Komponenten konnte man außerdem zusätzliche Betriebsgeräusche im Inneren des Netzteils reduzieren.

Neue Topologie sorgt für 80 Plus Gold

Alle E9-Varianten kommen mit einer goldenen 80-PLUS-Zertifizierung, und erreichen damit Effizienzen von bis zu 93%. So sorgt be quiet! für geringere Betriebskosten und weniger Abwärme, denn je höher der Wirkungsgrad, desto weniger Leistung geht als Wärme verloren. Sogar das kleinste Modell mit 400 Watt verfügt über die Gold-Zertifizierung. Das ist im Netzteilmarkt beachtenswert, denn es wird umso schwieriger die geforderten Effizienzen zu erreichen, umso geringer die Ausgangsleistung eines Netzteils ist. Dies konnte man nur durch die neue “Active Clamp + SR (Synchronous Rectifier)”-Topologie erreichen. Anstatt analoge und statische Bauteile zur Transformation einzusetzen, verwendet be quiet! nun zwei intelligente Chips (ICs), die untereinander kommunizieren, und so ihre Parameter ständig an die jeweilige Lastsituation anpassen. Damit kann man stets den höchsten Wirkungsgrad aufrecht erhalten. Im Standby-Zustand verbraucht das E9 nur verschwindend geringe 0,3 Watt und erfüllt damit locker die europäischen “ErP”-Anforderungen.

Multi-GPU-Kompatibilität und Schutzschaltungen

Straight Power E9 bietet vier unabhängige 12-V-Rails für die optimale Aufteilung der Leistung, die 400-Watt-Version hat drei Rails. Damit eignen sich die Netzteile hervorragend dafür, leistungsfähige Multi-Grafikkarten-Systeme zu betreiben. Entsprechend verfügen fast alle Modelle auch über AMD-CrossFireX- und NVidia-SLI-Zertifizierungen. Um die maximale Datensicherheit für den User zu gewährleisten, bietet Straight Power E9 auch alle aktuellen Schutzschaltungen: Überlast(OPP)-, Überspannungs(OVP)-, Überstrom(OCP)-, Unterspannungs(UVP)-, Kurzschluss(SCP)- und Überhitzungs(OTP)-Schutz.

“Unser Design-Team hat erfolgreich daran gearbeitet, alle wichtigen Teilgebiete des Netzteils zu verbessern: Lautstärke, Stabilität und Effizienz. Wir sind stolz, so viel Qualität und Performance mit einer fünfjährigen Garantie anbieten zu können!”, so Oleg Ushkats, Direktor der Produktentwicklung.

Wieder einmal bietet be quiet! seinen Kunden die Wahl zwischen festen und abnehmbaren Kabeln. Die Modelle mit fester Verkabelung gibt es in fünf Varianten: mit 400, 450, 500, 600 und 700 Watt. Die anderen drei Modelle mit Kabelmanagement reichen von 480 über 580 bis zu 680 Watt Leistung. Die voraussichtlichen Marktpreise beginnen bei 79,90 € für 400 Watt und erstrecken sich bis hin zu 139,90 € für die 680-Watt-Version mit Kabelmanagement. Alle Modelle sind ab sofort verfügbar!

* Quelle: Gfk Panelmarkt, Absatz Interne Computer Netzteile, Juli 2011

mehr Infos unter be-quiet.de »

Performance pro Watt: Das leistet AMDs FX

Der verantwortungsvolle Umgang mit Energie ist inzwischen kein Randthema mehr, sondern geht alle an. Gerade die Hersteller von PC-Plattformen wie AMD und Intel stehen hier in besonderer Verantwortung, liefern sie doch die Komponenten für viele Millionen Systeme. In der Summe machen sich ein paar Watt mehr oder weniger im weltweiten Gesamtenergiebedarf deutlich bemerkbar. Ausgehend von gesundem Menschenverstand gilt: so viel Enerbiebedarf wie nötig, aber so wenig wie möglich. Doch wie steht es hier mit AMDs neuem Flagschiff, dem FX-Prozessor?

Mit Zambezi, so der Haupt-Codename des FX-Prozessors aus der Entwicklung, geht AMDs neue Prozessorarchitektur an den Start, die unter dem Namen Bulldozer entwickelt und propagiert wurde. Das Hauptziel hat AMD allerdings erst einmal verfehlt: schneller zu rechnen als Konkurrent Intel. Allerdings bleibt AMD bei einer erträglichen bis teilweise attraktiven Preisgestaltung, so dass AMDs FX im Gesamtsystem durchaus nicht als Rohrkrepierer bezeichnet werden kann: Der Kunde bekommt eine kompatible Plattform auf Basis des Sockels AM3+, kann vorhandenen DDR3-Speicher gegebenenfalls weiter verwenden und auch das Overclocking-Potenzial der ersten Testmuster ist mehr als brauchbar. Es handelt sich beim FX um die erste CPU-Generation handelt, die AMD bei Globalfoundries im 32-nm-Verfahren fertigen lässt.

Was ist eigentlich Effizienz?

Das gibt Anlass zur Hoffnung bezüglich des Energiebedarfs der FX-Prozessoren. Wichtig ist dabei nicht allein eine mögichst deutliche Senkung der Leistungsaufnahme, sondern das Erreichen einer möglichst große Leistungsfähigkeit pro Watt an Energiebedarf. Auf PKW umgemünzt entspräche das dem Kraftstoffverbrauch in Litern pro 100 km bei einer definierten Geschwindigkeit.

Dabei bedeutet niedriger Energiebedarf nicht automatisch auch hohe Energieeffizienz, denn es gilt, verschiedene Lastzustände zu berücksichtigen. Kein System läuft immer auf Anschlag und auch die völlige Untätigkeit, im Englischen Idle-Zustand genannt, spielt eine große Rolle: Ein erhöhter Energiebedarf unter großer Last ist dann akzeptabel, wenn eine gegebene Aufgabe in möglichst kurzer Zeit beendet werden kann – so dass das System dann schneller wieder im Idle-Modus ankommt und so am sparsamsten operiert.

Der Benchmark: Intel Sandy Bridge

In den letzten Jahren hat sich Intel mit den Core-Prozessoren und vornehmlich der Sandy-Bridge-Generation (Core i3/i5/i7 mit vierstelliger Modellnummer) ordentlich mit Ruhm bekleckert. Das bedeutet: solche Systeme benötigen im Idle-Zustand am wenigsten Energie und sind auch unter Last angenehm sparsam.

Nun ist die Frage, wie gut AMD in diesem Bereich gearbeitet hat. Acht gerne bedeuten eine potenziell hohe Leistungsaufnahme unter Last, aber auch hohe Rechenleistung bei Thread-optimierten Anwendungen. 95 und 125 W TDP (Thermal Design Power) als Leistungsspezifikation deuten dagegen eher auf hohen Energiebedarf. Wir haben das getestet und das Zambezi-System mit Pheonom II X4, Phenom II X6 sowie allen relevanten Intel-Produkten verglichen.

Neverending Story und ein Happy End

Nachdem Mionix bereits im Frühjahr eine neue mechanische Tastatur angekündigt hatte und mit der Zibal 60 bereits im Vorfeld für einiges Aufsehen sorgte, war es wieder lange Zeit ruhig um das Produkt des schwedischen Herstellers. Kommt sie, oder kommt sich nicht? Und wenn doch, dann wann und wie viel wird sie wohl am Ende kosten? Fragen über Fragen und eine am Schluss doch etwas irritierte Community waren die Folge dieses Versteckspiels. Doch irgendwann kommt selbst ein Bulldozer zu Potte und so entwickelte sich die Mionix Zibal 60 von einer mechanischen Fata Morgana zur realen existierenden Tastatur in Form eines Testmusters für uns. Wohlgemerkt – wir testen kein Vorserienmuster, sondern bereits das, was im Laden erhältlich sein wird.

Nun ist es ja nicht so, dass es keine mechanischen Tastaturen auf dem Markt gäbe, doch Cherry MX-Black-Taster mit LED-Beleuchtung sind dann doch was Neues. Und so freuen wir uns fast schon ungeduldig auf die ersten Praxistests.

  • 1
  • 2

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen