Monat: Juli 2010

USB-3.0-Laufwerke im Vergleich, Teil 1

USB 3.0 ist noch nicht die neue Standard-Schnittstelle für den Anschluss externer Geräte, was allerdings nur daran liegen dürfte, dass es bislang keine Chipsätze mit integrierten USB 3.0-Controllern gibt. Das Interface an sich ist ausgereift und immer mehr Speicherprodukte und Host-Adapter sind mittlerweile verfügbar, mit denen die durch USB 2.0 verursachten Flaschenhälse bei der Nutzung externer und tragbarer Speichergeräte behoben werden können. Wir haben drei neue USB 3.0-Geräte für Sie getestet – zwei portable 2,5-Zoll-Laufwerke und ein externes Speicherprodukt im 3,5-Zoll-Format.

2008 haben wir zum ersten Mal über die abgeschlossene USB 3.0-Ausführung berichtet und vor ungefähr einem Jahr einen detailierten Artikel über USB 3.0 veröffentlicht. Ein weiterer Artikel über unterschiedliche PCI Express-Implementierungen, die bei USB 3.0- und SATA 6 Gb/s-Lösungen eventuell Engpässe verursachen, bietet mehr Einblick ins Thema. Zudem haben wir vor einiger Zeit ein paar USB 3.0-Gehäuse für 2,5-Zoll-Festplatten getestet. Schließlich empfehlen wir Ihnen auch noch, einen Blick auf unseren erst vor wenigen Wochen erschienenen USB 3.0-Speicherstick-Test zu werfen. Heute ist es an der Zeit Retail-Speicherprodukte näher zu beleuchten.

Technisch weniger versierte Anwender dürften sich fragen, weshalb USB 3.0 überhaupt so wichtig ist, immerhin hat USB 2.0 bislang einwandfrei funktioniert. Das ist zwar richtig, allerdings ist USB 2.0 effektiv auf eine Bandbreite von etwas mehr als 30 MB/s beschränkt, was wiederum einen ernstzunehmenden Flaschenhals zur Folge hat, der nicht nur für Enthusiasten zum Problem wird, sondern auch zunehmend von Mainstream-Usern wahrgenommen wird. Sehen wir uns das anhand weniger Beispiele etwas genauer an. Sofern man hauptsächlich mit kleinen Dateien arbeitet, braucht man sich über USB 3.0 wohl kaum Gedanken zu machen. Allerdings benötigt man für High-Definition-Inhalte, umfangreiche Medien-Verzeichnisse (Fotos, Videos, Musik) und Datensicherungen mittlerweile immer höhere Kapazitäten. Während entsprechende Speicherkapazitäten zu relativ normalen Preisen erhältlich sind, wird die für das Kopieren der Daten notwendige Zeit zum Problem. Die Sicherung eines Systems mit 20GB auf ein USB 2.0-Speichergerät dauert ungefähr 12-15 Minuten. Eine große Video-Datenbank mit 400GB nimmt bereits mehrere Stunden in Anspruch. Bei einem derartigen Zeitaufwand ist schon eine gehörige Portion Geduld notwendig, da solche Aktionen nicht zwischen Tür und Angel durchgeführt werden können. USB 3.0-Lösungen benötigen für die gleiche Aufgabenstellung lediglich 1/3 oder sogar nur 1/4 der Zeit.

Wollen wir mal sehen, wie leistungsfähig die drei neuen USB 3.0-Laufwerke von AData, Buffalo und Western Digital sind.

Wohl kaum eine Geräteklasse wurde in so großen Stückzahlen verkauft, wie Netbooks in den vergangenen drei Jahren. Die Intel Atom Prozessoren der ersten (N270, N280, Z520) und der zweiten Generation (N450) dominieren den Markt. Chiphersteller AMD konnte trotz der Versuche einiger OEM-Hersteller kein Land gewinnen. Die Hersteller und auch die Kunden hatten für die Bevorzugung des Intel Atom gute Gründe. Die stromsparende Single-Core CPU war und ist leistungsschwach, bietet aber außerordentlich hohe Laufzeiten von durchschnittlich sechs und maximal elf Stunden. AMDs Gegenstücke wie Sempron Mobile oder Athlon Neo waren zwar leistungsfähiger, verbrauchten aber deutlich mehr Energie.

Jetzt soll alles anders werden, denn AMD hat es mit den Nile und Danube Plattformen endlich geschafft die veraltete K8-Architektur an den Nagel zu hängen. Die erst im April 2010 Offiziell vorgestellten mobilen Phenom und Athlon II Neo CPUs sind jetzt sparsamer. Werden die Karten im Mobilsektor neu gemischt? Wir sehen uns den Athlon II Neo K125 (1.7 GHz) an, der im Acer Aspire One 521 steckt (Nile-Plattform). Zum Preis von 329 Euro gibt es den 10,1-Zoller deutlich günstiger als Subnotebooks und nur geringfügig teurer als Atom-Netbooks. Ob der Acer AMD-Mini endlich gute Laufzeiten bringt, das erfahren Sie auf den folgenden Seiten.

Lange Zeit gönnte sich Nvidia eine Pause. Hersteller wie Kunden wurden bereits ungeduldig, weil außer kreativer Umbenennungen von bestehenden Produkten wenig Neues nachkam. ATi preschte stattdessen mit seiner Radeon 5000er Serie vor, deren Chips DirectX 11 beherrschen. Erst nach langer Verzögerung führte Nvidia seinen DirectX-11-Chip ein, der GF100 heißt beziehungsweise den Codenamen Fermi trägt.

Nachdem vor einiger Zeit die Spielekarten GeForce GTX 480 sowie GTX 460 vorgestellt wurden, gibt es nun auch die Workstation-Varianten, die Nvidia unter der Quadro-Familie zusammenfasst. ATi hat bereits seit dem späten Frühjahr seine FirePro-Produktpalette auf Vordermann gebracht.

Heute lassen wir die neue Quadro 5000 von Nvidia gegen ATis FirePro V8800 antreten und vergleichen diese mit ihren jeweiligen Vorgängermodellen. Da nicht alle unsere Leser mit Workstation-Modellen vertraut sind, wollen wir eine kurze Orientierung geben, indem wir den Zusammenhang zur 3D-Spielewelt herstellen:

Die Quadro 5000 basiert auf dem GF100/Fermi mit 352 Cores und entspricht damit in groben Zügen der GeForce GTX 465. Unterschiede sind in der Speicherausstattung und im Takt zu finden. In der ATi FirePro V8800 schlägt als Herz der Cypress XT (RV870), dem man ebenso auf der Radeon HD 5870 vorfindet.

Mit welchen Erwartungen gehen wir nun in diesen Test? Vergleicht man die Ergebnisse der Spielekarten, so zeigen diese ein spannendes Kopf-an-Kopf-Rennen. Je nach Benchmark ist einmal ATi vorne, ein andermal Nvidia. In der Vergangenheit haben solche Eigenschaften zu ähnlichen Ergebnissen in der Workstation-Welt geführt. Wird es auch diesmal so sein oder gibt es einen eindeutigen Gewinner?

Nvidia hat bei der Vorstellung der Fermi-Architektur stark betont, dass diese Chiptechnologie nicht nur für Spiele entwickelt wurde. Man wollte gleichzeitig Strukturen schaffen, die den wissenschaftlichen Bereich und das Workstation-Segment ideal bedienen. Nun darf diese Aussage auf den Prüfstand gestellt werden.

Bevor wir uns den Testergebnissen widmen, stellen wir die Details zur Nvidia Quadro 5000 und der ATi FirePro V8800 ausführlich vor. Auch auf die erweiterten Anwendungsgebiete wollen wir eingehen.

In den vergangenen Netzteil-Tests haben wir uns mit recht teuren, sehr leistungsfähigen Geräten befasst, die in hoch gezüchteten Gamer-Maschinen und Workstations ihre Berechtigung haben. Der „normale“ PC-User wird jedoch eher nach einem günstigen Netzteil suchen, um sein System sinnvoll aus-, auf- oder umzurüsten. Wir vergleichen vier Stromspender, die im Handel rund 50 Euro kosten.

Eine neue Grafikkarte, leistungsfähige Prozessoren oder einfach nur ein defektes Netzteil – der Wunsch nach einem neuen Energiespender für den PC kann viele Gründe haben. Für „normale“ Systeme muss es dabei kein Hochleistungsnetzteil sein, wie wir sie in der Vergangenheit unter die Lupe genommen haben. In den meisten Fällen werden die User nach einem günstigen, aber zuverlässigen Netzteil zu einem vernünftigen Preis Ausschau halten. Und genau das haben wir auch getan. Unsere Anforderung an die Hersteller war ganz einfach: Ein Netzteil, das für höchstens 50 Euro Straßenpreis zu haben ist. Hinsichtlich Wattzahl oder 80 PLUS Zertifizierung haben wir keine Vorgaben gemacht.

Unerwartet frühes Ausscheiden

Unser Testfeld bestand ursprünglich aus fünf Netzteilen mit Leistungen zwischen 400 und 500 Watt. Ursprünglich deshalb, weil sich das AXP 500P12P schon beim Warmlaufen in die ewigen Netzteiljagdgründe verabschiedet hat. Bei einer Last von 380 Watt gab das 500-Watt-Netzteil zunächst einen lauten Knall von sich, zunderte dann Funken sprühend vor sich hin und hauchte in Form von Rauchschwaden sein elektrisches Leben endgültig aus. Da wir nicht mit einem so frühen Aus eines der Testprobanden gerechnet haben, konnten wir die Kamera nicht mehr schnell genug einschalten, um den Abgang als Video zu dokumentieren. AXP erhält natürlich in einem der kommenden Tests die Möglichkeit zu beweisen, dass es sich hier um einen Einzelfall handelt.

… da waren’s nur noch vier

Letztlich blieben also vier Kandidaten, die sich den Tests in unserem Labor gestellt haben. Corsair, FSP, Huntkey und Xigmatek haben je ein Netzteil mit Leistungen zwischen 400 und 450 Watt eingesendet. Genug Leistung also für Office-Rechner und die meisten Multimedia-PCs. Trotz der strikten Straßenpreisvorgabe von maximal 50 Euro prangt auf drei der Geräte das begehrte 80 PLUS Logo. Huntkey und Xigmatek werben sogar mit dem BRONZE Level, wohingegen die FSP-Packung kein Logo ziert. Das Netzteil ist lediglich für eine Spannung von 230 Volt zugelassen und kann daher per se nicht nach den 80 PLUS Vorgaben zertifiziert werden. Ob es beim Wirkungsgrad dennoch überzeugt, werden unsere Effizienzmessungen zeigen.

Merkliche Qualitätsunterschiede

Ohne den Testergebnissen vorgreifen zu wollen: Trotz der recht einfachen Vorgaben erhielten wir Netzteile, denen man die Qualitätsunterschiede schon beim Auspacken ansah. Die Hersteller sparen in erster Linie an der Anzahl der Stecker und der Länge sowie an der Qualität der Kabel. Modulare Kabelsysteme sind in dieser Preisklasse die Ausnahme, in unserem Testfeld war jedenfalls kein solches Netzteil dabei. Auch die Verpackungen sind zum Teil sehr einfach gestaltet. Das sehr geringe Gewicht einzelner Netzteile lässt zudem auf einen spitzen Rotstift bei der Auswahl der elektrischen Bauteile schließen.

Kurz nach Testende erreichten uns noch eine ganze Reihe weiterer Netzteile, die den Kriterien dieses Tests entsprechen. Daher haben wir beschlossen, zeitnah eine zweite Testrunde mit 50-Euro-Netzteilen einzuläuten.

Bei übertakteten Grafikkarten werden unterschiedlichen Konzepte verfolgt, das betrifft Kühlung und Taktraten. Bei der Kühlung gibt es zwei Optimierungen: Stark und laut oder leise mit Reserven. Als Basis für die Vergleiche dient die Standardkarte mit Referenzdesign und Referenzkühler. Der ist auf leisen Betrieb im 2D-Modus ausgelegt und versucht unter 3D-Last die Temperatur bei 82 Grad Celsius zu halten.

Im Idealfall bekommt man eine verbesserte Kühlung, kompensiert damit die höheren Taktraten und bleibt beim Geräuschpegel auf dem Niveau der Referenzkarte. Als Powerkonzept gibt es übertaktete Modelle, die ihre Kühlleistung durch höhere Lüfterdrehzahl optimieren, um die Temperaturen niedrig zu halten. Das ist eigentlich immer mit mehr Lautstärke verbunden und nur sinnvoll, wenn man die OC-Möglichkeiten des Grafikchips voll ausreizen will. Meint es ein Hersteller besonders gut, wird zusätzlich das 2D-Lüfterprofil auf hohe Drehzahl gesetzt, da eigene OC-Einstellungen auch den 2D-Takt einer Radeon HD 5870 verändern.

Test: MSI R5870 Lightning gegen Radeon HD 5870Test: MSI R5870 Lightning gegen Radeon HD 5870

Gerade bei den Taktraten unterscheiden sich die Konzepte gewaltig. Bei zwei von drei Testkarten erhöht der Hersteller nur die Performance vom Grafikprozessor (GPU), legt aber ein Tool bei, mit dem sich alle Bereiche übertakten lassen. Das hat zwei Nachteile, man verliert die Garantie, da man das 3D-Board mit höheren Spezifikation betreibt und eine nachträgliche Übertaktung hebt den 2D-Takt an, wodurch das System mehr Leistung im Leerlauf aufnimmt, was mehr Hitze und eine höhere Lüfterdrehzahl bedeutet.

Wie sich aus der Erfahrung bei Grafikkartentests zeigt, kann man nicht pauschal sagen, ob eine übertaktete Karte ihre optimalen Werte beibehält. Setzt ein Hersteller die neuen Taktraten nicht korrekt um, wird das automatische Heruntertakten im 2D-Leerlauf deaktiviert, wodurch die Grafikkarte nur noch mit vollen 3D-Taktraten läuft. Bei den getesteten OC-Modellen wird soweit alles richtig gemacht. Die vorjustierten Taktraten wurden einwandfrei im 3D-Bios der Karte verankert, wodurch sie unabhängig von OC Tools und Treibern verfügbar sind. Im 2D-Leerlauf wird einwandfrei heruntergetaktet, wer allerdings den Grafikspeicher selbst übertaktet, verliert diesen Vorteil.

Ziel des Tests ist, die Unterschiede zwischen Referenzkarte und übertakteten Modellen aufzudecken und zu zeigen, wofür man das zusätzliche Geld bei einer optimierten Version investiert. Zum besseren Vergleich wird das Referenzmodell der Radeon HD 5870 mit Normaltakt und maximaler Übertaktung getestet. Die Ergebnisse geben Aufschluss über die Leistungsfähigkeit des Referenzkühlers und die Overclocking-Grenzen der Chipklasse, wodurch man Leistungszuwachs und Kühlleistung bei den gekauften OC-Modellen leichter einordnen kann.

Viele unserer Leser sind Enthusiasten oder stehen diesen zumindest kaum in etwas nach und haben erhebliche technische Kenntnisse und Interessen. Infolgedessen sind sie normalerweise an einer hohen Performance ihrer Spiele und Anwendungen interessiert.

Allerdings muss man in den meisten Fällen zur Verbesserung der Gesamt-Performance nicht unbedingt die Hardware optimieren. Wir wollten uns diverse Mainstream-Anwendungen genauer ansehen und haben fünf verschiedene PDF-Tools für Sie verglichen und Unterschiede bei der Performance sowie bei der Größe der Ausgabedatei ausmachen können.

Vor ein paar Monaten haben wir bereits ein paar Programme zur Dateikomprimierung in Form von 7-Zip, FreeArc, WinRAR und WinZip getestet und haben dabei deutliche Unterschiede hinsichtlich der Performance und Dateigröße festgestellt. Da man für die Komprimierung und Archivierung von Dateien unter Umständen relativ viel Rechenleistung benötigt, war dies ein sehr praxisnahe Anwendung für moderne PCs mit mehreren Kernen. Allerdings arbeiten diese Tools normalerweise mit ihrem eigenen Archivierungsformat.

Die Erstellung plattformunabhängiger Dokumente ist etwas anders. Der vorherrschende Standard ist hier das PDF-Format, die Abkürzung für das Portable Document Format. Sofern es um hochauflösende Bilder oder komplexe mehrseitige Präsentationen geht, benötigt man für die PDF-Erstellung eine erhebliche Rechenleistung. Allerdings sind sowohl der Standard als auch das Format öffentlich.

Somit dient das Ganze als perfekte Grundlage für einen weiteren Performance-Vergleich unter Verwendung eines modernen Sechs-Kern-Prozessors. Wir haben fünf verschiedene Lösungen inklusive Adobe Acrobat 9 – dem Programm zur PDF-Erstellung vom Begründer des Standards selbst – für Sie getestet.

Wenn man das Gros der interessierten Laptop-Käufer fragt, was sie suchen, lautet die Antwort nicht selten “Einen preiswerten Allrounder” oder so ähnlich. Genau das scheint Hewlett-Packards G62-130EG zu sein, denn mit einem Listenpreis von 599 Euro und einem Straßenpreis von grob 550 Euro bietet er mit Core i3-330M und einer Radeon HD 5430 eine durchaus brauchbare Ausstattung. Da könnte man eigentlich meinen, die Firma hätte Vermarktungsaktionen wie “Schwarz. Rot. Toll.” vom Mai eigentlich nicht nötig, die übrigens noch bis Ende Juli läuft.

Dominieren bei vielen Konkurrenten entweder schwarze und graue Flächen oder gleich knallbunte Farben, geht HP beim Design einen eigenen Weg. Der Deckel besteht aus Kunststoff in einem kühlen, matten Anthrazit-Silber-Ton, der mit einem Escher-artigen Muster aus Dreiecken beprägt ist. Unten rechts sitzt das HP-Logo. Innen werden sowohl die Farbe als auch das Muster wieder aufgegriffen. Die Tastatur handhabt HP klassisch: Sie ist schwarz mit weißen Buchstaben. Über dem Keyboard ist ein angetäuschter Grill eingelassen, hinter dem sich die Lautsprecherchen verbergen. Insgesamt ergibt das eine Mischung aus edlem Look und, dank Hartplastikfeel, leider eher billiger Haptik.

Dass es sich beim HP G62 um ein Budget-Gerät handelt, merkt man ihm bei der Verarbeitung nur punktuell an. Insgesamt zeigt sich beispielsweise das Chassis sehr solide und weitgehend frei von Knarzgeräuschen. Das geht aber nicht zu Lasten des Gewichts, denn mit 2.556 Gramm ist der 15-Zoller noch gut tragbar. Mit Netzteil sind es allerdings schon 3 Kilo.

Punktueller Druck auf der rechten Seite über dem optischen Laufwerk zeitigte allerdings dann doch ein Knarren, während dort gleichzeitig der Rahmen nachgab. Der Deckel ist hingegen angenehm steif und verwindet sich wenig. Erst starker punktueller Druck sorgt für Flecken auf dem Display, und selbst stärkeres Verwinden des Deckels brachte nur wenige leichte Spannungsmuster zum Vorschein. Einzige weitere Auffälligkeit war, dass der einzelne USB-Port an der rechten Seite sich nur recht schwergängig bestücken ließ.

Die Tastatur birgt direkt nach dem Kauf ein hohes Frust-Potential. Die Tasten sind sehr flach gehalten. An sich gibt es eine kleine Stufe, die zwischen den einzelnen Tasten eine kleine Aussparung übrig lässt. Die Lücke ist aber leider zu klein, und da die Tasten sich nicht nach oben hin verjüngen und wie erwähnt nicht sehr hoch sind, löst man oft genug mehrere Tasten gleichzeitig aus, wenn man nicht direkt von oben im Sturzwinkel tippt. Das zwingt zu einer verkrampften Haltung, da man die Finger “spitz und gespreizt” halten muss. Darüber hinaus ist das Tippgefühl nicht wirklich angenehm – der Hub ist zwar groß, doch es fehlt an wirklichem Widerstand, sodass man recht trocken tippt. Das staucht auf Dauer in den Gelenken und  führt schnell zu Ermüdungserscheinungen. Dass sich die inneren Tasten leicht mitbiegen, fällt da nur noch wenig ins Gewicht. Das Klappern der F-Tasten 1 bis 3 stört hingegen, zumal auf ihnen der Shortcut für die Displayhelligkeit liegt.

Mehr Tasten, mehr Frust: Das Layout ist gewöhnungbedürftig bis frustrierend.Mehr Tasten, mehr Frust: Das Layout ist gewöhnungbedürftig bis frustrierend.Dass gut gemeint nicht auch gut gemacht bedeutet, zeigt eine weitere Eigenheit der HP-Tastatur. Obwohl sie an sich dem Desktop-Layout folgt, hat HP entlang der linken Seite eine zusätzliche Spalte eingezogen, in der Schnellwahltasten für den Taschenrechner, den Druckbefehl, den Browser, den Mediapayer und das Email-Programm liegen. Routinierte Zehn-Finger-Schreiber treffen also beispielsweise statt Shift den Druckbefehl, während ein Griff zum vermeintlichen Tabulator den Mediaplayer startet. STRG und Fn sind an sich richtig herum angeordnet, denn STRG liegt links – aber eben nicht außen. Wer häufig blind Tastenkombinationen nutzt, wird deshalb bald in die Tischkante beißen, weil je nach Tippwinkel ständig entweder der Druck-Dialog oder der Taschenrechner aufgeht.

Rechts ist die äußerste Tastenspalte mit den Bild-Auf/-Ab-Tasten und Pos1/Ende gefüllt. Auch hier werden Vertipper provoziert, denn die rechte Shift-Taste liegt innen, links vom nach innen aufgerückten Aufwärtspfeil. All dies erfordert eine gewisse Umgewöhnungszeit, in der man sicher das eine oder andere Mal laut fluchen wird – so zumindest erging es dem Autor beim Test.

Wo ist das Trackpad? DA ist das Trackpad!Wo ist das Trackpad? DA ist das Trackpad!Leider bekleckert sich auch das Trackpad nicht gerade mit Ruhm. Es nutzt dasselbe Material und dasselbe Design wie der Rest der Arbeitsfläche. Wäre nicht oben eine Aussparung und unten die Tastenwippe, wäre es komplett unsichtbar. Das erschwert bestimmte Bewegungen unnötig, weil man erst nach unten blicken muss, um das Bedienfeld zu finden. Die Präzision ist bei schnellen Bewegungen gut. Bei langsamem Anvisieren von Textstellen fühlt sich der Cursor aber manchmal “klebrig” an. Ab und an reagiert das Touchpad dann überempfindlich und verschiebt den Cursor, weshalb man dann an einer falschen Stelle weiter schreibt. Genau das soll eigentlich ein in der oberen linken Ecke sitzender Sensor verhindern. Auf Dauer wird das geriffelte Muster der Oberfläche unangenehm an den Fingern.

Die Trackpadtasten sind als versenkte Wippe ausgeführt, die nicht ideal zu bedienen ist. Sie lösen relativ schwer und schwammig und leider nur mit dumpfem Klang aus – es fehlt an akustischem Feedback. Mit den Standardeinstellungen scrollt das Trackpad vertikal sehr schnell. Das horizontale Scrollen ist ab Werk nicht aktiv. Der Synaptics-Treiber unterstützt zwar an sich noch weitere Multi-Touch-Gesten, doch sind keine weiteren aktiv – nicht mal die, die Windows 7 von sich aus mitbringt. Auf Pinch-Zoom und rotieren von Bildern muss man also verzichten.

Insgesamt liefert das G62-130EG eine durchweg enttäuschende Vorstellung in dieser Disziplin ab. Das kann auch nicht mit dem Preis entschuldigt werden, denn selbst Netbooks mit kleineren Maßen bringen teils weit bessere Tastaturen und Trackpads mit mehr Funktionen mit.

Das 5-GHz-Projekt: Jetzt mit sechs Kernen

Kühler-Tests haben bei Tom’s Hardware Tradition. Abseits der „normalen“ und vielleicht ein wenig langweiligen Luftkühler schauen wir uns besonders gern auch ausgefallene und ausgeklügelte Lösungen an. Fast schon aus den Urzeiten unseres Artikel-Kompendiums stammt ein Review von KryoTechs Kompressorkühler Anno 1999. Noch im selben Jahr brachte der Hersteller mit dem Cool Athlon 900 eine Version mit von Hause aus auf für damalige Verhältnisse sensationelle 900 MHz übertaktetem Athlon 700 – damals frisch vorgestellt und das Flaggschiff der AMD-Prozessorlinie. Nicht einmal einen Monat später erlaubte es uns eine weitere Revision, erstmalig die 1-GHz-Marke zu knacken.

Irgendwann bekam KryoTech dann Konkurrenz. Bevor Asetek zu einem der renommiertesten Anbieter im Bereich der Wasserkühlung wurde, bot man mit dem VapoChill ebenfalls einen Kompressorkühler-Lösung an, die schon im Gehäuse vormontiert war und sowohl mit AMD- als auch Intel-CPUs funktionierte. Als schließlich Prometeia die Bildfläche betrat, war KryoTech schon wieder von der Bühne verschwunden, während die CPUs inzwischen eiskalt die 3-GHz-Grenze durchbrachen. Weitere Verbesserungen hielten Einzug, und ein Jahr später war auch die 4-GHz-Grenze passé. Da war aber erst einmal das Ende der Fahnenstange erreicht, und es schien klar, dass weitere Taktrekorde entweder einen Durchbruch bei der CPU-Herstellung oder der Kühltechnik erfordern würden.

Im legendären 5-GHz-Projekt gelang es uns vor etwa sechseinhalb Jahren mit einer Kombination aus Flüssigstickstoff für die CPU und einem Kompressorkühler für den Chipsatz schließlich, auch die 5-GHz-Schallmauer zu durchbrechen. Sonderlich praktisch oder gar alltagstauglich war diese Lösung natürlich nicht, denn wer hält sich schon einen Vorrat an Flüssigstickstoff? Auch die sonst so erfindungsreichen Hersteller nutzten diese Marktlücke nicht.

Inzwischen hat Intel CPUs in 32 nm Strukturgröße vorgestellt, die weniger Abwärme produzieren und so auch mit „permanenten“ Kühllösungen diese hohen Taktraten erreichen sollten. Tatsächlich schafften wir es in unserem Launch-Artikel zu Intels K-Serie, das System mit Core i5-655K noch bei 4,93 GHz hochzufahren– und zwar nur mit Luftkühlung.

Der technische Fortschritt hatte also dafür gesorgt, dass wir nun auch ohne den launischen Flüssigstickstoff unsere 5-GHz-Bestrebungen wieder aufnehmen konnten. Allerdings erschien es uns trivial, diesen Versuch mit einem preiswerten Doppelkern-Prozessor durchzuführen, der schon mit Luftkühlung stabile 4,6 GHz verkraftete. Außerdem hätte die Performance eines solchen Zweikerners mit auch mit 5 GHz in der modernen Welt der allgegenwärtigen Quad-Cores auch nicht weiter beeindruckt. Uns schwebte Größeres vor: Ein wahres CPU-Flaggschiff sollte es schon sein, alles andere ist langweilig.

Als Intel im März endlich seinen Core i7-980X Extreme Edition mit sechs Kernen und ganzen 12 Threads auf den Markt brachte, wussten wir, dass wir unseren Wunschkandidaten gefunden hatten. Nun fehlte nur noch ein passender, entsprechend potenter Kühler. Fündig wurden wir beim taiwanischen Hersteller Cooler Express.

USB 3.0-Controller: Nicht alle sind geich

Man könnte meinen USB 3.0 ist USB 3.0 – weit gefehlt. Bei unseren Test konnten wir sehen, dass fünf verschiedene auf dem NEC-Controller basierende Lösungen eine unterschiedliche Performance bieten.

USB 3.0 ist dieser Tage ein wirklich schwieriges Thema. Während die Vorteile unbestritten sind – es ist bis zu zehn Mal schneller als USB 2.0, bei entsprechenden Stückzahlen nicht zwingend teuerer und zudem abwärtskompatibel – dürfte es noch eine gewisse Zeit dauern, bis USB 3.0 eine hohe Verbreitung erfahren wird. Wir haben bereits USB 3.0 Speicher-Sticks, USB 3.0-Gehäuse für 2,5-Zoll-Festplatten, diverse Motherboard-Implementierungen mit USB 3.0-Unterstützung und ein paar externe USB 3.0-Speicherlösungen für Sie getestet. Wie erwartet leiden USB-3.0-Festplatten nicht mehr unter einem Flaschenhals und die Infrastruktur bereitet den Weg für einen Durchsatz von 300-400 MB/s.

Intel zögert

Eines der wichtigsten Unternehmen wird USB 3.0-Controller allerdings nicht in seine nächste Chipsatz-Generation implementieren. Der Nachfolger der P55-Familie namens Cougar Point mit leicht modifiziertem Sockel LGA 1155 (ein Pin weniger als heute und somit nicht kompatibel) unterstützt zwar 14 USB 2.0-Anschlüsse, er bietet aber keine Unterstützung für Superspeed USB 3.0. Während die meisten Anwender auf diese Entscheidung nur mit Unverständnis reagieren dürften, macht das ganze von einem ökonomischen Standpunkt aus betrachtet durchaus Sinn: Intel wartete bis 2002 mit der Implementierung von USB 2.0 in den ICH4-Chipsatz, da das Unternehmen USB 1.1 bereits Ende der 90er Jahre und damit verfrüht und schlussendlich wenig erfolgreich umgesetzt hatte. Da die Einführung von USB 3.0 Root-Controllern eine deutliche Design-Veränderung mit sich bringt und der Markt nicht innerhalb weniger Monate von USB 2.0 auf USB 3.0 umstellen wird, ist die konservative Einstellung also durchaus sinnvoll – auch wenn die meisten von uns eine aggressivere Vorgehensweise durchaus begrüßen würden. Immerhin dürfte uns der Sockel LGA 1155 länger erhalten bleiben als der LGA 1156.

Neue Controller Auf Dem Weg

Weitere Unternehmen wie Asmedia (Asus), Texas Instruments und VIA arbeiten bereits an USB 3.0-Controllern. Alle drei dürften unserer Meinung nach mit ihren Produkten gegen Ende dieses Jahres auf den Markt kommen. Dabei hoffen wir natürlich, dass die unterschiedlichen Implementierungen in diesem Bereich zum gewünschten Wettbewerb führen. In diesem Bereich ist derzeit lediglich der Hersteller NEC vertreten, wodurch die Kosten für eine massenhafte Verbreitung von USB-3.0-Controllern bis auf weiteres zu hoch sein dürften – infolgedessen dürften auch preiswertere Motherboards in absehbarer Zukunft kaum mit USB 3.0-Hardware ausgerüstet werden.

Optionen?

Derzeit haben Anwender lediglich zwei Möglichkeiten, um auf den USB 3.0-Zug aufzuspringen: Entweder sie kaufen sich ein Motherboard mit USB 3.0-Controller und zwei Anschlüssen oder sie entscheiden sich für eine Add-On-Karte, die praktisch den gleichen NEC PD720200 nutzt. Zudem gibt es noch Express-Card-Produkte, die ebenfalls auf den gleichen Controllern basieren und die Verwendung von USB 3.0-Geräten an Notebooks ermöglichen. Dabei sollte man nicht aus den Augen verlieren, dass für alle Implementierungen x1 PCI Express-Steckplätze gemäß der PCI Express 2.0-Spezifikationen erforderlich sind. Mit anderen Worten: High-Speed USB 3.0-Lösungen können durchaus ausgebremst werden, sofern die Controller/Karten in auf 250 MB/s begrenzten PCIe 1.1-Steckplätzen betrieben werden. Dies ist bei allen Intel-Plattformen der Fall, bei denen die zusätzlichen PCIe-Anschlüsse durch die Southbridge bereitgestellt wird, sowie bei allen älteren PCI Express-Systemen. Derzeit sehen wir darin zwar noch kein Problem, man sollte diesen Umstand aber im Hinterkopf behalten.

Samsung N150 Eom: 3G-Mobilist

Trotz Nvidia Optimus, Hybrid-Grafiken und Hochleistungs-Akkus bleibt es Fakt: Wer unterwegs Mails checken oder in der Bahn noch ein paar Dokumente sichten will, der kommt um ein Netbook nicht herum. Zwar erreichen Standard Notebooks Laufzeiten von bis zu drei Stunden.  Sechs bis acht Stunden bei geringstem Gewicht und kleinsten Abmessungen, das erlauben aber nur die klassischen Intel Atom Netbooks.

Wenn schon mit wenig Performance mobil, dann wenigstens richtig. Meinen wir und holen uns Samsungs N150 Eom in die Redaktion. Der Mini basiert auf Intels Pine Trail Plattform und hat ein internes 3G-Modul (HSPA). Der Hersteller verkauft den N150 Eom zirka 100 Euro teurer als die günstigsten Netbooks am Markt. Ist der Preis nur wegen des UMTS-Modems gerechtfertigt? Derartige Modems sind als günstige USB-Dongles schnell nachgerüstet und werden einem von den Mobilfunk-Providern fast nach geworfen. Soviel vorweg, das N150 Eom überzeugt mit einem guten Gesamtkonzept. Erfahren Sie, welche Eigenschaften den Preis von 360 Euro rechtfertigen.

Gehäuse – Flach und unauffällig

Optisch sticht das Samsung N150 nicht aus der Masse der Netbooks heraus. Wo einst ein chromfarbener Streifen das Chassis umrandete und dem Gehäuse das gewisse Extra gab, da finden wir heute nur noch einen matten, roten Streifen. Der Deckel ist die einzige glänzende Fläche in der ansonsten nüchternen Optik. Das Kunststoff-Finish schimmert wie Metallic Lack mit glitzernden Punkten. Fingerabdrücke sorgen aber dafür, dass es nicht lange so bleibt.

Die Stabilität zeigt sich von der besten Seite. Zwei Hände können die Base Unit zwar geringfügig verbiegen, insgesamt ist sie aber steif genug. Gleiches gilt für den stabilen Deckel. Seine glänzende Fläche kann nur mit deutlicher Kraft eingedellt werden. Nicht ganz so perfekt, die Unterseite. An den Luftschlitzen können wir deutliche Eindellungen provozieren.

Die Scharniere bewegen sich, nach dem Überwinden des anfänglichen Wiederstandes, so leicht, dass eine Hand genügt. Die Mechanik in den Gelenken sorgt dafür, dass sich der Deckel nicht von selbst öffnet.

  • 1
  • 2

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen