Monat: Januar 2011

Keine andere PC-Schnittstelle ist so weit verbreitet und gleichzeitig so vielseitig einsetzbar wie der Universal Serial Bus, kurz USB. Das betrifft nicht nur Peripheriegeräte wie Drucker, Mäuse, Tastaturen und Webcams, sondern insbesondere auch Massenspeicher wie USB-Sticks und externe oder portable Festplatten. Der 2001 angetretene und damit schon altehrwürdige USB-2.0-Standard hat aber inzwischen reichlich Staub angesetzt und tut sich mittlerweile vor allem beim übertragen großer Datenmengen als Bremsklotz hervor. Die nominelle „Hi-Speed“-Bandbreite von 480 Mb/s schrumpft in der Praxis auf einen Bruchteil zusammen und lässt selten mehr als 30 MB/s über den Bus tröpfeln. In Anbetracht der Festplattenkapazitäten, die noch dieses Jahr 4 TB erreichen werden, ergibt sich damit bei 30 MB/s bzw. 108 GB/h eine Dauer von etwa 37 Stunden, um so ein Laufwerk komplett zu beschreiben oder auszulesen.

Abhilfe soll der Nachfolger USB 3.0 schaffen und den Universal Serial Bus wieder in einen Datenturbo verwandeln. Auf der Haben-Seite stehen zum einem eine Bruttobandbreite von 5 Gb/s, was den als „SuperSpeed“-USB bezeichneten USB 3.0 mindestens 10 Mal schneller als USB 2.0 machen soll und eine maximale Brutto-Übertragungsrate von 640 MB/s in Aussicht stellt. Zum anderen schreibt die USB-3.0-Spezifikation eine Abwärtskompatibiltät zu USB 2.0 vor, womit sich entsprechende Peripheriegeräte und Massenspeicher weiterhin einsetzen lassen.

Sechs USB-3.0-Festplatten im Test

Ohne passende Endgeräte bringen die beeindruckendsten Schnittstellen-Eckdaten wenig. In den letzten Monaten hat sich bei USB 3.0 jedoch viel getan und inzwischen ist es besonders um die Verfügbarkeit von USB-3.0-Festplatten und -Flash-Laufwerken gut bestellt, weil sie unmittelbar vom Geschwindigkeitszuwachs profitieren. Für Peripheriegeräte wie Drucker oder Scanner reicht das USB-2.0-Tempo dagegen immer noch völlig aus. Im Vergleich mit ihren USB-2.0-Pendants sind die USB-3.0-Festplatten zwar ein wenig teurer, doch wie unser Vergleichstest zeigt, rechtfertigt der Geschwindigkeitszuwachs die Anschaffungskosten.

Um zu ermitteln, was aktuelle USB-3.0-Festplatten in der Praxis leisten, haben wir sechs aktuelle Geräte in unseren Testparcours geschickt. Mit dabei sind die beiden 3,5“ -Laufwerke  CalDigit AV Drive und ioSafe SoloPro sowie die folgenden vier 2,5“ -Festplatten: LaCie Rikiki USB 3.0, Samsung S2 Portable 3.0, Seagate FreeAgent GoFlex Ultra-portable Drive und Silicon Power Armor A80.

“Batterie alle” – den Schrecken genommen

Immer wenn man das Handy am nötigsten braucht, ist entweder kein Empfang da oder die Batterie ist alle. … oder das Navi macht schlapp … oder während dem letzten Level auf der PSP schaltet das Gerät wegen Energiemangel einfach ab. Wer hat so etwas nicht schon erlebt? Und wie geht es nun weiter?

Hier kommt die Lösung: Der Choiix Power Fort 5.5 bietet ein Nachladen der Batterie schon während des Betriebes. Der Power Fort ist ein ultra-kompakter mobiler Energiespeicher für jedes USB-ladebares Gerät. Lange Ladezeit-Wartepausen gehören damit der Vergangenheit an. Auch erspart der Power Fort die Suche nach einer öffentlichen Steckdose unterwegs. Das macht den Anwender erst richtig unabhängig und mobil unterwegs.

Ladezeiten verkürzt

In Zeiten in denen alles durchorganisiert ist, jeder Tag verplant ist und jede Minute zählt, möchte man nicht auch noch auf sein Handy beim Laden warten müssen. Auch hier liegt der Choiix Power Fort ganz weit vorn. Mit möglichen doppeltem Ladestrom von 1A können die Geräte ihren Energiehunger schneller bedienen als eine herkömmlichen USB-Schnittstelle mit “nur” 0,5A Ladestrom-Angebot (Abhängig vom Endgerät).

Die meistverwendeten Batterien heutzutage stellen eine Kapazität von 1300mAh zur Verfügung. Mit 5,5 Wattstunden ist der Choiix Power Fort 5,5 durchaus in der Lage diese Smartphones, PDA´s, GPS oder Andere mindestens einmalig voll aufzuladen. Somit erweitert diese Extra-Batterie den Handlungszeitraum der mobilen Begleiter um bis zu 6 Stunden, iPod/ MP3/ MP4 Players bis zu 48 Stunden und Bluetooth sogar mehrere Tage.

Sicherheit im Weltklassen-Standard

Gleich mit vier der wichtigsten Schutzmechanismen wartet der Choiix Power Fort 5.5 auf. Im superflachen und extrem leichten Gehäuse steckt eine elektronische Überwachung gegen Überladen, Entladen, Überstrom und Kurzschluss. Dies und der optimierte mechanische Schutz durch die profilierte Außenhülle verlängern zudem die Lebenszeit des Batterie Packs.

Fast zu Schade um wegzustecken

Das Design des Choiix Power Fort 5.5 ist sehr modern und besonders flach. Eine passende Tasche sollte sich mit diesem Body immer finden lassen, auch wenn man dieses Accessorie fast nicht verbergen möchte.

Einfachste Bedienung inklusive – einmal IN zum Laden des batterie-Packs und einmal OUT zumm Anschluss an die zu ladende Geräte. Eine Status LED gibt an ob die Batterie noch Kapazität hat.

Der Choiix Power Fort 5,5 ist in zwei Farben erhältlich: Klavierlack Schwarz oder Weiss. 

Preise und Verfügbarkeit

Das Power Fort 5,5 wird ab Februar 2011 zu einem Preis von 25 Euro bei unserem Partner Alternate erhältlich sein.

Spezifikationen:

Modell
Black: C-2006-K1S0
White: C-2006-W1S0

Kapazität

5V / 1A

Batterie-Typ Lithium-Polymer
Abmessungen 98 x 48 x 16 mm
Gewicht 60 g
Zeit zum Wiederaufladen
2~3 hours
Sicherheitmechanismen Over Charging Protection
Over Discharging Protection
Over Current Protection
Short Circuit Protection

Über Choiix

Choiix bietet einfaches, praktisches und elegantes Zubehör für die „Mobile Generation“. Das stylische Design vereint hervorragende Benutzerfreundlichkeit der integrierten Technik mit dem Aussehen aktueller Lifestyle-Produkte.

Die LGA 1156-Plattform von Intel kam Ende 2009 auf den Markt und hat neben Lob für beeindruckende Performance auch Tadel einstecken müssen: Upgrades von Sockel LGA 775 sind nicht möglich und die Lebenszeit war durch den kürzlich vorgestellten Sockel LGA 1155 mehr als absehbar. Preisbewusste Enthusiasten profitierten mit LGA 1156, also der letztjährigen Plattform, endlich von allen Vorteilen der Nehalem-Architektur von Intel, allerdings hatte das Design auch Haken.

Erstens hat der in der CPU integrierte PCI Express 2.0-Controller der P55-Chipsatz-Familie zwar geringere Latenzen als die bisherigen Controller im Chipsatz P45 und zuvor, aber er bietet insgesamt lediglich 16 Lanes, die mit voller Bandbreite angesteuert werden und maximal zwei Geräte unterstützen. Zweitens laufen die acht PCIe-2.0-Links, die aus dem P55 PCH herausgeführt werden, nur mit der halben Bitrate von 2,5 Gb/s. Wir vermuten hier, dass die selbst auferlegte Einschränkung beim PCI Express nicht unbeabsichtigt war, um die Verwendung von RAID-Controllern mit x4 PCI Express in professionellen Einsatzumgebungen zu unterbinden. Damit könnte hauseigene Konkurrenz durch den X58-Chipsatz vermieden worden sein. Der tatsächliche Effekt ist in der Praxis allerdings, dass Serial ATA mit 6 Gb/s und USB-3.0-Controller auf etwa die Hälfte der eigentlich möglichen Performance beschränkt sind. Zwar betrifft das vor allem Power-User; schön ist das allerdings nicht.

Genau an diesem Punkt hat Intels Erzrivale AMD angesetzt. Die Mainstream-Chipsätze von AMD verfügten bereits lange vor dem Intel P55 über ungenutzte PCIe-2.0-Links und boten damit eine vollwertige Unterstützung von USB 3.0- und SATA 6 Gb/s-Controllern – und das mit einem grundsätzlich alten Chipsatz. AMD hat zudem eine neue Southbridge mit integriertem SATA-Controller und 6 Gb/s passend dazu entwickelt. Schlimmer wiegt allerdings, dass Intel als Entwickler von USB 3.0 schon vor dem Designprozess der LGA 1156-Plattform wusste, dass die am Ende vorhandene Chipsatz-Bandbreite ein Problem darstellen kann. Obwohl die LGA 1156-Plattform eine hervorragende CPU- und Einzel-GPU-Performance bietet, so bleiben die Einschränkungen bei der Bandbreite der P55-Plattform doch als unnötiger Fauxpas in Erinnerung.

Dieses Kapitel der Chipsatz-Geschichte von Intel wird nun geschlossen. Dafür gebührt auch unseren Lesern entsprechender Dank, denn am Ende erreichen Kunden durch sanften Druck auf den Hersteller am ehesten Anpassungen. Die Mainstream-Plattformen auf Basis des P67-Chipsatzes wurden mit zwei Anschlüssen nach SATA 6 Gb/s-Standard ausgerüstet. Die Strategie des Unternehmens war bislang immer, den Anforderungen der Kunden dann nachzugeben, wenn aus Unmut nahezu Protest wurde. Aus Business-Sicht verständlich – aus Kunden-Sicht keinesfalls.

Zusätzlich zum höheren Durchsatz für Festplatten bietet Intels neuer P67 Express PCH (Platform Controller Hub) auch einen höheren Durchsatz für das Direct Media Interface (DMI) auf PCIe-Basis. Dadurch kommen zumindest vier der acht PCIe 2.0-Lanes gleichzeitig in den Genuss der vollen Bandbreite. Dies bedeutet, dass auch USB 3.0-Controller ihr ganzes Potenzial ausschöpfen können und auch die volle Unterstützung von PCIe 2.0-Karten mit vier Lanes dürfte bei einigen Motherboard-Designs möglich sein.

Während Intel die Sandy Bridge-Prozessoren samt neuer P67-Plattform anbietet und am liebsten beides zusammen an den Mann bringt zeigt ASRock, dass der neue Chipsatz auch in Verbindung mit den bekannten Prozessoren in bestimmten Fällen noch Sinn machen kann.

Acer Travelmate TimelineX 8572TAcer Travelmate TimelineX 8572T

Mit der Timeline-Serie brachte Acer eine Modellfamilie mit dem Anspruch auf den Markt, einen ganzen Arbeitstag abseits des Stromnetzes aushalten zu können. Wie generell bei Acer gibt es die aktuellen Timelines mit den Core-i-CPUs der ersten Generation in den Ausprägungen Aspire für den Consumerbereich und Travelmate für Businessuser. Das Travelmate 8572T fällt in die zweite Kategorie.

Das lässt sich schon am Design ablesen, das die sich auf die allgemein anerkannte Formsprache des Office-Bereichs verlässt: Ecken, Kanten und matte Materialien. Matter schwarzer Kunststoff dominiert, und auch der Deckel ist, trotz Alu-Optik, aus Plastik. Allein das Acer—Logo lockert die graue Landschaft auf. Der Vorteil an diesem Design: Störende Fingerabdrücke haben nur wenig Chancen, und vor allem kommt es hier nicht zu störenden und ablenkenden Reflexionen, wie man sie oft genug bei den Consumermodellen antrifft. Die Businesswelt wird es Acer jedenfalls danken.

Rechts über dem Ziffernblock der Tastatur befindet sich ein kleiner Schieber, über den das Gerät eingeschaltet wird. Darunter sitzt eine kleine Wippe in gleicher Optik, die Funkverbindungen an und ausschaltet bzw. als Quicklaunch-Taste fungiert. Abgerundet wird das Ensemble durch einen Auswurfknopf für das optische Laufwerk. Das ist mal eine praktische Lösung, denn so man muss nicht mehr blind an der Seite herumfühlen, um den Auswurfsensor der CD-Lade zu treffen.

An, Aus, CD raus - Power-Schieber, Funktionswippe und AuswurfknopfAn, Aus, CD raus – Power-Schieber, Funktionswippe und AuswurfknopfDie Verarbeitung ist gut, und der Korpus des Travelmate 8572T ist sehr verwindungsresistent. Erst bei sehr beherztem Druck auf die Handballenauflage gibt es ein Knistern. Der Deckel schlägt sich ebenfalls gut, könnte aber noch einen Tick fester sein. Diesem Einwand zum Trotz zeigen sich Spannungsmuster erst bei sehr starkem punktuellem Druck also kann man eigentlich nicht meckern. Damit hier ein Spitzer Gegenstand Schaden am Display anrichtet, muss es schon ein Stück fallen – und direkt mit der Spitze aufkommen.

Die Tastatur biegt sich nicht durch, was bei Acer leider keine Selbstverständlichkeit ist, machte aber auf der linken Seite federnde Geräusche. Die Lade des optischen Laufwerks ist oft ein Schwachpunkt, und so ist es auch hier, denn der Bereich ist recht weich. Ansonsten gibt es aber keine Kritik. Auch das Gewicht hält sich mit 2.400 Gramm inklusive Batterie noch im Rahmen. Das Netzteil bringt weitere 408 Gramm auf die Waage. Auch das Gesamtgewicht von dann etwa 2,8 Kilo geht aber in Ordnung – zumal man das Netzteil tatsächlich meist zu Hause lassen kann.

Aufruf per P-Taste, Auswahl per Maus.Aufruf per P-Taste, Auswahl per Maus.Acers Business-Modelle zeichnen sich nicht nur durch das entspiegelte Display und die matten Materialien aus, sondern auch durch eine “klassische” Tastatur,  besitzen also nicht die auf Stelzen stehende “floating” Tastatur. Die Tasten besitzen normale Größe, Abgrenzungen zu ihren Nachbarn oder eine Vertiefung zur Mitte hin gibt es aber nicht.

Das Tippgefühl ist insgesamt sehr gut, und dank kurzem Hub ist der Anschlag knackig. Auf der linken Tastaturseite machte sich aber ab und an ein Geräusch bemerkbar, das an eine aufspringende Feder erinnerte. Das beeinträchtigt die Arbeit an sich nicht, lenkt aber bei härterem Anschlag ab. Ansonsten gibt es an der Tastatur nichts auszusetzen: Das Layout kennt man vom Desktop, ein Ziffernblock ist vorhanden, und die einzigen Tasten, die geschrumpft wurden, kommen seltener zum Einsatz: die F-Tasten, Tab und die Pfeiltasten.

Klassische Tastatur statt floating/chiclet/isolation keyboard.Klassische Tastatur statt floating/chiclet/isolation keyboard.Unauffällig im positiven Sinn verhält sich auch das Synaptics-Trackpad, das seine Arbeit präzise verrichtet und Bewegungen angenehm schnell umsetzt ohne hektisch zu wirken. Außerdem war reagierte es nicht überempfindlich auf versehentliche Berührungen mit dem Handballen. Außerdem hat man es hier mit einer angenehmen Größe zu tun. Vertikales Scrollen, Pich-Zoom und Drehen von Bildern versteht das Touchpad bereits im Auslieferungszustand, horizontalen Bildlauf bringt man ihm per Treiberoption ebenfalls bei. Die Tasten haben wenig Hub, was für einen knackigen Auslösepunkt sorgt. Zwischen den Tasten ist der Fingerprint-Sensor eingelassen, der allerdings offenbar nicht an ein TPM gebunden ist sondern seine Daten in Software ablegt.

Als die GeForce GTX 460 letztes Jahr vorgestellt wurde, spekulierten wir, ob Nvidia einen der Streaming Multiprocessors der GF104-GPU abgeschaltet hatte, um die GeForce GTX 465 nicht vollends in den Boden zu stampfen. Obwohl wir mit unserer Vermutung richtig lagen und dies der Fall war, hatten wir dennoch gehofft, eine Version mit acht aktivierten SMs zu sehen. Immerhin war uns schon die „normale“ GeForce GTX 460 mit ihren 336 CUDA-Cores und 56 Textureinheiten eine Kaufempfehlung wert – wie hätte da erst die Vollversion des GF104 ausgesehen? Klar, eine solche Karte hätte den teureren und wenig attraktiven GeForce-Modellen das Leben sehr schwer gemacht. Andererseits hätte Nvidia damit aber auch einen sehr wirksamen Konter gegen AMDs Radeon-HD-6800-Familie parat gehabt – und zwar drei Monate, bevor die AMD-Karten überhaupt erschienen sind.

Natürlich hätte sich Nvidia damit absolut keinen Gefallen getan. Die GeForce GTX 465 hatte es auch so schon schwer genug – da brauchte sie nicht noch Konkurrenz aus eigenem Hause in Form des komplett freigeschalteten GF104-Chips. Inzwischen wird diese glücklose Karte aber nicht mehr hergestellt, und wir können nur zu gut nachvollziehen, dass Nvidia sich so schnell wie möglich von den GF100-Chips verabschieden will.

Bis heute gab es nur noch eine Karte im Portfolio, die noch die ursprüngliche Fermi-GPU nutzte, und zwar die GeForce GTX 470. Die GTX 470 übernahm eine sehr wichtige Position in Nvidias Aufstellung und füllte die Lücke zwischen der preiswerteren GTX 460 und der teureren GTX 570.

Heute, nur knapp ein Jahr nach ihrer Einführung, nimmt die GF100-GPU aber endgültig ihren Abschied. Ersetzt wird sie durch die GeForce GTX 560Ti. Anstatt den GF104-Chip im Vollausbau einzusetzen, nutzt die GTX 560, ähnlich wie die GeForce GTX 580, eine überarbeitete Chipvariante, die auf der Transistorebene einige Verbesserungen mitbringt. Das Ergebnis ist eine Spiele-GPU mit weniger als zwei Milliarden Schaltkreisen (1,95 Milliarden, laut Nvidia), die durch die Bank weg mit der Performance einer GF100-basierten GeForce GTX 470  (drei Milliarden Transistoren) gleichziehen oder diese sogar schlagen kann.

Wie man eine schnellere Spiele-GPU baut

Dass sich die GTX-500-Reihe architektonisch nur wenig von der 400-Serie unterscheidet, dürfte bekannt sein. Die GeForce GTX 580 und 570 basieren beide auf der GF110-GPU, einer überarbeiteten GF100 mit besserer Texturfilterung, effizienterem Z-Culling und einer Reihe von Verbesserungen auf Transistor-Ebene, die höhere Taktraten bei praktisch identischem Stromverbrauch ermöglichen.

Ähnlich verhält es sich mit der GeForce GTX 560 Ti, deren GF114-GPU einen überarbeiteten GF104-Chip darstellt. Da letzterer aber bereits die verbesserten Texturfiltereinheiten mitbrachte, fällt der Sprung hier nicht so groß aus wie bei den größeren GTX-500-Modellen zu ihren GF100-Vorgängern. Wie der GF104-Kern (und der GF110) kann auch der neue GF114 vier 64-bittige FP16-Texel pro Takt und Textureinheit filtern. Das verbesserte Z-Culling der GF110-Generation erben die GF114-Chips aber leider nicht, denn Nvidia lässt die Raster Engine so, wie sie war.

Im Endeffekt ist der GF114-Chip funktional identisch mit einer GF104-GPU. Tatsächlich gibt Nvidia sogar an, dass beide mit 1,95 Milliarden Transistoren gleich „groß“ sind. Außerdem werden beide bei TSMC in  40 nm gefertigt. Der überarbeitete Chip kann aber bei geringerer Leistungsaufnahme höhere Taktraten erreichen, was die Performance erhöht – aber letztlich bleibt er ein verbesserter GF104. Der größte Unterschied ist, dass bei der GeForce GTX 560 Ti alle Streaming Multiprocessors aktiv sind, während beim GF104-Chip der GeForce GTX 460 einer ausgeknipst blieb. Im direkten Vergleich bedeutet das also, dass die neue Karte mit höherem Takt läuft, über mehr CUDA-Kerne verfügt, dank der achten PolyMorph-Engine eine höhere theoretische Geometrieleistung mitbringt und acht zusätzliche Textureinheiten an Bord hat. Zählt man all diese Faktoren zusammen, bekommt man letztlich eine Karte, die nicht die GeForce GTX 460 ersetzt – vielmehr ist sie schnell genug, um sogar die GeForce GTX 470 in den Schatten zu stellen.

Deja Vu bei den technischen Daten

Wer die GF104-GPU schon kennt, dem wird auch die überarbeitete Variante sehr bekannt vorkommen.  Der GF114 -Chip besteht aus zwei Graphics Processing Clusters (GPCs), die jeweils über vier Streaming Multiprocessors verfügen. Wie bereits erwähnt sind in der GeForce GTX 560 Ti davon auch alle aktiv.

GF100/GF110 SMGF100/GF110 SM GF104/GF114 SMGF104/GF114 SM

Man verzeihe uns in Anbetracht der Ähnlichkeiten, wenn wir hier das Rad nicht neu erfinden sondern leicht angepasst aus unserem damaligen GTX-460-Review zitieren:

Verfügt der GF100-Chip pro SM über 32 CUDA-Cores, sind es bei der GF114-GPU derer 48. Diese komplexeren SMs auch immer mit Daten zu versorgen erfordert auch einen höheren Befehlsdurchsatz, was uns zur nächsten Verbesserung bringt: Nvidia erhöht die Zahl der Dispatch Units von zwei (GF100) auf vier (GF104/GF114). Im gleichen Zuge wurde auch die Anzahl der Textureinheiten von vier auf acht verdoppelt.

Vereinfacht gesagt ist diese GPU breiter ausgelegt als der GF100/GF110-Chip. Deshalb bietet dieses Design in den Spielen, die heute am beliebtesten sind, bessere Performance als ein zurechtgestutzter GF100.

Der GF114-Chip, wie er in der GeForce GTX 560 Ti verbaut wird.Der GF114-Chip, wie er in der GeForce GTX 560 Ti verbaut wird.

Auch beim Back-End existieren Unterschiede. Ein vollständiger GF100 besitzt sechs von den GPCs unabhängige ROP-Partitionen, die jeweils acht 32-bittige Ganzzahl-Pixel pro Takt ausgeben können (insgesamt also 48). Jeder der sechs Partitionen steht außerdem eine 64 Bit breite Speicheranbindung zur Verfügung, was zusammen genommen einen 384-Bit-Speicherbus ergibt. Der GF114-Chip kommt maximal auf vier Partitionen. Ergo kommt er auf bis zu 32 Pixel pro Takt und einen 256-Bit-Speicherbus.

SSDs im RAID: unbegrenzte I/O-Leistung?

Auf dem stetig wachsenden SSD-Markt vergeht kaum eine Woche, in der nicht neue Produkte vorgestellt werden. Mittlerweile drängen sich dort jede Menge Solid State Disks auf MLC- und SLC-NAND-Basis und glaubt man den Spezifikationen der Hersteller, führt an den Laufwerken auch schlichtweg kein Weg mehr vorbei: So preisen sie ihre SSDs mit Datendurchsatz-Superlativen von 250 MByte/s und mehr an und versprechen I/O-Raten im fünfstelligen Bereich. Dagegen muten die altgedienten Festplatten vermeintlich wie Relikte aus einer vergangenen Zeit an: günstig, aber deutlich langsamer und letztlich Kandidaten für das Storage-Abstellgleis.

So einfach darf man es sich natürlich nicht machen, denn passt die zugrundeliegende Technik nicht, verpuffen die auf dem Papier eindrucksvollen Performance-Angaben der SSDs schnell und lassen sie mitunter sogar hinter die Leistung von Notebook-Festplatten zurückfallen. Nur mit der richtigen Kombination aus Cache und Controller kann ein Flash-Laufwerk seine volle Leistungsfähigkeit entfalten. Das ist es allerdings nur die Grundvoraussetzung, denn es gilt,  weitere Faktoren zu berücksichtigen: Dazu zählen unter anderem aktuelle Serial-ATA-Treiber und SSD-Firmware, AHCI-Unterstützung durch das BIOS sowie der TRIM-Befehl, den Windows 7 und Windows Server 2008 R2 sowie Linux-Distributionen ab Kernel-Version 2.6.18 anbieten. Damit werden SSDs über gelöschte Blöcke informiert, so dass der vorhandene Speicherplatz besser verwaltet werden kann – das verhindert Leistungseinbrüche.

Flash-Laufwerke für den Unternehmenseinsatz

Aufgrund ihrer Technik sind SSDs nicht nur für PC-Enthusiasten und Performance-Aficionados interessant, sondern haben inzwischen auch im Unternehmenseinsatz ihre Daseinsberechtigung. Unabhängig vom Einsatzszenario sprechen dafür die bekannten, durch die Technik bedingten Argumente: Eine für den Profi-Bereich konzipierte Solid State Disk läuft einer Enterprise-Festplatte in Sachen Datendurchsatz zwar nicht immer davon, verzögert den Zugriff aber weder durch Such- noch Latenzzeiten und kommt mit einer geringeren Leistungsaufnahme und infolgedessen niedrigerer Betriebstemperatur aus, da keine mechanischen Bauteile bewegt werden müssen. Am wichtigsten ist jedoch die I/O-Leistung, denn auf eine möglichst große Anzahl einzelner Lese- oder Schreiboperationen pro Sekunde kommt es bei Servern am meisten an.

Auch die wenigen Nachteile einer SSD sind schnell aufgezählt: Deren Preis pro GByte ist immer noch wesentlich höher als der einer Festplatte. Zudem beschränkt sich die Lebensdauer eines Flash-Laufwerks auf ein bestimmtes Kontingent an Schreibzyklen. Allerdings ist das meist kein erheblicher Nachteil mehr, zumal sich SSDs dieses Manko ohnehin mit Festplatten teilen und aktuelle Highend-Flash-Produkte in Sachen Lebenserwartung inzwischen auf Augenhöhe mit den Festplatten aus dem Enterprise-Segment liegen dürften.

Wie skalieren Enterprise-SSDs im RAID?

Unter welchen Voraussetzungen lohnt sich der Einsatz von SSDs in einem Unternehmen? Dieser Frage wollen wir in diesem Artikel nachgehen und sie dabei aus zwei Blickwinkeln beantworten. Zum einen gehen wir auf die Einsatzszenarien ein, in denen es sich für Unternehmen lohnt, zu SSDs statt Enterprise-Festplatten zu greifen. Weil in diesem Zusammenhang zwangsläufig das Stichwort RAID auftaucht, untersuchen wir zum anderen, welche Vorteile ein SSD-RAID hinsichtlich Skalierbarkeit gegenüber einem Magnetscheiben-System mit sich bringt.

Dass ein SSD-RAID einem mit gleichem RAID-Level konfigurierten Festplattensystem in Sachen Leistung fast immer den Rang abläuft, haben wir in anderen Tests bereits ausführlich untersucht und soll deshalb hier nicht im Vordergrund stehen. Wichtig ist jedoch die Tatsache, dass die im RAID-Bereich übliche ‘Online Capacity Expansion‘ in der Praxis mit SSDs auch einer ‘Online I/O Capability Expansion‘ gleicht, denn die I/O-Leistung kann mit jedem weiteren Laufwerk stärker steigen, als dies mit Festplatten möglich wäre.

Was uns antrieb

Eigentlich waren wir ja auf der Suche nach weiteren Netzteilen für unsere große Liste der Netzteilanbieter und wahren Produzenten hinter den Labeln. Und weil man bequemerweise mehrere Fliegen mit einer Klappe schlagen kann, wollten wir uns dabei gleichzeitig auch einige sehr preiswerte 350-Watt-Netzteile besorgen, die wir später für einen ähnlich gelagerten Artikel in der Praxis benutzen wollten. Leider funktionierten die ersten zwei Testkandidaten gleich einmal überhaupt nicht (Linkworld LPKP, Jersey BE-350WS Black Edition), der dritte Versuch mit einem Ednet 350 Watt (Media Markt) endete bei knapp 200 Watt kurz und schmerzlos mit einem leichten Aufschrei der verbauten Elektronik. Versuch macht klug, obwohl man es sich eigentlich an den Fingern hätte abzählen können.

Gering dimensionierte Netzteile = ungeliebte Schmuddelkinder?

Wir haben parallel dazu einige Markenhersteller bzw. -anbieter ganz zielgerichtet nach Netzteilen als Testmuster in diesem Leistungsbereich gefragt. Interessanterweise wurden durch die Bank Netzteile im 500- bis 550-Watt-Bereich angeboten, die aufgrund der hohen Effizienz den 350-Watt-Bereich locker mit abdecken sollten. Aber tun sie dies wirklich? Wann amortisiert sich welche Ausgabe? Auch gezieltes Nachbohren half nichts – obwohl einige der angefragten Firmen durchaus Netzteile in dieser Kategorie anbieten, gelang es uns nicht, solch ein Produkt als Testmuster für einen Artikel zu bekommen. Nur sehr wenige der größeren Firmen, wie z.B. Be Quiet und Cougar, bieten derzeit effiziente und zertifizierte 300- und 350-Watt-Netzteile im Sektor zwischen 30 und 40 Euro aktiv an und bewerben diese auch. Manche sogar mit 80+ Bronze-Zertifikat. Und Erfolg. Der Rest der Großen bleibt hier leider außen vor. Was aber macht ein Otto Normalanwender, der für einen Budget-Office-PC 300 Euro bezahlt hat und gern ein besseres Netzteil möchte, ohne dass die Geldbörse traurig Tango tanzt?

Alte Vorurteile kontra neue Produkte

Man kann es Zufall nennen, wir bekamen von einem verkaufstüchtigen Zeitgenossen ein 100€-Rundrum-Glücklich-Sparpaket angeboten. Auch wenn die Nennung von Rasurbo bei manchem älteren Leser noch gewisse Sorgenfalten ins Gesicht ziehen lässt, der Mensch ist lernfähig, warum sollten es Firmen nicht auch sein? Und so haben wir zusammen auf den nächsten Seiten ein Gehäuse und ein Netzteil getestet, von denen wir anfangs nicht wussten, ob sich der Aufwand wirklich auch lohnt und wie der Artikel endet. Immerhin, die ausgelobten Features klangen gut. Gehäuse mit farbigen Applikationen, die sich als magnetische Teile im Handumdrehen austauschen lassen (z.B. für Fanboys interessant, die gern mal den Grafikkartenhersteller wechseln), mit 3 Lüftersteuerungen und schwarz lackierter Innenseite samt Schnellverschlüssen und auf der anderen Seite ein Netzteil, das mit angegebenen 350 Watt immerhin ein 80+ Zertifikat erhalten halt und einen ganzen Euro pro 10-Watt-Paket kosten sollte. Quasi ein Gegenstück zu Be Quiet und mit allen Steckern ausgerüstet, die ein System Power z.B. nicht bietet. Lassen wir uns überraschen.

Anfang Dezember stellte der Suchgigant Google mit Chrome OS sein erstes modernes Betriebsystem vor. Gleichzeitig startete das Unternehmen ein Pilotprogramm, bei dem spezielle Notebooks mit Chrome OS an diverse Empfänger versandt wurden.

Wir erhielten mit dem Cr-48 ein sogenanntes “Referenzmodell” des Chrome OS-Notebooks,wobei mir an dieser Stelle hervorheben möchten, dass das Cr-48 kein kommerzielles Produkt werden wird wie z.B. das Nexus One (bzw. S) für die Android-Smartphone-Plattform. Bei diesem Produkt geht es vielmehr darum, dass Google Feedback sammeln möchte, bevor Chrome OS dann 2011 offiziell erhältlich sein wird (auf Produkten von Acer, Samsung und weiteren Herstellern soll Chrome OS vorinstalliert werden).

In einer Welt, in der neue Produkte meistens durch peppige Namen unsere Aufmerksamkeit erregen, gilt das Cr-48 eher als Ausnahme von der Regel. Aber es passt damit aber auch in das Schema, wie Google Dinge anzupacken vermag. Wir haben bei Google nachgefragt, weshalb sich das Unternehmen gerade für „Cr-48“  als Produktbezeichnung entschieden hat, worauf man uns folgendes zur Antwort gab: “Wir haben Cr-48 als Bezug zum besonders instabilen Isotop Chromium gewählt. Cr-48 hat eine Halbwertzeit von 21 Stunden, was unserer Meinung nach sehr gut beschreibt, welche Innovationsgeschwindigkeit wir von unserem Team und der Plattform erwarten.”

Interessanterweise lautet der unternehmensinterne Name für das Cr-48 “Mario”, der sich in dieser Form auf dem Modellaufkleber im Akkufach des Notebooks finden lässt.

Das Produkt erreichte uns in dieser einfallsreichen Verpackung, die mit Entwürfen für ein Düsentriebwerk und dessen vierbeinigen Piloten bedruckt ist. Ebenfalls mit dabei war eine Liste mit zehn Punkten, was man mit dem Chrome OS Notebook alles machen kann. Gemäß dieser Liste bietet das Cr-48 neben der Funktion „Instant Resume“ eine Laufzeit von 8 Stunden und eine Standby-Zeit von 8 Tagen und mehr.

Im Lieferumfang enthalten ist eine Schnellstartanleitung, die auf diverse Funktionen des Notebooks hinweist, in erster Linie auf die Veränderungen bei der Tastatur. Diese hat man bei Google als notwendig erachtet, um sich so von den herkömmlichen und immer gleich aussehenden Standard-Layouts abheben zu können. Da es sich hier um ein komplett neues Betriebssystem handelt, muss das Unternehmen auch nicht auf bisherige Funktionen achten, wie das z.B. bei Windows oder auch Mac OS der Fall ist. Google hat bei seiner Tastatur gänzlich auf Windows- bzw. Optionstasten im Allgemeinen sowie sämtliche F-Tasten verzichtet. Anstelle der F-Tasten bietet die Tastatur folgende Funktionen:

  • Zurück
  • Vorwärts
  • Neu laden
  • Vollbild
  • Nächster Tab
  • Einstellen der Bildschirmhelligkeit
  • Lautsprecher Stumm schalten
  • Einstellen der Lautstärke

An den Enden dieser Tastenreihe befinden sich die Escape-Taste und der Ein/Aus-Taster.

Edel sei der Korpus, vielseitig und gut. So oder so ähnlich kann man im Allgemeinen formulieren, was für das PC-V1020 von Lian Li im Besonderen gelten soll. Für derzeit ab ca. 230 Euro gibts den kaltgeformten Gehäuse-Edelstoff von Lian Li. Aber ob das Aluminium-Case hält, was der Preis verspricht, das muss es erst noch beweisen. Und so haben auch wir uns den Boliden heranrollen lassen und auf den folgenden Seiten genauer unter die Lupe geschoben.

Antec macht mit dem Skeleton Open Air Case die bei Übertaktern so beliebten „Benchtables“ salonfähig. Die Besonderheit des Skeletons ist der offene Aufbau, der den Blick auf die verbaute Hardware freigibt. Die offene Bauweise ist jedoch nicht nur Blickfang, sondern sorgt in Verbindung mit dem großen 250-mm-Tricolor-Lüfter auch für beste Temperaturen der Komponenten. Die edle Limited White Edition hebt sich vom Design nochmals von der schwarzen Variante ab und passt perfekt in modische Wohnzimmer. 


Das Antec Skeleton Open Air Case ist ähnlich aufgebaut wie die von Übertaktern eingesetzten sogenannten „Benchtables“, die sich durch ihre offene Bauweise und leichte Zugänglichkeit der Komponenten auszeichnen. So finden Netzteil und Laufwerke im unteren Teil des Skeletons Platz. Zur einfacheren Montage können die gelochten Seitenteile entfernt werden. Zusätzlich lässt sich die gesamte Konstruktion nach hinten schieben.

Die Hauptplatine sitzt im oberen Teil des offenen Gehäuses und wird von dem gigantischen 250-mm-Lüfter mit Frischluft versorgt. Der Lüfter verändert auf Knopfdruck seine Farbe und kann darüber hinaus noch in der Geschwindigkeit geregelt werden, so dass sowohl der Silent- als auch der OC-Betrieb möglich ist. Zur Installation des Mainboards lässt sich der gesamte Mainboard-Tray nach hinten herausziehen. Zahlreiche Öffnungen im MB-Tray erlauben eine optimale Verlegung der Kabel.

Die Mittelstrebe beherbergt das I/O-Panel und einen stylischen Anschaltknopf wie er in modernen Autos der gehobenen Klasse zu finden ist. Neben dem Power-Button sind im I/O-Panel Anschlüsse für 2x USB, Firewire, eSATA und Audio untergebracht. 

Das Antec Skeleton Open Air Case – Limited White Edition ist ab sofort zu einem Preis von 99,90 Euro bei www.caseking.de erhältlich, somit ist die limitierte Sonder-Edition 33 % günstiger als die normale Variante in Schwarz/Silber.

Über die Caseking GmbH

Der bekannte Distributor und Großhändler Caseking bietet ausgefallenes und extravagantes PC-Zubehör und führt alles von Case-Modding, Design-Gehäusen, Wasserkühlungen, Luftkühlern, Media-PC und Silent-Komponenten bis hin zu Hardware und Zubehör für Gamer. Unter Caseking sind die beiden Online-Shops Caseking.de und GAMERSWARE.de sowie das Fashion-Label GamersWear vereint. Das Sortiment von GAMERSWARE.de reicht von Gaming-Mode bis Highend Zocker-Hardware wie Mousepads, Mäusen, Tastaturen und Headsets. GamersWear rundet das Angebot mit exklusiver und hochwertiger Markenmode für Gamer ab.

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen