Monat: September 2011

Ismaning, September 2011 – Mobiles Heimkino, Videoarchiv und Musikbibliothek – der BDX-S600U von Sony Optiarc setzt neue Maßstäbe für mobile Filmfans mit höchsten Ansprüchen an Bild und Ton. Der BDXL-kompatible externe Blu-ray Brenner für alle Gelegenheiten speichert bis zu 100 Gigabyte Daten auf einer Disc und brennt Blu-ray Discs mit sechsfacher Geschwindigkeit.

So lassen sich selbst extrem datenintensive Inhalte wie hochauflösende Videos oder große Fotosammlungen bequem und schnell entweder von zu Hause oder unterwegs bearbeiten und sichern. Gleichzeitig garantiert der BDX-S600U höchste Wiedergabequalität – auch in 3D. Die Stromversorgung unterwegs erfolgt über USB, ein integrierter Kabelschacht schafft Platz auf Reisen. Für eine stabile Stromzufuhr ist stets gesorgt, denn der BDX-S600U ist das weltweit erste externe Laufwerk, das die Anforderungen für eine USB-Zertifizierung erfüllt: Das heißt, es kann unterwegs problemlos ohne ein zusätzliches Netzteil – also nur über den USB-Port des Laptops – betrieben werden.

Der BDX-S600U eignet sich optimal für flexible Mediennutzer, die mehrere Geräte wie PC, Notebook und Netbook parallel nutzen. Wer öfters unterwegs ist, hat mit dem kompakten, eleganten und nur 330 Gramm leichten All-in-One-Brenner stets Zugriff auf seine Film-, Foto- oder Musiksammlungund kann seine wertvollen persönlichen Erinnerungen sofort langfristig sichern. Zudem unterstützt das Gerät die neuen BDXL-Medien mit einer Kapazität von bis zu 100 Gigabyte. Mit BDXL-Medien können Anwender die doppelte Datenmenge auf einer Blu-ray Disc speichern als mit ein- oder zweilagigen Medien, die 25 oder 50 Gigabyte fassen. So lassen sich selbst umfangreiche Filmsammlungen spielend auf nur wenigen Discs unterbringen. Zudem liefert der BDX-S600U spektakuläre HD- und 3D-Bilder mit beeindruckendem Sound. Ebenfalls optimal für mobile Anwender: Über das integrierte Y-Kabel mit zwei USB-Steckern kann der Brenner direkt vom Note- oder Netbook mit Strom versorgt werden. Dennoch ist unterwegs stets für Ordnung gesorgt, auf Reisen werden die USB-Kabel einfach platzsparend und sicher im eingebauten Kabelschacht verstaut.

Der BDX-S600U beschreibt DVDs mit bis zu achtfacher, ein- und zweilagige BD-R Medien mit bis zu sechsfacher und BD-R_XL-Discs mit bis zu vierfacher Geschwindigkeit. DVD-Medien liest das Laufwerk mit achtfacher, Blu-ray Discs mit sechsfacher und CD-ROMs mit 24-facher Geschwindigkeit.

Der neue Sony Optiarc Blu-ray Brenner wird mit der CyberLink Media Suite 8 ausgeliefert. So sind der eigenen Kreativität keine Grenzen gesetzt, das umfassende Softwarepaket enthält zahlreiche Programme zur Wiedergabe und individuellen Bearbeitung von Videos und Filmen sowie zur schnellen und einfachen Datenarchivierung. Die CyberLink Media Suite ist kompatibel mit Microsoft Windows 7, Windows Vista und Windows XP.

Der BDX-S600U von Sony Optiarc ist ab September erhältlich. Sony Optiarc Europe bietet eine umfassende Garantie von 24 Monaten auf das Laufwerk.

Über Sony Optiarc Inc./ Sony Optiarc Europe GmbH

Sony Optiarc Inc. entwickelt, produziert und vertreibt weltweit innovative und hochwertige optische Speicherlaufwerke. Sony Optiarc wurde 2006 gegründet und beschäftigt circa 350 Mitarbeiter. Hauptsitz von Sony Optiarc ist Tokio. Die Europazentrale, die Sony Optiarc Europe GmbH, befindet sich in Ismaning bei München.

Neuauflage im Hause Apple: MacBook Air 11 und 13Neuauflage im Hause Apple: MacBook Air 11 und 13

Als das erste MacBook Air die Bühne betrat, wusste Apple den Neuzugang wirkungsvoll in Szene zu setzen: Wer erinnert sich nicht an das Bild mit dem superflachen Notebook, das in einem Umschlag verschwindet? Damals rangierte es bei Apple aber noch in der gehobenen Mittelklasse, was sich auch im Preis ausdrückte. Heute stellt das kleinste Modell der Air-Familie gleichzeitig auch das Einstiegsmodell in Apples Notebook-Welt dar und ersetzt damit das weiße MacBook, das nun nicht mehr an den normalen Endanwender verkauft wird.

Da wir bisher jede Generation des MacBook Air getestet haben (erstes MBA 13, zweites MBA 13, erstes MBA 11), wollten wir natürlich sehen, wie die diesjährige Modellpflege den Flach-Notebooks bekommen ist. Immerhin sind die neuen Modelle technisch ein riesiger Schritt nach vorn und der Umstieg vom altgedienten Core 2 Duo zur aktuellen Sandy-Bridge-Generation. In beiden Airs stecken inzwischen Core-i5-CPUs – eigentlich, denn Apple meinte es dieses Mal ein wenig zu gut mit uns und … doch dazu später mehr. So viel vornweg: Den Vorwurf, die Airs seien zu langsam, kann man ihnen heute wirklich nicht mehr machen. Doch eins nach dem anderen.

Im Design nehmen sich die verschiedenen Größen der MacBook Airs nichts: Das 11-Zoll- und das 13-Zoll-Modell unterscheiden sich nur in Nuancen von einander. Das Markenzeichen der Air-Reihe, also das ultraflache Design (Höhe beider Geräte: 0,3 bis 1,7 cm), erben sie damit auch vom Vorgänger, ebenso wie das „Unibody“ Aluminiumgehäuse. Auch die Abmessungen zeigen, dass die zwei Notebooks eng bei einander liegen. So hat das 13″-Air eine Breite von 32,5 cm und eine Tiefe von 22,7 cm bei einem Gewicht von 1,35 kg. Der kleine Bruder kommt mit einer Breite von 30 cm und einer Tiefe von 19,2 cm bei einem Gewicht von etwas über einem Kilo aus.

Auch im Innern des Notebooks bleibt Apple seiner momentanen Designlinie treu: spartanisch edel, wie immer. Setzen andere Notebookhersteller auf Designfeatures um den Tastatur- und Handballenauflagebereich aufzupeppen, besinnt sich Apple weiterhin auf absolute Schlichtheit. Das Aluminiumgehäuse wird daher auch hier einfach weitergeführt, das gläserne Trackad ist eingefasst aber im gleichen silber-grauen Farbton gehalten. Einzig die (nun wieder beleuchtete) Tastatur sticht farblich heraus, denn sie ist schwarz, wie eben alle Tastaturen der aktuellen Apple-Notebooks. So bleibt Apple seinem Konzept der serienübergreifenden Wiedererkennung und dem dezent-schlichten Design treu.

Upgrade schwierig: Ohne Torx-Schraubendreher bleibt das Innenleben unter VerschlussUpgrade schwierig: Ohne Torx-Schraubendreher bleibt das Innenleben unter VerschlussAbgetreten ist Apple von der Glasplatte die sich über das gesamte Display und den Displayrahmen zieht. Beim MacBook Air findet man also einen Displayrahmen in dem das Display eingesetzt wurde. Wer deshalb aber auf ein entspiegeltes Display schließt, irrt allerdings.
Wie bei allen MacBooks der aktuellen Serie lassen sich auch beim den MacBookAirs die Bodenplatten nur mit speziellem Werkzeug entfernen. Auch der Akku ist unter dieser Bodenplatte fest verbaut und lässt sich entsprechend nicht abmontieren oder „einfach so“ auswechseln.

Bei Geräten der gehobenen Preisklasse stellt man an die Verarbeitung gehobene Ansprüche – und an Apple-Notebooks sowieso. Die neuen MacBook Airs werden ihnen auch komplett gerecht. Knacken, Knarzen, nachgeben auf Druck? Fehlanzeige. Eine Anmerkung gibt es aber doch: Da es sich um ein Aluminiumgehäuse handelt, welches sich bei Kälte zusammen zieht, kann es passieren, dass das Gehäuse ein Mal knackt, wenn man es nach längerer Zeit im ausgeschaltetem Zustand in die Hand nimmt. Dies ist uns bei dem 13“ Gerät passiert. Das hat aber nichts mit schlechter Verarbeitung zu tun, sondern ist allein auf die Materialeigenschaften zurück zu führen. Auch war dieses Knacken nicht reproduzierbar, sobald man das Gerät in der Hand hatte. Hier scheint es sich also um reine Physik zu handeln.

Schlicht, einfach und schwarz. Das ist die Tastatur der MacBook-Familie, egal ob Air oder Pro. Bei der Verarbeitung hat Apple also nicht nur auf das gleiche Design gesetzt, sondern auch auf das gleiche Chiclet-Modell. Die Tastaturen unterscheiden sich aus Nutzersicht nicht. Auch die Hintergrundbeleuchtung, die beim letzten Modell von der Ausstattungsliste gestrichen wurde, ist nun wieder mit an Bord.

Die Tastatur beim MacBook Air 11 ...Die Tastatur beim MacBook Air 11 … ...und beim 13-Zoll-Modell.…und beim 13-Zoll-Modell.

Nun zu den Tipp-Eigenschaften: Der Hub ist kurz, der Widerstand ist mäßig-fest, lässt sich also ohne größeren Kraftaufwand überwinden. Gleichzeitig ist er fest genug um das Gefühl eines eindeutigen Druckpunktes zu geben. Der Anschlag ist gut spürbar, im Zusammenhang mit dem Widerstand angenehm fest. Kurzum: Es entsteht ein gutes Tippgefühl. Das Tastenlayout entspricht dem allgemein gängigen Mac Layout, mit seiner Command-Taste anstelle des Windows-Pendants.

Vergleich der Trackpads.Vergleich der Trackpads.

Das Trackpad des 11“ MBA ist etwas kleiner als das seines großen Bruders. Beide sind mittig unterhalb der Tastatur in die Handballenauflagefläche eingesetzt und im gleichen silber-grauem Design wie das restliche Gehäuse gehalten. Das Trackpad funktioniert, wie bei allen derzeitigen Apple Notebooktrackpads, komplett als Maustaste. Einen rechten Mausklick erreicht man durch zusätzliches Drücken der ctrl-Taste. Das Trackpad ist zudem voll Multi-touch fähig. Der Druckpunkt des gesamten Trackpads ist sehr fest aber, wenn gedrückt, eindeutig.

Vor wenigen Jahren war eine solche zentrale Lösung für Privatanwender noch relativ uninteressant und lediglich Enthusiasten dürften sich aus Neugierde an der Technik einen Server in Eigenregie zusammengebaut haben, auf dem dann Daten oder Sicherungsdateien des heimischen Desktop-PCs bzw. Notebooks abgelegt wurden.

NAS für Privatanwender

Seit einiger Zeit wird aber auch für herkömmliche Anwender das Thema Network Attached Storage, kurz NAS, immer interessanter. Durch netzwerkfähige Consumer-Geräte wie z.B. Tablets, Smartphones und Mediaplayer  oder der weiteren Verbreitung von DSLR- bzw. Videokameras werden wir quasi dazu gezwungen, uns früher oder später nicht nur Gedanken darüber zu machen, auf welchem Medium und an welchem Ort wir unsere Daten ablegen, sondern auch wie wir darauf möglichst unkompliziert und von verschiedenen Geräten und Orten aus zugreifen und für andere Familienmitglieder – im Idealfall mit verschiedenen Zugriffsberechtigungen – zugänglich machen können.

Klein und günstig – aber auch gut?

Wir hatten in der Vergangenheit hauptsächlich NAS-Geräte im Test, die von ihrer technischen Ausstattung, von ihrer Positionierung durch den Hersteller und letztendlich wegen des preislichen Gefüges eher für kleine Arbeitsgruppen bzw. den geschäftlichen Einsatz prädestiniert waren. Immerhin lagen die Anschaffungskosten der bisher getesteten Geräte meist über 250 Euro, teilweise zuzüglich Festplatten. Enthusiasten und ambitionierte Anwender lassen sich hierdurch selbstverständlich nicht beirren, doch was, wenn man aus Prinzip nicht mehr als 150 bis 200 Euro für ein NAS-Gerät ausgeben möchte?

Wir haben uns zwei Geräte von Silverstone und Fantec angeschaut, die beide im Anschaffungspreis deutlich unter der 200-Euro-Marke liegen. Hier dürfte bereits klar sein, dass diese Geräte nicht mit der Leistung von NAS-Geräten der Hersteller Qnap, Synology oder Thecus mithalten können. Wir wollen daher diesmal weniger auf die technischen Details der Geräte eingehen, sondern gezielt einen Blick auf die Verarbeitung sowie die Benutzerfreundlichkeit und Bedienung werfen.

CM Storm, die Gaming Marke der Cooler Master Gruppe, stellt heute das futuristisch anmutende PC-Gehäuse “Trooper” vor. Klar definierte Linienführung seitlich, sowie ein Exoskelett-Strukturierter Abschluss oben, sind die äußerlichen Alleinstellungsmerkmale des neuen Gaming-Chassis. Ein fest eingearbeiteter Tragegrifff unterstützt bei einem Transport des PCs erheblich. Das matte Äußere und die teilweisen Gummierungen geben dem Trooper einen exclusiven, robusten Militäy-Look und schützt dabei vor Beschädigungen der Außenhülle. Das ganze Chassis ist komplett in schwarz gehalten und besticht durch seine rot leuchtenden LED-Lüfter. 


Reine Äußerlichkeiten

Der CM Storm Trooper erfreut sich der beliebten Zusatzfunktionen seiner CM Storm Chassis Vorgänger, wie zum Beispiel die Lüfterregellung und LED-Beleuchtungssteuerung im Frontbedienfeld. Neuartig ist dabei die Steuerung über Tasten und nicht über Drehregler. Das zentrale, leuchtende Logo beherbergt den Start-Taster. Die Front-Anschlüsse sitzen genau da wo man sie benötigt – direkt an der vorderen, oberen Kante. Hier finden sich neben den USB3.0- und USB2.0- auch die Audio-Schnittstellen und ein eSATA-Port. Das erste besondere Extra findet sich gleich darunter: Ein 2,5“ hot-plug fähiger Laufwerkschacht namens X-Dock, welcher Massenspeicher wie SSD´s und HDD´s aufnehmen kann. Das ermöglicht einen Austausch von größeren Datenmengen einfach spielend.

Hinter einer übergroßen Gitterfront arbeiten bereits zwei rot-leuchtende LED-Lüfter und sorgen damit für genug Frischluft für das System. Weitere Lüfter im Inneren befinden sich: oben ein 200 mm Lüfter, hinten ein 140 mm Lüfter, am Boden zwei 120 mm Lüfter und seitlich auch zwei 120 mm Lüfter. Ausreichend Platz für eine Flüssigkeitskühlung ist ebenfalls vorhanden, genau wie die benötigten gummierten Durchführungen auf der Rückseite.

Inneren Werte


Fast schon Standard ist die Werkzeuglose Montage der Laufwerke bei allen Cooler Master Gehäusen – so auch hier. Bis zu 13 Festplatten finden im Trooper Platz. Die Öffnung hinter dem Prozessor für einen einfachen Austausch der CPU oder Kühler wurde ebenfalls vergrößert. Gleich zwei Festplatten-Käfige sind modular montiert und können bei Bedarf entfernt, oder um 90° verdreht montiert werden.

Das Trooper Chassis ist ein Gehäuse für leistungsfähige und große Komponennten. So unterstützt das Case Mainboards im XL-ATX Formfaktor mit bis zu 9 Erweiterungskarten, sowie ein 4 Wege SLI-/ Crossfire-Grafikkarten-Verbund. Das Netzteil findet seinen Platz am Boden. Gegen eine Verstaubung des Computers sind einige Luft–Filter montiert. Diese befinden sich unterhalb und oberhalb der Lüfter und lassen sich von außen leicht zum Reinigen entfernen.

Der Trooper bietet eine neue Möglichkeit eine Wasserkühlung zu montieren. Nach dem Entfernen der Festplattenkäfige findet sich genügend Platz um die Radiatoren in der Front zu integrieren.

Kabelmanagement

Ein besonderes Augenmerk haben die Entwickler auf das Kabelmanagement gelegt. Extrem viele Durchführungen, Ösen und Schlaufen für eine saubere und ordentliche Befestigung der Leitungen sind überall zu finden. Alle Durchführungen sind entgratet und mit Gummi-Protektoren ausgestattet.

Preise und Verfügbarkeit

Das neue CM Storm Chassis „Trooper“ wird ab Anfang November in den Läden zur Verfügung stehen. Der Endkunden-Verkaufspreis beträgt 149 Euro und beinhaltet eine zweijährige Garantie.

Weiter Informationen befinden sich auf der Webseite: www.coolermaster.de

Die Zahl der Meldungen über Sicherheitslücken und gehackte Systemen steigt in letzter Zeit derart rasant an, dass man meinen könnte, jegliche Sicherheitsmaßnahmen zum Schutze unserer Privatsphäre und unserer privaten Daten seien nichts wert. Die Basis für den Erfolg vieler Online-Dienste ist das Versprechen, dass unsere Daten vor dem Zugriff Dritter geschützt sind, und unser Online-Leben würde heute ohne diese Dienste ganz anders aussehen. Dennoch gibt es viele Beispiele dafür, dass es einer oder mehreren Personen gelingt selbst die Sicherheitssysteme großer Unternehmen zu umgehen. Eine Tatsache, die unser Vertrauen in solche Dienste bis in den Kern erschüttert.

Verständlicherweise sind wir vor allem an Sicherheit interessiert und daran, wie sich diese durch unser Verhalten sowie durch die Hardware verbessern lässt.

In unserem Artikel Passwörter knacken mit GPU-Unterstützung haben wir die Sicherheit von verschlüsselten Archiven genauer unter die Lupe genommen und auf mögliche Schwachstellen hingewiesen. Obwohl die dort ermittelten Daten aussagekräftig sind (und sogar einige Anwender erschreckt haben, die bislang davon ausgingen, dass ihre Daten ausreichend geschützt sind) war die Zielgruppe, die sich von diesem Artikel angesprochen fühlte, relativ klein. Die meisten Anwender verschlüsseln ihre Daten halt nicht.

Gleichzeitig sind die Daten vieler Anwender noch auf einer anderen Ebene angreifbar. So nutzen wir beispielsweise nicht ausschließlich kabelgebundene Netzwerke. Wir sind nicht nur fast rund um die Uhr mit dem Internet verbunden, sondern nutzen hierfür in Heim und Büro eine kabellose Verbindung. Man sagt, dass eine Kette nur so stark ist wie ihr schwächstes Glied. In zahlreichen Fällen ist das schwächste Glied der Passwortschutz des kabellosen Netzwerks.

Im Internet finden sich zahlreiche Informationen zur Sicherheit von kabellosen Netzwerken. Sich durch all diese Seiten zu lesen, ist fast ein Ding der Unmöglichkeit. Daher wollen wir mit unserem heutigen Artikel eine Zusammenfassung bieten und letztlich auch mit der uns in unserem Labor zur Verfügung stehenden Hardware die Verschlüsselung von kabellosen Netzwerken testen.

Wir fangen mit dem Knacken von WEP an und rücken mit Hilfe der Cloud der WPA-Verschlüsselung zu Leibe.

Taipei, Taiwan, September 26, 2011 –QNAP® Systems, Inc. hat heute drei neue Turbo NAS-Modelle angekündigt: Der TS-419P II (4 Laufwerke), der TS-219P II (2 Laufwerke) und derTS-119P II (ein Laufwerk) sind als budgetfreundliche Network Attached Storage (NAS)-Lösung für effiziente Datensicherung und bequeme Bereitstellung von Dateien zur gemeinsamen Bearbeitung konzipiert. Die neuen Modelle können auf die neuste, als kostenloser Download verfügbare QNAP NAS-Firmwareversion 3.5, die zahlreiche neue Funktionen und Verbesserungen enthält, aktualisiert werden.

Zur Ausstattung der neuen Modelle der TS-x19P II-Serie gehören ein beeindruckender 2,0 GHz Marvell-Prozessor, ein 512 MB DDR3-Speicher und ein oder zwei Gigabit LAN-Ports. Der TS-x19P II kann problemlos in ein existierendes Netzwerk mit Arbeitsgruppen integriert werden. Neben der zentralen Speichermöglichkeit mit Virenschutz bitte das NAS auch plattformübergreifende Dateibereitstellung für Windows®, Mac®, Linux und UNIX-Nutzer und sichere Verbindungen für den Serverzugriff über FTP, internetbasierten Dateimanager oder WebDAV. Mit dem MyCloudNAS-Dienst lässt sich die TS-x19P II-Serie mit wenigen Schritten sogar in einen persönlichen Cloud-Speicher für den Fernzugriff aus dem Internet verwandeln.

„Die von QNAP durchgeführten Leistungstests zeigen, dass die neuen Modelle in Windows-Netzwerken bis zu 109 MB/s Download-Geschwindigkeit und bis zu 75 MB/s Upload-Geschwindigkeit erreichen können“, lobt Laurent Cheng, Produktmanager bei QNAP. „Zudem sind die neuen Modelle mit nur 4 Watt Energieverbrauch im Sleep-Modus bzw. 7 Watt im Betrieb extrem energieeffizient.

Darüber hinaus kann die TS-x19P II-Serie als Datensicherungsspeicher eingesetzt werden (für Windows-Nutzer mit der QNAP QBack-Datensicherungssoftware bzw. für Mac-Nutzer mit Time Machine), mehrere Websites hosten, USB-Drucker gemeinsam verwenden und Sicherheitsüberwachung von IP-Kameras im Netzwerk aufnehmen. Zuhause kann die TS-x19P II-Serie zum Streamen von Multimedia-Inhalt auf UPnP-kompatible Heimgeräte verwendet werden und als rundum die Uhr verfügbares Download-Zentrum (über BT/FTP/HTTP und eMule-Protokolle) dienen. Zudem können Sie über Ihre iOS und Android-Handgeräte auf die TS-x19P II-Serie zugreifen.

Wichtige Funktionen der neuen Modelle

  • TS-419P II – Tower mit 4 Laufwerken, 2,0 GHz-Prozessor, 512 MB DDR3-Speicher, 2 Gigabit LAN-Ports, hotswap-fähige Laufwerke;
  • TS-219P II – Tower mit 2 Laufwerken, 2,0 GHz-Prozessor, 512 MB DDR3-Speicher, 1 Gigabit LAN-Port, hotswap-fähige Laufwerke;
  • TS-119P II – Tower mit 1 Laufwerk, 2,0 GHz-Prozessor, 512 MB DDR3-Speicher, 1 Gigabit LAN-Port.

Verfügbarkeit

Die Modelle TS-419P II, TS-219P II und TS-119P II werden ab sofort ausgeliefert. Weitere Informationen über die neuen und weitere QNAP Turbo NAS-Modelle finden Sie unter www.qnap.de

Über QNAP Systems, Inc.

QNAP Systems, Inc. ist ein 2004 gegründetes, in privater Hand befindliches Unternehmen, das sich auf Netzwerk-Medienplayer für zuhause sowie weltweit führende Netzwerkspeicher und professionelle NVR-Videoüberwachungslösungen für Verbraucher und KMUs aller Leistungsanforderungen spezialisiert hat. QNAP nutzt nicht nur Hardware-Design sondern auch eine wachsende Kernkompetenz in Software-Engineering. QNAP ist darauf konzentriert, Produkte auf den Markt zu bringen, die neben höchstmöglicher Leistung auch unübertreffbare Zuverlässigkeit und Skalierbarkeit sowie einfache Installation und hohen Bedienkomfort bieten. QNAP ist ein multinationales Unternehmen mit Hauptsitz in Taipei, Taiwan sowie Niederlassungen in China und in den United States.

Ansprechpartner für Medien

marketing@qnap.com

Dieser Tage erscheinen erste Festplatten mit 4 TB Speicherkapazität. Den Anfang machen Produkte, die extern an PC-Systeme angeschlossen werden. Das ergibt Sinn, denn Dank USB 3.0 arbeiten externe Festplatten so schnell, als wären sie intern via Serial ATA angeschlossen, und extern sind Festplatten auch mit mehreren Systemen (z.B. PC und Notebook wechselweise) nutzbar.

Zudem ist der Trend zur SSD statt einer Festplatte als Systemlaufwerk zu berücksichtigen: Diese bieten beste Performance und eliminieren Verzögerungen im Alltagsbetrieb, doch die Speicherkapazität ist aufgrund der vergleichsweise hohen Preise auf höchstens 256 GB, oft jedoch auf 128 GB oder weniger beschränkt. Wer große Mengen an Bildern, Videos oder anderen Daten angewiesen ist, ist mit einem externen Laufwerk mit schneller Schnittstelle und großer Kapazität gut bedient.

Frisch gebackene Daten!Frisch gebackene Daten!

Da sich im Alltagsbetrieb jedoch nur wenige Unterschiede zwischen ähnlichen Produkten zeigen, wollten wir es wissen: Beide Testlaufwerke wanderten kurzerhand in einen Temperaturschrank von Memmert, den wir auf sommerliche 32°C vorgewärmt haben. Was wird passieren?

Neben unserer üblichen Benchmark-Suite haben wir die Laufwerke von Seagate (FreeAgent GoFlex Desk) und Western Digital (MyBook Essential) im Temperaturschrank einem zusätzlichen Test mit h2benchw unterzogen, der die Temperaturwerte im Innern der Laufwerke deutlich ansteigen lässt – und für überraschende Ergebnisse sorgt, die wir auf den folgenden Seiten diskutieren.

Klar ist: Unterschiede bezüglich der Performance existieren, da die Produkte jeweils verschiedene Laufwerke einsetzen. Bei Seagate kommen Festplatten mit 7.200 U/Min zum Einsatz; Western Digital beschränkt sich auf 5.400 U/Min. In der Praxis sind die Unterschiede aber nur dann erheblich, wenn das Laufwerk oft und dauerhauft große Datenmengen lesen oder schreiben soll. Erfahrene Anwender und Profis sollten ein Auge auf die Performance haben. Alle anderen sind besser bedient, wenn Funktionalität, Zuverlässigkeit und Lieferumfang stimmen.

Inzwischen tummeln sich zwar viele verschiedene Hersteller im SSD-Markt, doch wenn man genauer hinschaut, stellt man eines schnell fest: Im Endeffekt unterscheiden sich die vielen Modelle nur in drei Punkten, nämlich dem Controller, dem NAND-Flash-Speicher und der Firmware. Natürlich haben nach wie vor die Controller den größten Einfluss auf die Performance-Charakteristika und die Features einer SSD. Vergleicht man zwei Laufwerke verschiedener Hersteller, die den gleichen Controller einsetzen, ergeben sich deshalb meist nur minimale Unterschiede. Beispiel: Ob das Laufwerk nun OCZ Agility 3 oder Corsair Force 3 heißt, die Performance fällt ähnlich aus. Doch darauf kommen wir demnächst in einem eigenen Artikel zu sprechen.

Wenn also der Controller das Herzstück und bestimmende Bauteil einer SSD ist, dann konkurrieren derzeit gerade mal eine Handvoll Firmen und deren jeweilige Technologien mit einander. Allerdings haben bislang nur Marvell und SandForce Controller am Markt, die mit Datenraten von bis zu 6 Gb/s aufwarten können. Intel hat zwar mit der SSD 510 auch ein Laufwerk mit entsprechender Datenrate im Portfolio, verlässt sich beim Controller aber nicht auf ein eigenes Design sondern auf einen Marvell-Controller.

Samsung 830 64 GB 128 GB 256 GB 512 GB
Schnittstelle SATA 6Gb/s SATA 6Gb/s SATA 6Gb/s SATA 6Gb/s
zufälliges Lesen mit 4 KB Blockgröße 75 000 IOPS 80 000 IOPS 80 000 IOPS 80 000 IOPS
zufälliges Schreiben mit 4 KB Blockgröße 16 000 IOPS 30 000 IOPS 36 000 IOPS 36 000 IOPS
sequentielles Lesen mit 128 KB Blockgröße 520 MB/s 520 MB/s 520 MB/s 520 MB/s
sequentielles Schreiben mit 128 KB Blockgröße 160 MB/s 320 MB/s 400 MB/s 400 MB/s

Wenn man bedenkt, dass praktisch alle namhaften Hersteller (und sogar schon einige weniger bekannte) inzwischen Laufwerke mit der neuen 6-Gb/s-Schnittstelle im Angebot haben, ist Samsung mit seiner heute neu vorgestellten 830-Serie eigentlich recht spät dran. Dennoch sind die technischen Daten, die der Hersteller angibt, beeindruckend (siehe oben). Unabhängig von der Kapazität verspricht Samsung Leseraten von bis zu 520 MB/s, während die Modelle mit 256 und 512 GB beim Schreiben auf bis zu 400 MB/s kommen sollen.

Damit spielt die 830 Serie in der gleichen Liga wie Laufwerke mit SandForce-Controllern der zweiten Generation. Der größte Unterschied dürfte aber sein, dass Samsungs Baustein sich nicht auf Kompressionstechnologie verlässt, während bei SandForce das sogenannte DuraWrite dafür sorgen soll, dass die Anzahl der Schreibzyklen verringert wird, um so die Lebenserwartung der Flash-Chips zu erhöhen. Dieser Ansatz hat nur einen Nachteil, denn bei nicht komprimierbaren bzw. bereits komprimierten Dateien kommt das Laufwerk nicht auf seine theoretische Maximalleistung – und genau die geben die Hersteller natürlich zu gern bei den technischen Daten an.

Da Samsung aber ohne ein so marketingträchtiges Feature eine vergleichbare Performance bietet, muss man zu NAND-Bausteinen höherer Qualität greifen, um eine ähnliche Lebenserwartung gewährleisten zu können. Samsung genießt aber auch einen nicht unerheblichen Vorteil: Controller, Firmware und Flash-Speicher stammen aus eigener Entwicklung und Herstellung. Man ist also nicht von Drittfirmen abhängig, was die Entwicklung einfacher und preiswerter macht. Außerdem unterliegt man so weit weniger Qualitäts- und Verfügbarkeitsschwankungen bei den Bauteilen. Zudem kennt man auch das letzte Detail der verbauten Komponenten ganz genau.

Hersteller Crucial OCZ Samsung
Modell m4 Vertex 3 830
maximale Datenrate 6 Gb/s 6 Gb/s 6 Gb/s
Kapazität 128 GB 120 GB 128 GB
UVP in US-Dollar
(zum Zeitpunkt der Veröffentlichung)
$225 $230 $250
Preis pro GB $1,75 $1,92 $1,95

  

Aber Samsung hat noch ein weiteres Ass im Ärmel, denn man will die Konkurrenz auch preislich unter Druck setzen. Man sagte uns, dass die Preisempfehlung für die 128-GB-Variante der 830 in den USA bei 250 US-Dollar liegen werde. Das sind weniger als 2 Dollar pro GB und man ist damit nicht allzu weit von der OCZ Vertex 3 mit 120 GB entfernt.

Für die weiteren Modelle wollte uns Samsung noch keine Preise nennen. Allerdings werden sie sich wohl an denen der bisherigen 470-Serie orientieren, denn über kurz oder lang wird die 830-Familie diese ersetzen.

id Software feierte dieses Jahr sein zwanzigjähriges Firmenjubiläum, und so wie es aussieht, wird 2011 wieder ein Rekordjahr für den Spieleentwickler in Dallas. In ein paar Monaten wird Rage released, ebenso id Tech 5, die allerneueste Game-Engine von John Carmack. Beide Produkte sind die wichtigsten Releases seit Doom 3 (Mitte 2004), wenn man von Re-Releases und Produkten für Smartphones einmal absieht. Unseren Lesern müssen wir wahrscheinlich nicht erklären, wer John Carmack ist und was er, seit er 1991 zusammen mit drei Freunden id Software gegründet hat, alles geleistet hat.

Die Original-Releases und Fortsetzungen von Wolfenstein, Doom und Quake gelten nach wie vor als bahnbrechende PC Spiele und haben die Kategorie Ego-Shooter überhaupt erst geschaffen. Auch die Game Engines, auf denen diese Spiele basieren, gelten als innovativ, um nicht zu sagen revolutionär. Mittlerweile ist es wahrscheinlich klar geworden, dass der Autor dieser Zeilen ein “Fanboy” von id Software und ein großer Bewunderer des Werks von John Carmack ist, und so gesehen war es mir eine große Ehre, vor ein paar Wochen bei der Quakecon 2011 die Möglichkeit zu erhalten, den “Master of Doom” höchstpersönlich zu interviewen. Da das Thema “Rage” sowieso schon online zu Tode diskutiert wird, haben wir uns mehr über Computerhardware, Spielkonsolen und Smartphone-Games unterhalten – viel Spaß beim Lesen!

Devin Connors: Was hältst du von der neuesten Hardware von Intel und AMD?

John Carmack: Beim Kauf einer High-End Grafikkarte kann man mittlerweile fast nichts mehr falsch machen, denn die Hardware ist mittlerweile wahnsinnig schnell geworden. Es ist aber viel spannender, was sich derzeit am Low-End tut. Die integrierten Grafikeinheiten von Intel waren jahrelang nur ein schlechter Scherz – für Spiele völlig unbrauchbar. Aber jetzt seit der “Sandy Bridge”-Generation hat die integrierte Grafikeinheit plötzlich jene Hardwarefeatures und Programmierbarkeit, auf die wir immer gewartet haben. Man kann mit ihr zwar immer noch keine Frameraten-Rekorde aufstellen, aber zumindest ist jetzt eine gewisse Basisperformance da und auch alle benötigten Features, und sie ist jetzt für viele Spiele geeignet, wenn man z.B. die Auflösung herunterdreht.

Ich denke, bald landen wir in einer Welt, wo ich ein und dasselbe Spiel zu Hause mit einer High-End Karte auf dem 30-Zöller mit 2560×1600 und 16X MSAA spielen kann und dann im Flieger auf dem Notebook mit der integrierten Grafikeinheit halt mit 720p Auflösung. Spieleentwickler sollten beide Situationen im Auge behalten, die Grafikbandbreite sollte skalieren. Um ehrlich zu sein, wenn das Spiel viel Geometrie enthält, ist das natürlich viel schwieriger, denn Geometrie skaliert nicht so herunter wie Pixels.

DC: Du hast bei deiner Quakecon-Eröffnungsrede gesagt, dass Rage bereits auf Intels aktueller integrierter Grafikhardware läuft.

JC: Rage läuft auf den Intel IGPs, ja, aber noch nicht ganz mit der idealen Framerate. Wir liegen derzeit so um die 30 Frames pro Sekunde, aber das Spiel braucht an sich so an die 60. Und technisch gesehen gibt es keinen Grund, warum es bei niedrigeren Auflösungen nicht die 60 Frames erreichen könnte, aber leider hat Intel den Grafiktreiber nicht so optimiert wie Nvidia und AMD.

DC: Ist die Treiber-Situation der wunde Punkt der integrierten Intel-Grafik?

JC:  Intel arbeitet daran, aber Intel hat da nicht so viele Entwickler und Mittel hineingepumpt. Andererseits muss Intel derzeit auch noch nicht so viele unterschiedliche Modelle unterstützen. Was mir an Intel sehr gefällt ist, dass mehr Architekturdetails dokumentiert werden als bei AMD und Nvidia. Zum Beispiel hat Intel die komplette Chipspezifikation veröffentlicht, sodass Open-Source-Treiber geschrieben werden können. Für uns Spieleentwickler ist das toll, wenn wir in der Spec nachschlagen können: “Hmm – der Grafiktreiber baut hier Mist, aber die Hardware sollte das hier machen.” Wir können dann die Treiberentwickler anrufen und fragen, “Was geht hier schief, wie können wir diese Hardwarefunktion ansprechen?” Die Treiberleute haben jede Menge Arbeit, aber wenn wir die Möglichkeit erhalten würden, dass wir einfach alle Texturen im User-Speicher ablegen können und nicht ständig Textur-Updatefunktionen aufrufen müssen, das wäre schon ein großer Vorteil. Und es ist zweifelsohne denkbar, dass eine sündhaft teure Grafikkarte bei einer hohen Auflösung viel Zeit mit Sachen wie Texture-Transcoding verbrät und sie es dann schwerer beim Erreichen der 60 Hz hat als eine integrierte Grafikkarte, die direkten Zugriff auf den gesamten Hauptspeicher hat.

DC: Was hältst du von den neuen CPUs selbst? Was meinst du zu Entwicklungen wie AMD Fusion, wo die Grafikeinheit jetzt direkt neben der CPU sitzt?

JC: Naja, die Fusion-Chips haben zwar eine GPU neben der CPU auf dem gleichen Siliziumchip, aber noch besser wäre eine nahezu komplette funktionale Integration, wo sich CPU und GPU zumindest den Cache teilen und vielleicht sogar einige Funktionseinheiten.

DC: Bringt euch so ein integriertes Design Vorteile? Oder Nachteile?

JC: Einige Aspekte des bestehenden Designs erzielen schon jetzt ein gutes Preis-Leistungsverhältnis, wenn man per DirectX- oder OpenGL-APIs programmiert. Aber eine weitergehende Integration [in den Cache] wäre natürlich eine gute Sache, anstatt der getrennten Busse. Aber wo die Geschichte wirklich hochinteressant würde, das wäre eine enge Integration der GPU-Hardware in die CPU, wenn man also direkt aus dem CPU-Befehlssatz heraus Grafikoperationen ausführen könnte, genauso wie man derzeit SSE-Code schreibt. Wenn man Fusion-Code inline schreiben könnte, das würde ganz neue Möglichkeiten eröffnen. Aber in der Realität ist natürlich das Entwickeln in einer dreigeteilten Welt aufwändig, wenn man Intel, AMD und Nvidia unterstützen muss. Wir sind durchaus bereit, gewisse Hersteller-spezifische Optimierungen zu machen: Wir versuchen, Intel dazu zu bewegen, uns Direktzugriff auf die Texturen im Hauptspeicher zu geben, mit ATI machen wir multitext sub-image Updates und mit Nvidia haben wir sowieso schon immer zusammengearbeitet. Sollte uns die nächste Generation von Fusion neue, interessante Möglichkeiten bieten – inwieweit zahlt es sich aus, dafür speziellen Code zu schreiben, wenn es sich nur um einen Teil [Fusion] eines Teils [AMD] des Marktes handelt? So einen Aufwand macht man sich im Normalfall nur, wenn die Technologie in einer Spielkonsole verwendet wird.

DC: Hat euch AMD bezüglich Wunsch-Features für die neuen FX-CPUs gefragt?

JC: Wenn es um die optimale Aufteilung der Chipfläche einer neuen CPU in bestimmte Funktionseinheiten geht, halten wir uns als Spieleentwickler da ziemlich heraus. Wie ich schon erwähnt habe, waren neue CPU-Features nur vor vielen Jahren wichtig, zum Beispiel der erste 32-Bit-Adressraum oder die ersten Floating-Point-Units, das hat damals viel ausgemacht. Seither nimmt die Bedeutung von neuen Features eher ab, sogar Intels Übergang von P4 auf Core – die CPU-Architekten haben immer fantastische Arbeit geleistet und wir können uns darauf verlassen, dass eine neue Generation immer Vorteile gegenüber der vorigen haben wird und ausnahmslos auch schneller sein wird. Wir haben ein paar Codestellen für SSE3 optimiert und haben uns AVX angesehen, aber summa summarum wird die Performance eines Spiels von einer neuen Prozessorgeneration nur unwesentlich verbessert.

Gut, man kann im Leben nicht immer der Erste sein. Extrem limitierte Machbarkeitsstudien in Kleinserien erregen nicht nur das Interesse der Leser, sondern auch das Habenmüssen-Gefühl der Tester. Man wird gewissermaßen wieder zum Jäger und Sammler, der ganzen Evolution zum Trotz. Auf die Reihenfolge, mit der Asus die Redaktionen beglückt, kann man ebenfalls kaum Einfluss nehmen (es sei denn durch extrem zur Schau getragene Zuneigung), aber wir hätten uns schon ein etwas strafferes zeitliches Regime beim Austausch der Karte zwischen den Kollegen gewünscht.

Deshalb standen wir am Ende vor der Frage: noch ein routinemäßiger Test dieser Karte, mit dem man am Ende auch nur wieder gebetsmühlenartig alles wiederholt und wiederkäut, was bereits zu lesen war? Genau das wollten wir allerdings vermeiden, und so machten wir an den Eckpunkten der Karte einen Test fest, in dem wir versuchen werden, anhand von Gewicht und Leistungsaufnahme ein passendes und vor allem käufliches Pendant zu finden, das am Ende sogar nur ungefähr die Hälfte kostete. Für den normalen Alltag ist all dies natürlich ein wenig oversized und abgehoben, das geben wir ehrlich zu. Sei’s drum, interessant war die Sache dann doch, denn wir betrachten auch die Mikrorucklerproblematik und das Verhalten gegenüber den nominell gleichwertigen Kombinationen aus Einzelkarten.

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen