Monat: Juli 2011

Apple eilt mit seinen mobilen Geräten der Konkurrenz auf und davon. Alleine im zweiten Quartal dieses Jahres hat das US-amerikanische Unternehmen eigenen Angaben zufolge 20,3 Millionen iPhones und 9,3 Millionen iPads verkauft. Maßgeblichen Anteil am Erfolg der Apfel-Produkte haben neben ihrem schicken Design und der guten Bedienung insbesondere die unzähligen Zusatzprogramme (Apps), mit denen sich die mobilen Geräte um neue Funktionen ergänzen lassen. Das Betanken mit Software läuft für iPad und iPhone stets über den 2008 ins Leben gerufenen Apple App Store, in dem mittlerweile mehr als 200.000 Apps zum Download bereitstehen, die zum größten Teil kostenlos sind.

Trotz dieser Software-Wundertüte sind die mobilen Kultgeräte keine Alleskönner und müssen innerhalb der Grenzen agieren, die ihnen die Hardware setzt. Manches Ausstattungsmerkmal wird dabei schmerzlich vermisst. So würde sich das iPad aufgrund seines großen, knapp 24 Zentimeter durchmessenden Displays ideal dafür eignen, neben Webseiten und Videos auch Live-TV darzustellen. Leider lässt sich das Gerät nicht ohne weiteres als tragbarer Fernseher einsetzen, weil ihm auch auch in seiner jüngsten Inkarnation iPad 2 ein USB-Port fehlt und sich damit auch kein DVB-T-Stick Anschluss findet. Entgegen seiner Positionierung im Netbook-Markt sucht man beim iPad übrigens auch vergeblich nach einer Anschlussmöglichkeit für ein Netzwerkkabel und hat nur die drahtlose Wahl zwischen WLAN und Handynetz.

Fernsehen auf dem iPad klappt mittels Software zwar trotzdem, etwa mit App Store-Programmen wie Zattoo Live TV und EyeTV oder Drittanbieter-Tools wie Save.TV. Diese Lösungen liefern das Fernsehprogramm allesamt per Streaming, kommen aber allesamt mit mehr oder weniger großen Einschränkungen daher. So funktioniert die Zattoo-App nur per WLAN und blendet in der kostenlosen Version bei jedem Senderwechsel Werbung ein. EyeTV setzt zwingend einen Mac samt EyeTV-Tuner voraus und das kostenpflichtige Save.TV ist im Prinzip nichts anderes als ein Online-Videorekorder und hat daher nichts mit Live-Fernsehen zu tun.

Eine elegante Möglichkeit, das TV-Programm trotzdem „live“ auf das iPad zu bringen, hat PCTV Systems mit Broadway 2T am Start. Das System besteht aus einem kleinen Empfänger, der als eigenständiges Produkt weder einen Mac noch einen PC voraussetzt, um zu funktionieren. Sobald der Broadway 2T mit einem DVB-T-Empfänger und über einen Router mit dem Heimnetzwerk verbunden ist, kann es das Fernsehsignal per WLAN im Haus verschicken oder über das Internet an den Ort streamen, an dem sich iPad-Besitzer samt iPad gerade aufhalten. Das Gerät arbeitet neben dem iPad auch mit dem iPhone und dem iPod Touch zusammen. Auf iPad und iPhone haben wir die Funktionen des PCTV Systems Broadway 2T genau unter die Lupe genommen.

SAS und SATA für Server-Storage

Der Fokus des technikverliebten Anwenders liegt in der Regel bei schnellen Laufwerken – heute vorzugsweise bei SSDs – und bei der regelmäßigen Prüfung über die einschlägigen Online-Preisvergleicher, bei welcher Festplatte denn der meiste Speicherplatz pro Euro zu haben ist. Schnell muss die HDD sein, preiswert und dann natürlich auch leise und sparsam. Das sind allesamt Kriterien, die im Business-Umfeld anders gewichtet werden. Hier zählt zuerst Zuverlässigkeit, Ausfallsicherheit berechenbare Performance.

SSD oder HDD?

Schnell gewinnt man den Eindruck, als würde die Zukunft der SSD gehören und die Festplatte in Kürze im Museum landen. Klar ist, dass SSDs I/O-Leistungen ermöglichen, für die man sonst dutzende Festplatten im RAID benötigt. Auch der Datendurchsatz ist heute teils bis zu drei Mal so hoch. Doch wenn es um Zuverlässigkeit, hohe Speicherkapazitäten oder Energiebedarf im Verhältnis zur Menge der gespeicherten Daten geht können SSDs auch mittelfristig die Festplatte nicht ersetzen. Ein Storage-Array mit dutzenden Terabytes an Speicherplatz für Netzwerk-Backups oder Archive wäre mit SSDs, die heute maximal 512 GB und im Schnitt eher deutlich weniger pro Laufwerk speichern, schlicht unbezahlbar. Zudem ist die Frage der Langzeitzuverlässigkeit von SSDs noch ein ungeschriebenes Kapitel. Fazit: SSDs in High-Performance-Szenarien ja, aber dann mit entsprechender Redundanz.

3,5” oder 2,5”?

Auch dieser Frage haben wir uns bereits ausführlich gewidmet, da der Trend im Business-Umfeld mittelfristig weg von 3,5” und hin zu 2,5” zeigt. Der Grund dafür ist die bessere Ausbeute von Performance, Stromverbrauch und Speicherkapazität im Verhältnis zum benötigten Platz in Server-Schränken. In einer Höheneinheit (1HE bzw. 1U) sind entweder vier 3,5”-Festplatten oder gleich 12 2,5”-Laufwerke möglich.

Doch die 3,5”-Festplatte wird nicht aussterben, denn nur die bietet maximale Kapazität auf einem einzigen Laufwerk. Stand Juli 2011 sind das 3 TB pro Laufwerk und bis Jahresende werden die ersten Modelle mit 4 TB Speicherkapazität zu haben sein.

SAS oder SATA?

An dieser Stelle ist eine Unterscheidung verschiedener Festplattentypen notwendig. Früher war dies schlicht durch die Schnittstelle möglich: IDE (Integrated Drive Electronics) bzw. SATA (Serial AT Attachment) waren Consumer-Interfaces, die in beliebigen PCs zum Anschluss von Festplatten oder optischen Laufwerken zum Einsatz kamen. SCSI (Small Computer System Interface) dagegen war die professionelle Schnittstelle, die mehrere Geräte an einem parallelen Bus betreiben und die Datentransfers intelligent verwalten konnte. Schnelle Enterprise-Festplatten waren immer über SCSI angebunden, einfache Laufwerksmodelle per ATA – so einfach war das.

Heute überschneiden sich die Welten, da die Schnittstellen zusammengerückt sind. SAS ist der nachfolger von SCSI und arbeitet wie auch SATA mit einem seriellen Transferprotokoll. SAS bietet eine Reihe von Features, die in professionellen Umgebungen eine teils wichtige Rolle spielen und erlaubt es zudem, auch SATA-Geräte an SAS-Controllern zu betreiben. Umgekehrt funktioniert das allerdings nicht. Zugleich wachsen die verschiedenen Laufwerkstypen zusammen, denn die Festplatten-Hersteller setzen heute oft Mainstream-Laufwerksdesigns in Servern ein. Das bedeutet, dass ein 3,5”-Modell hoher Kapazität auf die Anforderungen im Enterprise-Umfeld angepasst wird (Firmware, Belastbarkeit, MTBF, Service und Garantie) und dann ggf. gleich mit einer professionellen SAS-Schnittstelle daherkommt. Daher sind Laufwerke mit 2 TB und mehr heute sowohl mit SAS- als auch mit der einfachen SATA-Schnittstelle zu finden. Doch wo macht was eigentlich Sinn?

Wer seine Schlüssel schon einmal im Auto eingeschlossen hat, der weiß, dass das keine spaßige Angelegenheit ist. Glücklicherweise ist das ein Fehler, der den meisten Menschen nur einmal unterläuft und durch den auch nichts weiter passiert. Man passt künftig schlichtweg besser auf seine Schlüssel auf und weiß immer wo sie liegen.

Trotz aller Bemühungen gelingt es vielen jedoch nicht, genauso gewissenhaft auf die digitalen Schlüssel (Passwörter) zu achten. Dafür sind es vielleicht auch einfach zu viele, da Anwender generell dazu angehalten werden, auf jeder Seite ein anderes Passwort zu benutzen. Physische und Digitale Schlüssel haben trotz ihrer unterschiedlichen Beschaffenheit dennoch etwas gemeinsam. Geht ein physischer Schlüssel endgültig verloren, dann ist man auf die Hilfe Dritter angewiesen, wie zum Beispiel einen Schlüsseldienst.

Ähnliches gibt es auch für Passwörter, zumindest in gewissem Maße. Egal, ob es sich um Emails oder Bankkonten handelt – ein Passwort für ein Online-Konto wiederherzustellen ist relativ einfach. Meistens gibt es einen Link wie “Passwort vergessen”, mit dem man erneut Zugriff auf sein Konto erhalten kann. Die Rettungsmöglichkeiten für digitale Dateien sind in der Hinsicht weniger aussichtsreich. Auf dieses Problem sind wir selbst kürzlich gestoßen, als wir auf ein verschlüsseltes WinZip-Archiv zugreifen wollten.

Bevor wir genauer auf die Rettung von Passwörtern eingehen, wollen wir darauf hinweisen, dass es zahlreiche Möglichkeiten gibt, Daten effizient und wirksam zu schützen. Wer nach einer etwas umfangreicheren Lösung sucht, sollte sich ein Produkt wie TrueCrypt genauer ansehen. Diese Lösung ist aufgrund der Unterstützung von Intels AES-NI-Erweiterungen recht attraktiv. Die wohl am weitesten verbreitete Methode, Daten vor dem Zugriff dritter zu schützen, dürfte dennoch das Verschlüsseln von Archiven sein. Ganz egal ob man in der Personalabteilung arbeitet und Löhne an die Mitarbeiter überweisen muss oder seine persönlichen Fotos noch etwas privater halten möchte – ein Archiv zu verschlüsseln geht einfach und schnell.

Was die Sicherheit anbelangt, hält sich ein Missverständnis aber hartnäckig. Wer sich in Bezug auf Sicherheit eher zu den paranoiden Anwendern zählt, wird sich zweifellos für die derzeit stärksten und damit sichersten Verschlüsselungsalgorithmen entscheiden. Der Gedankengang ist auch nachvollziehbar: eine stärkere Verschlüsselung ist schwieriger zu knacken, weshalb man AES-256 eben AES-128 vorzieht. Ganz so einfach ist das aber nicht, und diese Rechnung geht nicht auf.

Stellen wir uns Verschlüsselung wie einen großen Tresor vor, dann ist die passende Parallele: Je schwerer die Panzerung, desto schwieriger der Einbruch. Trotzdem ist ein Tresor eben nur so sicher, wie der verwendete Schließmechanismus. Genau das ist die Funktion eines Passworts, das als Schlüssel zum Daten-Tresor agiert. Je länger das Passwort, desto komplizierter ist der Verriegelungsmechanismus und desto besser sind die Daten geschützt.

Die meisten Anwender gehen davon aus, dass ein Passwort mit acht Zeichen gegen die Angriffe von Hackern ausreicht. Das ist leider nicht ganz richtig, und wir wollen erklären auch genau erklären, warum das so ist.

Schnelle Speicherkarten sind nicht nur in Profigeräten wie Spiegelreflexkameras gefragt, sondern finden auch in immer mehr Consumergeräten wie kompakten Digitalkameras, Camcordern, MP3-Playern, Handheld-Spielekonsolen und Mobiltelefone Verwendung. Der Grund dafür liegt in der zunehmenden Komplexität der Geräte: Je mehr Funktionen sie unterstützen, desto höher sind auch die Anforderungen an die Speicherkarte. Soll beispielsweise das Smartphone HD-Videos aufnehmen und ohne Ruckler wiedergeben, setzt das entsprechend hohe Übertragungsgeschwindigkeiten voraus. Will man statt Filmschnipseln in Sekundenlänge gleich mehrere Minuten an HD-Videomaterial auf der Speicherkarte unterbringen, muss sie außerdem eine ausreichend hohe Kapazität mitbringen. Schließlich sollte der Datenspeicher kompakt genug sein, um selbst im kleinsten mobilen Gerät problemlos unterzukommen und sich möglichst vielseitig einsetzen lassen. Nimmt man all diese Faktoren zusammen und addiert noch weitere Kritieren wie Kompatibilität, Zuverlässgkeit und Robustheit, landet man schnell bei der SD-Karte, die mit einem Marktanteil von mehr als 80 Prozent die Rollte des Platzhirsch unter den Speicherkarten einnimmt.

Die kleinste Variante der SD-Karte ist die microSD-Karte und mit Abmessungen von 11 × 15 × 1,0 Millimtern die kleinste Flash-Speicherkarte überhaupt. Zusammen mit einem Hostadapter lässt sich eine microSD- oder microSDHC-Karte wie eine herkömmliche SDHC-Karte verwenden. Wir haben uns für den Test auf die microSD-Variante microSDHC konzentriert, die bei gleichen Abmessungen und gleichem Tempo deutlich mehr Daten speichern kann und damit hinsichtlich der multimedialen Einsatzmöglichkeiten flexibler ist. Während es microSD aufgrund ihres FAT16-Dateisystems auf maximal 2 GB Kapazität bringt, fasst die microSDHC mit ihrem FAT32-Dateisystem maximal 32 GB.

Für den Test haben wir alle namhaften Hersteller gebeten, jeweils eine repräsentative Auswahl ihrer microSDHC-Karten einzuschicken und erhielten eine recht bunte Mischung. Zum einen hinsichtlich der Kapazität, die von 4 GB bis 32 GB reicht und damit das komplette microSDHC-Spektrum abdeckt. Zum anderen unterscheiden sich die Testkandidaten durch ihre nominelle Geschwindigkeit deutlich voneinander. microSD- und microSDHC-Karten sind seit der SD-2.00-Spezifikation in Leistungsklassen eingeteilt, die eine Mindestdatenübertragungsrate für die Aufzeichnung von MPEG-Datenströmen garantieren. Den Anfang machen Karten der Klasse 2, die Daten mit wenigstens 2 MB/s übertragen. Die von uns getesteten Karten fangen dagegen bei Klasse 4 an und schaffen entsprechend der SDHC-Spezifikation mindestens 4 MB/s. Weitere Klassen sind Klasse 6 mit 6 MB/s sowie die derzeitige Speerspitze, Klasse 10 mit 10 MB/s.

Warum immer nur testen, was alle anderen auch testen? Nach den vielen exklusiven Tests der vergangenen Wochen können wir heute erneut einen Testkandidaten im Review bieten, den man so noch nirgends gesehen hat. Wir freuen uns immer, wenn uns Päckchen mit geheimnisvollem Inhalt erreichen. Denn genau dann ist wieder Entdeckerfreude angesagt. So, wie dieses Mal auch. Eine kleine Karte mit propagierter großer Leistung – nur funktioniert das von Afox angedachte Kühlprinzip wirklich in der Praxis? Und wenn ja, was müssen unsere Ohren vielleicht ertragen? Viele Fragen, eine Karte und die nötige Zeit, all dies herauszufinden.

Lenkräder sind zähe Burschen. Während etwa der klassische Joystick über die Jahre einen schleichenden Tod starb (beziehungsweise sich in die highendige Flugsimulations-Ecke verzog), können sich die Wheels nun seit über 15 Jahren am Markt behaupten.  Dabei es haben sie es wahrlich nicht leicht. Ihr Haupteinsatzgebiet, der PC, ist als Spieleplattform generell auf dem leicht absteigenden Ast. Bei den nach wie vor boomenden Konsolen wiederum gibt es ein praktisches Problem: Die spielt man in der Regel von der Couch aus – und da gibt es keinen oder bestenfalls einen untauglichen Tisch.

Dass Lenkräder als Hardware-Kategorie trotzdem noch recht lebendig sind, dürften sie vor allem zwei Umständen zu verdanken haben: Erstens Sonys PlayStation-Multimillionenseller Gran Turismo. Fehlender Tisch hin oder her, dafür musste bei zigtausenden Rennspiel-Begeisterten einfach ein Wheel her.  Und zweitens, noch wichtiger, die 2004 mit GTR eingeläutete Renaissance der Rennspiel-Simulation am PC. Seitdem ist rund ein Dutzend exzellenter Titel aus dem Genre erschienen. Das Schöne für die Lenkrad-Hersteller: Die Kundschaft ist relativ alt und ähnlich kaufkräftig wie im Flugsimulator-Bereich, gleichzeitig ist die Nutzerbasis deutlich breiter.  

Dennoch gestaltet sich das Angebot eher übersichtlich. Wer rund 100 Euro für ein vornehmlich am PC eingesetztes Lenkrad ausgeben will, hat  – abgesehen von Auslaufmodellen – gerade mal vier Modelle zur Auswahl, die auch allesamt bei uns auf die virtuelle Test-Rennstrecke gingen.

HP Pavilion dm1 - Fusion-Netbook mit E-350-APUHP Pavilion dm1 – Fusion-Netbook mit E-350-APU

Der Anspruch an die Netbooks ist eindeutig gestiegen, und mit der E-350-APU hat AMD die Messlatte gegenüber Atom (und Ion) deutlich höher gelegt. Das wussten wir aber schon seit unserem Brazos-Preview und spätestens seit dem offiziellen Launch der E-Serie-APUs. Die beiden bisherigen Fusion-Vertreter stammten beide von Acer, und beide waren letztlich nicht ganz runde Pakete. Das Aspire One 522 bewies sich zwar als handlicher und gut verarbeiteter Langläufer, ließ aber mit seiner C-50-APU ein wenig an Leistung vermissen. Das Aspire 5253 lockte mit der Idee, Netbook-Laufzeiten im Notebook-Format zu bieten, konnte das aber letztlich nicht einlösen. Mit dem Pavilion dm1 versucht sich nun Hewlett-Packard an einer gelungenen Mischung – mit Erfolg, wie sich zeigen wird.

Das Pavillion dm 1 hat ein modern-peppiges schwarz-graues Design. Neben den klassischen Netbookzügen ziert ein leicht strukturierter Chassisdeckel mit einem inneinander gewobenen Prisma-Muster das Gerät. Im Innern setzt HP auf einen klassischen, schlichten Look. Der Displayrahmen ist komplett in einem matten Silber gehalten, ebenso die Handballenauflage und die Tastaturumrandung. Die Tastatur, ihr Bett und das Trackpad sind matt schwarz und setzen sich so optisch stark vom Rest ab.

Die Verarbeitung des HP macht einen guten Eindruck. Das Chassis ist solide und stabil gebaut, es knarzt und knackt beim Zupack-Test nicht. Weder Tastaturbett noch die Seitenstreifen des Gehäuseinnenteils geben unter Druck nach, die Handballenauflagen erst auf verstärkten Druck und dann nur minimal. Oberhalb der Tastatur beginnt umgehend der Akku, welcher sehr stabil verbaut ist. Das Display lässt sich 180 Grad öffnen und auch sonst stabil und ohne Nachwippen in jedem beliebigen Winkel einstellen. Die Scharniere sind sehr fest und machen damit einen sehr stabilen Eindruck. Dennoch geht das Ganze nicht (zu sehr) zu Lasten des Gewichts, denn mit knappen 1,6 Kilo ist das dm1 eine durchaus tragbare Lösung.

HP verbaut in seinem Netbook eine Chiclet-Tastatur. Die Tasten besitzen normale Notebook-Größe, so können auch große Hände gut darauf tippen. Winzig sind nur die Pfeil hoch/runter Tasten geraten, wobei das Navigieren mit ihnen trotzdem möglich ist, da sie durch das gewählte Tastaturdesign gut von den Nachbartasten abgegrenzt liegen. Die Tastatur weist einen harten aber schön knackigen Anschlag auf, der Hub ist kurz. Der Widerstand ist gut, der Druckpunkt ist eher weich, wird aber durch den Anschlag zum Teil wieder aufgehoben. Insgesamt entsteht ein gutes Tippgefühl mit eindeutigem Feedback.

Das Multi-Touch fähige Trackpad sitzt mittig der Handballenablagefläche. Es ist vertieft eingesetzt, ausreichend groß und reagiert schnell, flüssig und zuverlässig auf Eingaben. Kurzum: ein guter Mausersatz. Kurios: Das Trackpad lässt sich zwar fast über die gesamte Fläche drücken, als große Maustaste wie bei einem aktuellen MacBook dient es damit aber nicht. Rechts- und Linksklick bleiben auch hier klassisch den beiden optisch abgesetzten Maustasten im unteren Viertel des Trackpads vorbehalten. Ein netter Gimmick ist die Trackpad-Ausschalt-Funktion auf dem Trackpad selbst. So kann man, auf die linke obere Ecke doppeltippend, das ganze Trackpad ausschalten.

Anfang des Jahres haben wir drei Billig-Netzteile mit einem Gesamtpreis von knapp über 50 Euro getestet. Oder nennen wir es besser ins Jenseits befördert. Die Lehre aus diesem Test lautet ganz klar: Finger weg von Billig-Netzteilen mit zweifelhafter Herkunft. 


Dennoch ist die Frage nach einem günstigen Netzteil für den „Durchschnitts-PC“ völlig legitim. Wir haben die Hersteller daher gebeten, uns jeweils das Netzteil zu schicken, das sie als Einstiegsgerät definieren. Und damit der Kunde auch in Sachen Effizienz trotz eines günstigen Preises nicht zu kurz kommt, sollten die Geräte die 80 PLUS Norm erfüllen. Antec nimmt dabei eine Ausnahme-Stellung ein: Das VP450P ist nicht mit dem 80 PLUS Logo versehen, was daran liegt, dass dieses Netzteil ausschließlich für eine Spannung von 230 Volt konzipiert ist. Die 80 PLUS Zertifizierungen finden hingegen bei 115 Volt Spannung statt. Dennoch soll das Netzteil laut Hersteller auf 80 PLUS Niveau liegen, sodass wir es in das Testfeld mit aufgenommen haben, zumal es mit Preisen um 40 Euro gerade für preisbewusste Käufer interessant sein dürfte.

Testteilnehmer sind Antec, LEPA, Rasurbo und Silverstone. LEPA und Rasurbo sind erstmals in einem Netzteil-Roundup von Tom’s Hardware dabei. Während Rasurbo eine Marke der PNL-tec GmbH ist, stammt die erst kürzlich an den Start gegangene Marke LEPA aus dem Hause Coolergiant, wo auch Enermax herstammt. Die eingesendeten Netzteile bringen Leistungen zwischen 350 und 450 Watt und sind allesamt für unter 50 Euro Straßenpreis zu haben.

CM Storm: PC Gaming Headset Sirus 5.1

Cooler Master, einer der führenden Hersteller von Gehäusen, Kühllösungen, Peripherie und Zubehör, stellt heute das neue CM Storm Sirus 5.1 Surround Gaming Headset vor. Mit insgesamt acht  Lautsprechern (vier auf jeder Seite), bietet das Sirus kraftvollen, eindringlichen und echten 5.1 Surround Sound. Mit dem Sirus macht CM Storm seinen ersten Schritt in die Welt der Gaming-Headsets.

Gewaltiger Sound

Das Sirus Headset bietet echten 5.1 Surround Sound. Die extra-großen 40 mm Sub Lautsprecher sorgen für einen brachialen Bass, während ganze 6 weitere 30 mm Lautsprecher, von denen jeder über einen eigenen Kanal verfügt, für einen glasklaren und sauberen Klang sorgen. Kombiniert man alle Kanäle und ergänzt sie mit der Tactical Mixing Console, erhält man vollwertigen und anpassbaren 5.1 Surround Sound im 360 Grad-Raum um sich herum. Außerdem verfügt das Sirus über ein unidirektionales Mikrophon mit Hintergrundgeräusch-Dämmung und ermöglicht somit saubere Kommunikation mit den Teammitgliedern.

Ideal für lange Einsätze

Für ultimativen Komfort konstruiert, besitzt das Sirus Headset weiche, umschließende Ohrpolster. Dank vollständiger Anpassungsfähigkeit sind die Polster binnen Sekunden ausgetauscht. Für den Einsatz stehen glatte Kunstleder- und atmungsaktive Stoffpolster zur Auswahl. Das futuristische Militärdesign rundet den hochwertigen Eindruck dieses edlen Headsets ab.

Sekundenschnelle Anpassungen On-the-Fly

CM Storm Sirus heb sich von der Konkurrenz ab, denn mit dem Headset kommt die Tactical Mixing Console, die es ermöglicht präzise Anpassungen aller 8 Audio-Kanäle in Echtzeit vorzunehmen. In FPS Shootern ist es somit beispielsweise möglich den Center-Lautsprecher leiser zu drehen um die eigenen Schussgeräusche in den Hintergrund einfließen zu lassen, um sich auf Schrittgeräusche und –richtungen konzentrieren zu können.

Erweiterte Tuning-Möglichkeiten

Das CM Storm Sirus verfügt außerdem über die Tactical Software Console, die es dem Träger erlaubt weitere Feineinstellungen zu justieren und den Klang so den eigenen Bedürfnissen anzupassen. Besitzer eines feinen Gehörs werden über die Möglichkeiten der Feineinstellungen ebenso erfreut sein wie über die Möglichkeit mit wenigen Handgriffen die eigene Stimme zu verstellen oder gar zu verzerren.

Preisgekrönt schon vor dem Eintreffen auf dem Schlachtfeld

Das Sirus hat bereits den Red Dot Design Award 2011 und den Computex Design & Innovation Award 2011 erhalten. Beide stehen für Lob und Anerkennung für das futuristische Carbon-Design und gummierte Oberflächen, die nicht nur Fingerabdrücke und Flecken verhindern, sondern auch für feste Griffigkeit sorgen. Sie stehen ebenfalls für den Aufbau mit insgesamt 8 Lautsprechern und Echtzeit-Anpassungen.

Das CM Storm Sirus 5.1 Surround Sound Gaming Headset wird Mitte Juli 2011 für eine UVP von ca. 119 Euro bei jedem gut sortiertem Händler erhältlich sein.

Und jährlich grüßt das Murmeltier… Auf Grund der immer wieder auftauchenden Fragen im Forum und direkten Anfragen interessierter Leser wollen wir dieses Jahr ein wenig weiter ausholen und neben den üblichen SLI- und Crossfirebenchmarks auch ein wenig die Theorie durchleuchten, denn Frameraten allein sagen nicht allzuviel über die wirkliche Ausgabequalität aus. Mikroruckler sind genauso ein Thema, wie die Frage nach der tatsächlichen Skalierung über 2, 3 oder 4 GPUs. Wo liegt der Nutzen, wann erhält man einen wirklichen Mehrwert oder betrügt man sich am Ende mit hohen, aber in der Praxis eher nutzlosen Frameraten selbst? Wo beginnen die Geld- und Stromvernichtung und wo findet man vielleicht doch ein Schnäppchen?

Was ist diesmal anders?

Das Problem, bei den Mittelklasse-Karten eine Skalierung über mehr als 2 GPUs zu messen liegt darin, dass pro Karte nur ein einziger Anschluss für eine Bridge vorhanden ist, während die Karten mit 2 Anschlüssen ausschließlich im HighEnd angesiedelt sind. Nur leider liegen Multi-GPU-Lösungen mit mehr als zwei Karten im HighEnd-Bereich nicht wirklich im Kaufspektrum unserer Leser. Die neue Powercolor Radeon HD 6870 X2, die auf einer Platine gleich 2 dieser kleineren Mittelklasse-GPUs vereint, ermöglicht uns sogar ein Quad-Crossfire mit Mittelklasse-Chips! Somit besteht auch erstmals die Möglichkeit, eine reine Mittelklasse-Karte wie die Radeon HD 6870 für aktuell ca. 140 Euro als Crossfire mit 2 Karten im Vergleich zur Dual-GPU-Karte Radeon HD 6870 X2 zu testen, dies im Anschluss mit der Leistung aus 3 GPUs zu vergleichen (HD 6870 X2 + HD 6870) und am Ende sogar als Quad-Crossfire zu messen und dies alles mit SLI- und Crossfire vieler aktueller Karten bis hin zur GTX 590 in umfangreichen Benchmarks zu vergleichen. Wir wollen die Leistungsentfaltung vergleichen, prüfen die Relevanz der Mikroruckler und beurteilen letztendlich die Leistungsfähigkeit und das Preis-/Leistungsverhältnis. Erleben wir hier vielleicht eine Überraschung? Auszuschließen ist nichts, also einfach weiterlesen!

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen