Monat: November 2009

Nach unserem ausführlichen Test zu „Die Sims 3“ im Juni diesen Jahres folgt nun die erste Fortsetzung der neuen Reihe. Wir wollen natürlich herausfinden, ob auch die neue Reihe das Zeug zum Fortsetzungs-Klassiker hat.

Die Sims brauchen Urlaub – so wie wir auch. Zumindest fanden dies wohl die Spielentwickler von EA und schickten die Sims 3 nun auf große Reise zu fiktiven Orten wie Shang Simla (China), Champs Les Sims (Frankreich) und Al Simhara (Ägypten).

Al SimharaAl Simhara Shang SimlaShang Simla Champs Les SimsChamps Les Sims

Die Schauplätze im Spiel sind realen Reisezielen nachempfunden, auch wenn die Entwickler wohl mangels realer Europa-Kenntnisse Champs Les Sims mit einem leichten Anstrich klischeehafter Schwarzwald-Architektur versehen haben, während im Hintergrund ein verschwommener Eiffelturm den Horizont ziert. Es sei ihnen wohlwollend verziehen, wir sind natürlich so tolerant, wie unsere Spielfiguren auch. Zudem lässt die wirklich gut gelungene und passende Musikuntermalung so manchen stilistischen Fauxpas schnell wieder vergessen.

Neue Fähigkeiten warten auf den SpielerNeue Fähigkeiten warten auf den SpielerUnsere Sims erlernen an ihren Urlaubsorten neue Fähigkeiten, verfolgen individuelle Ziele und lösen verschiedene Aufgaben. Wie im Hauptprogramm erhält der registrierte Anwender wiederum 1.000 Simpoints für den Online-Shop (ca. zwölf Euro)

Die Bonus-Punkte sind  schneller ausgegeben, als es einem lieb istDie Bonus-Punkte sind schneller ausgegeben, als es einem lieb ist

Wir möchten in dieser Testfortsetzung nicht nur einen ersten Eindruck vermitteln, die Performance testen und ein abschließendes Urteil fällen, sondern ihnen eine interessante Lösung vorstellen, welche die Problematik der im Anwenderverzeichnis gespeicherten Datenmengen löst, die dann selbst nach einem Systemcrash und neu aufgespielten Betriebssystem noch zur Verfügung stehen und nicht mehr verloren gehen. Da uns dieser Fakt schon bei den „Sims 2“ sehr gestört hat, bieten wir den Enthusiasten und Sammlern der Reihe, die sich mehr als nur eine DVD installieren im Laufe dieses Artikels eine leicht verständliche Anleitung.

Wireless Comfort Desktop 5000Wireless Comfort Desktop 5000

Bei seinem Wireless Comfort Desktop 5000 will Microsoft dem Anwender glaubend machen, das diese Kombinationen speziell auf Windows 7 zugeschnitten ist. Beispielsweise sollen durch Sondertasten unnötige Mausbewegungen vermieden werden. Viele Funktionstasten sind doppelt belegt, auch Standardtasten haben wie bei früheren Microsoft-Tastaturen Zusatzfunktionen erhalten. Befehle, die man ständig benötigt, sind auf den Tasten inklusive der Zusatztasten STRG und der Windowstaste abgebildet. Das Set lässt sich natürlich auch mit älteren Windows-Versionen und anderen Betriebssystemen nutzen, dann bleiben jedoch die Windows-7-spezifischen Tasten ohne Funktion.

Geliefert wird Wireless Comfort Desktop 5000 als Kombination aus drei Teilen: ein Wireless Comfort Keyboard 5000, eine Wireless Mouse 5000, die mit Microsofts BlueTrack-Technik arbeitet, sowie ein Funkempfänger. Dieser arbeitet im 2,4-GHz-Bereich und ist als USB-Adapter konzipiert.

Das Set besteht aus Maus, Tastatur und USB-DongleDas Set besteht aus Maus, Tastatur und USB-Dongle

Microsoft Wireless Comfort Desktop 5000
Lieferumfang
  • Tastatur
  • Maus
  • USB-Dongle
  • Handbuch
  • CD
Preis 59 Euro
Maus Wireless Mouse 5000
  • Bluetrack Technik
  • 1000 DPI Abtastung
  • 4 Tasten
  • 4-Wege-Scrollrad mit Taste
Tastatur Wireless Comfort Keyboard 5000
  • Layout: QWERTZ
  • 31 Sondertasten
  • geschwungenes »Comfort Curve«-Tastenlayout
Funk-Adapter USB
Übertragungsstandard Funk 2.4 GHz 10 Meter Reichweite

Der Mainstream-Sockel LGA1156 von Intel dient als Basis für die Core i5- und Core i7-800-Serien. Demnächst dürfte für die unteren Preiskategorien der Core i3 hinzukommen. Allerdings ist es auch möglich, den DDR3-Speicher der Plattform mit Geschwindigkeiten zwischen DDR3-800 und DDR3-2000 oder höher zu betreiben (wenn übertaktet). Frühere Tests haben ergeben, dass schnellerer RAM für Übertaktungsszenarien zwar besser geeignet ist, allerdings keine zusätzliche Performance bietet. Für diesen Test haben wir ein Core i7-860-System benutzt und damit diverse Speichergeschwindigkeiten und –timings referenziert.

Der Speichermarkt

Mehrere Marken-Hersteller teilen sich den Speichermarkt und sind hauptsächlich damit beschäftigt, den Bekanntheitsgrad ihrer Marke zu festigen oder zu steigern. Speicherhersteller wie Micron oder Samsung, die kein sonderlich umfangreiches OEM-Geschäft haben, müssen bei der Entwicklung und Markteinführung von Produkten für die High-End- und Enthusiastensegmente etwas aggressiver vorgehen. Das erregt entsprechend Aufmerksamkeit und erweckt den Eindruck, dass man als Anwender durchaus richtig liegt, sollte man Marke und Produkt bevorzugt.

In Sachen Speicher gibt es durchaus Qualitätsunterschiede. Qualitativ hochwertiger Speicher, wie er von zahlreichen bekannten Unternehmen wie A-Data, Buffalo, Corsair, Crucial, G.Skill, Kingston, Mushkin, OCZ, Patriot, Super Talent, den großen Speicherherstellern und anderen angeboten wird, hängt von der Verwendung qualitativ hochwertiger Teile, umfangreicher Tests und der Validierung der Module ab. Zudem verfügen unterschiedliche Speicher-IC-Serien über verschiedene Eigenschaften.

Je besser der Ruf des Anbieters, desto wahrscheinlicher ist es, dass sich die unterschiedlichen Produkte besser verkaufen lassen. Speicheranbieter dürfen bei der Markteinführung erstklassiger Produkte keine Zeit verlieren, um sicherzugehen, dass sie stets in den Nachrichten auftauchen. Ob es sich bei dem Produkt dann jeweils wirklich um ein Spitzenprodukt handelt, ist wiederum eine andere Geschichte.

Zur Auswahl

Der Preisunterschied zwischen Mainstream-Speicherprodukten mit durchschnittlichen Geschwindigkeiten und Timings und absoluten Performance-RAM ist deutlich. Hier also wieder eine altbekannte Frage: Welcher Speicher kommt für einen Core i7 in Frage? Dieses Mal haben wir die LGA1156-Plattform getestet; die Ergebnisse haben somit für die Core i7-800-Serie, die Core i5-700- und die bald kommende Core i3-Prozessor-Familie Gültigkeit.

Im Augenblick verschiebt sich die Preisstruktur bei Grafikkarten. Durch die neuen Modelle von ATI gibt es eine leichte Inflation in den Leistungsklassen. Was gestern noch als Oberklasse galt, ist heute Mittelklasse und wird morgen zum Standard. Für 120 Euro bekommt man eine Geforce GTX 260, ab 140 Euro eine Radeon HD 5770. Durch die neue HD 5800 verliert die HD 4890 ihre Position als schnellste Einzelchipkarte von ATI.

Geforce GTX 260 und Radeon HD 5770 im Test.Geforce GTX 260 und Radeon HD 5770 im Test.

Da die neuen Modelle die Preise drücken, gibt es für die Radeon HD 4890 schon erste Angebote zu 140 Euro. Dadurch wird die Karte eine starke Konkurrenz zur Geforce GTX 260 und Radeon HD 5770. Betrachtet man nur die Leistung, dann greift man zur HD 4890, danach zur GTX 260 und dann erst zur HD 5770, die zwar DirectX 11 und 40-nm-Fertigung bietet, aber mit den derzeitigen Benchmarks in der 3D-Performance auf dem Niveau einer HD 4870 liegt, die es bereits ab 100 Euro gibt.

Vergleicht man auf dieser Basis das Preis-/Leistungsverhältnis, dann schneidet die Radeon HD 5770 immer schlechter ab, da man im Vergleich zur HD 4870 umgerechnet 40 Euro Aufpreis für DirectX 11 bezahlt. Allerdings scheint diesmal der Umstieg auf die neue Grafikschnittstelle schneller zu gehen, da es mit Stalker – Call of Pripyat, Dirt 2 und Battleforge schon Spiele gibt, mit der sich ein paar Vorteile von DirectX 11 oder Windows 7 nutzen lassen. Es spricht wenig dagegen, gleich auf die neue 5000er-Serie umzusteigen. DirectX 11 wird sicher mehr bewirken als DirectX 10.1, was kaum genutzt wurde.

Um die Marktsituation zu bereinigen, gibt es drei Lösungen: Der Preis der Radeon HD 5770 sinkt auf 100 bis 120 Euro, wobei der Preisverfall der HD 4870 und HD 4890 in den Preisregionen zwischen 80 und 100 Euro stoppen sollte. Die zweite Variante ist ein schneller Abverkauf von HD 4870 und HD 4890, wodurch die Modelle aus den Regalen verschwinden, bevor man die 80-Euro-Grenze erreicht. Die letzte Variante ergibt sich aus der Veröffentlichung von noch mehr Spielen mit DirectX 11, was den Umstieg auf die neuen 3D-Boards schmackhafter macht und den Aufpreis vergessen lässt.

Tschüss BIOS, Hallo UEFI

Die Tage des guten alten BIOS sind gezählt: Mit dem UEFI, dem Unified Extensible Firmware Interface, bietet sich demnächst eine leistungsfähigere Lösung, mit der wir den Ansprüchen einer massiven Hardware-Vielfalt gerecht werden können. Kurz zusammengefasst: Mit dem UEFI-Interface bekommt das Betriebssystem die Pre-Boot-Umgebung praktisch auf dem silbernen Tablet serviert. Bei einem Test des UEFI sind uns jedoch ein paar Dinge aufgefallen.

Sie haben vielleicht schon vom UEFI bzw. EFI gehört, so hieß der erste Ansatz. Intel hat das EFI mit der IA64-Architektur des Itaniums anno 2003 unter dem Namen Boot Initiative eingeführt. Das Konzept wurde dann zwecks Verwaltung und zum Rühren der Werbetrommel in der gesamten Industrie dem Unified EFI Forum übergeben. Derzeit führende Mitglieder des Forums sind AMD, AMI, Apple, Dell, HP, IBM, Insyde, Intel, Lenovo, Microsoft und Phoenix. Während sich das BIOS auf den 16-bit Real-Modus der x86-Architektur verlässt, ist die Hardware bei UEFI vollkommen unabhängig. Das Ziel ist hier ein hohes Maß an Standardisierung, weshalb die Schnittstellen in Boot- und Runtime-Dienste aufgeteilt sind. Zudem ermöglicht die Flexibilität den Herstellern eine entsprechende Differenzierung.

Das BIOS – Antik und noch immer weit verbreitet

Das gute alte BIOS wurde vor ungefähr 25 Jahren zum Starten eines Betriebssystems entwickelt und ist auch heute noch dauerhafter Bestandteil in jedem PC. Bei den ersten Computer-Designs kamen als Boot-Ziele noch Lochkarten zum Einsatz, bevor diese dann durch ROMs mit Basic-Interpreter ersetzt wurden. Im Gegensatz zu damals stehen uns heute zahlreiche Boot-Möglichkeiten zur Verfügung – einschließlich Floppy Disks, Festplatten, optische Laufwerke, Netzwerk-Locations etc. Allerdings hängt der tatsächliche Betrieb solcher Komponenten noch immer vom jeweiligen Betriebssystem und dessen Gerätetreibern ab. Im Gegensatz dazu bietet EFI eine Betriebssystemunabhängige Treiberunterstützung durch ein eigenes Treibermodell.

Es ist schon mehrmals versucht worden, das erste BIOS-Konzept zu modifizieren. IBM hat 1988 mit dem PS/2 ein modifiziertes System-Design vorgestellt, teils um so die BIOS-Klone abzuwehren. Dessen 32-bit Multi-Channel-Architektur (MCA) mit ABIOS kann durchaus als Methode angesehen werden um Implementierungen von  BIOS-Klone zu verhindern. ARC – Advanced RISC-Computing – sollte in den 90er Jahren die Boot-Umgebungen der MIPS- und Alpha-Plattformen vereinheitlichen. Es verfügte allerdings weder über einen Evolutionspfad, noch über Erweiterungsfähigkeiten und die Möglichkeit auf unterschiedlichen Systemen eingesetzt zu werden bestand ebenfalls nicht. PowerPC und SPARC bieten ihre eigene Open Firmware (OF) bzw. Common Hardware Reference-Plattform (CHRP) an und arbeiten damit in gewisser Weise gegen den ACPI-Industriestandard, da dieser hierbei außen vor gelassen wird.

Letztendlich ist das gute alte BIOS noch immer präsent und macht genau das, was es schon seit 25 Jahren tut: Es stellt sicher, dass Ihr Betriebssystem booten kann. Es war allerdings nie für die heute erhältliche, sich stark unterscheidende Hardware gedacht. Das BIOS arbeitet noch immer mit 16-bit Schnittstellen und Software-Interrupts, Interrupt-Routing und Maximum-Precision-Timern, einem eingeschränkten Bereich für ROM-Execution (1 MB) und Image-Größe, einer begrenzten Anzahl initiierbarer Geräte (was im Server-Bereich eine wichtige Rolle spielt), proprietären Erweiterungen und fehlender Modularität – um nur ein paar Probleme zu nennen.

UEFI-Unterstützung

Die Unterstützung der UEFI-Schnittstelle durch die Betriebssysteme begann 2007. Allerdings ist diese meist auf die 64-Bit Versionen verschiedener Windows Betriebssysteme wie etwa Vista mit SP1 und Server 2008 beschränkt.

Leider lässt die Unterstützung des UEFI-Interfaces durch die Industrie zu wünschen übrig – trotz einiger Unzulänglichkeiten die wir im Storage-Bereich ausmachen konnten.

Installieren, eingewöhnen und erstaunt sein, denn die Genres Shooter und Rollenspiel mutieren in Borderlands zu einem Virus, der den Spieler sehr schnell befällt und wohl auch so schnell nicht wieder los lassen dürfte. So oder so ähnlich könnte man die ersten Spieleindrücke beschreiben, die Borderlands von 2K Games bei uns hinterlassen hat.

Dreh- und Angelpunkt der Handlungen ist ein Szenario, wie wir es aus den „Mad Max“-Filmen bestens kennen: Wüstenlandschaft trifft auf wüste Typen, dazu ein wenig Futurismus, aufgelockert mit reichlich Action als Kontrastprogramm zur öden Landschaft. An sich ist dies allein noch keine wirkliche Neuerfindung, denn bereits Spiele wie Carmageddon 3 TDR 2000 nahmen die „Mad Max“-Trilogie als Rahmenhandlung oder Hintergrund auf:

Original Screenshot aus Carmageddon 3Original Screenshot aus Carmageddon 3 Carmageddon 3 in von uns simulierter Cel-Shading-OptikCarmageddon 3 in von uns simulierter Cel-Shading-Optik

Direkter Vergleich zu BorderlandsDirekter Vergleich zu Borderlands

Der Ort und die Umstände sind also nicht völlig neu und die richtige Stimmung alleine  macht noch kein Spiel. Gearbox hat deshalb noch einiges an innovativen Features aus- und draufgepackt und verbindet damit die besten Aspekte eines First-Person-Shooters mit den bekannten Rollenspielelementen. Dazu ein packendes Racing-Feeling und actiongeladene Fahrzeugkämpfe. Damit entsteht letztendlich ein Gameplay mit großer Tiefe, welches zusätzlich mit einem innovativen Coop-Modus auch im Netz stunden- und tagelang begeistern kann.

Interessant ist auch, dass sich die Entwickler bei Borderlands einer Technik bedienten, die man bisher in wenigen Spielen dieser Genres findet: Cel-Shading. So hebt man sich von den Mitbewerbern wohltuend optisch ab, denn fotorealistische Landschaften und Animationen wird man vergeblich suchen. Diese Art der Grafik wird die Spieler mit Sicherheit polarisieren, schließlich weicht man sehr deutlich und augenfällig vom allgemeinen Trend der aufwändigen Pixelschlachten ab.

2K bietet dem Interessenten mit Borderlands ein Spiel, das auf den ersten Blick unterhaltsam anders ist und gefällt. Ob dieses Spiel jedoch auch auf den zweiten Blick das hält, was es eingangs verspricht, wie Cel-Shading eigentlich funktioniert, welchen PC sie zum Spielen mindestens benötigen und was am Ende unser Fazit sein wird, all das lesen Sie in diesem Test.

Es muss für ATI schon frustrierend sein: Da hat man gleich mehrere Grafikkarten-Familien im Angebot die man verkaufen könnte wie geschnitten Brot, kann aber nicht genug Boards herstellen, um die Nachfrage zu decken. Man braucht kein VWL/BWL-Studium um zu wissen was im Markt passiert, wenn die Nachfrage das Angebot übersteigt – die Preise ziehen an. So kostet eine Radeon HD 5850 nicht mehr wie zum Launch 249 US Dollar sondern 300 Dollar*. Wenn Sie überhaupt verfügbar sind, versteht sich.

Man sollte denken, dass eine mit zwei solch raren Grafikprozessoren ausgestattete Karte nicht gerade dazu beitragen würde, ATIs Versorgungslage bei den Radeon-HD-5800-Karten zu verbessern, und ATI bestätigt, dass die Dual-GPU-Version Hemlock eben genau aus Gründen der Verfügbarkeit erst jetzt vorgestellt wird. Inzwischen, so die Aussage von ATI, gäbe es aber genug Cypress-GPUs, um dieses Monster von einer Karte in den Markt zu bringen, ohne dabei den Nachschub an 5850/5870-Karten zum erliegen zu bringen.

Viel hilft viel und Größe ist wichtig

ATIs neue Dual-GPU-Karte, bislang nur unter dem Code-Namen “Hemlock” bekannt, heißt nun also Radeon HD 5970. Offenbar hatte eine Bezeichnung wie “HD 5870 X2” zu offensichtlich darauf hingewiesen, dass auf der Platine zwei Grafikchips sitzen. Nicht alle sind von dieser Bauweise überzeugt, und man befürchtete wohl, dass viele Käufer aufgrund der Mikroruckler und den in manchen Fällen geringen Leistungssteigerungen bei bisherigen Produkten misstrauisch geworden wären und einen Bogen um die neue Karte gemacht hätten.

Doch auch wenn der Name darüber hinwegtäuschen soll – dies ist nun mal ATIs aktuelle Dual-GPU-Karte und damit die Antwort auf Nvidias GeForce GTX 295, die schnellste Einzelkarte, die es bislang zu kaufen gab. Betonte ATI bei den Modellen der 5000er-Familie bisher vor allem das Preis-Leistungs-Verhältnis, ist der Anspruch hier klar ein anderer. Immerhin lautet ATIs Preisempfehlung für das neue Modell auf 600 US-Dollar. Ironischerweise könnte die Karte ab sofort die bessere Wahl für all diejenigen sein, die bislang vorhatten, zwei Radeon HD 5850 als CrossFire-Verbund zu nutzen, denn auch ein solcher Doppelpack kostet inzwischen 600 Dollar.

ATI verfährt übrigens praktisch nach demselben Schema, das auch Nvidia vor einigen Monaten bei der GeForce GTX 295 nutzte:

Als erstes nehme man zwei GPUs der oberen Leistungsklasse. Bei Nvidia war das der GT200b-Chip mit 240 Stream-Prozessoren, bei ATI ist es die Cypress-GPU der HD 5870 mit ihren 1600 Shadern. Als nächstes senke man die Taktraten ein wenig, um Stromverbrauch und Hitzeentwicklung im Zaum halten zu können. Dann nehme man die High-End-Gamer ins Visier und verkaufe ihnen das entstehende Kraftpaket, um damit Prestige zu kassieren und Profit zu machen.

Es gibt aber doch einen entscheidende Unterschied zwischen den beiden Firmen: Während Nvidia bei der GeForce GTX 295 das Back-End der GPUs auf das Niveau einer GTX 260 beschnitt indem man einige ROPs dem Rotstift opferte und den 512-Bit-Speicherbus auf 448 Bit zurückstutzte, trägt ATIs Radeon HD 5970 zwei vollwertige und unbeschnittene Cypress-Chips. Allein die Taktraten wurden auf das Niveau einer Radeon HD 5850 gesenkt, was auch sinnvoll ist. Dazu in Kürze mehr.

Herausgekommen ist eine wirklich beeindruckend lange Platine, die 30,5 cm lang ist. Damit überragt sie sowohl die ohnehin schon lange Radeon HD 5870 um 2,5 cm und die 4870 X2 um knappe 3,8 cm. Das dürfte selbst einige Enthusiasten mit großem Geldbeutel aber kleineren Gehäusen vor Probleme stellen.

Sweet Spot, Teil Drei

Hemlock ist die dritte von vier für die Evergreen-Familie geplanten Produktvorstellungen. Den Auftakt der Serie gab die Cypress-GPU im September mit den Karten Radeon HD 5870 und Radeon HD 5850. Nummer zwei auf der Liste war die Juniper-GPU, die die Radeon HD 5750 und Radeon HD 5770 antreibt. Nach der heutigen Vorstellung steht mit Cedar und Redwood, zwei Komponenten der Einsteigerklasse, im ersten Quartal 2010 dann der letzte Launch auf dem Programm.

Zumindest auf dem Papier ist ATIs Sweet-Spot-Strategie voll aufgegangen.

Tatsächlich macht die schlechte Verfügbarkeit, die schon bei der Radeon HD 4770 kurz nach der Vorstellung zu beobachten war, nun auch der Radeon HD 5850 und der HD 5870 zu schaffen. Radeon HD 5770 und HD 5750 scheinen davon weniger betroffen zu sein. Als Schuldigen hat man den Auftragsfertiger TSMC bzw. dessen 40-nm-Herstellungsprozess ausgemacht, bei dem die Ausbeute wohl stark zu wünschen übrig lässt.

Das ist natürlich für den Käufer schade, denn wie schon gesagt wirkt sich die Dürre bei den Grafikkarten auf den Preis aus. ATI sagte uns allerdings, dass der derzeitige Preissprung um 50 Dollar* nur die HD 5850 betreffe. Die HD 5870 soll nach wie vor offiziell 399 Dollar kosten – wobei es natürlich immer Händler geben wird, die von sich aus mehr Geld für ein seltenes Produkt verlangen. Bei der Radeon HD 5970 hat man die (geringe) Verfügbarkeit nach eigenen Angaben schon mit einkalkuliert und sich für einen offiziellen Listenpreis von 599 Dollar entschieden, weshalb Preise um die 600-Dollar-Marke auf absehbare Zeit realistisch bleiben.

Was bekommt man aber für 600 Dollar geboten? Das ist immerhin ein Aufpreis von 100 Dollar gegenüber einer GeForce GTX 295. 

*Anmerkung: Wir verwenden in diesem Artikel Dollarpreise, um die Preispolitik und auch die Entwicklungen ohne Umrechnung und dadurch entstehende Verzerrungen besser darstellen zu können. Die Preise in Europa und Deutschland können davon abweichen, auch mit tagesaktuellem Wechselkurs.

Kaum ist der Formatkrieg zwischen HD DVD und Blu-ray vorbei, muss die Filmindustrie eingestehen, dass handflächengroße Plastikscheiben nicht unbedingt das ideale Vertriebsmedium mehr sind. Viele Anbieter wie beispielsweise die Telekom drängen auf den Markt, um Filme über die Netzwerkverbindung zu liefern. Hochauflösende Videos mit 1920 Pixeln Breite sollte heutzutage jedes Wiedergabegerät meistern — es ist nicht mehr das Alleinstellungsmerkmal eines Blu-ray-Players. Zudem legen immer mehr Anwender ihre privaten Filme mit HD-Camcordern auf und legen diese auf der Festplatte ab.

FullHD Streaming-ClientsFullHD Streaming-Clients

HD-Filme oder Musikdateien, die auf der Festplatte seines Rechners liegen, lassen sich mit nachfolgend vorgestellten Netzwerk-Playern ins Wohnzimmer holen. Wenn der PC im Nachbarzimmer steht, kann man so seine Filme ohne die störenden Lüftergeräusche von der Couch aus genießen, denn Fernbedienungen liegen bei beiden Playern bei. Alternativ lassen sich sogar externe USB-Festplatten anschließen. Ebenso ist es möglich, sich mit Anbietern im Internet direkt zu verbinden. Bekanntester Vertreter dürfte dabei Youtube sein.

IcyBox IB-MP305A-BIcyBox IB-MP305A-B Zyxel DMA2500Zyxel DMA2500

Zwei neue Streaming-Clients sind seit kurzem im Handel erhältlich, zum einen der »IcyBox IB-MP305A-B« von Raidsonic und der »DMA2500« von Zyxel. Wie immer mussten sich auch diese beiden Kontrahenten eine Vielzahl von Testfiles in HD-Auflösung unterziehen.

Panasonic ist ein Hersteller, der sich auf Nischen spezialisiert hat. Einerseits sind das Mobilgeräte für spezielle Einsatzgebiete, wie das Toughbook CF-U1 für den Außendiensteinsatz. Andererseits stellt man auch Notebooks im klassischen Formfaktor her, die in den Varianten business ruggedized, semi ruggedized und fully ruggedized zunehmend abgehärtere Modelle für anspruchsvolle oder ungewöhnliche Einsatzgebiete bereitstellen. Während in die letzte Kategorie wohl die Notebooks des Stargate-Teams fallen, soll das Toughbook CF-F8 den Alltag in Büros bestreiten, in denen es etwas härter zugeht oder das Mineralwasser beim Meeting schon mal in der Tastatur statt im Glas landet.

Design

Schon das Aussehen mit den gebrochenen Linien und Zerklüftungen signalisiert, dass das Toughbook vor allem funktional sein soll, notfalls auch unter widrigen Umständen. Über der Tastatur und im Displayrahmen trägt es stolz und offen diverse Schrauben als Designelement, die andere Hersteller lieber verstecken. Als Schmuckstück oder Accessoire versteht sich das Toughbook jedenfalls nicht. Im Gegenteil gibt es eher die taffe Arbeitsmaschine. Der schwarze Deckel zitiert mit seiner mittigen Erhöhung die Motorhaube bulliger Autos oder großer Baumaschinen – so oder so assoziiert man gleichzeitig Power und eine gewisse Härte. Der integrierte Griff unterstreicht, dass das Toughbook im Gegensatz zu anderen Weichei-Notebooks keine Zeit für Schnickschnack wie Notebook-Taschen hat – es ist auch so jederzeit bereit, dabei zu sein.

Auch aufgeklappt gibt sich das Toughbook schnörkellos und hochfunktional. Im Innern dominiert ein Silberton, dem sich nur die mausgraue Tastatur und ihre schwarzen Buchstaben entgegenstellen. So weit, so ungewöhnlich. Doch dann fällt das runde Trackpad fällt ins Auge und aus dem Erwartungsrahmen. Im oberen Teil des den Mausersatz umgebenden Rings sind Status-LEDs für den Kartenleser, Num- und Caps-Lock sowie Festplattenzugriffe untergebracht. Auf den zweiten Blick erkennt man dann auch die in die rechte Seite der Handballenauflage Klappe des optischen Laufwerks. Dessen Schiebeschalter zum Aktivieren und Öffnen befindet sich zusammen mit zwei weiteren Schiebern, die das Notebook einschalten und die Funkverbindungen an- und abschalten, an der Vorderkante. An den Seiten fallen die erwähnten Zerklüftungen auf, links im Bereich des Lüfterauslasses und des Anschlusses für den Port Replicator, rechts beim VGA-Anschluss.

Mit seinem Styling wird das Toughbook nicht unbedingt den Geschmack der breiten Masse treffen – einen eigenen und recht maskulinen Charme kann man ihm aber nicht absprechen.

Think Big: Lian Li PC-X1000 Supertower

Mit dem »PC-X1000« spricht Lian Li neben Gamern auch Systemadministratoren an, die einen gut gekühlten, geräumigen Tower für ihre Hardware suchen. Auf der Verpackung steht zwar, dass sich der PC-X1000 auch als HTPC eignen soll – dass das Case aber in einen Home Theater Personal Computer umfunktioniert wird, dürfte eher selten der Fall sein.

Lian Li war schon immer Vorreiter bei neuen Gehäuseformen. Wir dürfen beispielsweise an die blaue Pyramide erinnern, die 2009 zur CES beziehungsweise zur CeBIT gezeigt wurde. Oder an das Mini-ITX-Gehäuse in rotem Aluminium. Auffallen um jeden Preis, lautet das Motto. Wo wir schon beim Preis sind: Der Super Size Tower kostet satte 330 Euro. Als eine der ersten Redaktionen in Deutschland Lain Lis Super-Size-Tower genauer unter die Lupe nehmen.

PC-X1000 von Lian LiPC-X1000 von Lian Li Lian Lis neuer Super Size TowerLian Lis neuer Super Size Tower

Die Abmessungen von 230 x 680 x 430 mm wirken gigantisch.
Vergleicht man jedoch mit anderen Big-Towern (253 x 502 x 563 mm), stellt sich
heraus: Der PC-X1000 ist etwas dünner und auch bei der Tiefe fehlen mehrere
Zentimeter. In Sachen Höhe ist das Lian-Li-Gehäuse allerdings ein Riese. Mit 68
Zentimetern dürfte es für die meisten Tische zu hoch sein, um es darunter zu
stellen. Und ein Wohnzimmer-Einsatz ist wohl auch äußerst unwahrscheinlich.

Weitere Bilder zum Lian Li PC-X1000 finden Sie in der Bildergalerie.

  • 1
  • 2

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen