Monat: Dezember 2010

Frisch ausgepackt und bereit für die Käfighaltung unserer Hardware.Frisch ausgepackt und bereit für die Käfighaltung unserer Hardware.

Es gibt mittlerweile so viele Gehäuse und deren Varianten auf dem Markt, dass man schon recht lange suchen muss, um etwas zu finden, was aus der alltäglichen Masse brauchbarer, aber leider auch austauschbarer Gehäuse hervorsticht. Antec hat es statt mit noch mehr Plastik und optischem Firlefanz genau andersherum realisiert: eine variable und recht nüchterne Gitterbox mit minimalistischem Design und um so mehr cleveren Detaillösungen.

Hinter Gittern: Wir bewerten die Unterkunft und einen potenten Stromer als Insassen in einem gemeinsamen Test

Zum Jahresausklang hätten wir somit also noch einmal einen richtigen Leckerbissen parat. Was auf den ersten Blick wie ein 3D-Puzzle aus sieht, hat es nämlich durchaus in sich. Das Ganz-Mesh-Gehäuse provoziert geradezu zum Durchgeblasenwerden, was neben einer sicher exzellenten Kühlung auch staubige Phobien bei den Hausfrauen garantieren dürfte. Somit lässt sich das Vorhaben auf einen Nenner bringen: eiskaltes Inneres gegen schmutzige Gedanken.

Ob unsere Gitterbox jedoch wirklich zum befürchteten Staubmagneten gerät, ob die Kühlung das hält, was das Äußere und die Werbung versprechen und ob das Gesamtkonzept in sich überhaupt stimmig ist, das werden wir wie gewohnt ausführlich testen. Damit die ganzen Komponenten überhaupt so richtig in Fahrt kommen, brauchen wir natürlich noch eine sichere Powerstation für all die Kleinheizgeräte, die wir in Form von CPU und Grafikkarten im Laufe des Tests verbauen wollen. Weil zudem beides aus einem Hause kommt, testen wir also diesmal den “Antec Lanboy Air Blue” und das “Antec High Current Gamer HCG 900” gemeinsam in einem einzigen Artikel. “Vom Winde verweht” oder “Stürmische Zeiten”? Wir werden sehen…

Toshiba Qosmio X500: Rot und Spiele?

Toshiba Qosmio X500-14WToshiba Qosmio X500-14W

In Toshibas Qosmio-Reihe tummeln sich die Gamer und Entertainer des japanischen Herstellers. Das zeigt sich auch am Design des Qosmio X500-14W mit seinen rot-schwarzen Kontrasten und dem Rautenmuster unter der durchsichtigen Oberfläche. Im Innern bleibt es bei dem farblichen Wechselspiel, zu dem die beleuchtete Tastatur mit ihrem weißen Schein eine weitere Note beiträgt. Rechts sitzt ein vollständiger Ziffernblock, links ein Media Touchfeld mit roter Beleuchtung. Auch der kleine Balken über dem Trackpad ist rot beleuchtet. Die Trackpadtasten setzen sich vom schwarzen Look der Arbeitsfläche ab, denn sie sind rot lackiert und erinnern ein wenig an Christbaumkugeln. Zwischen Tastatur und Display bleibt ein breiter Rand,in den zwei Lautsprecher eingelassen sind, die ebenfalls rot eingefasst sind. Insgesamt wirkt das Qosmio X500 damit sehr schick, ähnlich wie ein Sportwagen, der das dezente aber kraftvolle Chassis durch gezielte Farbhighlights und Streifen betont. Das spiegelnde Hochglanzplastik mag allerdings nicht jeden Geschmack treffen.

In weiten Teilen besteht das Gehäuse des Qosmio X500 aus Kunststoff, was sich in der Verarbeitung punktuell zeigt. Auf kräftigen Druck im Bereich der Handauflage reagiert es mit leichtem Knistern und gibt ein wenig nach. Beim alltäglichen Gebrauch ist das aber absolut kein Problem. Das große Display ist ausreichend verwindungsresistent, dürfte aber dennoch ein wenig härter ausfallen – beim Verwinden des Deckels zeigen sich in der Mitte moderate Spannungsmuster und der Rahmen knackt links. Mit dem gewählten Material war eine höhere Festigkeit aber wohl nicht mehr machbar. Aus Rücksicht auf das Gewicht hat Toshiba die Entscheidung vermutlich nicht gefällt, denn mit seinem 87-Wh-Akku bringt es das Qosmio X500 auf stolze 4822 Gramm. Das (im Betrieb leicht zirpende) Netzteil bringt ein weiteres gutes Kilo die Waage, sodass man mit knapp 6 Kilo auf dem Weg zum nächsten Gaming-Treff ist. Für einen Spiele-Rechner im  18-Zoll Format mit der gebotenen Ausstattung ist das aber angemessen. Das gilt auch für die Verarbeitung, die abgesehen von den genannten Detailschwächen gut ausfällt.

Beleuchtete Tastatur, Ziffernblock, Media-Center-TastenfeldBeleuchtete Tastatur, Ziffernblock, Media-Center-TastenfeldDie Tastatur fällt, wie bei Toshiba nicht unüblich, ein wenig weich aus. Der Hub ist relativ kurz, Anschlag und Widerstand könnten aber härter sein. Die Leertaste fällt ein wenig schmaler aus als gewohnt, ist aber noch nicht zu klein – allerdings neigte ihre Mechanik zum Zirpen. Andere Layout-Experimente verkneift sich Toshiba dankenswerter Weise – sie wären bei so viel Platz allerdings auch unnötig. Einzig der Sechser-Block mit den Bildlauftasten, Einfügen/Entfernen und Pos1/Ende sind über den Ziffernblock gewandert.

Links liegt ein berührungsempfindliches Bedienfeld für Media-Player-Funktionen, das man beim Tippen ab und an mal mit dem kleinen Finger streift und ihm damit einen bestätigenden Piepser entlockt. Außerdem lässt sich dort auch der Eco-Mode aktivieren, der unter anderem den Prozessor heruntertaktet, das Display sowie die Beleuchtung der Tastatur dimmt und Medientastenbeleuchtung  deaktiviert. Mit einem normalen Energiesparschema lässt sich allerdings ein ähnlicher Effekt erzielen, und da das Display ohnehin nicht gerade das hellste ist, fallen die Einsparungen im Leerlauf relativ gering aus.

Das Toshiba BoardDas Toshiba BoardDas Trackpad ist angenehm präzise und leichtläufig, ohne nervös oder zappelig zu wirken. Eigentlich könnte es größer ausfallen – der Platz wäre sicherlich da. Optisch und haptisch ist der Bedienbereich vom Umfeld abgesetzt, denn er ist angeraut. Darunter findet sich aber dasselbe Muster, das auch die Handballenauflage ziert.  Versehentliches Verschieben des Cursors beim Tippen kam nicht vor, doch wer auf Nummer Sicher gehen will, kann das Trackpad über einen Button unter der Leertaste komplett deaktivieren. Multi-Touch-Gesten wie Pinch-Zoom und Drehen versteht es ebenso wie das klassische Scrollen in beiden Achsen. Die Trackpadtasten lösen mit angenehmem Widerstand und deutlichem Klicken sauber aus.

SSD-Analyse: Firmware und TRIM untersucht

Die Marketing-Abteilungen zahlreicher SSD-Hersteller preisen ihre Produkte nur allzu gerne mit Superlativen wie einem Durchsatz von mehr als 270 MB/s und tausenden I/O-Vorgängen pro Sekunde an. Diese Angaben sind zwar nicht falsch, stellen allerdings auch nur Teile des kompletten Puzzels dar: Der Alltagsbetrieb einer SSD hat wenig mit den sterilen Testbedingungen zu tun, unter denen diese Maximalwerte erzielt werden. Mit anderen Worten: Derart hohe Performance lässt sich durchaus erzielen – jedoch nur mit Hilfe diverser Optimierungen.

Ich habe ein gute SSD; was geht mich das Ganze an?

Nur weil eine für ihre Schnelligkeit bekannte SSD funkelnagelneu ist, heißt das noch lange nicht, dass sie auch wirklich so extrem flott arbeitet. Wichtig ist unter anderem die Verwendung der aktuellsten SATA-Treiber, die Aktivierung des AHCI-Modus im BIOS, eine funktionierende TRIM-Implementierung, aktuelle SSD-Firmware, eventuelle Beeinflussung der Performance durch veränderte Konfigurationen etc. Anwender, die für ein Laufwerk so viel Geld ausgeben wie andere für ein ganzes Netbook sollten der Performance-Frage daher schon Zeit widmen.

Wir haben extrem gute und auch schlechte SSD-Performance erlebt, wobei die Ursachen für eine negative Performance vielfältig sein können. Zunächst ist die Verwendung eines anständigen Produkts ausschlaggebend. Im Gegensatz zur vergleichsweise leicht einschätzbaren Festplatten-Performance hängen die Werte bei SSDs von zahlreichen Eigenschaften ab. Die meisten derzeit erhältlichen SSD-Produkte basieren auf mehreren MLC-NAND-Flash-Speicherkanälen und einer der bekannten Controller-Architekturen. Die X25-Familie von Intel hat vor allem beim Schreibdurchsatz ihre Schwächen. Die Indilinx-Hardware verhalf den SSDs durch die Maximierung des Durchsatzes mit zum Durchbruch. Der Durchsatz der RealSSD C300 von Crucial ist weiterhin Spitzenklasse, allerdings gehen erst mit dem SF-1200-Controller von Sandforce Durchsatz und erstklassige I/O-Performance tatsächlich Hand in Hand. Jüngst auf dem Markt eingetroffen sind die SSDs der 470-Serie von Samsung (auch als PM810 bekannt), die wir für unsere heutige Performance-Analyse eingesetzt haben.

Wie bereits zuvor erwähnt, spielen bei der Performance mehrere wichtige Faktoren eine Rolle. Im heutigen Artikel gehen wir auf das jüngste Firmware-Update von Samsung ein und prüfen Performance-Levels mit und ohne aktivierte TRIM-Funktion.

Verlangsamen Viren-Scanner den PC?

Zu Zeiten von Windows 98, als CPUs noch im dreistelligen MHz-Bereich liefen und Systeme mit weniger als einem Gigabyte RAM ausgestattet waren, war die Installation eines speicherresidenten Antiviren-Programms praktisch mit einem Performance-Selbstmord gleichzusetzen. Wer erinnert sich nicht an die Augenblicke, als man etwas Dringendes am Computer zu erledigen hatte und eine geplante Virenüberprüfung stattfand – die Produktivität sank dabei rasch gegen null.

Da moderne Computer heute bedeutend leistungsstärker sind als noch vor ein paar Jahren, machen wir uns heute kaum noch Gedanken darüber, ob und inwiefern sich Antiviren-Software negativ auf unsere Systeme auswirkt. Anwendern, die erst mit Computern zu tun haben, seit diese mit mehreren Prozessorkernen und zahlreichen Gigabyte an RAM ausgestattet sind, dürfte es seltsam vorkommen, keinen Viren-Scanner installiert zu haben. Hier fehlt schlicht der Vergleich zu jenen Tagen, als man die Systeme noch so schlank wie möglich hielt, damit man nicht allzuviel Geschwindigkeitseinbußen hinnehmen musste. Mittlerweile haben wir ausreichend Reserven, um derartige Auswirkungen zu vermeiden. Prozessorkerne befinden sich im Leerlauf und warten nur darauf, diverse Aufgaben auszuführen, während niedrige Preise für Speicher-Kits mit 6 GB oder 8 GB selbst für Mainstream-Anwender erschwinglich sind.

Dabei möchten wir bereits im Vorfeld eines klar anmerken: Eine Viren-Überprüfung kann sich zwar stark auf die System-Performance auswirken, wir wollten aber wissen, ob die Software auch einen Einfluss auf die Performance hat, wenn gerade kein Viren-Scan durchgeführt wird. Dauert das Öffnen von Dateien länger, wenn man ein Antiviren-Programm installiert hat? Hat die Installation einer solchen Software auch Auswirkungen auf CPU-Ressourcen, wenn gleichzeitig andere Programme ausführt werden? Welche Arbeiten werden in erster Linie von solchen Sicherheitsprogrammen beeinflusst, wenn überhaupt?

Werfen wir also einen Blick auf verschiedene Antiviren-Programme und gehen diesen Fragen auf den Grund.

Was sind die Aufgaben eines Viren-Scanners?

Bevor wir mit unseren Tests anfangen, sollten wir zunächst einen Blick darauf werfen, wie Viren-Scanner funktionieren. Dadurch lässt sich feststellen, ob die Ergebnisse auch mit unseren Erwartungen übereinstimmen.

Die meisten Viren-Scanner sichern ein System über zwei hauptsächliche Mechanismen: Die Überprüfung von Dateien und der Überwachung des Systemverhaltens.

Die Überprüfung von Dateien ist dabei die verbreitetste Methode. Die Idee dahinter ist recht einfach: Der Viren-Scanner untersucht die Dateien auf einem PC auf Bedrohungen –Bedrohungen in Form von Signaturen, die einem bestimmten Virus entsprechen. Da es ständig neue Viren gibt, werden die meisten Viren-Scanner regelmäßig mit den neuesten Virensignaturen aktualisiert.

Welche Auswirkungen könnte die Dateiüberprüfung auf die Performance haben? Normalerweise untersucht ein Viren-Scanner Dateien auf bedrohliche Signaturen, immer dann wenn eine Datei geschrieben, geöffnet, geschlossen, per Email verschickt oder die Anti-Viren-Software ausgeführt wird. Deshalb scheint es durchaus schlüssig, dass Anwendungen, die regelmäßig auf Dateien zugreifen, durch die Anti-Viren-Software etwas an Geschwindigkeit verlieren. Programme, die nicht besonders häufig auf Dateien zugreifen müssen, dürften von der Anti-Viren-Software hingegen wenig beeinflusst werden.

Die zweite Methode zur Identifizierung einer Bedrohung durch die Anti-Viren-Software ist die Überwachung des Systemverhaltens. Dabei handelt es sich um eine vorbeugende Maßnahme in Bezug auf Viren, die noch nicht identifiziert wurden bzw. nicht im Verzeichnis bedrohlicher Signaturen aufgeführt sind. Der Viren-Scanner überwacht das System auf verdächtiges Verhalten, so z.B. die Veränderung ausführbarer Dateien. Diese Vorgehensweise zur Vermeidung eines Virenbefalls hat kaum Auswirkungen auf die System-Performance, da solch verdächtige Vorgänge eher selten auftreten.

Qnap ist ein Hersteller von Netzwerkspeichergeräten mit einer sehr breiten Angebotspalette. Im Produktportfolio finden sich neben Lösungen zur Aufzeichnung von Videos über das Netzwerk zu Überwachungszwecken auch Medienplayer sowie – und dafür dürfte Qnap den höchsten Bekanntheitsgrad besitzen – NAS-Geräte. Das Unternehmen möchte Anwendern bei der Anschaffung eines NAS-Geräts viele Optionen offen halten und bietet viele seiner NAS-Geräte in mehreren Varianten an. So sind zum Beispiel die Netzwerkspeichergeräte der TS-x59 Pro-Serie mit zwei, vier, fünf, sechs und acht Laufwerksschächten erhältlich. Die Basis ist hierbei immer die gleiche: 1 GB DDR2-RAM gepaart mit einem Intel D510 DualCore Atom-Prozessor.


Die Verwendung einer einheitlichen Basis ist aus unternehmerischer Sicht nachzuvollziehen. So können dadurch doch verschiedene Varianten eines Geräts bei nur leicht erhöhten Entwicklungskosten angeboten werden und dabei gleichzeitig verschiedene Kundensegmente bedient werden. Im Falle der TS-x59 Pro-Serie zielt man mit der 2-Bay-Version TS-259 Pro (etwa 500 Euro ohne Festplatten) auf anspruchsvolle Anwender, die ein NAS-Gerät für den Einsatz im Heimnetzwerk benötigen. Die Variante mit acht Laufwerkseinschüben TS-859 Pro düfte zweifellos für den Einsatz in Unternehmen gedacht sein, was sich alleine schon im Preis wiederspiegelt (etwa 1200 Euro ohne Festplatten). Die dazwischenliegenden Varianten mit vier bis sechs Laufwerkseinschüben liegen im Preisbereich zwischen 730 und 940 Euro und dürften damit sowohl für Unternehmen als auch für ambitionierte Anwender in Frage kommen. Interessanterweise beträgt die Preisdifferenz zwischen den Modellen TS-559 Pro und TS-659 Pro lediglich 40 Euro. Im Vergleich zum TS-459 Pro muss man für das TS-559 Pro aber etwa 170 Euro mehr auf die Ladentheke legen. 

Qnap TS-x59 Pro Series
TS-259 Pro 500 Euro*
TS-459 Pro 730 Euro*
TS-559 Pro 900 Euro*
TS-659 Pro 940 Euro*
TS-859 Pro 1200 Euro*

* ungefähre Preise – können von Anbieter zu Anbieter variieren – alle Preise ohne Festplatten –  Stand Anfang November 2010

Die Frage die sich hier unweigerlich stellt ist, wie es sein kann, dass zwischen den NAS-Geräten mit fünf und sechs Laufwerkseinschüben der Aufpreis lediglich etwa 40 Euro beträgt, wohingegen der Unterschied zwischen den Geräten mit vier und fünf Festplatten mit 170 Euro zu Buche schlägt. Welche Unterschiede gibt es, abgesehen vom fünften Laufwerksschacht, zwischen beiden Geräten? Lohnt sich für für ambitionierte Anwender der Aufpreis für das 5-Bay-Gerät oder ist man mit der 4-Bay-Version sowohl hinsichtlich der Datenübertragungsraten als auch beim Preis-/Leistungsverhältnis besser bedient? Und nicht zuletzt: Welche Vorteile ergeben sich durch ein fünftes Laufwerk im NAS-Gerät?

Es ist kein Geheimnis, dass Notebooks in den letzten Jahren stark im Preis gefallen sind. Aber ein 15,6-Zoll Laptop für 299 Euro? Kann man solch einem Tiefpreis-Wunder aus dem Hause HP über den Weg trauen? Sicher, die Konfiguration mit AMD V140 (1 x 2,30GHz), 2.048 MB RAM, 250 GB Festplatte und Chipsatz-GPU ATI Radeon HD 4250 wird nicht zu Leistungs-Höhenflügen ansetzen. Besteht dennoch Hoffnung auf einen brauchbaren Notebook-PC, den man Mutti oder Oma zum Surfen und Tippen in Word empfehlen kann? Wir schauen dem Compaq Presario CQ56-103SG (XH187EA) auf die Hardware, auf die Verarbeitung  und auf die Emissionen.

Gehäuse – Solide aber sehr einfach

Der Preis in den Shops machte skeptisch und ließ uns grob gestanztes Plastik und eine wackelige Konstruktion erwarten. Was wir dann aber aus dem Karton packen, das ist ein 15,6-Zoll Chassis, das den aktuellen Qualitätsstandards von Notebooks bis 500 Euro entspricht. Der Unterschied ist einzig folgender: Das Gehäuse aus Kunststoff ist in keiner Weise veredelt. Keine Lackierung, keine Zierstreifen und kein verchromtes Hersteller-Logo. Die Optik wirkt daher  homogen, alles hat dieselbe matte Oberfläche. Ausnahme ist die Handauflage mit einem gestanzten Prisma-Muster.

Das 2,43 Kilogramm schwere Gehäuse hat einen unschlagbaren Vorteil: Es ist unempfindlich gegenüber Kratzern. Hinzu kommt eine gewisse Wertigkeit, vermittelt durch saubere Spaltmaße und ein verwindungssteifes Chassis. Was an den Gelenken so silbern glänzt, das ist lediglich eine Abdeckung aus Aluminium. Das Scharnier selbst besteht aus Kunststoff. Die Gelenke halten den Deckel stramm, beide Hände werden zum Öffnen benötigt. Der Deckel ist angemessen stabil und kann nur mit begrenztem Spielraum verbogen werden.

Wir wollten diesmal einen etwas ungewöhnlichen Weg gehen und die tatsächlich verbrauchte Energie über einen gewissen Zeitraum unter Berücksichtigung verschiedener Anwendergewohnheiten messen. Also das, was wirklich zwischen Einschalten und Ausschalten effektiv verbraucht wird. Denn jeder wird nicht nur spielen, sondern auch alltägliche Dinge am Computer erledigen wollen. Mehr oder weniger. Zusätzlich zur Verbrauchsmessung haben wir gleichzeitig die Laufzeit ausgewählter, und am häufigsten genutzter Programme überwacht, die den Verbrauch gegenüber dem Idle-Betrieb erhöhen können. Neben Spielen handelt es sich vor allem um die hardwarebeschleunigte Videowiedergabe, D2D- und D3D-Inhalte im Fenstermodus, sowie Spiele sowohl im Fenstermodus, als auch exklusiv im Vollbild. Was uns nämlich brennend interessierte, war nicht der Verbrauch unter absoluter Volllast oder im Leerlauf, sondern eher das, was sich im Mittel dazwischen befand. Denn genau dieser Verbrauch, auf eine längere Zeit gerechnet, repräsentiert am Ende das, was wir untersuchen wollen: verbrauchen leistungsstarke Grafikkarten wirklich so viel mehr Strom und verursachen damit auch extrem viel mehr Kosten?

Somit stellt das, was wir uns vorgenommen hatten, so etwas wie die Ermittlung des Drittelmixes beim Auto dar. Nur eben mit Wattstunden, statt km/h und Litern. Am Ende werden wir jedenfalls wissen, wer mit welcher Nutzungsweise bei welcher Karte ordentlich drauflegt – oder auch nicht. Lassen wir uns überraschen.

Caseking: Schnäppchen zu Weihnachten

Der Tag der Bescherung rückt unaufhaltsam näher. Für kurzentschlossene hat Caseking noch ein paar Schnäppchen im Programm. Egal ob es ein neues Gehäuse sein soll, das genügend Platz für neue Komponenten bietet, oder eine neue Grafikkarte, die genügend Grafik-Power für aktuellsten Spiele bereit stellt. Caseking versüßt das Weihnachtsfest mit kleinen Preisen.

Die Angebote von Caseking im Detail:


Über Caseking:

Caseking ist ein führender Anbieter und Partner für Endverbraucher, Fachhandel und System Integratoren in den Segmenten PC-Tuning, Gehäuse, Gaming, Modding, Cooling und Zubehör.

Caseking unterhält beste Kontakte zu allen Herstellern innerhalb des über 4000 Produkte starken Portfolios und bietet aufgrund der langjährigen Erfahrung im Bereich Gehäuse, Gaming, Modding, Cooling, PC-Tuning und Zubehör eine erstklassige Beratung und Betreuung für seine Kunden. Durch Exklusiv- und Direkt-Distributionen namhafter und führender Hersteller ermöglicht Caseking seinen Kunden sowohl im B2C als auch B2B Bereich Preisvorteile, jederzeit aktuellste Informationen und erweiterte Services.

>>> Erfahren Sie jetzt mehr über Caseking <<<

Es ist schon so eine Krux mit dem schnellen Standard: 5 Gb/s statt 480 Mb/s Bruttobandbreite, Kompabilität zum Vorgängerstandard und eine inzwischen gute Verfügbarkeit von USB-3.0-Festplatten oder Flash-Laufwerken stehen auf der Haben-Seite. Doch trotzdem kommt der Standard noch nicht vollends in Fahrt. Dass es dafür technisch keinen Grund gibt soll dieser Artikel zeigen.

Preislich liegen portable Festplatten mit USB-3.0-Schnittstelle im Vergleich zu Modellen mit USB 2.0 ein wenig höher; daran wird sich auch mittelfristig nicht viel ändern. Doch der Preisunterschied rechtfertigt die Investition, denn sobald größere Datenmengen gelesen oder geschrieben werden spart man eine Menge Zeit. Noch dazu sind portable Daten via USB 3.0 praktisch genauso schnell verfügbar als ob sie auf einer im Systemeingebauten Festplatte lägen. Soweit die Theorie aus Anwendersicht.

Das Problem liegt jedoch darin, dass es bisher keine Chipsätze gibt, die USB 3.0 nativ unterstützen. Das bedeutet, dass jedes System, welches mit der schnellen Schnittstelle ausgerüstet werden soll, dies über sogenannte Third-Party-Komponenten ermöglichen muss. Konkret bedeutet das, dass Motherboards sowie Notebook-Designs mit zusätzlichen Controller-Chips ausgestattet sein müssen.

Was nicht dramatisch klingt hat in der Praxis allerdings Auswirkungen: Bei Notebooks zählt schon in der Designphase jeder Millimeter, so dass vor allem möglichst hoch integrierte Komponenten gefragt sind. Gehäusehersteller und Lieferanten von Storage-Zubehör müssen sich fragen: Macht es Sinn, USB 3.0 Schnittstellen in ihren Produkten vorzusehen, wenn Controller weiterhin nicht großflächig zu haben sein werden? Erschwerend kommt eine unglückliche Entscheidung bei Intel hinzu: Für die kommende P67-Plattform (Sandy Bridge) wird es bekanntlich kein USB 3.0 geben – der Standard sei nach Abschluss der Design-Phase erst fertig geworden, so Intel.

Wie dem auch sei: Alle Rechner mit freier PCI-Express-Schnittstelle lassen sich mit wenig Aufwand und zu Weihnachts-kompatiblen Kosten mit USB 3.0 nachrüsten, so dass sich die schnellsten Laufwerke und Thumb Drives mit vollem Tempo nutzen lassen.

Das Timing für die Veröffentlichung seiner neuen Linux-Distribution Ubuntu 10.10 (Maverick Meerkat) hätte Canonical wohl kaum besser planen können, denn sie wurde am 10.10.2010 um 10:10:10 GMT freigegeben. Ganz nebenbei ist 101010 auch binär für die Zahl 42, und was das bedeutet, bedarf wohl keiner weiteren Erklärung. Geeks lieben solche Zahlenspiele. Trotzdem blicken wir Ubuntu 10.10 mit sehr gemischten Gefühlen entgegen, denn traditionell handelte es sich aber bei Oktober-Releases leider meist um Problemkinder.

Auf die April-Releases kann man sich meist freuen. Im Laufe der vergangenen Jahre versorgte uns Canonical mit einer guten .04-Version nach der anderen. Ubuntu 8.04 (Hardy Heron) war eine der unproblematischsten Linux-Distros, die jemals produziert wurden, und genießt als LTS-Version sogar einen dreijährigen Support, der also aktuell noch gilt. Mit Hardy Heron legte Canonical ein grundsolides Fundament für seine aufstrebende nutzerfreundliche Linux-Distro.

Im April 2009 folgte 9.04, alias Jaunty Jakalope, das nicht nur flink bootete sondern sich auch insgesamt sehr leichtfüßig gab. Im vergangenen April veröffentlichte Canonical die aktuelle LTS-Version 10.04 LTS (Lucid Lynx), und die war ein wirklich großer Hit. Das System ist grundsolide, und auch von der Optik her spielt Ubtuntu 10.04 in einer Klasse für sich.

Doch wo die April-Versionen immer mit Stabilität und Innovationen überzeugen konnten, hatten die Oktober-Releases oft mit diversen Problemen zu kämpfen, die die Nutzbarkeit des Systems mehr oder weniger stark beeinträchtigten. Das Spektrum reichte dabei von nicht ausgereiften Standard-Anwendungen über nicht ausreichend getestete Module, Hardware-Inkompatibilitäten und schlicht einem hohen Bug-Anteil. Ubuntu 8.10 (Intrepid Ibex) litt beispielsweise unter Grafikfehlern, sobald proprietäre Grafiktreiber installiert wurden, und hatte nebenbei mit ausgeprägten Audioproblemen zu kämpfen.

Ubuntu 9.10 (Karmic Koala) war möglicherweise das schlechteste Ubuntu-Release überhaupt und wollte auf vielen unserer Testsysteme gar nicht laufen. Stattdessen waren reihenweise Crashs an der Tagesordnung. Es dauerte einen guten Monat, bis wir das System stabil genug bekamen, um es überhaupt testen zu können. Gleichzeitig wurden mit diesem Release mehrere neue und umstrittene Standard-Anwendungen festgelegt, die die Community stark polarisierten.

Ubuntu 10.10 sollte ursprünglich mit GNOME 3 ausgeliefert werden und die neue GNOME Shell als Desktop nutzen. Allerdings verzögerte sich die Fertigstellung von GNOME 3 um sechs Monate. Vor kurzem gab Canonical bekannt, sich komplett gegen die GNOME Shell entschieden zu haben und stattdessen eine Desktop-Version von Unity, der neuen Benutzeroberfläche für die Ubuntu Netbook Edition, zu nutzen. Damit ist eine der größten Veränderungen vom Tisch. Bleibt also die Hoffnung, dass sich Canonical darauf konzentriert hat, den in 10.04 LTS eingeführten Komponenten und dem System als Ganzem mehr Feinschliff zu verpassen.

Wir haben uns ausführlich mit Ubuntu 10.10 beschäftigt und dem querdenkenden Erdmännchen (Maverick Meerkat) ordentlich auf den Zahn gefühlt. Führt diese Version die Tradition der enttäuschenden Oktober-Releases fort oder hat Canonical es dieses Mal hinbekommen? Genau das wollen wir auf den nächsten Seiten klären!

  • 1
  • 2

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen