Monat: Dezember 2009

Kurztest: Toshiba Satellite U500


Mit einer Display-Größe von 13,3″ gehört das Satellite U500-115 eigentlich in das Segment der Subnotebooks. Auch der Listenpreis von 1.099 Euro spricht dafür. Doch wo der Trend dank CULV-CPUs allgemein Richtung dünner und schlanker geht, mutet das Satellite U500 eher pummelig an. Das soll nicht heißen, dass es nicht ansehnlich sei, denn das ist es auf jeden Fall. Die Kombination der rauen Oberflächenstruktur mit dem braunen Styling verleiht dem Toshiba-Notebook eine schlichte und zurückhaltende Eleganz. Die Schale besteht zwar aus Hartplastik, doch wirkt das hier nicht billig und hat dazu noch den Vorteil, dass man aufgrund der strukturierten Oberfläche nicht abrutscht oder kleben bleibt.

Im Innern setzt sich der Eindruck des Understatements fort, denn in der vorderen Kante ist edel der beleuchtete Satellite-Schriftzug eingelassen, während über der Tastatur eine Reihe mit weißen LEDs sitzt. Apropos Tastatur: Die ist eher weich ausgelegt und gibt beim Tippen nach. Der Hub ist kurz, was zu einem stockenden Schreibgefühl führt. Dank Standard-Layout muss man sich aber nicht umgewöhnen, und ihre Hintergrundbeleuchtung macht sie auch nachttauglich. Das Trackpad gibt sich oft ein wenig schwerfällig bis behäbig, was aber über den Treiber in gewissem Maße kompensiert werden kann. Dort lassen sich auch Multi-Touch-Gesten wie Rollen und Zoomen aktivieren. Horizontales und vertikales Scrollen beherrscht der Mausersatz ebenfalls.

Kompakt, solide, aber schwer

Mit Außenmaßen von 317 x 230,6 x 31,9 – 38,2 mm (BxTxH) und einem Gewicht von 2270 Gramm mit Batterie beschreibt man das Satellite U500 wohl am besten mit “kompakt aber schwer”. Das wirkt sich auch auf die Verarbeitung aus, die nicht zuletzt dank des beschriebenen harten Kunststoffs das Display sehr gut schützt und dem Chassis insgesamt eine gute Solidität beschert.

Dennoch gibt es Schwächen im Detail: An der rechten Seite, wo das Slot-in Laufwerk eingelassen ist, zeigt sich ein Spalt, der leicht wackelt. Es steht eine kleine Kante vor, an der man beispielsweise mit dem Ärmel hängen bleiben kann. Der Bereich über dem ExpressCard-Slot ist außerdem zu weich ausgelegt und biegt sich unter punktuellem Druck durch – der kommt in der Praxis eher selten vor, beispielsweise wenn man das Gerät genau dort anfasst, um es zu tragen, und dann der Daumen auf die Stelle drückt.

Eine neue Festplatte für Windows 7?

Normalerweise hören Anwender von Fortschritten im Storage-Segment hauptsächlich bei der Vorstellung bestimmter Flagship-Festplatten mit 500, 1000, 2000 GB sowie bei der Präsentation von Laufwerken mit hoher Umdrehungeschwindigkeit oder bei Low-Power-Modellen und so weiter. Allerdings ist jede neue Festplatten-Generation generell schneller als deren Vorgänger, wodurch sich Boot-Zeiten und die Dauer beim Starten von Anwendungen verkürzen. Dabei sollten wir auch nicht vergessen, dass es mittlerweile auch Windows 7 gibt und zahlreiche Anwender, die derzeit noch Windows XP nutzen, über ein Upgrade nachdenken. Weshalb also nicht beides miteinander kombinieren? Sofern man von Windows XP auf Windows 7 aufrüsten will, ist eine Reinstallation des Systems notwendig. Zudem könnte eine neue Festplatte dem neuen System etwas mehr Performance verschaffen. Wir haben uns einen älteren Computer vorgenommen und das installierte 500 GB-Laufwerk durch eine neue Hitachi Deskstar 7K2000 ersetzt.

Festplatten-Performance – Das sollten Sie wissen

Hier weitere Artikel zur Festplatten-Performance:

– A Look Into the Hard Drive’s Future
Überblick, Marktanteile, zukünftige Technologien

– Understanding Hard Drive Performance
Speicherdichte, Aufnahmetechnologie, Platter und Formfaktor, Zwischenspeicher

– Parallel Processing: Single, Dual, Quad Hard Drives
Vorteile von RAID-Performance

– Kapazität übertrifft Leistung: Dramatischer Trend bei Festplatten?
Fünf verschiedene Laufwerke zwischen 1991 und 2006 im Vergleich

– Schnellere Festplatten-Arrays durch Short-Stroking
Eine Performance-Analyse von Short Stroking, das den Aktivitätsradius der Köpfe und die Kapazität verringert, um dadurch die I/O-Performance zu verbessern.

Beim Kauf einer neuen Festplatte gibt es ein paar grundlegende Dinge, die Sie beachten sollten. Zunächst wären da ein paar allgemeine Festplatten-Eigenschaften, die auf alle Laufwerke zutreffen: Sie basieren auf einer oder mehreren sich drehenden Scheiben (Platter). Abnehmer (Heads), wie bei alten Schallplattenspielern, sind für das Lesen und Schreiben von Daten auf beiden Seiten jeder Platter zuständig. Zum Anschluss an den PC stehen unterschiedliche Schnittstellen zur Verfügung. Zudem nehmen auch Technologien wie ein Zwischenspeicher (Cache) und die Befehls-Reorganisation durch NCQ (Native Command Queuing) einen Einfluss auf die Performance. Das grundlegende Konzept hat sich mit der Zeit nicht verändert. Allerdings hat die Datendichte auf den magentischen Plattern in den vergangenen Jahren deutlich zugenommen. Heutige Laufwerke mit hoher Kapazität bieten eine Gesamtkapazität von 2 TB, die über vier mechanische Platter verteilt sind.

Spielen wir also ein wenig mit den Parametern: Zugriffszeit und I/O-Performance hängen von der Agilität, Positionierungsgeschwindigkeit und Präzision der Heads ab. Allerdings spielt auch die Umdrehungsgeschwindigkeit eine Rolle, da die Wartezeit für erfragte Daten (auch als Rotationslatenz bekannt) bei höherer Umdrehungsgeschwindigkeit kürzer ist. Schnellere Geschwindigkeiten bedeuten zudem einen schnelleren sequentiellen Durchsatz, sie benötigen allerdings auch ein präziseres und robusteres Design der Festplatte. Höhere Geschwindigkeiten wirken sich allerdings auch negativ auf die Aufnahmedichte und damit zwangsläufig auf die Kapazität aus. Die Leistungsaufnahme hat sich in der Zwischenzeit zu einem zusätzlichen Schlüsselmaß entwickelt, da die Performance normalerweise in einem direktem Verhältnis zur Leistungsaufnahme steht. Mehr Leistung führt jedoch auch zu einer stärkeren Wärmeabgabe und bei hohen Geschwindigkeiten wird typischerwise auch mehr Lärm erzeugt.

Kurz zusammengefasst: Es ist durchaus sinnvoll, sich stets die neuesten Festplatten-Modelle zu kaufen: Diese bieten die höchste Aufnahmedichte, wodurch man  Daten auf möglichst wenig Plattern speichern kann. Eine geringere Komplexität bringt zudem auch weitere Vorteile wie zum Beispiel eine niedrigere Leistungsaufnahme mit sich. Nicht zuletzt bieten neue Laufwerke natürlich auch mit die höchste Performance.

Verschiedene Festplatten und ihr Effekt

In Wirklichkeit sind die Performance-Unterschiede zwischen den Festplatten-Generation nicht groß genug, um eine Aufrüstung rechtfertigen zu können. Allerdings sollte man auch noch weitere Aspekte bedenken. Wir haben einen drei Jahre alten Core 2 Duo Desktop-PC und ein ähnlich altes Hitachi Deskstar 7K500-Laufwerk benutzt. Letzteres galt 2006 noch als eines der besseren Produkte. Anschließend haben wir das ältere 500 GB-Modell mit der Deskstar 7K2000, dem neuesten Desktop-Laufwerk von Hitachi, ersetzt.

Sofern Ihr Laufwerk auch schon ein paar Jahre alt ist, kommen Sie bei einer neuen Festplatte in den Genuß der folgenden Vorteile:

–      Deutlich höhere Kapazität zu niedrigerem Preis

–      Höhere Performance

–      Niedrigere Leistungsaufnahme

–      Eventuell geringeres Geräusch-Niveau

Wir haben auf unserem Speicher-Testsystem das drei Jahre alte Hitachi-Laufwerk mit den neuesten Flagschiff-Modellen verglichen. Zudem haben wir uns dazu entschieden, die bestehende Windows XP Installation auf das neue Laufwerk zu kopieren was uns einen direkten Performance-Vergleich mit SYSmark 2007 erlaubt. Schließlich haben wir noch Windows 7 installiert und die gleichen Tests wiederholt.

Thomas Soderstrom hat bereits im Oktober fünf Mainstream Core i5 ATX-Motherbords getestet und im November mit acht Premium-Produkten nachgelegt. Heute wird es Zeit für einen Test angemessener MicroATX-Motherboards für den Sockel LGA 1156. Lassen Sie sich vom Formfaktor nicht täuschen: Dieser wurde für separate Grafiklösungen entwickelt.

MicroATX

Der MicroATX-Formfaktor gilt als Standard für alle Arten kleinerer oder kostengünstigerer PCs. Letzteres gilt normalerweise für Büro-Rechner und andere Basis-Systeme. Deshalb sind sich zahlreiche MicroATX-Plattformen hinsichtlich niedrigem Preis und grundlegender Funktionen auch sehr ähnlich: Derartige Produkte bieten normalerweise nur ein paar Erweiterungssteckplätze, weniger Speicher-Sockel und überschaubare Zusatzfunktionen. Während das auf die Mehrzahl der MicroATX-Motherboards auf dem Markt zutrifft, gilt das nicht unbedingt für alle, wie die vier Motherboards in diesem Test beweisen.

Die Sockel LGA 1156-Plattform von Intel kam erst vor wenigen Monaten mit den Core i5- und Core i7-Prozessoren für die High End-Segmente auf den Markt. Alle derzeit erhältlichen Prozessoren sind mit vier Kernen ausgestattet. Allerdings werden  die Dual Core-Modelle für diese Plattform (Codename Clarkdale) während CES 2010 vorgestellt. Die neuen Core i5- und Core i3 32-nm Dual Core-Prozessoren sind mit einem neuen direkt integrierten 45-nm Grafikprozessor ausgestattet und erfordern einen H55-, H57- bzw. Q57-Chipsatz, um die On-Chip-GPU nutzen zu können. Allerdings können die neuen Dual-Core-Prozessoren auch auf einem P55-Motherboard verwendet werden, wie zum Beispiel auf den in diesem Artikel getesteten Modellen.

Abgesehen von der Prozessor- und Chipsatz-Wahl: Die aktuelle Mainstream-Plattform von Intel ist extrem integriert und besteht aus lediglich dem Prozessor und dem PCH – dem Plattform Controller Hub. Im Vergleich zu den Drei-Chip-Designs wie den Chipsatz-Familien der Serie 4 und 3, die den Prozessor, den Memory Controller Hub (MCH) und den I/O Controller Hub (ICH) brauchen, lässt sich die Komplexität auf Motherboards deutlich verringern, was wiederum auf die Baugröße der Motherboards auswirken kann. Dies hat seine Vorteile, es sei denn man bestehen auf einer Vielzahl an Funktionen und Interfaces. Diese finden Sie wiederum auf LGA 1156-Motherboards für Enthusiasten.

Zum Abschluss dieser kurzen Einführung sollten wir noch sagen, dass MicroATX kompatibel zu Full-Size-ATX ist, was bedeutet, dass Sie die Micro-Boards in allen herkömmlichen ATX-Gehäuse installieren können. Werfen wir einen Blick darauf, was das MicroATX-Segment auf dem P55-Markt zu bieten hat.

Heutzutage sind Flash-SSDs in aller Munde, immerhin bietet diese Speicherart höchste Performance bei minimaler Leistungsaufnahme. Allerdings hält man SSDs bei Adaptec nicht für die allseits gelobte Wunderwaffe, da hohe Kosten und begrenzte Kapazitäten für Business-Anwendungen wirklich zum Problem werden können. Die Lösung für diese Probleme kommt von Adaptec und heißt MaxIQ: Dabei handelt es sich um eine Verbesserung der Serie-5- und Serie-2-RAID-Controller, die es Administratoren erlaubt Read-Caching bei RAID-Arrays zu aktivieren, die aus angepassten X25-E-Laufwerken bestehen.

I/O-Path-Conditioning

Adaptec hat Recht mit der Aussage, dass die Datenpfade zwischen Servern und Speicher optimiert werden müssen. Weltweit werden Millionen Server mit RAID-Controllern und –Arrays betrieben, die hauptsächlich Festplatten verwenden. Obwohl SSDs für den Enterprise-Markt auf dem Vormarsch sind, geschieht das hauptsächlich in dem Segment, in dem Kosten nur noch eine zweitrangige Rolle spielen. Bei der Mehrheit der Systeme sind Speicherkapazität und TCO allerdings unerlässlich, weshalb zahlreiche SSD-Lösungen auf Grund der beschränkten Kapazität pro Laufwerk und unsinnig hoher Kosten nicht in Frage kommen. Hinzu kommt, dass empfindliche Speicher-Ökosysteme durch SSDs eventuell gestört werden. Nicht zuletzte wäre auch eine höhere Performance von Vorteil, was aber in zahlreichen Fällen nicht entscheidend sein düfte. Es stellt sich also die Frage, wie sich die Performance steigern und gleichzeitig die hohe Kapazität bestehender und valider  Speicher-Ökosysteme zu erschwinglichen Kosten aufrecht erhalten lässt. Das Ziel von Adaptec lautet wie folgt: Bestes Verhältnis zwischen Kosten pro I/O, die beste Leistung pro I/O, das beste Verhältnis bei den Kosten pro Gigabyte sowie der bester Schutz der Daten pro I/O.

MaxIQ ist ein SSD-Cache für Ihr RAID-Array

MaxIQ ist laut Adaptec eine hoch performante Hybrid-Array-Technologie zur Erlangung maximaler Performance die dabei ohne teure DRAM-Caches auskommt und auf kapazitätsbeschneidendes Short-Stroking oder Anwendungs-Tuning verzichtet. MaxIQ ist als Upgrade für alle Adaptec-Controller der Serie 5 und 2 verfügbar und benötigt neben dem Firmware-Update auch ein oder mehrere X25-E-Laufwerke. Das MaxIQ-Basis-Paket mit einem 32 GB Intel X25-E Professional-SSD-Laufwerk ist für 1.000 Euro erhältlich.

Auf den folgenden Seiten gehen wir weiter auf die Einzelheiten und Ergebnisse der Benchmarks ein. Allerdings können wir jetzt bereits sagen, dass sich das Paket allein schon durch eine erstklassige Integration in das System auszeichnet. Wenn die MaxIQ-fähige Firmware erst einmal auf einem Adaptec-Controller installiert ist, kann diese die Lese-I/O-Performance potentiell vervielfachen. Abgesehen von einer ersten Konfiguration sind keine weiteren Anwendungen oder zusätzliche Treiber erforderlich, wobei auch der MaxIQ-Betrieb absolut transparent ausfällt. Da die SSDs lediglich als Cache verwendet werden, sind die Daten auf den RAID-Array(s) niemals in Gefahr.

Wollen wir mal sehen, ob MaxIQ seine zahlreichen Versprechen auch halten kann.

Während ATI bereits auf DirectX 11 setzt, zögert Nvidia noch etwas mit der Unterstützung. Als kleines aber feines Update gibt es die Geforce GT 220 und GT 240, die endlich in 40 nm gefertigt werden und DirectX 10.1 beherrschen. Die beiden Grafikchips sind allerdings nicht die stärksten. Der GT 220 ist mit der Geforce 8600 GTS vergleichbar und der Geforce GT 240 wird sich wohl an der Geschwindigkeit einer 9600 GT orientieren.

Bei der Produktbezeichnung hat Nvidia mal wieder ganze Arbeit geleistet. Die neuen Chips sind vorbildlich nummeriert denn eine Geforce 210 ist schwächer als eine GT 220 und eine GT 220 ist schwächer als eine GT 240. Schmunzeln muss man erst, wenn man die Codebezeichnungen der Chips dazu nimmt. Die Geforce 210 ist ein GT218, die Geforce GT 220 nennt sich GT216 und der Geforce GT 240 ist ein GT215.

Interessant beim Geforce GT 220 und Geforce GT 240 ist die Vorbereitung auf Blu-ray 3D. Der integrierte Videoprozessor 4 ist mit dieser Technologie kompatibel und bringt die passende Leistung. Hier überbrückt Nvidia die Lücke zwischen 3D-Gaming mit Shutter-Brille und dem PC-Heimkino der nächsten Generation. Aber auch Spiele werden besser und auf einer Nvidia-Veranstaltung durfte man einen Filmtrailer sowie verschiedene Games bewundern.

Im Test: Geforce GT 220, GTS 250 und Radeon HD 5750.Im Test: Geforce GT 220, GTS 250 und Radeon HD 5750.

Durch den Shutter-Effekt der 3D-Brille wird eine räumliche Tiefe erzeugt. Bei nicht optimierten Spielen wandert die 3D-Optik nur in den Bildschirm hinein. Bei Blu-ray 3D hüpfen und springen Darsteller und Effekte aus dem Rahmen heraus. Das soll bei PC-Spielen auch stärker umgesetzt werden. Für das nach dem gleichnamigen Kinofilm benante Spiel “Avatar” hat Nvidia Unterstützung geleistet, um bestimmte 3D-Effekte für die Shutter-Brille zu optimieren. Während Bäume, Gegner und Geschosse nach innen fliehen oder fliegen, können herunterfallende Blätter auch mal außerhalb des Bildschirms rieseln.

Bei der Auswahl der Grafikkarte wird es daher in Zukunft weitere Faktoren geben. Bislang hat man nach Leistung und DirectX-Standard (Shader-Modell) unterschieden. Nvidia jedoch initiiert immer mehr neue Standards: PhysX, Cuda, 3D-Gaming mit Shutter-Brille und Blu-ray 3D bekommen mehr Bedeutung. ATI hingegen bietet Eyefinity und die Stream Technology.

Bleibt abzuwarten, ob Nvidia die Kooperation bei PC-Spielen nun auch auf Hollywood und die Filmbranche übertragen kann. Glaubt man den Ankündigungen, wird 2010 der 3D-Effekt verstärkt in den Wohnzimmern Einzug halten. Der PC wird den Vorteil der Shutter-Brille behalten, da für die Nvidia-Variante eine Grafikkarte nötig ist, die die Synchronisierung des Bildaufbaus zwischen Brille und Bildschirm übernimmt. Regelmäßige Treiber-Updates sorgen dann für angepasste Profile, in denen unterstützte Titel schon optimiert wurden.

Im Test befinden sich zwei Varianten der Geforce GT 220, die Radeon HD 5750 und als Alternative eine Geforce GTS 250 mit Doppellüfter.

Kurztest: Gaming-Gehäuse NZXT Lexa S

NZXT Lexa SNZXT Lexa SDas NZXT Lexa S Gehäuse besitzt eine ungewöhnliche und auffallende Optik, ein typisches Markenzeichen des Herstellers. Die Frontklappe, die die extern zugänglichen Laufwerkseinschübe verdeckt, wirkt wie die Panzertür eines Safes – aber nur äußerlich. So lässt sie sich leicht öffnen, denn sie ist lediglich aus Kunststoff gefertigt. Das in schwarz gehaltene Gehäuse wird durch mehrere optische Highlights aufgepäppelt. Zum einen gehören dazu die blaue Beleuchtung, zum anderen das große Seitenfenster. Im Seitendeckel steckt ein Systemlüfter, der ebenfalls blau beleuchtet ist. Hinter der großen Frontklappe liegen die Schalter für Power und Reset sowie zwei Drehregler, die zur Steuerung von zwei Systemlüftern benutzt werden.

VerpackungsboxVerpackungsbox

In einem modernen vernetzten Haushalt, in denen mehrere Computern wie Notebook, Desktop-PC und HTPC zum Einsatz kommen, lassen sich NAS-Geräte ohne tiefergehende Computerkenntnisse als zentraler Datenspeicher einsetzen. Darüber hinaus sind die vorwiegend DLNA-Kompatiblen NAS-Geräte in der Lage Multimediainhalte wie Videos und Audiodateien an entsprechende Endgeräte im digitalen Wohnzimmer auszuliefern – ebenfalls ohne dass Anwender hierfür einen großen Konfigurationsaufwand auf sich nehmen müssen.

Gepaart mit der Tatsache, dass durch selbst erstellte Multimediainhalte wie digitale Videofilme, Fotos und Fernsehaufnahmen die Datenmengen auch in Privathaushalten stetig größer werden, erfreuen sich NAS-Geräte in diesem Umfeld einer stetig steigenden Beliebtheit.

NAS-Geräte in Unternehmen

In kleinen und mittleren Unternehmen, in denen immer größer werdende Datenmengen bereits seit Jahren zur Tagesordnung gehören, stellt sich die Situation ähnlich dar. Immer öfter werden NAS-Geräte als alternative zu einem herkömmlichen Dateiserver eingesetzt. Die Gründe hierfür liegen oftmals in der einfachen Bedienung, dem großen Funktionsumfang sowie der relativ geringen Leistungsaufnahme eines NAS-Geräts sowie in der Tatsache, dass vor allem in kleineren Unternehmen oft keine eigenständige IT-Abteilung vorhanden ist, durch die das Wissen vorhanden wäre wie man einen klassischen Dateiserver mit RAID-Unterstützung in Eigenregie herstellt.

Festplatten ab Werk

Wenn dieses Wissen im Unternehmen nicht vorhanden ist bleibt oft nur die Beauftragung eines externen Dienstleisters oder eben der Kauf eines NAS-Geräts – wobei oftmals vor allem aus Kostengründen zu letzterem gegriffen werden dürfte. Kaufinteressenten haben hierbei die Möglichkeit sich zwischen bereits ab Werk mit Festplatten ausgestatteten Geräten oder Geräten die dem sogenannten BYOD-Prinzip folgen (Build your own device) zu entscheiden. Der Unterschied ist hierbei, dass Anwender bei Geräten nach dem BYOD-Prinzip die Möglichkeit haben, diese mit den präferierten Festplattenmodellen auszustatten. Bei den Komplettgeräten hingegen werden die NAS-Geräte bereits ab Werk mit Festplatten versehen und an den Handel geliefert.

ATi rühmt sich gerne, momentan als einziger Hersteller DirectX-11-Grafikkarten anzubieten, denn technologisch stehen die aktuellen Nvidia-Boards auf dem 10-er Stand. Doch was bedeutet diese Aussage in der Praxis? Nützt es dem Anwender bereits? Demnächst kommen die ersten DirectX-11-Spiele auf den Markt. DiRT 2 ist davon ein populärer Vertreter. Wir testen die Radeon HD 5870 und HD5750 gegen die Mitbewerber von Nvidia und ATi-Modelle älteren Semesters. Was liegt näher, diese Karten einem Praxistest in Form eines Spiels zu unterziehen, welches dankenswerterweise zumindest der kleineren Karte in Form eines Download-Coupons für Steam beilag? Da momentan kaum echte Testmöglichkeiten für die DirectX-11-Hardware existieren, haben wir uns über DiRT2 als eines der ersten verfügbaren DirectX-11-Spiele sehr gefreut und sofort an die Arbeit gemacht.

Wir, das sind in diesem Falle wir als Autoren und 5 weitere Testpersonen, die uns bereits beim Test von NFS: Shift tatkräftig unterstützt haben. Was DiRT2 wirklich kann, was DirectX 11 verspricht und wo wir genau die Stärken und Schwächen des Spiels sehen, das wollen wir auf den folgenden Seiten schildern.

Eins vorab – mit über 120 Einzelbenchmark-Durchläufen war es diesmal der umfangreichste Test in diesem Jahr. Ob es sich wirklich gelohnt hat? Einfach weiterlesen!

Schafft man sich einen neuen PC an, erwartet man, dass das neue Gerät schneller, performanter und überhaupt besser ist als das alte. Für viele kommen deshalb Mini-PCs, obwohl sie optisch viel hermachen nicht wirklich in Frage – Aufrüstbarkeit und Ausstattung sind begrenzt, und aus thermischen Gründen ist man auch bei der Prozessorwahl eingeschränkt.

Noch kritischer wird es bei Kleinst-PCs mit Intels Atom-Prozessor. Schon im Juni 2008 fühlte Tom’s Hardware Intels Mini-CPU im Artikel „Prüfstand Intel Atom: Reicht 4-Watt-CPU fürs Büro?“ auf den Zahn und stellte fest, dass die Performance speziell unter Windows Vista nicht unbedingt als alltagstauglich einzuschätzen war. Auch von der Effizienz her bekleckerte sich der eigentlich stromsparende Prozessor nicht gerade mit Ruhm und musste sich in dieser Disziplin sowohl AMDs Athlon als auch der hauseigenen Core-2-Familie geschlagen geben. Auch mit der Einführung von Nvidias Ion-Plattform besserte sich das Bild nicht wirklich, wenngleich wenigstens die Grafikabteilung der Plattform dadurch enorm aufgewertet wurde und endlich auch HD-Kost vertrug. Ob der Atom mit diesem Unterbau als alltagstauglich gelten kann, ist letztlich eine Frage der Erwartungshaltung – den (zugegebenermaßen technisch verwöhnten) Redakteuren bei Tom’s Hardware wäre ein Atom-PC als Arbeitsmaschine jedenfalls definitiv zu zäh. Anders gesagt: Ob die Leistung, die Intel gern als „ausreichend“ bezeichnet, auch wirklich ausreicht, hängt stark vom vorgesehenen Aufgabengebiet und der Länge des eigenen Geduldsfadens ab.

Im Mobilbereich sieht das anders aus, denn hier nimmt man Einschränkungen eher hin. Tatsächlich hat die Mobil-Variante des Atom-Prozessors in den Netbooks einen wahren Siegeszug angetreten. Erst jetzt, wo es ein wachsendes Angebot an Notebooks mit Intels CULV-CPUs gibt, erwächst für leichte Atom-Langläufer wie Acers Aspire One D150 Konkurrenz. Auch bei den Netbooks tut sich etwas, denn Modelle wie das Samsung N510 mit Ion-Chipsatz sind sogar für graphisch weniger anspruchsvolle Spiele wie World of Warcraft zu gebrauchen.

Konkurrenz für den Ion

Intel will nun dafür sorgen, dass Ion Konkurrenz bekommt. Heute stellt die Chipschmiede die zweite Generation seiner Atom-Plattform mit dem Codenamen „Pine Trail“ vor, die mit den größten Kritikpunkten des Vorgängers auf Diamondville-Basis aufräumen soll. Beispielsweise wird der vergleichsweise stromdurstige 945GC-Chipsatz, der den frühen Inkarnationen der Atom-Plattform so gründlich einen Strich durch die Effizienz-Rechnung machte, endgültig abgelöst. Außerdem steht bei der neuen Atom-Generation höhere Integration hoch im Kurs, denn sowohl der Speichercontroller als auch die Grafikeinheit (GPU) wandern mit in den Prozessorkern. Selbst der bislang aus zwei separaten Einheiten bestehende Dual-Core-Atom besteht in der aktualisierten Fassung namens Atom D510 aus einem einzelnen Stück Silizium.

Das Ergebnis soll, wenn es nach Intel geht, ein „schlankerer“ Atom-Prozessor sein, der sich besser für den Einsatz im Desktop-Bereich eignet als die bisher getesteten Kombinationen aus CPU und Chipsatz. Zumindest lautet so die Theorie.

Wer ist die Zielgruppe?

Ziel der Pine-Trail-Plattform ist es keinesesfalls, Nutzer mit einem ausgeprägten grünen Gewissen zu umwerben, zumal das, wie in den Effizienztests (s.o.) auch eine Milchmädchenrechnung wäre. Stattdessen soll sie einen Markt ins Visier nehmen, der gerade erst im Entstehen begriffen ist. Laut internetworldstats.com nutzten im Jahr 2000 etwa 361 Millionen Menschen das Internet. 2009 wurde die Zahl schon auf 1,66 Milliarden Nutzer geschätzt – und selbst das wäre nur etwa ein Viertel der Weltbevölkerung.

Gleichzeitig meint Intel mithilfe einer Untersuchung von Morgan Stanley einen Trend ausgemacht zu haben, nach dem Nutzer sich auch in finanziell schwierigeren Zeiten nur sehr ungern von ihrem (Breitband-)Internetzugang trennen würden. Die Mehrzahl der Beragten würde lieber das Handy aufgeben, als bei DSL- oder Kabelmodem den Stecker zu ziehen.

Netbooks werden immer beliebter, und wenn es nach Intel geht, sollen die neuen Atom-CPUs die Plattform antreiben, für die sich Käufer mit kleinem Budget entscheiden, die ihre ersten Schritte ins Web wagen.

Intel stellt heute eine ganze Handvoll neue Komponenten vor, angefangen mit den Desktop-Prozessoren Atom D510 und D410. Der Atom N450 ist ebenfalls ein Prozessor, soll hingegen in zukünftigen Netbooks Dienst schieben. Der letzte Neuzugang ist der Chipsatz mit dem Namen NM10. Wie der P55-Chipsatz der Core-i5-Plattform besteht dieser „Chipsatz“ nur noch aus einem Chip und der CPU, in der wie erwähnt Grafikeinheit und Spreichercontroller stecken. Dem Test stellt sich heute das D510MO, ein Intel-Mainboard im Mini-ITX-Format mit aufgelötetem Atom-D510-Prozessor.

Mac Tax, Apple Steuer. Das Stichwort fällt oft, wenn es um Rechner von Apple geht. Egal ob Desktop, Workstation oder Notebook, Apples Computer kosten mehr – so zumindest die landläufige Meinung. Das soll hier weder bestätigt noch widerlegt werden. Fakt ist: Das aktuelle MacBook White ist mit 899 Euro das preiswerteste MacBook, das es je gab. Damit rückt es für viele potentielle Mac-Interessenten auch näher an die preisliche Schmerzgrenze. Die Strategie ist klar: Neue Kunden am unteren Ende des Portfolios gewinnen, um sie dann ins Mac-Ökosystem einzubinden.

Über Geschmack lässt sich streiten, und es gibt durchaus Kritiker, die meinen, das weiße Acryl-Styling habe sich inzwischen überlebt. Vielleicht sieht auch Apple das so, denn das MacBook ist das letzte Produkt, das dieses für die Firma ikonisch gewordene Design nutzt. Ein Blickfang bleibt das schneeweiße und glänzende Notebook dennoch – und ist natürlich sofort als Mac zu erkennen. Erst auf den zweiten Blick zeigt sich, wo Apples Design-Abteilung im Zuge des Facelifts Hand angelegt hat: Wie die Alu-Geschwister besteht nun auch bei Apples Einstiegs-Notebook das Gehäuse aus einem Stück. Allerdings hat dieses Modell eine große abschraubbare Bodenplatte, die als praktische Rutschbremse dient und relativ einfachen Zugang zum Innenleben bietet.

Wie bei den Geschwistern der Reihen Air und Pro ist der längliche Taster zum Entriegeln der Displayarretierung einer kleinen Einbuchtung gewichen, in die man zum Öffnen des Deckels greift. Die Handballenauflage ist nun auch wieder weiß und nicht mehr leicht matt. Ob das Material kratzanfällig ist, wird sich wohl erst nach längerer Zeit zeigen. Im Test blieb es jedenfalls von Kratzern verschont.

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen