Monat: August 2010

Im Jahr 2005 veränderte Intel die Desktop-Landschaft grundlegend durch die Einführung der ersten Pentium-4-Prozessoren mit zwei Kernen. Man hatte erkannt, dass man die Taktraten nicht wie geplant stetig weiter würde anheben können. Wir erinnern uns: Ursprünglich versprach Intel sich vom Pentium-4-Design Taktraten von bis zu 10 GHz! Also entschied man sich für einen Strategiewechsel und zielte stattdessen auf die höhere Parallelisierung bei den Ausführungseinheiten einer CPU ab.

Server und Workstations nutzten natürlich schon seit langem Systeme mit mehreren CPUs in Form von Mehrsockel-Mainboards, um so bestimmte Aufgaben schneller auszuführen. Allerdings hatten die Xeons mit Irwindale-Kern damals ein mächtiges Problem: AMDs Opterons waren ihnen in fast allem Belangen haushoch überlegen. Durch Hyper-Threading konnten sie zwar zwei Threads pro physikalische CPU ausführen, doch handelte es sich bei ihnen noch um einen klassischen Einkern-Prozessor. Zum Mehrkern-System wurde eine solche Workstation erst, indem man zwei derartige CPUs in ein Mainboard mit zwei Sockeln steckte.

Auf dem Desktop geht der Umstieg auf Software, die mehrere Threads nutzen kann, nach wie vor schleppend voran. Unsere „Lieblingsbeispiele“ sind in dieser Hinsicht WinZip und iTunes, die auch in ihren aktuellen Versionen noch so tun, als besitze eine CPU nur einen einzigen Kern. Anders sieht es in der Business- und Workstation-Klasse aus. Hier kommen schon seit Jahren elegantere Software-Lösungen zum Einsatz, die mehrere CPUs bzw. CPU-Kerne gut auslasten können. Während der Gamer also noch das Für und Wider eines Sechskern-Prozessors abwägen muss, kann der Workstation-Guru niemals genug CPU-Kerne in einem Gehäuse unterbringen.

Schon der Umstieg von einem Zwei-Sockel-System mit zwei Einzelkern-CPUs auf ein Doppelkern-System mit einem Sockel birgt Einsparpotential. Oder man steigt gleich von einer Zwei-Sockel-Plattform mit Einzelkernen auf ein Zwei-Sockel-System mit Dual-Cores um. Mit einem Schlag verdoppelt man die verfügbaren Ressourcen, die in derselben Hardware-Klasse zur Verfügung stehen. Passende Mainboards und CPUs für Vier- und Acht-Wege-Systeme werden dann schlagartig teurer. Insofern ist aus Kostensicht eine Pro-Sockel-Parallelisierung durchaus wünschenswert. Gut, dass es heute sogar Sechskern-Prozessoren mit Hyper-Threading gibt, die selbst einem Desktop-Betriebssystem wie Windows 7 ganze 12 logische Prozessoren zur Verfügung stellen – und zwar auf einem einzelnen Sockel.

 

Intel wird wieder konkurrenzfähig

Da die Hardware immer leistungsstärker wird, passen die Entwickler ihre Software an, um diese Reserven voll auszuschöpfen, was wieder zum Wunsch nach potenterer Hardware führt – ein klassischer Teufelskreis.

Vergangenes Jahr führte Intel die Xeon-5500-Reihe für Server und Workstations mit zwei Sockeln ein. Laut dem damaligen Intel-Vize Pat Gelsinger war dies die wichtigste CPU-Vorstellung des vergangenen Jahrzehnts. Eigentlich betrachten wir solche Aussagen eher kritisch, aber in diesem Fall traf sie, was Intel betrifft, voll zu.

Der Vorteil, den AMD  durch den Einsatz von HyperTransport genoss, zeigte sich vor allem in Mehrsockel-Systemen. Derweil war Intel noch lange Zeit auf den Front Side Bus angewiesen, dessen Bandbreite sich alle verbauten Prozessoren teilen mussten. Mit der Xeon-5500-Serie schaffte Intel die Schwächen vorangegangener Chips durch die Einführung des QuickPath Interconnect (QPI), der Wiedereinführung von Hyper-Threading und dem neu entwickelten Turbo-Boost aus der Welt. Dadurch profitierten sowohl Single-Thread- als auch Multi-Thread-Anwendungen von der neuen Architektur.

Natürlich drehen sich die Rädchen auch bei Intel weiter. Der Umstieg auf die 32-nm-Fertigung dieses Jahr erlaubte es der Firma, seinen SMB-Prozessoren bei gleichbleibender Leistungsaufnahme weitere Ausführungseinheiten zu spendieren. Das bringt uns zur Xeon-5600-Familie: Sie enthält bis zu sechs physische Kerne und 12 MB gemeinsamen L3-Cache pro Prozessor, gehört aber dennoch in dieselbe 130-Watt-TDP-Klasse wie seine Vorgänger der 5500-Serie.

Das Traum eines jeden echten Geeks: 24 Prozessoren im Windows-Gerätemanager.Das Traum eines jeden echten Geeks: 24 Prozessoren im Windows-Gerätemanager.

Eines gleich vorneweg: In diesem Artikel tauchen keine AMD-CPUs auf. Das liegt aber nicht an mangelndem Interesse unsererseits. Als wir dort anfragten, ob man an einem Vergleich verschiedener Prozessoren im Workstation-Segment teilnehmen wolle, bei dem auch Intels neueste Xeons mitläuft, räumte die Firma ein, in diesem Segment derzeit nicht wirklich stark aufgestellt zu sein. Ein Teil davon, konkurrenzfähige Angebote machen zu können, besteht darin, leistungsfähige CPUs mit halbwegs aktuellen Chipsätzen kombinieren zu können.

Während Intels Xeon 5500- und 5600-Serien auf die Chipsätze 5200 und 5500 bauen können, sind die Optionen bei AMD spärlicher gesät. Zwar hat man immerhin die SR56x0-Serie und die SP5100-Southbridge im Portfolio, die zusammen genommen bei Tyan als Basis für Doppel-Sockel-Mainboards dienen. Dennoch schien man bei AMD einfach nicht daran interessiert, an diesem Vergleich teilzunehmen. Das ist eigentlich mehr als schade. Als AMD damals den Athlon 64 vorstellte, wurde seine exklusive 64-Bit-Architektur vor allem bei den Workstation-Nutzern im Audio-Bereich als großer Pluspunkt gefeiert.

Wie dem auch sei, an Hardware für einen Vergleich mangelt es uns trotzdem nicht. Für den Test finden sich ein: zwei Xeon 5600, zwei Xeon 5500 und ein Core i7-980X. Letzterer soll zeigen, wo und wann ein zweiter Prozessor bei Workstation-Aufgaben tatsächlich zusätzliche Performance bringt.

Wie viel Spaß die Hersteller am Mittelklassechip von Nvidia haben, merkt man an der Vielfalt der neuen GTX-460-Karten. Die Zurückhaltung, die bei den GTX 480 und GTX 470-Chips herrscht, kann man hier jedenfalls nicht bemerken. Der kleinere Bruder aus der 400er-Serie hat eine vernünftige Leistungsaufnahme, geringe Temperaturen und damit bleiben die Lüfter auch schon leise. Dadurch muss kein Hersteller eine schlechte Bewertung befürchten, was bei den größeren GTX-400-Grafikchips bisher automatisch erwartet wird.

Im Test: Geforce GTX 460 OC und SLIIm Test: Geforce GTX 460 OC und SLI

Von der Geforce GTX 460 gibt es zwei Modelle, die durch ihre unterschiedliche Speicherausstattung auch unterschiedlich schnell sind. Das liegt an der Speicheranbindung, die sich aus der Gesamtgröße des Grafikspeichers ergibt. Das kleinere Modell wird mit 768 MByte ausgeliefert, hat einen Speicherbus von 192 Bit und eine Speicherbandbreite von 86.4 GB/s (Angabe GPU-Z). Die etwas größere Variante wird mit 1024 MByte hergestellt, hat einen Speicherbus von 256 Bit und eine Speicherbandbreite von 115.2 GB/s.

Frisch aus der Produktion kommt die GTX 460 Ultra Charged von Point of View TGT, die mit satten 22 Prozent Übertaktung mehr als 17 Prozent zusätzliche Performance aus dem Grafikchip herausholt. Damit kann das 768-MByte-Modell die Standardkarte mit 1024 MByte kräftig im Gesamtergebnis überholen. MSI spielt mit der Cyclone OC die Preiskarte aus und Gainward wagt sich an die Übertaktung der 1024-MByte-Variante heran. Abgerundet wird der Test mit den Werten der Referenzkarten, der GTX 460 SLI mit 768 MByte, einer Menge Doppelchipkarten und den aktuellen Radeon-Grafikchips aus der 5000er-Serie. Somit haben wir insgesamt 34 Karten im Vergleich.

Komponenten-Upgrade richtig gemacht

Erst kürzlich haben wir uns überlegt, ob es sinnvoll ist, einen Upper-Mainstream-PC aus dem Jahr 2007 durch einen modernen Computer zu ersetzen. Wir haben eine P35-Plattform bestehend aus einem Core 2 Quad, einer GeForce 8-Karte und einem Raptor-Laufwerk mit einem funkelnagelneuen System verglichen, das auf dem MSI P55A Fuzion basiert und mit einem Core i7-870, einer Radeon HD 5870 und einem Sandforce SF-1200-SSD von G.Skill ausgestattet wurde. Die Ergebnisse haben bestätigt, was viele bereits vermutet hatten: Die Unterschiede sind deutlich spürbar, allerdings kommt der Austausch des Kompletten PCs nur für Enthusiasten und Profis in Betracht, die ihren Lebensunterhalt mit dem PC verdienen. Welches Ergebnis erhalten wir aber, wenn wir uns die verschiedenen Upgrade-Möglichkeiten einzeln ansehen? Wir haben wieder gleichen Komponenten verwendet und die Vorteile von drei verschiedender Upgrade-Optionen getestet:

  • Motherboard/Prozessor/RAM-Upgrade
  • Grafik-Upgrade
  • HDD/SSD-Upgrade

Manchmal ist es nicht notwendig, das gesamte System zu erneuern. Wir haben für Sie getestet, bei welchen Komponenten sich ein Upgrade am ehesten lohnt.

Bei derartigen Artikeln wird meist kritisiert, dass neuere Hardware sowieso eine bessere Performance bietet als ältere Komponenten und/oder diese effizienter ist. Dem haben wir nichts entgegenzusetzen; es steht aber auch nicht zur Debatte. Stattdessen geht es uns darum, wie groß die Unterschiede sind und ob sich ein Upgrade tatsächlich lohnt oder nicht. In immer mehr Fällen stellt sich heraus, dass eine zusätzliche Performance nur wenig ins Gewicht fällt, immerhin ist für aktuelle Mainstream-Anwendungen heutzutage Performance im Überfluß vorhanden. Anwender, die mit dem Gedanken spielen ihren älteren 911er Porsche gegen ein neueres Modell einzutauschen, bekommen in der Tat mehr Performance und eine höhere Fahrleistung. Allerdings dürften sie nur dann richtig in den Genuß dieser Vorteile kommen, wenn sie mit dem Auto auf die Rennstrecke gehen oder zumindest außerhalb der Stoßzeiten auf der Straße unterwegs sind.

Das gleiche gilt für PCs. Seit es Dual-Core-PCs gibt, sind Verzögerungen durch Multitasking praktisch nicht mehr vorhanden. Letztlich bieten Anwendungen, die von mehreren Prozessorkernen profitieren, einen größeren Performance-Vorteil als man durch die Steigerung der Taktraten jemals hätte erzielen können. Das führt zu mehr als genug Performance für Mainstream-User, während es Enthusiasten und Profis auch weiterhin um die modernste Hardware gehen dürfte.

Es macht also nicht allzu viel Sinn, einen drei Jahre alten PC auszurangiern. Vielmehr gibt es in Sachen Performance Optimierungsmöglichkeiten, die deutlich preiswerter sind. Wir haben uns dazu entschieden, das Upgrade-Paket unseres Artikels «Ist es an der Zeit für einen neuen PC?» in einzelne Bestandteile zu zerlegen und die Vorteile, die jede einzelne Komponente mit sich bringt, separat zu bewerten.

Zur Erinnerung: Das Basis-System ist ein MSI P35 Platinum mit einem 2,66 GHz Core 2 Extreme QX6700 und 4 GB DDR2-Speicher mit einer GeForce 8800GTS und einem 150 GB Raptor-Laufwerk von Western Digital. Mehr zu den Upgrade-Komponenten auf den nächsten Seiten.

Toshiba Satellite Pro C650Toshiba Satellite Pro C650

Als Mitglied der Satellite-Pro-Familie gehört das C650 laut Toshiba zur Klasse der Business-Allrounder. Vom Preis her kommt diese Einordnung hin, denn in Toshibas Online-Shop soll das Notebook 599,99 Euro kosten. In Preissuchmaschinen liegt der Preis nochmals etwa 100 Euro niedriger. Was darf man bei einem solchen Einstiegspreis erwarten?

Einstiegs-Allrounder der Businessklasse.Einstiegs-Allrounder der Businessklasse.Das Design kommt eher bieder als peppig daher, was in der Business-Welt aber nicht von Nachteil sein muss. Außen wie innen dominiert der Hartplastik-Look. Der schwarze Kunststoff weist sowohl auf dem Deckel als auch im Innenbereich eine Riffelung auf. Leider hinterlässt man bei sommerlichen Temperaturen auf dem Material schnell kleine Kondens- um nicht zu sagen Schweißflecke, die als dunkleres Schwarz auffallen und nur durch Wegwischen zu entfernen sind. Abgesehen von den weiß-grauen Buchstaben auf der Tastatur und den obligatorischen Aufklebern gibt es keine farblichen Highlights.

Hinten gibt es keine Anschlüsse.Hinten gibt es keine Anschlüsse.Auch bei den LEDs hält sich Toshiba extrem zurück: Nur Num-Lock, die Batterieanzeige und die Stromversorgung bekommen eigene Leuchten. Der Power-Knopf wirkt  im breiten Plastikband zwischen Tastatur und Display geradezu verloren. Die abgerundeten glatten schwarzen Trackpad-Tasten wirken sehr breit und passen irgendwie nicht so recht zum restlichen Look. Zusammen genommen erzeugt das eine Optik, der keinen Zweifel aufkommen lässt, dass man es hier mit einem preiswerten Modell zu tun hat.

Das Gewicht hat Toshiba gut im Griff. Mit Akku bringt das Satellite Pro C650 etwa 2,4 kg auf die Waage. Netzteil und Kabel wiegen nochmals etwa 420 Gramm. Insgesamt trägt man also etwa 2,8 Kilo mit sich – allerdings kann man das Netzteil dank der guten Laufzeiten meist zu Hause lassen.

Auf die Verarbeitung wirkt sich die Materialwahl größtenteils nicht aus. Das Gehäuse verwindet sich nur wenig. Druck unterhalb der Leertaste offenbart aber einen mangelnden Unterbau: Das Plastik wölbt sich nach unten und wird abrupt von den Streben im Innern gestoppt.Die Tastatur federt  überall leicht nach, was aber eher optisch als ergonomisch oder funktional stört. Der rechte Außenrahmen über dem optischen Laufwerk knackt schon bei leichter Belastung deutlich. Verstärkt man den Druck, schiebt man die Lade des optischen Laufwerks mit einem weiteren Knacken nach unten. Das gefällt gar nicht.

Display-Deckel im Hartschalenkoffer-LookDisplay-Deckel im Hartschalenkoffer-LookDem Displaydeckel tut das Hartplastik allerdings ganz gut, denn er ist angenehm steif. Erst wenn man ihn sehr stark verwindet, zeigen sich Spannungsmuster auf dem Display, wobei dann aber auch die Kontaktflächen von Deckelschale und –Innenseite deutlich aneinander reiben. Auch der punktuelle Druck auf die Außenhaut muss schon sehr hoch sein, bevor sich das auf den Bildschirm auswirkt. Die Scharniere halten das Display zuverlässig im gewünschten Öffnungswinkel. Um es aber überhaupt zu öffnen, braucht man beide Hände. Insgesamt also ein gemischtes Ergebnis, das die Einordnung als preiswerter Allrounder unterstreicht.

Große Tastatur mit Ziffernblock.Große Tastatur mit Ziffernblock.Die Tastatur macht einen guten Eindruck, und ihre Tasten sind groß und flach. Obwohl zwischen ihnen keine Aussparungen à la Chiclet-Tastatur liegen, löst man hier durch eine angenehmere Schreibposition im Gegensatz zum HP G62-130EG nur selten versehentlich umliegende Tasten aus. Das Layout entspricht dem Desktop-Standard, bringt STRG/CTRL-Taste also ganz links außen unter, und Toshiba spendiert dem Notebook auch einen vollwertigen Ziffernblock. Nur die DEL/ENTF-Taste liegt ungewohnt direkt über Backspace, aber daran kann man sich schnell gewöhnen.

Das Tippgefühl ist insgesamt gut, und auch der Hub gefällt. Allerdings würde ein wenig mehr Widerstand den Tasten gut stehen. So wirkt die Tastatur zu weich, denn man wird beim Tippen erst durch die Tastaturwanne gestoppt. Das Mitfedern der Tastatur wurde bereits erwähnt, stört aber nur optisch, wenn man beim Tippen den Finger-Kontrollblick macht.

HDD und RAM liegen gut erreichbar hinter eigenen Klappen.HDD und RAM liegen gut erreichbar hinter eigenen Klappen.Das Trackpad könnte ein wenig größer ausfallen, vor allem in der Höhe. Die Präzision ist gut, ab und an reagierte es aber etwas überempfindlich auf Berührungen mit dem Handballen und verschob dann den Cursor. Außerdem ist der Zeiger standardmäßig recht schnell eingestellt. Die Trackpadtasten fallen vergleichsweise breit aus und liegen in einer leichten Vertiefung. Sie lösen mit angenehmen, relativ hohem Widerstand aus und geben als akustisches Feedback ein dumpfes Klicken von sich.

Der Mausersatz beherrscht neben dem Scrollen in der Horizontalen und der Vertikalen auch einige Multi-Touch-Gesten wie Pinch-Zoom und das Drehen von Bildern. Zusätzlich lässt sich im Treiber noch eine Funktion namens „Momentum“ anschalten. Wer darunter etwas wie das Inertial Scrolling beim Trackpad der aktuellen MacBooks erwartet, irrt aber. Ist Momentum aktiv, nimmt der Mauszeiger sozusagen Schwung mit: Bewegt man ihn in eine Richtung und lässt dann los, setzt er seine Bewegung noch ein wenig fort, bevor er zur Ruhe kommt. Scrollen mit Schwung gibt es aber leider nicht.

Das Hero war einst etwas besonderes unter den Smartphones des Herstellers HTC. Durch die erstmalig zum Einsatz kommende “Sense”-Oberfläche wurde nicht nur die einfach anmutende Android-GUI grafisch aufpoliert, sondern es bot auch bereits ab Werk Zusatzfunktionen wie die Synchronisation von Facebook-Kontakten mit dem lokalen Adressbuch. Durch weitere  Annehmlichkeiten wie eine fast frei gestaltbare Oberfläche auf sieben Screens, vielen optisch gefälligen kleinen Programmen (Widgets), die sich direkt auf dem Desktop verankern lassen, und ein eingängiges Bedienkonzept, bietet die “Sense”-Oberfläche einen echten Mehrwert. 

Bremst „Sense“offizielle Updates aus?

Die “Sense”-Oberfläche nutzt beim HTC Hero als Unterbau das Betriebssystem Android, das stetig weiterentwickelt wird. Für Käufer eines Android-Telefons hat dies, zumindest theoretisch, den Vorteil, dass das Mobiltelefon von diesen Weiterentwicklungen profitiert – vorausgesetzt der Hersteller bietet die neue Android-Version auch als Update an. Im Falle des Hero, das ursprünglich mit der Android-Version 1.5 ausgeliefert wurde, war zum Beispiel lange unklar, ob HTC überhaupt ein Betriebssystem-Update bereitstellt. Irgendwann war es soweit, und HTC verkündete ein Update auf Android 2.1. Doch zwischen Ankündigung und Bereitstellung vergingen mehrere Monate,und Unmut machte sich unter den Hero-Nutzern breit. Der Grund für diese Verzögerungen, so heißt es aus inoffiziellen Quellen, ist die HTC “Sense”-Erweiterung, die auf jede Android-Betriebssystemversion gesondert angepasst werden müsse.

Custom ROMs

Wer nicht auf ein offizielles Release von HTC warten wollte, der schaute sich in einschlägigen Foren um und wurde dort fündig. Schon Monate bevor HTC seine offzielle Betriebssystemversion 2.1 mit Sense für das HTC Hero präsentieren konnte, boten verschiedene Entwickler von sogenannten Custom-ROMs für dieses Smartphone Android 2.1 als Image zum flashen an – inklusive Sense-Oberfläche!

HTC ließsich mit der offiziellen Version seines Hero-Updates auf Android 2.1 so lange Zeit, dass bereits Android in Version 2.2, auch unter dem Codenamen FroYo (von Frozen Yoghurt) bekannt, in den Startlöchern stand. Google kündigte an, dass Froyo unter anderem die Performance steigern würde und das neue Betriebssystem zwei bis fünfmal schneller sein solle als die Vorgängerversion Android 2.1. HTC ließdarauf hin verlauten, Android 2.2 für verschiedene neuere Smartphones wie Legend, Desire oder Wildfire zur Verfügung zu stellen. Besitzer älterer HTC-Smartphones wie dem HTC Dream (G1), HTC Sapphire (myTouch 3g, Magic) oder eben dem HTC Hero (G2 Touch) dürfen nach aktuellem Stand kein offizielles Betriebssystem-Update mehr erwarten.

Asus ARES: Die beste Grafikkarte der Welt?

Für erfahrene Hardware-Tester gehört das Ausprobieren neuer Hardware zum Alltag. Daher kommt es nur selten vor, dass ein neues Testobjekt eine angespannte Freude in einem weckt. Völlig anders war dies beim Auspacken der neuen ARES-Grafikkarte von Asus.

Doch eines nach dem anderen. Asus hatte uns mitgeteilt, dass man uns eine Grafikkarte zu Testzwecken zukommen lassen würde. Soweit nichts Besonderes. Die Überraschung stellte sich jedoch beim Eintreffen des Pakets ein. Das Paket war riesig und ähnelte mehr einem Laptop. Die Verpackung gab außer einem Republic of Gamers—Aufkleber (RoG) oben links und einem kleineren Radeon-Logo unten keinen Aufschluss über den Inhalt.

Nach dem Öffnen der Verpackung kam ein Attaché-Koffer mit verstärkten Ecken aus Metall zum Vorschein, der uns unweigerlich an James Bond denken ließ. An der unteren rechten Ecke schmückt eine Plakette mit dem Aufdruck ARES den Koffer. Am Griff befindet sich eine kleine Broschüre mit ein paar Hinweisen auf das Produkt und zu diesem Zeitpunkt will man den Koffer nur noch so schnell wie möglich aufmachen. Asus schafft es, durch die Präsentation große Neugier zu wecken.

Nach dem Öffnen des Koffers schweift der Blick über diverse Gegenstände, die alle sicher und gut verpackt in schwarzem Schaumstoff untergebracht sind, und es dauert nicht lange, bis man ungläubig auf die immense Grafikkarte starrt. Eine gelungene Überraschung in der alltäglichen Routine gepaart mit einem Anflug kindlicher Freude, die uns sogleich überkam. Die Aufmachung verspricht schon mal viel, doch  kann die Karte die im Vorfeld geweckten Erwartungen auch erfüllen?

Mit dem Intel Atom D525 hat Intel nun eine neue, sparsame Nettop-CPU im Portfolio, die den D510 im Portfolio überholt und als Topmodell antritt. Die neue Dualcore-CPU der Pine Trail Plattform taktet mit 1,8 GHz leicht höher als der noch mit 1,66 GHz arbeitende Vorgänger. Dazugekommen ist außerdem die Unterstützung für DDR3-RAM. Hyper-Threading ist beim D525 genauso wieder mit an Bord wie die integrierte Grafikeinheit des Pineview-Kerns. Unverändert geblieben sind auch die 2 x 512 KB L2-Cache und die fehlende Unterstützung von SSE4. Betrachtet man das Einsatzgebiet, könnte man schlussfolgern, dass durch den erhöhten Takt die allgemeine Leistung von Nettop-Systemen leicht steigen könnte.

Da wir von Jetway mit dem NC98-525-LF ein nagelneues Atom-Motherboard zum Testen bekommen haben, liegt nichts näher, als dem neuen Elementarteilchen und seiner Umgebung genauer auf den Zahn zu fühlen. Mit dabei ist neben dem Atom D525 eine ION 2 Grafik. Zusätzlicher Vorteil dieser Konstellation: wir können zudem testen, ob die GPU das ausgleichen kann, was die auf dem Papier recht schlichte Atom-CPU z.B. im Videowiedergabebereich an Boden verliert. Doch dazu später mehr.

Wichtig ist vor allem zu wissen, dass der Atom im Vergleich mit sämtlichen anderen Prozessoren zwischen Celeron und Core i7 trotz durchschnittlicher Taktraten erheblich langsamer arbeitet. Dafür sind Atom-Prozessoren sehr genügsam und kommen unter Volllast mit wenigen Watt Verlustleistung aus. Dies spart bei wenig anspruchsvollen Arbeitslasten zwar viel Strom, ist aber nicht zwangsläufig effizient. Der Artikel Atom im Desktop: Lieber nicht vergleiche Performance pro Watt mit einem einfachen Desktop-System, welches selbst den Atom D510 deklassiert. Die Frage ist daher, ob sich der schnellere D525 besser schlagen wird.

Wir lassen in unserem Bruder-Duell den D525 gegen den jüngeren D510 antreten und vergleichen synthetische Benchmarks, Anwendungs-Benchmarks und Applikationen und messen natürlich auch den Energieverbrauch. Ob der Neue dabei groß herauskommt oder in der Masse abtaucht, das wird sich auf den nächsten Seiten beweisen müssen.

Ist es an der Zeit für einen neuen PC?

Ist mein System noch gut genug?

Immer mehr Anwender stellen sich die Frage, ob ihre Systeme noch gut genug sind oder es sinnvoll ist, in eine neue Maschine zu investieren. Zahlreiche Anwender haben sich in der ersten Hälfte des letzten Jahrzehnts wegen der großartigen Performance und dem ansprechenden Gesamtwert für den Athlon 64 bzw. den Athlon 64 X2 entschieden. Allerdings kam 2006 die Core 2-Generation von Intel auf den Markt und stieß AMD mit einer besseren Performance und einer deutlich verbesserten Effizienz vom Thron. Infolgedessen sind Core-2-Systeme sehr verbreitet. Wie läßt sich ein derartiges System mit dem Upper Mainstream von heute vergleichen? Wir haben uns ein paar Komponenten gegriffen die 2007 aktuell waren und damit ein Sockel 775-System zusammengestellt, das wir dann mit einer gehobenen Sockel 1156-Maschine verglichen haben.

Sollte man jetzt aufrüsten? Wir haben leistungsstarke Systeme aus den Jahren 2007 und 2010 verglichen.

Wieviel besser ist die heutige Hardware?

Dies ist die entscheidende Frage, die wir heute beantworten werden. Es gibt ein paar Dinge, mit denen wir gleich anfangen können. Prozessoren liegen hinsichtlich der  Leistungsaufnahme auch weiterhin in einem Bereich zwischen 65 W und 130 W, bieten mittlerweile allerdings mehr Performance und zusätzliche Funktionen. Statt die Beschleunigung über die Taktrate voranzutreiben sind Desktop-CPUs inzwischen mit sechs Kernen ausgestattet und nicht wie früher einem oder zwei Kernen. Möglich wurde dies durch die Verbesserungen bei der Halbleiterfertigung wodurch die Prozessoren von AMD und Intel von 65 nm auf 45 und 32 nm schrumpfen konnten. Intel hatte hierbei den Vorteil schneller zu sein, wodurch das Unternehmen mehr Transistoren unterbringen und seine Mikropozessoren mit mehr Cache ausstatten konnte. Zusätzliche Prozessorkerne sind großartig, um die Performance zu skalieren, allerdings müssen auch die Anwendungen auf mehrere Kerne ausgelegt sein, um davon profitieren zu können. Mit anderen Worten: Die Performance pro Takt ist ingesamt etwas gestiegen, die Performance insgesamt hat sich vervielfacht, und die Leistungsaufnahme ist konstant geblieben oder sogar etwas zurückgegangen.

Im Grafikbereich hat es ähnliche Entwicklungen gegeben. Obwohl Grafiklösungen normalerweise auf einem einzelnen Grafikprozessor basieren, nutzen diese  mehrere ROPs (auf ATIs Terascale 2) bzw. Stream-Prozessoren (Nvidia Fermi) auf einem Chip und erreichen dadurch eine höhere Leistung. Zudem unterstützen beide Hersteller Geschwindigkeitssteigernde Multi-GPU-Modi mit zwei, drei oder vier Grafikkarten pro System. Weiterhin haben beide Unternehmen die hierdurch zur Verfügung stehenden mathematischen Fähigkeiten genutzt und Funktionen entwickelt, die die Fließkommaberechnung beschleunigen (ATI Stream, Nvidia Cuda). Die Leistungsaufnahme hat sich bei den Grafikkarten nicht groß verringert, allerdings hat sich die Performance pro Watt definitiv vervielfacht.

Beim Speicher ist mittlerweile fast nur noch DDR3 vertreten. Die Geschwindigkeit ist zwar höher als noch vor ein paar Jahren, allerdings hat ein ultra-schneller Speicher nur einen beschränkten Einfluss auf die Gesamtleistung, wobei DDR3-1333-Speicher für die meisten Mainstream-User normalerweise ausreicht. Um einen Flaschenhals zu vermeiden sollte man sich für 4 GB RAM oder mehr entscheiden. Dann wäre da doch die Festplatte, die Hardcore-Enthusiasten mittlerweile durch Flash-SSDs ersetzt haben. Rotierende magnetische Medien werden mittlerweile durch Silizium ersetzt, das neben einer besseren Widerstandsfähigkeit und Zuverlässigkeit auch eine niedrigere Leistungsaufnahme im Leerlauf und unter Last sowie einen geräuschlosen Betrieb, ein praktisch nicht mehr vorhandene Zugriffszeit sowie eine großartige I/O-Performance bietet. In der Praxis bestätigt sich dies bei Lesevorgängen, in denen SSDs unschlagbar sind. Allerdings gibt es bei der Schreib-Performance noch einige Schwankungen, und die Kosten pro Gigabyte sind auch weiterhin sehr hoch.

Plattform-Features sollten wir ebenfalls nicht vergessen. 2007 gab es SATA 3 Gb/s mit Command-Queuing-Unterstützung und fortgeschrittene RAID-Funktionen waren  bei Lösungen für Enthusiasten normalerweise implementiert. Zudem verfügte das System über zahlreiche USB 2.0-Anschlüsse und eventuell auch eSATA. Neben Gigabit-Networking und PCI Express ist auch HD-Audio bereits schon etwas länger auf dem Markt. Allerdings gab es PCI Express 2.0 für das Mainstream-Segment von Intel erst mit dem P45-Chipsatz (AMD 780 und X38 waren allerdings schneller). Aktuelle Plattformen verfügen über verbesserte Energiesparfunktionen, umfangreiche Übertaktungsfunktionen und manchmal auch USB 3.0 oder SATA 6 Gb/s. Die unserer Ansicht nach derzeit wichtigste Funktion heißt USB 3.0, die einen spürbaren Flaschenhals beseitigt.

Los Gehts

Wir haben ein 3 Jahre altes P35-Motherboard mit einem Core 2 QX6700 Quad-Core Prozessor versehen und mit einem Western Digital WD1500 Raptor-Laufwerk sowie einer Nvidia GeForce 8800 GTS von Zotac ausgerüstet. Das System haben wir gegen ein neues MSI P55A Fuzion mit einer Core i7-870 CPU, einer 100 GB Phoenix-SSD von G.Skill und einer MSI R5870 Lightning mit modernster GPU-Technik von ATI antreten lassen. Welche Rolle spielen drei Jahre an Fortschritt im Hinblick auf die Gesamtergebnisse?

Die Anzahl WLAN-fähiger Endgeräte nimmt sowohl in Privathaushalten als auch in Unternehmen stetig zu. Waren vor wenigen Jahren im Prinzip nur Notebooks vertreten, handelt es sich heute um Geräte wie Handys, Tablets, MP3-Player oder ganze Entertainment-Systeme, die sich kabellos mit dem Netzwerk verbinden lassen. Den Internetzugang teilen sich diese Clients für gewöhnlich über einen WLAN-Router, wie sie heute jeder DSL-Provider für kleines Geld im Angebot hat. Doch wie sieht es unterwegs aus? Moderne Netbooks und Tablet-PCs wie etwa das Apple iPad verfügen zwar mittlerweile schon häufig über einen SIM-Karten-Einschub und ein UMTS-Modul für das mobile Internet. Auch per UMTS-Stick lässt sich der mobile Internetzugang realisieren. Doch sobald mehrere Geräte gleichzeitig online gehen sollen oder bei Gadgets wie MP3-Player, die nicht über einen USB-Slot verfügen, wird es schwierig. Die Lösung heißt mobiler WLAN-UMTS-Hot-Spot oder wie es die Firma Novatel nennt: MiFi.


Bei diesen Geräten handelt es sich um kompakte, Akku-betriebene Router, die für eine begrenzte Anzahl an Clients ein kabelloses Netzwerk zur Verfügung stellen und diese über eine Mobilfunkverbindung ins Internet bringen. Der Einfachheit halber nennen wir diese Geräte im weiteren Verlauf mobile Hot-Spots. Die Vorteile eines mobilen Hot-Spots liegen auf der Hand: Dank eigener Stromversorgung wird der Akku des Clients nicht zusätzlich belastet. Mehrere Personen gelangen über nur eine UMTS-Verbindung ins Internet. Auf den Geräten lassen sich außerdem Daten ablegen, die allen WLAN-Usern zugänglich sind.

Das Angebot an mobilen Hot-Spots ist derzeit noch sehr überschaubar. In unserem Test sind alle Geräte vertreten, die derzeit regulär für den deutschen Markt angeboten werden. Dabei handelt es sich um den D-Link DIR-457, auch myPocket Router genannt, den Huawei E5 von o2 und den Novatel MiFi 2352 von Vodafone. Obwohl die beiden letzt genannten Modelle über Netzbetreiber vertrieben werden, sind sie auch ohne Subvention und ohne irgendwelche Net- oder SIM-Locks zu haben. Der Huawei E5 wird auch von Trekstor unter der Bezeichnung Mobile WLAN HotSpot angeboten. Es gibt auch Modelle, die nur über ausländische Mobilfunkbetreiber bezogen werden können. Diese sind zwar zum Teil deutlich günstiger als die hier getesteten Geräte. Dies erklärt sich jedoch meist mit einem Netlock, sodass die Geräte nur mit bestimmten SIM-Karten benutzt werden können. Das beliebteste Gerät aus dem Ausland ist der Huawei E5830, ein nahezu identischer Vorgänger des im Test vertretenen Huawei E5, der in UK für gerade mal 49 Pfund über die Theke wandert. Allerdings liefert der Provider 3 UK nur an englische Adressen aus, und das Gerät ist natürlich auf das Netz von 3 UK gelockt. In einschlägigen Foren gibt es jedoch zahlreiche Tipps und Anleitungen für ein kostenpflichtiges oder auch kostenfreien entsperren.

Die Top 5 Web-Browser im Vergleich

Wer dachte, die Browser-Kriege seien in den 90er zu Ende gegangen, der irrt. Bestenfalls gab es eine Verschnaufpause, und die beteiligten Firmen haben sich geändert. Netscape ist passé, und dessen Erbe hat die Mozilla-Foundation mit dem Firefox angetreten. Microsoft ist nach wie vor mit dem Internet Explorer vertreten, der inzwischen bei Version 8 angelangt ist. Aus dem hohen Norden stammt Opera, dessen aktuelle Version 10.60 noch sehr jung ist. Relativ neu auf dem Browser-Schlachtfeld sind die Firmen Apple mit Safari und Google mit Chrome, die beide inzwischen auch schon die Versionsnummer 5 tragen.

Da allein dieses Jahr schon viel passiert ist, wollen wir eine kleine Chronologie der Ereignisse von März bis zum Juli geben:

  • 16. März: Microsoft veröffentlicht eine developer preview genannte Vorschau auf den Internet Explorer 9 und verspricht höhere Geschwindigkeit sowie bessere Kompatibilität mit aktuellen Webstandards
  • 22.März: Opera 10.51 tritt an und liefert sich mit Chrome in Sachen Geschwindigkeit ein Kopf-an-Kopf-Rennen
  • 5.Mai: Google bringt eine Beta-Version von Chrome 5 und „dokumentiert“ in einigen Filmchen auf durchaus humorige Weise, dass der Browser schneller als der Schall, ein Blitz und sogar eine fliegende Kartoffel ist

  • 25. Mai – Google veröffentlicht die finale Version von Chrome 5
  • 28. Mai – Opera bringt sein eigenes virales Video, das ganz offensichtlich die Chrome-Videos auf die Schippe nimmt.

 

  • 7. Juni – Apple schickt Safari 5 ins Rennen und nennt ihn den „schnellsten Browser der Welt“

  • 23. Juni – Mozilla bringt Firefox 3.6.4 mit Crash protection für Adobe Flash an den Start
  • 26. Juni – Firefox bekommt ein Update auf Version 3.6.6.
  • 1. Juli – Opera gönnt seinem Browser ein Update auf Version 10.60 und freut sich: „Der schnellste Browser der Welt ist jetzt noch schneller.“

Wie man sieht, reklamieren hier gleich mehrere Firmen den Titel des schnellsten Browsers für ihr eigenes Produkt. Natürlich können dabei nicht alle Recht haben. In der Tat ist es gar nicht so schwer, mit dem richtigen Benchmark Ergebnisse zu erzielen, die jeden Browser gut aussehen lassen, sogar den guten alten IE6! Dazu muss man sich nur auf einen Benchmark einschießen oder – siehe fliegende Kartoffel – sich einen eigenen ausdenken, und schon hat man den weltschnellsten Browser. Um nicht in diese Falle zu tappen, lassen wir die Kartoffeln schön im Keller und setzen stattdessen eine möglichst breite Auswahl an Tests ein. Voraussetzung dabei ist nur, dass der Benchmark auf allen Browsern läuft.

Geschwindigkeit ist aber nicht alles, denn was nutzt einem ein schneller Browser, wenn er sich nicht an die Web-Standards hält? Deshalb prüfen wir neben der Render-Performance auch die Kompatibilität der Kandidaten. Außerdem müssen sie noch beweisen, wie gut sie mit Speicher umgehen können. Keine Sorge, am Ende präsentieren wir die Ergebnisse einzeln und schön geordnet. Nach einem Blick auf das Testsystem kommen wir dann zu den Benchmarks.

Übrigens: Alle Kandidaten stehen natürlich auch im Download-Bereich von Tom’s Hardware bereit!

  • 1
  • 2

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen