Monat: Oktober 2009

Weihnachten nähert sich mit  großen Schritten und für viele geht bereits schon Monate vor dem Fest die Suche nach möglichst sinnvollen Geschenken los. Hierbei stellt man jedoch allzu oft fest, dass man die Ausgaben nicht allzu hoch ansetzen kann was Unterhaltungselektronik im Allgemeinen und Computer im Speziellen als Geschenke in weite Ferne rücken lässt. Andererseits fällt überall, in Büros und Kanzleien, in Firmen oder im privaten Umfeld eine Unmenge an Technik an, die turnusmäßig ersetzt und damit verschrottet werden muss. Dabei sind viele Dinge für bestimmte Einsatzgebiete an sich noch brauchbar und könnten, zumindest teilweise, als Ersatzteile dienen. Warum also nicht aus alter Technik einen neuen PC zusammenschrauben und verschenken?

Wir haben bereits vor einigen Jahren diese Idee aufgegriffen und im privaten Umfeld aus ausgemusterten oder billig zu erwerbenden Computern mit wenig Aufwand wieder brauchbare Hilfsmittel oder einfache Spieleplattformen zusammen gestellt. Auf diesem Weg sind bereits PCs für Kinder im Alter zwischen 6 und 12 Jahren entstanden, bei denen die richtig ausgewählte Software und deren Nutzung wichtiger waren, als die Möglichkeit, grafisch aufwändige Shooter spielen zu können. Die Computer verschenkten wir allesamt, wobei ein Großteil davon in die Ukraine ging. Denn ca. 900 km östlich der deutsch-polnischen Grenze ist ein Computer keine Selbstverständlichkeit. Darüber hinaus gibt es noch heute in Europa Schulen, die über keinen einzigen PC verfügen.

Aber man muss eigentlich gar nicht so weit schweifen. Wer hat nicht in der Bekanntschaft eine Familie mit mehreren Kindern, bei denen die Jüngsten keine Möglichkeit haben, ihre ersten Schritte am PC zu gehen? Hier sollte sich eigentlich jeder gefordert fühlen, der über die entsprechenden Möglichkeiten verfügt.

„Kinderzimmer-PC“ aus dem Vorjahr im Einsatz in der Ukraine. Kostenloser Athlon XP 3000+ aus einer Büro-Auflösung, nachgerüstet mit 1 GB DDR 400 und einer gebrauchten Geforce 6200 AGP-Grafikkarte sowie Maus, Tastatur, Lautsprecher und 19″ Samsung-Röhrenmonitor. Die Gesamtkosten inklusive aller Teile lagen bei etwa 90 Euro.

Viele unserer Stammleser wären, so wie wir auch, technisch in der Lage, ein solches Projekt zu realisieren. Deshalb möchten wir in diesem Beitrag veranschaulichen, wie einfach und mit relativ wenig Aufwand ein solches Vorhaben durchgeführt werden kann. Natürlich soll am Ende auch der Spielspaß nicht zu kurz kommen. Deshalb haben wir auch verschiedene Spiele auf deren Tauglichkeit für solch ein System hin getestet. Wir möchten jedoch auch darauf hinweisen, dass wir keine Benchmark-Rekorde aufstellen wollen. Vielmehr soll bewiesen werden, dass man auch am unteren Ende der binären Nahrungskette noch vernünftige Produkte erstellen und verwenden kann. Egal ob unter Windows oder Linux.

Da wir dieses Jahr zwei recht unspektakuläre, ausrangierte Office-PCs an eine Schule verschenken wollen, stellen wir unseren Lesern auf den folgenden Seiten deshalb unser letztjähriges Projekt vor.

Wir würden uns freuen, wenn dieser Artikel zumindest ein kleiner Anstoß sein könnte, ältere Technik nicht einfach achtlos zu entsorgen, sondern diejenigen zu unterstützen, denen die finanziellen und technischen Möglichkeiten fehlen. Als Lohn der Arbeit winken strahlende Kinderaugen. Was will man mehr?

Nachdem nun schon der Athlon II X2 und der Athlon II X4 vorgestellt worden sind, stellt der Athlon II X3 wohl kaum eine Überraschung dar. Alle wussten, dass auch diese Prozessor-Familie vor der Tür stand, und so erwähnten wir ihn auch schon in unserem Artikel Quad-Core für Alle: Der AMD Athlon II X4.

Auch wenn der Einführung des Prozessors der Aha-Moment fehlt – die technischen Daten lassen aufhorchen. AMDs Spitzenmodell in dieser Familie, der Athlon II X3 435, verfügt nämlich über zwei schlagende Argumente: Eine vergleichsweise hohe Taktfrequenz von 2,9 GHz, also 100 MHz mehr als beim Phenom II X3 720 BE, und einen offiziellen Listenpreis von 87 US-Dollar. Schon heute, nur etwa eine Woche nach dem Launch, findet man die neue CPU aber in Preissuchmaschinen ab 70 Euro als Box-Variante mit Kühler.

AMD besetzt im Preissegment bis 100 Euro ohnehin schon fast jeden Preispunkt mit diversen Athlon-II-Modellen sowie Varianten von Phenom II X2 und X3. Passt der Athlon II X3 435 mit seinem Sparpreis in eine der Lücken? Oder bietet er gar den besten Gegenwert für’s Geld? Genau darum soll es hier gehen.

13 Mini-ITX-Gehäuse im Test

Mini-ITX ist der ideale Formfaktor für Home Theater PCs (HTPCs), denn er ist noch keiner als Micro-ATX. Das äußerst kompakte Design ermöglicht kleine Gehäuse. Sitzt unter der Haube noch ordentliche Stromspartechnik, sind leise PCs zur Wiedergabe von Full-HD-Videos kein Problem mehr, vorausgesetzt man besitzt ein Mini-ITX-Motherboard mit ausgereifter Technik.

13 Mini-ITX-Gehäuse im Test13 Mini-ITX-Gehäuse im Test

Das Angebot an Gehäusen für Mini-ITX-Platinen ist im Vergleich zu Midi- oder Tower-Gehäusen bislang noch bescheiden. Etliche Hersteller können oder wollen keine Produkte für diesen Formfaktor produzieren. 13 Gehäuse für Mini-ITX-Platinen haben aber den Weg ins Tom’s-Hardware-Testlabor gefunden.

Die Testkandidaten:

  • Antec Mini-Skeleton-90
  • Antec ISK 300-65
  • Aplus Cupid I
  • Aplus Cupid II
  • Aplus Cupid III
  • Coolermaster TC-100
  • Jou Jye NU-0528i
  • NesteQ MS550
  • Silverstone SST-SG05B Sugo
  • Silverstone Petit PT05B
  • Silverstone Petit PT09B
  • Lian Li PC-Q07R
  • OrigenAE M10

Vergleich Tablet-Notebooks: Das Fazit

Lenovo ThinkPad X200tLenovo ThinkPad X200tGehen wir zeitlich rückwärts unsere Kandidatenliste durch und fangen bei Lenovos ThinkPad X200t an: Der flexible Chinese punktete mit hervorragender Verarbeitung, einer erstklassigen Tastatur, einem sehr guten und präzisen Touch-Display, brauchbarer Ausstattung inklusive UMTS-Modul und schnellem WLAN, überraschend gutem Klang, guter Performance, großer Festplatte und der guten ThinkVantage-Software. Dem standen allerdings der hohe Straßenpreis und die kurzen Batterielaufzeiten mit dem Standard-Akku gegenüber, womit sich das X200t für den längeren mobilen Betrieb disqualifiziert oder eben Zusatzkosten fällig werden. Für die getestete Variante verlangt Lenovos in seinem Online-Shop knapp 2095 Euro, bemüht man eine Preissuchmaschine, findet man dasselbe Modell ab etwa 1750 Euro.

Dell Latitude XT2Dell Latitude XT2Unseren zweiten Kandidat stellte uns Dell in Form eines Latitude XT2. Leider hatte das Gerät von vornherein mit Konfigurationsproblemen und fehlenden Treibern zu kämpfen, die laut Dell aber nur die Testgeräte betreffen. Die maue Ausstattung in der Basisvariante, die nicht einmal WLAN oder Bluetooth umfasst, überzeugt nicht. Der mit 1,4 GHz langsamste Prozessor des Testfeldes reicht für die Alltagsaufgaben, doch fragt man sich, warum Dell ihm bei unserem Testgerät eine schnelle SSD an die Seite stellt, die ihr Potential nicht entfalten kann.  Bei der Verarbeitung gab sich das Dell eine weitere blöße, sowohl beim knarzenden und beigsamen Chassis als auch bei der klappernden Tastatur. Die Laufzeiten sind durchschnittlich, mehr nicht. Dafür ist das Dell das leichteste und preiswerteste Gerät im Test. Nutzt man dann das Baukastensystem, um fehlende Optionen zu ordern, steigt der Einstiegspreis von 1449 Euro allerdings in vergleichbare Regionen wie bei HP und Lenovo – bzw. überrundet diese, wenn man sich nach preiswerten Angeboten im Web umschaut.

Hewlett-Packard Elitebook 2730pHewlett-Packard Elitebook 2730pDie Kaufempfehlung geht schließlich an unseren ersten Prüfling: Das Hewlett-Packard Elitebook 2730p überzeugte im Test mit einer sehr guten Verarbeitung mitsamt hochwertigen Materialien, der besten Akku-Laufzeit, einem hellen Display mit weiten Blickwinkeln, einem flinken Prozessor und einer sinnvollen Ausstattung inklusive UMTS-Modul. Der Touchscreen funktionierte gut und zuverlässig, subjektiv hat hier allerdings Lenovo die Nase vorn. Kritikpunkte gibt es aber auch bei HPs Tablet-PC: So hat dieses Notebook nur zwei USB-Ports, und das Trackpad fällt recht klein aus. Der Hersteller bietet das Elitebook 2730p im eigenen Webshop für 2023 Euro an. Hier lohnt ein Blick in Preissuchmaschinen, die das getestete Modell mit der Bezeichnung FU442EA schon für unter 1500 Euro finden.

Tablet, die Dritte: Lenovo ThinkPad X200t

Eigentlich als Vergleichstest dreier Tablet-PCs gedacht, wurde nun doch eine Artikelreihe daraus, da uns die Kandidaten nur einzeln erreichen. Hewlett-Packards Elitebook 2730p und das Dell Latitude XT2 haben wir bereits getestet, nun ist auch das Lenovo X200t Tablet an der Reihe. Als teuerster unserer drei Prüflinge muss es zeigen, dass sich der Aufpreis auch lohnt.

Design

Jedes Mitglied einer ThinkPad-Serie erkennt man auf den ersten Blick. Man könnte sagen, dass IBM mit dem Design den Prototyp des Business-Notebooks geprägt hat. Markant, eckig und komplett schwarz besteht kein Zweifel daran, um was für einen Mobilrechner es sich beim X200t Tablet handelt. Weitere Markenzeichen sind der rote Trackpoint in der Mitte der Tastatur, seine drei unter der Tastatur gelegenen Tasten sowie der blaue ThinkVantage-Knopf. 

Links unter dem Display sitzen vier Buttons plus ein verriegelbarer Einschaltknopf. Direkt darunter ist eine Reihe Statusleuchten eingelassen. Auf der rechten Seite ist ein Fingerprint-Scanner zu finden, der auch im Tablet-Modus zur schnellen Anmeldung nutzbar ist. In die Deckeloberseite sind das Lenovo-Logo und der ThinkPad-Schriftzug eingelassen. Außerdem informieren drei kleine Leuchten über Schlafzustand, Batterieladung und Verbindung mit der Steckdose.

Ein Overclocking-Test wird immer von gemischten Gefühlen begleitet, denn es gibt so viele Faktoren, die den Nutzen beeinflussen oder den Spaß ziemlich schnell beenden können. Da wäre zum Beispiel der Kühler, der schon mal besser als das Referenzmodell sein sollte. Hat er mehr und dickere Heatpipes sowie eine größere Kühlfläche, dann wird die Hitze vom Grafikchip besser verteilt. Das ist wichtig, da ein Referenzkühler so konzipiert ist, dass er den Grafikchip bei Standardwerten und angemessener Lautstärke auf einer Temperaturschwelle von 80 bis 90 Grad halten kann. Erzeugt man nun durch Übertaktung mehr Hitze, wird einfach nur der Lüfter lauter, bis der seine maximale Drehzahl erreicht, dann ist mit dem Overclocking Schluss. Der Lüfter versucht dann die Hitze durch mehr Pusten vom kleinen Kühlkörper abzutragen. Viel Spielraum gibt es hier allerdings nicht, da der geringe Anstieg des Luftdurchsatzes kaum eine fehlende Kühlfläche ausgleichen kann.

Übertaktet: Radeon HD 5770, Geforce GTX 275 und Radeon HD 4890Übertaktet: Radeon HD 5770, Geforce GTX 275 und Radeon HD 4890

Dieses Problem kennt jeder mit dicken Grafikkarten im SLI- oder Crossfire-Verbund. Wenn die sich mal gegenseitig aufheizen, macht eine Steigerung der Lüfterdrehzahl von 85 auf 100 Prozent zwar mehr Lärm, aber die Überhitzung ist kaum noch aufzuhalten. Denn es gelangt einfach zu wenig Frischluft in das geschlossene Gehäuse und die warme Innenluft wird nur noch verwirbelt, bis sie richtig heiß ist, wodurch Kühlkörper kaum noch Wirkung zeigen. Infolge dessen heizt sich alles gegenseitig auf. Der Grafikchip heizt den Kühler, die warme Innenluft kann die Hitze vom Kühler nicht mehr abtragen, der dann mehr Wärme an die Komponenten der Grafikkarte abgibt. Wodurch man zum nächsten Faktor kommt: Ein gut belüftetes Gehäuse, das einen Luftkanal braucht. Kühle Luft wird vorne durch Gehäuselüfter angezogen und die warme Abluft hinten durch Gehäuselüfter aus dem PC gedrückt. Netzteil- und CPU-Lüfter sollten den Luftstrom unterstützen, sind aber kein Ausgleich für fehlende Gehäuselüfter. Es ist eigentlich ganz einfach, je höher die Gehäuseinnentemperatur steigt, desto schlechter ist die Kühlleistung der Grafikkarte.

Die nächsten Punkte sind  der Grafiktreiber und das Bios der Grafikkarte. Beide sollten die Übertaktung unterstützen und im 2D-Modus den Grafikchip auch wieder heruntertakten. Es kommt immer wieder vor, dass Hersteller dabei nicht sehr sorgfältig sind. Der Grafikprozessor wird um 5 Prozent übertaktet und als OC-Edition verkauft. Testet man die Karte, hat man zwar mehr 3D-Leistung unter Volllast, aber der Grafikchip taktet nicht mehr herunter und läuft auch im 2D-Modus mit voller Leistung. In solch einem Fall freut sich nur der Stromanbieter. Der Grafikchip wird immer voll belastet und erzeugt dadurch maximale Abwärme, die die Kühler und Lüfter dauernd kompensieren müssen, egal ob man nur im Internet surft, einen Video anschaut oder ein 3D-Game spielt. Bei Nvidia sollten die Taktraten ohne Belastung auf 300/600/100 MHz (GPU/Shader/Speicher) runter gehen. Bei ATI kommt es auf das Modell an. Der Grafikchip wird auf 240 oder 500 MHz untertaktet, beim GDDR5-Speicher bleibt bei den alten Modellen fast immer volle Power. Wird übertaktet, merkt man das sofort im Stromverbrauch, da der Mehrtakt auch im 2D-Modus aktiv bleibt.

Der letzte Punkt wird ebenfalls vom Hersteller bestimmt. Es geht um die Spannung, mit der der Grafikprozessor (GPU) versorgt wird. Wenn man Pech hat, ist diese auf den Standardbetrieb ausgelegt. Versucht man etwas zu übertakten, bleibt sofort der Rechner stehen. In solch einem Fall wird es schwierig. Es gibt zwar Möglichkeiten, bei einigen Modellen die Spannung mit ATI-Tool oder Bios-Modifikation zu erhöhen. Allerdings gibt es keine Pauschalaussage, die auf alle Grafikkarten zutrifft. Durch Übertaktung verliert man schon die Herstellergarantie, da man die Hardware außerhalb der Spezifikationen benutzt. Fast alle aktuellen Grafikchips sind gegen Überhitzung geschützt, da es eine Kernschwellentemperatur von 100 bis 110 Grad gibt, bei der sie automatisch heruntertakten. Bei Überspannung, durch eine zu hohe Voltzahl, steigt die Gefahr, einen dauerhaften Schaden anzurichten.

MSI bewegte sich mit der GTX 260 Lightning auf dieses Terrain. Die Karte verfügt über einen speziellen Zusatztreiber, der mehr Spannung (Volt) zulässt, um den Grafikprozessor bei höheren Taktraten zu stabilisieren. Beim Nachfolgemodell GTX 275 Lightning stellt MSI schon einen deutlichen Warnhinweis voran, dass man jetzt zwar die Möglichkeiten zum Manipulieren der Hardware besitzt, die Grafikkarte aber beschädigt werden könnte.

Für den Test wurden zwei spezielle Modelle von MSI geordert, die über einen besseren Kühler verfügen und vom Hersteller als OC-Edition verkauft werden. Es handelt sich dabei um die GTX 275 Lightning und die HD 4890 Cyclone SOC. Bei der GTX 275 ist das Testziel einfach erreicht, denn durch Übertaktung lässt sich die Leistung einer höheren Grafikchipklasse abrufen. Ein interessanter Aspekt daran ist, dass MSI diese Aussage sogar auf der Verpackung bewirbt. Bei ATI ist die HD 4890 schon die größte Karte in der 4000er-Serie, wobei wir hier die Leistungssteigerung mit dem Referenzmodell vergleichen. Den Test rundet die brandneue ATI Radeon HD 5770 ab, die sich ebenfalls in die Tuningwerkstatt begibt. So viel sei schon mal verraten: Das Ergebnis hat komplett beeindruckt und zeigt deutlich, der Umstieg auf den 40-nm-Fertgungsprozess war überfällig.

Besitzer von Intel-Systemen waren jahrelang auf der sicheren Seite. Auch wenn sich Motherboard-Chipsätze änderten und Intel-Prozessoren mit neuen Kernen auf den Markt kamen, eines konnte man in vielen Fällen weiter verwenden: Den CPU-Kühler. Denn trotz der Weiterentwicklung blieb der Sockel 775 und damit einhergehend auch die Befestigung für CPU-Kühler gleich. Dies ändert sich nun mit den neuen Core i5 und Core i7 Prozessoren.


Gleiche Bezeichnung – verschiedene Sockel

Mit der Einführung der neuen Prozessoren halten auch die Sockeltypen LGA1156 und FCLGA1366 Einzug auf die jeweiligen Motherboards wobei Intel auch für ein wenig Verwirrung gesorgt hat. Denn während Prozessoren des Typs Core i5 generell auf einem Sockel 1156 befestigt werden stehen für Modelle des Typs Core i7 entweder der Sockel 1156 oder der Sockel 1366 zur Verfügung. Generell lässt sich momentan sagen, dass Prozessoren der Core i7 800er-Serie ihren Platz auf einem Sockel 1156 finden, während Core i7 Prozessoren der 900-Serie nur in einen Sockel 1366 passen.

Flexibel montierbare Kühler

Hinsichtlich der Montage von Kühlern ist die Lage für Anwender entspannter. Viele Hersteller von Kühllösungen berücksichtigen bereits bei der Entwicklung die verschiedenen Sockeltypen, so dass sich im Lieferumfang nicht nur Montagematerial für den alt ehrwürdigen Sockel 775 beziehungsweise die Sockel AM2 oder AM3 finden, sondern auch für die Sockel 1366 und 1156. Für aufrüstwillige bedeutet dies, dass ein Fehlkauf mangels Kompatibilität damit fast ausgeschlossen ist. Vielmehr ist es sogar so, dass einige Hersteller noch nachträglich Befestigungsmaterial für die neuen Sockel bereitstellt, so dass ein ehemals nur für Sockel 775 gedachter Kühler auch auf neueren Prozessoren verwendet werden kann.

Kühler für Core i7 Prozessoren

Im Hinblick darauf, dass die neuen Core i5 sowie Core i7 Prozessoren sicherlich als Geschenk unter dem Weihnachtsbaum landen dürften, haben wir uns verschiedene hochwertige Kühler in unserem Testlabor angeschaut. Unser Testsystem haben wir wieder mit einer Intel Pentium D 840 Extreme Edition CPU mit Smithfield-Kern ausgestattet. Noch in 90nm Technologie gefertigt, entspricht diese CPU hinsichtlich des TDP-Werts (Thermal Design Power) einem aktuellen Core i7 950 Prozessor. Die Intel Pentium D 840 Extreme Edition CPU ist jedoch erheblich ineffizienter als aktuelle Prozessoren und wird bei einem Standardtakt von 3,2 GHz überdurchschnittlich warm. Zudem haben wir unsere Test-CPU auf 3,6 GHz übertaktet, was die Testbedingungen nochmals etwas verschärft.

Während unseres Testablaufs haben wir die Kühler jedoch nicht nur auf unser Motherboard mit Sockel 775 montiert, sondern die Montage auch auf einem Motherboard mit Sockel 1366 durchgeführt. Bei Abweichungen im Montagevorgang zwischen den verschiedenen Sockeln gehen wir im Text gesondert darauf ein.

Übertaktet: Core i5-750 im Leistungstest

Das positive Feedback durch Online-Medien und Anwender bestätigt die erfolgreiche Produktvorstellung der neuen LGA 1156-Plattform von Intel. In unseren ersten Artikeln ging es um die Prozessor- und Plattform-Technologie sowie die Gaming-Performance. Jetzt wird es Zeit für die Übertaktungsfähigkeiten der neuen Plattform. Wie weit kann man gehen? Wie sieht es mit etwaigen Auswirkungen auf die Turbo Boost-Funktion aus? Wo befindet sich die Leistungsaufnahme bei stark beschleunigten Taktraten? Wir geben Antworten.

P55: Der nächste BX?

Dieser Begriff wird allzu gerne für die Charakterisierung eines neuen Chipsatzes oder einer neuen Plattform gebraucht bzw. missbraucht. Vor allem ist dies bei Produkten der Fall, die das Potential haben, einen neuen Standard zu setzen und damit eine gewisse Vorherrschaft über die direkte Konkurrenz ausüben – und das für eine längere Zeit als den sonst üblichen Lebenszyklus. In der Vergangenheit war der 440BX-Chipsatz, der den Pentium II zweiter Generation angetrieben hat, im Großen und Ganzen aufgrund seiner damals herausragenden Übertaktungsfähigkeiten und trotz vorhandener Chipsatz-Optionen am beliebtesten. Allerdings boten jene Alternativen zum 440BX trotz besserer technischer Daten auf den Papier in der Realität kaum echten Mehrwert. Der BX war damals schlichtweg der König und darauf verweisen Journalisten sinngemäß seitdem immer wieder.

Die Sache mit dem „nächsten BX“ war lange nicht so aktuell wie heute, da zahlreiche Anwender noch immer mit einem System mit Pentium 4, Pentium D, einem Athlon 64/X2 oder sogar Core 2-Systemen erster Generation arbeiten und durchaus eine Aufrüstung auf vier Kerne in Betracht ziehen – und womöglich gleich auch auf Windows 7. Der Core i5 ist ganz offensichtlich eine der besten Optionen; insbesondere für Anwender mit Übertaktungsplänen.

Es stellt sich also die Frage: Hat die P55-Plattform das Zeug, der nächste BX zu werden? Ja und nein. Einerseits dürfte Intel noch einige Jahre mit dem physischen Socket hinter LGA 1156 arbeiten, obwohl Pinout und die elektrischen Eigenschaften nur von begrenzter Dauer sein dürften. Von dem, was wir heute wissen, nehmen wir an, dass die Basis-Plattform bis ins Jahr 2011 aktuell bleiben dürfte. Dabei wird dieser Sockel sicherlich als Basis für alle 32-nm Prozessoren auf Westmere-Basis dienen – somit wäre man auf der sicheren Seite.

Allerdings dürften sich künftig noch ein paar Dinge ergeben, auf die eine P55-Plattform derzeit keine Antwort geben kann: USB 3.0 und SATA mit einer Bandbreite von 6 Gbit/s sind Schlüsseltechnologien im nächsten Jahr. Der gehobene SATA-Standard hat lediglich einen Einfluss auf schnelle Flash-SSDs und eSATA-Anwendungen, die mehrere Laufwerke durch einen eSATA-Link betreiben. Allerdings kommt man um USB 3.0 unserer Meinung nach zukünftig nicht herum, da die meisten externen Speichergeräte durch den USB 2.0-Flaschenhals heute auf ca. 30 MB/s limitiert sind.

Overclocking: Hohe Geschwindigkeiten mit Hindernissen

Für dieses Projekt haben wir das MSI-Motherboard P55-GD65 benutzt und konnten das Basismodell Core i5-750 auf ganze 4,3 GHz hochtreiben. Allerdings erreichten wir die höchsten Taktraten erst nach dem wenig sinnvollen Ausschalten diverser Prozessorfunktionen.

Im Laufe des letzten Monats gab es eine Fülle von Neuvorstellungen im IT-Bereich, angefangen mit Intels Core i5 und Core i7 auf Lynnfield-Basis, zu dem wir inzwischen auch eine erste Effizienzanalyse haben, über den P55-Chipsatz mit passendem P55-Mainboard-Roundup, bis hin zu ATIs neuer Cypress-Architektur in den Geschmacksrichtungen  Radeon HD 5870 und HD 5850. Selbst bei den Festplatten findet derzeit ein Generationswechsel statt. ATI ist mit seiner Release-Reihe aber noch nicht fertig, und letzte Woche wurde das neuste und bislang kleinste Mitglied der Radeon-HD-5000-Familie vorgestellt: die Juniper-GPU. Sie soll das Mittelklassefeld abdecken und wird auf den Grafikkarten Radeon HD 5750 und HD 5770 zu finden sein.

Das High-End von gestern ist die Mittelklasse von heute

In unserem Launch-Bericht stellten wir fest, dass die Radeon HD 5870 stark vereinfacht gesagt eine HD 4870 darstellt, bei der praktisch alle Funktionseinheiten verdoppelt worden sind. Umgekehrt könnte man nun sagen, dass die HD 5770 in etwa eine halbierte HD 5870 darstellt. Das müsste bedeuten, dass die neue Karte der alten HD 4870 sehr ähnlich sein müsste, und so ist es auch – im Allgemeinen.

Die Radeon HD 4870 basiert auf ATIs in 55 nm gefertigtem RV770-Chip, der 956 Millionen Transistoren auf einer Fläche von 260 mm² unterbringt. In dieser GPU stecken 800 ALUs (Shader-Prozessoren) und 40 Textureinheiten. Sie schafft eine Depth/Stencil-Rate von 64 Pixeln pro Takt und verfügt über ein 256-Bit-Speicherinterface mit GDDR5-Speicher, der eine Datenrate von bis zu 115,2 GB/s erreicht.

Demgegenüber besteht die Juniper-GPU aus 1,04 Milliarden Transistoren. Auch sie besitzt 800 Shader-Prozessoren, 40 Textureinheiten und eine Depth/Stencil-Rate von 64 Pixeln pro Takt. Das Speicherinterface fällt mit 128 Bit allerdings nur halb so breit wie beim Cypress aus, bindet aber ebenfalls GDDR5-Speicher an und schafft damit eine Datenrate von 76,8 GB/s.

Uns war also von vornherein klar, dass der Vergleich mit den Konkurrenzkarten sehr knapp ausgehen würde, und zwar nicht nur zwischen ATI und Nvidia, sondern auch zwischen den ATI-Karten der beiden Generationen. Natürlich bringen die beiden Neuvorstellungen DirectX 11 als Feature mit und bieten, wie ihre großen Geschwister, drei parallel nutzbare digitale Monitoranschlüsse, bei denen der Nutzer die Wahl zwischen DVI, HDMI und DisplayPort hat. Außerdem beherrschen sie die Ausgabe von Dolby TrueHD und DTS-HD Master Audio als Bitstream über HDMI 1.3 an einen passenden Receiver.

Wie gesagt sind die restlichen technischen Daten der beiden Neulinge denen ihrer direkten Vorgänger HD 4870 und HD 4770 sehr ähnlich. Wer also noch vor kurzem eine der beiden älteren Karten gekauft hat, wird beim Blick auf die Performancewerte der neuen Generation zufrieden zur Kenntnis nehmen, dass sie mit ihrem Kauf nichts falsch gemacht haben. Was in Punkto DX11 passiert, muss sich ohnehin noch zeigen.

Es stellt sich also die Frage, ob 140 Euro für die Radeon HD 5770 gerechtfertigt sind, wenn die HD 4870 zwischen 10 und 25 Euro weniger kostet. Lohnt es sich, um die 120 Euro für eine HD 5750 mit 1 GB auszugeben, wenn man die HD 4770 für etwa 85 Euro oder Nvidias GTS 250 für runde 95 Euro (jeweils mit 512 MB) im Online-Versand finden kann? Das sollen die Benchmarks, Feature-Übersichten und Multimedia-Tests klären.

DVD-Brenner: Lohnt sich ein Upgrade?

Für ein anständiges DVD-Laufwerk, das CDs und DVDs liest und schreibt, müssen Sie dieser Tage nicht mehr als 30 Euro ausgeben. Blu-ray-Hardware mit einer Speicherkapazität von 25 GB oder 50 GB pro Disc bleibt auch weiterhin deutlich teurer. Hinzu kommt, dass diese Laufwerke nicht das erhoffte Kosten-pro-Gigabyte-Verhältnis bieten und angesichts stetig fallender Preise im Festplatten-Segment für den Endverbraucher nicht wirklich als ansprechende Option für die Datenspeicherung durchgehen. Allerdings hat es im selbst DVD-Bereich kontinuierlich Fortschritt gegeben, der nicht ungeachtet bleiben sollte.

Der Markt für DVD-Laufwerke ist bereits seit vielen Jahren schon ausgereift, was anhand der Verkaufspreise deutlich wird: Diese liegen für einen internen DVD-Brenner normalerweise nicht höher als bei 40 Euro. Selbst die neusten und schnellsten DVD-Laufwerke kann sich fast jeder Anwender leisten; dabei fallen anfangs kaum Funktionen ein, die für den Austausch eines alten Brenners gegen ein neues optisches Laufwerk sprechen würden.

Bevor man allerdings das ganze Vorhaben als unnütz in die Tonne befördert oder von vorn herein als interessant bewertet, haben wir hier ein paar Tatsachen bedacht, die man bedenken sollte. In den vergangenen Jahren haben sich die Lesegeschwindigkeiten für DVDs und CDs aufgrund der physischen Einschränkungen bei hohen Umdrehungsgeschwindigkeiten nicht verändert, wohingegen die Schreibgeschwindigkeiten mit der jüngsten Generation auf bis zu 24-faches DVD-Tempo gestiegen ist. Das klingt beeindruckend, jedoch ist der tatsächliche Einfluss auf die Schreibzeiten einer Disc eher gering: Alle modernen DVD-Brenner schreiben Daten im CAV-Modus bei einer konstanten Winkelgeschwindigkeit, soll heißen die Disk dreht sich mit einer konstanten Umdrehungsgeschwindigkeit. Dadurch beginnt ein Schreibvorgang mit niedrigen Transferraten an und erreicht ihren Maximalwert beim Beschreiben der äußeren Bereiche der optischen Disc. Hier hat die 24-fache Schreibgeschwindigkeit den größten Einfluss.

Weitere Fortschritte gibt es auch bei den Interfaces, da immer mehr optische Laufwerke mittlerweile auf dem praktischen Serial ATA-Standard und nicht wie bisher auf UltraATA basieren, wo ein Jumper erforderlich ist, der bestimmt, ob das Laufwerk im Master- oder Slave-Modus arbeitet. SATA ist schneller und schlicht praktischer. Zuguterletzt unterstützen zahlreiche moderne Laufwerke diverse Beschriftungs-Technologien wie Labelflash oder Lightscribe, um die Label-Seite passender DVD-Rohlinge mit einer individuellen Kennzeichnung zu versehen. Leider sind diese beiden nicht kompatibel und erfordern unterschiedliche Medien, wenn Sie eine Beschriftung mit dem Laufwerks-Laser vorhaben.

Für diesen Vergleich haben wir drei unterschiedliche DVD-Brenner-Generationen von NEC (16-fach aus dem Jahr 2005), Sony NEC Optiarc (18-fach aus 2006) und Sony Optiarc (24-fach von 2009) getestet und den Fokus auf die tatsächlichen Unterschiede zwischen diversen Produktgenerationen geworfen.

  • 1
  • 2

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen