Monat: September 2009

Es ist schon bemerkenswert, wie schnell die Radeon HD 4870 1GB auf ihren jetzigen Preis von gut 130 Euro gefallen ist. Inzwischen liegt auch die Radeon HD 4890 mit ihren runden 165 Euro auch nicht allzu weit dahinter, zumal die preiswertesten Modelle schon für unter 150 Euro über die virtuelle Ladentheke wandern. Die Konsequenz: Damit sich eine Radeon HD 5850 mit ihrem derzeitigen Straßenpreis von 220 Euro (und einem offiziellen Preisschild 259 US-Dollar) lohnt, müsste sie also schon deutlich schneller sein als ihre beiden älteren Geschwister.

Auch Nvidia ist mit seinen High-End Modellen im gleichen Preissegment vertreten. Eine GeForce GTX 275 ist zu einem Preis von 170 bis 190 Euro ebenfalls sehr attraktiv, und auch Nvidias Single-GPU-Spitzenmodell GTX 285 ist mit einem Preisspektrum, das bei 260 Euro beginnt, nicht wenig verlockend.  

Damit ist die Konkurrenz dann auch umrissen, der sich ATIs Radeon HD 5850 stellen will und soll. Als kleine Schwester der Radeon HD 5870, die wir vergangenen Mittwoch vorstellten, übernimmt sie um Prinzip deren Architektur. Anstatt also alle Details hier noch einmal vorzutragen, verweisen wir auf den Launch-Artikel zu ATIs Radeon-5800-Serie und konzentrieren uns in diesem Beitrag auf die Unterschiede.

Die Lynnfield-Frage

Das bedeutet natürlich nicht, dass wir uns in diesem Artikel nicht auch ein paar neuen Aspekten widmen. Einige unserer Leser kritisierten beispielsweise, dass wir für unseren Test der Radeon HD 5870 einen auf 4 GHz übertakteten 800-Euro-Prozessor einsetzten. Diese Entscheidung hatte natürlich einen tieferen Sinn, denn neuere GPUs sind derart leistungsfähig, dass wir ihnen eine möglichst schnelle Plattform bieten wollten, um damit den Prozessor als Flaschenhals auszuschließen. Für Nutzer mit einem Core i7 oder Core i5 im Sockel LGA1156, einer Core-2-CPU auf einem P45-Board oder mit AMD-790GX-Systemen ergibt sich daraus aber eine zumindest theoretische Frage: Was passiert, wenn der GPU statt 16 PCIe-Lanes im Einzelbetrieb nur 8 PCIe-Lanes im CrossFire-Betrieb zur Verfügung stehen?

Um diese Frage zu beantworten, übertakteten wir unseren Core i7-870 in einem ASUS P7P55D Premium auf 4 GHz. Wir vermuten, dass CPUs der Lynnfield-Reihe aus Kostengründen wohl eher mit einer Radeon HD 5850 als mit der größeren und teureren Schwester HD 5870 kombiniert werden. Also steckten wir zwei 5850-Karten in unser Intel-System und maßen nach. Um einschätzen zu können, wie groß dabei der Einfluss der Prozessorgeschwindigkeit war, folgte anschließend ein weiterer Durchgang, bei dem der Core i7-870 mit Standardtakt lief.

Lohnt sich CrossFire?

Als ATI die Radeon HD 4770 vorstellte, konnten wir uns die Gelegenheit nicht entgehen lassen, die Karte im Doppelpack gegen je eine Radeon HD 4890 und eine GeForce GTX 275 antreten zu lassen. Mit einem derzeitigen Marktpreis von etwa 220 Euro ist die HD 5850 aber nicht gerade billig und allein schon mehr als doppelt so teuer wie zwei HD 4770 – für zwei Karten darf man schon 440 Euro einplanen. Auch wenn die Preise mit steigender Verfügbarkeit noch fallen werden, ist die einzige Karte, die sich in diesen Sphären tummelt, Nvidias GeForce GTX 295. Je nach Hersteller und Variante kostet sie zwischen 370 und 460 Euro. Dort mögen die Preise zwar ebenfalls noch fallen, aber wohl erst, wenn die HD 5870, die ihr starke Konkurrenz macht, in größeren Stückzahlen zu finden sein wird.

Heute konzentrieren wir uns darauf herauszufinden, wie sich eine einzelne HD 5850 gegen Nvidias GeForce GTX 285 schlägt, eine Karte, der AMD bislang nur mit einer Dual-GPU-Lösung Paroli bieten konnte. Genauso spannend ist natürlich die Frage, ob ein zwei HD 5850er es mit der ähnlich teuren GeForce GTX 295 aufnehmen können.

Kurztest: Raven II von Silverstone

Silverstone Raven 2Silverstone Raven 2

Auch das zweite Model der Raven-Serie vertraut auf das vom Raven RV01 bekannte Design (siehe »Silverstone Raven RV01 mit innovativer Kühlung«). Unterschiede dazu sind beim Raven 2 schon von außen zu sehen, denn der Tower ist tiefer als hoch. Das hat den Vorteil, dass das Case leichter unter einen Tisch passt. Der Grund für die ungewöhnliche Bauform ist jedoch die um 90° Grad gedreht eingebaute Hauptplatine. Die Anschlüsse des Mainboards sind nicht wie üblich hinten, sondern oben. Kleine Abstriche bei der Zahl der einzubauenden Laufwerke muss man in Kauf nehmen. Immerhin lassen sich bis zu vier 5,25- und drei 3,5-Zoll-Laufwerke unterbringen. Ein nur von innen zugänglicher 5,25-Zoll-Schacht eignet sich für eine weitere Festplatte oder ein SSD-Modul.

Als Shuttle vor einigen Monaten das XS29F ankündigte, hieß es, dass damit ein komplett lautloser Mini-PC den Desktop ermöglicht würde. Alternativ könne der Kleinst-PC natürlich auch als Zentrum eines Media Centers oder als Netzwerk-PC dienen.

Bemerkenswert daran war allerdings, dass diese Aussagen nicht von Shuttle kamen, sondern vielmehr von den Mini-ITX-Fans und VIA-Anhängern. Der Hersteller selbst veröffentlichte nur eine kurze Liste der technischen Daten, aus der hervorging, dass dieser Nettop-Computer, also das Desktop-Äquivalent zum Netbook, um VIAs Nano U1700 herum gebaut werden würde.

Geht es um mobile Rechner, impliziert der Begriff Netbook ein stark vereinfachtes Notebook, das mit dem ausdrücklichen Zweck entwickelt und gebaut wurde, als Internet-Terminal zu fungieren, und nicht viel mehr. Shuttle folgt demselben Ansatz  und nutzt in seinem winzigen und komplett lüfterlosen Barebone XS29F einen stromsparenden Prozessor mit vergleichsweise geringer Leistung. Verbaut man anstelle einer konventionellen Notebook-Festplatte eine Solid State Drive (SSD), lässt sich ein komplett lautloses und kleines System zusammenstellen, dass in Umgebungen wie Bibliotheken, Krankenhäusern oder Tonstudios eingesetzt werden kann, wo jede Art von Geräusch nur stört.

Shuttle hat sich inzwischen entschieden, den XS29F nicht auf den Markt zu bringen. Dennoch gelang es uns, ein Vorserienmodell zu bekommen. Was also eigentlich als Test zweier Geschwister geplant war, stellt nun stattdessen einen akademischen Vergleich zweier Plattformen dar, die soweit wie möglich identische Komponenten einsetzen. Im Mobilbereich haben wir einen ähnlichen Vergleich bereits im Artikel Samsung NC20 mit VIA Nano CPU: Attacke gegen Intels Atom? durchführen können.

Uns interessiert natürlich vorrangig, wie sich das lautlose Shuttle im Vergleich zu seinem Atom-betriebenen Schwestermodell X27D schlägt, in dem ein Atom 330 mit zwei Kernen steckt. Wie sich der Atom-Doppelkern schlägt, wissen wir bereits. Die Frage ist: Kann der Nano U1700 mithalten? Und, viel wichtiger, ist er schnell genug für die alltäglichen Aufgaben eines Arbeits-PCs wie Korrespondenz, Textverarbeitung und Internet?

Am kommenden Sonntag ist Bundestagswahl. Chancen rechnet sich auch die Piratenpartei aus, die sich als Partei für die Informationsgesellschaft versteht und sich mit Themen rund um Datenschutz, der informellen Selbstbestimmung und dem Urheberrecht profilieren möchte. Wir haben den Direktkandidaten Thomas Melchinger nach seinen Zielen für die Wahl befragt.

Die etablierten, großen Volksparteien verspüren immer mehr Gegenwind von Kleinparteien. Eine davon ist die Piratenpartei, die sich als Vertreter der Informationsgesellschaft sieht. Entsprechend kann sie nicht selten Sympathie aus den Reihen derjenigen Wähler für sich verbuchen, die täglich mit dem Medium Internet zu tun haben. Kurz vorm Wahlsonntag hatten wir Gelegenheit zu einem Gespräch mit Thomas Melchinger, Direktkandidat der Piratenpartei im Wahlkreis 260 (Böblingen) bei der Bundestagswahl 2009.

Thomas Melchinger, 31, Piratenpartei-DirektkandidatThomas Melchinger, 31, Piratenpartei-Direktkandidat

Tom’s Hardware: Die Piratenpartei hat bei den Europawahlen fast aus dem Stand 0,9 Prozent der Stimmen erreicht. Was sagt diese Zahl über den Bekanntheitsgrad der Piratenpartei in der Bevölkerung aus und welche Chancen rechnen Sie sich für die Piratenpartei bei den Bundestagwahlen aus?

Thomas Melchinger: Bis zur Europawahl war die Piratenpartei in Deutschland weitgehend unbekannt. Dies hat sich erst mit Ausstrahlung der Wahlwerbespots und dem Wahlkampf vor der Europawahl geändert: Die Mitgliederzahl stieg dann auf rund 1200 Piraten an.

Nach unerwartet guten Wahlergebnis wurden wir von Neumitgliedern förmlich überrannt, so dass unsere Besatzung nun aus über 8800 Piraten besteht. Sieht man sich die bisherigen Wahlen an, so stellt man fest, dass sich die Wahlergebnisse immer nahezu verdoppelt haben. Zuletzt lagen wir bei der Landtagswahl in Sachsen bei 1,9 Prozent. Somit sind wir optimistisch, dass es uns gelingt, die 5-Prozent-Hürde zu knacken.

Tom’s Hardware: In den Medien wird die Piratenpartei (PP) unter anderem mit der Abschaffung von Urheberrechten in Verbindung gebracht. Erst kürzlich sprach Justizministerin Brigitte Zypries in der TAZ über eine fehlende Programmatik bei der Piratenpartei in den Bereichen Arbeits-, Wirtschafts- und Finanzpolitik …

Thomas Melchinger: Die Piratenpartei ist eine Themenpartei. Wir treten mit den Themen zur Bundestagswahl an, in denen wir kompetent sind. Zu Arbeits-, Wirtschafts- oder Finanzpolitik haben wir noch keine offiziellen Parteiaussagen, es gibt aber bereits Arbeitsgruppen zu diesen Themen. Im Gegensatz zu den anderen Parteien ist unsere Arbeit für jeden transparent – in unserem Wiki kann jedermann mitlesen und sich auch beteiligen, auch ohne Mitglied zu sein.

Wir sind übrigens nicht für eine Abschaffung von Urheberrechten, sondern fordern eine Neugestaltung des Urheberrechts, die Abschaffung technischer Kopierschutzmaßnahmen und eine Stärkung des Rechts auf Privatkopie. Im Gegenzug muss man sich natürlich darüber unterhalten, wie Künstler auch künftig noch Geld verdienen können. Eine Möglichkeit wäre eine »Kulturflatrate«.

Fast hätte dieser Artikel den Titel »Radeon HD 5870 – ATi lernt aus Nvidias Fehlern« getragen. Das schien uns dann aber doch ein wenig unfair als Einstieg in ein Review. Dennoch möchten wir diesen Gedankengang ein wenig erklären. Als Nvidia vor über einem Jahr die GeForce GTX 260 und GTX 280 vorstellte, wusste die Firma, dass sie die schnellsten Grafikkarten auf dem Markt hatte. Dementsprechend traute man sich auch, dafür einen gewissen Aufpreis zu verlangen: Die GTX 280 kostete bei ihrer Einführung satte 650 US-Dollar.

Für Nvidia muss es demnach ein herber Schlag gewesen sein, als ATi nur wenige Wochen später die Radeon HD 4870 aus dem Hut zauberte, die Nvidias 400 Dollar teure GTX 260 zu einem Preis 300 Dollar in die Schranken wies. ATi hatte Nvidia zwar nicht die Performance-Krone abjagen können – mit der GTX 280 hatte die Firma ja noch die schnellste Karte, die man zu der Zeit bekommen konnte – doch die Enthusiasten, und zwar speziell diejenigen, die eins der neuen GTX-200-Boards gekauft hatten, fühlten sich über den Tisch gezogen, als Nvidia die Kartenpreise an die neue Konkurrenzsituation anpasste. Um mit einer großen GPU auch große Gewinne zu machen, war die Strategie gut. Der Kundenzufriedenheit und Markentreue dürfte das Verhalten jedoch nicht wirklich zuträglich gewesen sein.

Ohne hier schon zu viel verraten zu wollen: Wie es scheint, hat ATi vom Fauxpas der Konkurrenz gelernt. Die Kanadier stellen heute ihr neues Flaggschiff zu einem Preis von unter 400 US-Dollar vor und stellen ihm eine etwas schwächere Variante zur Seite, die zwar auf derselben Architektur basiert, aber nur 259 Dollar kosten soll. Das ist zwar immer noch eine Stange Geld, aber das Duo hat auch die GeForce GTX 295 beziehungsweise die GeForce GTS 285 im Visier. Können ATis neue Karten tatsächlich die beiden schnellsten Nvidia-Boards schlagen, und noch dazu zu einem niedrigeren Preis?

Wir sind nicht das Orakel von Delphi, dafür jedoch neugierig und gespannt, ob die diesjährige Neuauflage der einstmals so beliebten „Need For Speed“-Reihe gelungen ist. Die Erwartungen sind alles andere als gering und die Mitbewerber haben die Messlatte ausreichend hoch gelegt. Wir haben uns daher mit Absicht etwas mehr Zeit für eine möglichst objektive Einschätzung gelassen und das Spiel auf verschiedensten Systemen nicht nur angespielt und Performance-Benchmarks durchgeführt, sondern vor allem das Gameplay und die Steuerung erstmals ausgiebig auch im hausinternen Wettbewerb getestet. Dazu gehört eine speziell ausgewählte Gruppe von Testspielern. Auswahlkriterium waren dabei Alter, Spielgewohnheit und Erfahrung. Wir möchten uns an dieser Stelle bei EA für die großzügige und zeitnahe Bereitstellung von fünf Vollversionen bedanken und natürlich auch bei unseren Testern, die uns geholfen haben, über eigene Denkweisen hinaus zu schauen.

Spätestens seit „NFS:Underground“ (2003), „NFS:Underground 2“ (2004) und „NFS:Most Wanted“ (2005) wartet die treue Fangemeinde jedes Jahr erneut auf eine erfolgreiche und interessante Fortsetzung. Mit ungewissem Ausgang. Während „NFS:Carbon“ (2006) noch eine Art „NFS:Most Wanted Light By Night“ war, dessen Karriere-Modus man locker in unter 9 Stunden durchspielen konnte, versuchte es EA mit „NFS:Pro Street“ (2007) erstmals ohne illegale Straßenrennen. Das an sich noch nicht einmal schlechte Konzept wurde jedoch mit der schwachen technischen Umsetzung grandios in den Sand gesetzt. „NFS:Shift“ nimmt dieses Jahr die gelungensten Elemente von „NFS:Pro Street“ wieder auf, setzt dabei aber auf eine völlig neue Struktur (ohne zwanghaft installierte Story, welche in diesem Konzept nur stören würde) und eine sichtbar bessere Technik. Über „NFS:Undercover“ (2008) als Remake von „NFS:Most Wanted“ gibt es an dieser Stelle nichts zu schreiben, außer dass dieses Spiel aus der Sicht der Fans den absoluten Tiefpunkt darstellt.

EA hat das Dilemma erkannt und einen tiefen personellen Einschnitt vorgenommen. Mit der Entwicklung der aktuellen Serie wurden die Slightly Mad Studios (ehemals Blimey) betraut, die für so erfolgreiche und geschätzte Rennspiele mit Simulationscharakter wie „GTR“ und „GTR Legends“ stehen. Mit der Aussage der Produzentin Suzy Wallance “Bei NFS: Shift steht der Spieler als Fahrer im Mittelpunkt, daher sind uns das Fahrgefühl und eine wirklichkeitsnahe Fahrphysik sowie Optik besonders wichtig” setzten sich die Entwickler dieses Mal bereits selbst im Vorfeld unter Druck, indem sie die Erwartungen der Fans noch höher schraubten.

In wie weit dieser Anspruch mit der Umsetzung übereinstimmt und wo die Stärken und Schwächen der neuen Engine und des Konzeptes liegen haben wir in dieser etwas umfangreicheren und mit Absicht auch anders gestalteten Analyse möglichst objektiv ergründet. Ob „NFS:Shift“ halten kann, was sich alle erhoffen, lesen Sie auf den nächsten Seiten.

Ein Appetithäppchen vorab: der Aufwand hat sich wirklich gelohnt und „NFS:Shift“ wird garantiert seine treuen Liebhaber finden. Aber es wird wohl kein NFS für jedermann. Dazu polarisiert dieses Spiel viel zu sehr. Und das ist auch gut so.

Gerade im Segment unter 100 Euro hat der Radeon HD 4670 und HD 4770 ziemlich aufgeräumt. Mit den Stückzahlen sah es nicht immer optimal aus, der Bedarf im Verkauf konnte zeitweise nicht gedeckt werden. Hier bremst die Nachfrage den Erfolg, gute Produkte verkaufen sich von selbst, müssen aber verfügbar sein.

Vier Grafikkarten ab 68 Euro im Vergleich.Vier Grafikkarten ab 68 Euro im Vergleich.

Nvidia setzt den Geforce 9800 GT und Geforce GTS 250 dagegen, wobei beide Grafikkarten nur Neuauflagen der vorherigen Generation sind. Insgesamt befinden sich 30 Grafikchips im Testfeld, wodurch man auch die Leistung der älteren Varianten vergleichen kann. Aus dem Geforce 8800 GT wurde der 9800 GT, aus dem 8800 GTS 512 ein 9800 GTX und GTX+, der nun etwas optimiert als Geforce GTS 250 in den Regalen steht.

In der reinen 3D-Leistung kann Nvidia problemlos mithalten, nur bei den technischen Spezifikationen hat ATI deutliche Fortschritte gemacht. Immerhin läuft die Fertigung des HD 4770 schon mit 40 nm, während Nvidia die Leistungsaufnahme und Temperaturen von 55 nm bändigen muss. Deshalb wird der Testsieger diesmal nicht nur an der Leistung bewertet, die Kategorie Preisleistung und Leistung pro Watt hilft den momentan besten 3D-Chip bis 110 Euro zu finden.

Vielkern-Prozessoren mit einem dedizierten Zwischenspeicher auszustatten, der von allen verfügbaren Kernen gemeinsam genutzt wird, macht durchaus Sinn. Ein schneller Speicher wie der Third-Level Cache moderner Prozessoren ist daher Praxis, um den Zugriff auf häufig benötigte Daten zu beschleunigen: Kerne sollten, wenn möglich, nicht auf den langsameren Hauptspeicher (RAM) zurückgreifen müssen – soweit die Theorie. Die Einführung des AMD Athlon II X4, einem einfachen Phenom II X4 ohne L3-Cache, deutet darauf hin, dass der L3-Cache vielleicht nicht immer unbedingt notwendig ist. Wir haben uns für einen Vergleich zweier AMD-Prozessoren mit und ohne L3-Cache Cache entschieden.

Cache – So funktionierts

Das Prinzip von Cache ist einfach: Er dient zur Zwischenspeicherung von Daten, um zu verhindern, dass der Prozessor auf die nächst langsamere Ebene des Speichersystems, den Hauptspeicher, zurückgreifen muss. Die aktuelle Desktop-Cache-Hierarchie besteht aus drei Cache-Ebenen, bevor letztlich der Zugriff auf den Hauptspeicher ausgelöst wird. Die zweite und besonders die dritte Ebene sind nicht nur für das Zwischenspeichern von Daten zuständig, sondern dienen auch dazu, die Verwendung des Busses zwecks Datenaustausch zwischen mehreren Prozessor-Kernen zu minimieren. Bevor wir uns an die Einzelheiten machen hier ein paar Grundlagen.

Cache: Hits und Misses

Die Effektivität einer Cache-Architektur wird anhand der Trefferquote (hit rate) bemessen: Treffer sind Anfragen, die mit Hilfe von zwischengespeicherten Daten beantwortet werden. Alle anderen Anforderungen, die eine Aktivität auf nächster Ebene oder dem Hauptspeicher verursachen, werden als Cache Misses bezeichnet. Diese sind langsam, da sie den Prozessor oft zu Wartezeiten zwingen. Im Gegensatz dazu helfen Treffer dabei, die maximale Performance aufrechtzuerhalten. Die Ausführung von Befehlen unabhängig von deren Eingangsreihenfolge, so genannten Out-of-Order-Ausführung, identifiziert voneinander unabhängige Anweisungen, um die Befehlsabarbeitung von der Abhängigkeit noch anzuliefernder Daten abzukoppeln.

Cache: Schreiben, Exklusivität, Kohärenz

So genannte replacement policies bestimmen, wie Raum für neue Cache-Einträge geschaffen wird. Da Daten, die in den Cache geschrieben werden, letztlich auch im Hauptspeicher verfügbar sein müssen, kann das System dies direkt vornehmen (write-through) oder überschriebene Speicherorte als “dirty” kennzeichnen  und den Schreibvorgang erst dann ausführen, sobald die Daten aus dem Cache gelöscht wurden (write-back).

Daten aus diversen Cache-Ebenen lassen sich exklusiv speichern, so dass keine Datenredundanz existiert. Oder aber ein Cache kann in inklusiver Weise betrieben werden, in der sich auf einer folgenden, niedrigeren Cache-Ebene stets eine Kopie der Daten befindet. Der Phenom von AMD arbeitet mit einem exklusiven L3-Cache, während Intel der inklusiven Cache-Startegie gefolgt ist. Kohärenz-Protokolle kümmern sich um das Management gültiger Daten über mehrere Ebenen, Strategien, Kerne und sogar Prozessoren (Nodes bzw. Knoten) hinweg.

Cache: Kapazität

Größere Caches bieten mehr Platz für Daten, sorgen allerdings auch für höhere Latenzen. Da Cache auch große Mengen an Prozessor-Transistoren in Anspruch nimmt, ist es wichtig, ein funktionierendes Gleichgewicht zwischen Transistorkosten und Die-Größe sowie Leistungsaufnahme und Performance/Latenz-Problemen zu finden.

Cache: Assoziativität

RAM-Einträge können entweder direkt gemappt werden: in einem Cache-Speicher kann es also nur eine Adresse für die Datenzwischenspeicherung geben, oder sie sind n-fach assoziativ. Das bedeutet n mögliche Positionen auf dem Cache für das Speichern von Daten. Eine höhere Assoziativität garantiert eine höhere Trefferquote, führt allerdings auch zu längeren Latenzen, da es mehr Zeit in Anspruch nimmt, um n Assoziationen mit möglichen Treffern zu vergleichen. Deshalb macht es Sinn, eine vielfache Assoziativität für die letzte Cache-Ebene zu verwenden, da hier die Cache-Kapazität am größten ist und die nächste Ebene ohnehin ein langsamer Speicherzugriff wäre.

Hier ein paar Beispiele: Die Core i5 und i7 Prozessoren arbeiten mit einem 32 KB 8-fach assoziativem L1-Daten- und 32 KB 4-fach assoziativem L1-Befehls-Cache. Intel will Befehle schneller verfügbar machen, während das Unternehmen gleichzeitig die Cache-Treffer auf dem L1-Daten-Cache maximiert. Der L2-Cache ist wieder 8-fach assoziativ, während der L3-Cache von Intel noch “klüger” ist und eine 16-fach assoziativ arbeitet, um die Anzahl der Cache-Treffer zu maximieren. AMD verfolgt auf dem Phenom II X4 mit einem 2-fach assoziativem L1-Cache eine andere Strategie mit niedrigsten Latenzen. Um mögliche Fehler zu kompensieren ist die Kapazität doppelt so groß: 64 KB für Daten und 64 KB für Befehle. Wie auf dem Prozessor von Intel ist der L2-Cache 8-fach assoziativ, allerdings funktioniert der L3-Cache von AMD dann 48-fach assoziativ. Ohne zuvor einen Blick auf die CPU-Architektur geworfen zu haben sollte man allerdings keine voreiligen Schlüsse ziehen, immerhin zählen lediglich die Ergebnisse. Dieser Cache-Exkurs dazu, Ihnen einen Blick auf die Komplexität hinter dem Multi-Level-Caching zu bieten.

Quad-Core für Alle: Der AMD Athlon II X4

Mit der kürzlichen Vorstellung der neuen Core i5- und Core i7-Prozessoren auf Basis des neuen Sockel LGA1156 gerät AMD in den wichtigen Mainstream und High-End-Marktsegmenten noch mehr unter Druck. Der Phenom II basiert auf einem guten Prozessor-Design, das gegen die wachsende Nehalem-Familie von Intel vor allem durch ein besseres Preis-/Leistungsverhältnis punkten kann. AMD hat sich jedoch zum Meister der Produktionsausbeute entwickelt, weshalb es lediglich eine Frage der Zeit war, bis das Unternehmen letztlich Quad- und Triple-Core-Prozessoren ohne L3 Cache auf den Markt bringen würde. Ganz offensichtlich handelt es sich hierbei um eine gute Möglichkeit für ein Comeback der Marke “Athlon”.

Das hat er

Obwohl AMD mit zwei neuen Core-Namen daherkommt, ist der neue Prozessor nicht wirklich neu: Propus heißt der neue Quad Core und Rana lautet der Name der Triple-Core-Version. Unser erstes Testexemplar ist der 2,6 GHz Quad Core. Er verfügt über sämtliche Funktionen des Phenom II, einschließlich des 45 nm SOI-Fertigungsprozesses, vier Kerne mit jeweils 512 KB L2-Cache und allen Erweiterungen, die man dieser Tage haben muss: MMX, SSE, SSE2, SSE3, SSE4a, Enhanced 3DNow!, die NX bit-Funktion (auch bekannt als XD – Execute Disable – auf Intel-CPUs), 64-Bit-Unterstützung, die Virtualisierungserweiterung AMD-V und natürlich Cool’n’Quiet, um Taktraten und Spannungen während Leerlaufperioden zu verringern. Da der Athlon II X4 auf dem Deneb-Design basiert, können alle neuen Athlon II X3- und X4-Prozessoren entweder auf Sockel AM2+ Plattformen und DDR2-Speicher oder auf Sockel AM3 mit DDR3 betrieben werden. Die neuen Prozessoren dürften allesamt eine hervorragende Aufrüstmöglichkeit für ältere AM2-Systeme bieten, besonders wenn man den attraktiven Preis von etwa 100 Euro bedenkt.

Das hat er nicht

Es überrascht kaum, dass Sie für diesen Preis kein Spitzenprodukt bekommen und mit gewissen Einschränkungen rechnen müssen. Am offensichtlichsten ist die Cache-Architektur, da alle Athlon-II-Prozessoren einschließlich des bereits vorgestellten Athlon II X2-Chips keinen L3-Cache haben. Unter diesem Aspekt bricht der Athlon II X4 mit der alten AMD-Tradition, einen gemeinsam nutzbaren Cache-Speicher für Multi-Core Prozessor-Designs zu implementieren und macht den L3 Cache-Speicher zum hauptsächlichen Unterscheidungsmerkmal zwischen den Phenom II- und Athlon II-Familien – mit Ausnahme der Taktraten-Niveaus, das bei den Athlon II-Prozessoren offensichtlich niedriger ist. Allerdings dürfte der fehlende L3 Cache-Speicher sehr wohl auch ein geringer Vorteil sein, da die für Implementierung des 6 MB großen L3-Cache eines Phenom II notwendigen Transistoren für ihren Betrieb entsprechend auch Leistung aufnehmen müssen. Dabei ist es nur logisch, dass die Performance des neuen Athlon II X4 kaum an die des Phenom II X4 herankommen dürfte, sich der neue dabei allerdings als effizienter erweisen könnte.

Der gute alte PC, den viele von uns als eine langweilige, beigefarbene Kiste in Erinnerung haben, ist in seiner ursprünglichen Form allmählich aus den Verkaufsregalen verschwunden. Business-PCs werden, zumindest was die Optik angeht, aber auch weiterhin recht schlicht gehalten. Im Gegensatz dazu herrscht auf dem Verbrauchermarkt mit modischen Spiele-Systemen und leistungsstarken Übertaktungs-PCs für Enthusiasten, mit oder ohne aggressive Designs und Moddings, ein buntes Treiben. Zwecks besserer Flexibilität und Platzeinsparung wird der herkömmliche Heim-PC zunehmend durch Notebooks ersetzt.

Allerdings sind zwei zusätzliche PC-Arten in unseren Wohnzimmern auf dem Vormarsch: Zum einen sogenannte Nettop-PCs, kleine kostengünstige Lösungen, und zum anderen HTPCs (Home-Theater-PCs). PC-Technologiesteckt in einem HTPC und kümmert sich um die Multimedia-Anwendungen im Wohnzimmer und bietet uns gleichzeitig die Fertigkeiten eines herkömmlichen Rechners. Es versteht sich von selbst, dass ein HTPC ein entsprechendes Gehäuse braucht, um im Wohnzimmer zu überzeugen und nicht abzuschrecken.

HTPC-Hardware

Jeder anständige PC kann praktisch auch als HTPC eingesetzt werden, wobei Sie allerdings auf bestimmte Details achten sollten. Zunächst sollten Sie sich vergewissern, dass das System ausreichend leistungsfähig ist, um alle Audio- und Videoquellen, inklusive Full HD-Streams, abspielen und aufnehmen zu können. In Kombination mit einem anständigen Prozessor kommen die meisten integrierten Grafiklösungen wie AMDs 780/785G mit Radeon HD3200/4200-Grafik, Intels G45 mit GMA X4500HD und der Nvidia GeForce 9300/9400 mit MPEG-2, VC.1 und H.264 zurecht. Allerdings ist für die Wiedergabe von HD-Video außer der Verarbeitung von Audio und Video oftmals auch die Entschlüsselung des Inhalts notwendig. Für diesen Prozess ist natürlich entsprechend Leistung erforderlich, und da wir uns nicht auf die Fähigkeiten oder fehlenden Fähigkeiten diverser TV-Tuner verlassen wollen, muss ein Prozessor her, der mit all dem zurechtkommt. Somit empfehlen wir Ihnen einen Dual Core mit 2,5 GHz oder mehr. 2 GB RAM sollten ausreichen; für Windows 7 oder das kostenlose Media-Portal dürfen es auch gerne etwas mehr sein.

Da AMD, Intel und Nvidia unterschiedliche Eigenschaften und Funktionen bieten, die je nach Geschmack mehr oder weniger wichtig sind, sollten sich vor allem Enthusiasten ausführlich mit der Plattform beschäftigen. Lediglich Intel und Nvidia unterstützen 8-Kanal LPCM-Audio via HDMI, was vor allem dann wichtig ist, wenn Sie DTS-HD- oder Dolby TrueHD 7.1-Audio durch das flexible Interface laufen lassen wollen. Verlustlosen Bit-für-Bit-Audiogenuss bietet derzeit lediglich eine separate Audiokarte wie die Xonar HDAV 1.3 von Asus. Der 785G von AMD bietet die umfangreichsten visuellen Funktionen einschließlich DirectX 10.1-Unterstützung, wobei Intel wahrscheinlich die größte Hardware-Basis vorzeigen kann. Für guten 7.1-Sound und Dolby TrueHD bzw. DTS-HD dürften Sie also noch eine Soundkarte brauchen, ebenso wie einen passenden TV-Tuner wie z.B. die ATI TV Wonder HD 650 oder eine Terratec Cinergy-Karte. Zudem dürfte auch die Integration einer Verstärker-Karte Sinn machen wenn kein A/V-Receiver oder Verstärker bereits im Wohnzimmer vorhanden ist.

HTPC-Gehäuse

Schließlich wäre da noch das HTPC-Gehäuse, das entsprechenden Einfluss auf Netzteil, Fernbedienung, Formfaktor, Kühlungsmöglichkeiten – und natürlich – die optische Erscheinung hat. Es gibt HTPC-Gehäuse, die mit großen Soft-Touch-Displays ausgestattet sind; andere verfügen, wenn überhaupt, gerade einmal über eine kleine LCD-Anzeige. Sie haben die Wahl zwischen Slim-Designs und voller Bauhöhe, Full Size-ATX und µATX-Layouts. In diesem Artikel haben wir drei Mainstream HTPC-Gehäuse von GMC, Moneual und Silverstone für bis zu knapp € 280 getestet.

  • 1
  • 2

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen