Monat: Januar 2009

Nicht jeder hat in der heutigen Zeit noch große Budgets für die ultimative Hardware. Die meisten Anwender wollen einfach nur den besten Rechner für ihr Budget. Für uns lautet die Obergrenze 600 Euro. Bei der Komponentenwahl dieses Eigenbau-PCs haben wir uns auf eine möglichst hohe Grafik- sowie Prozessor-Performance konzentriert. Auch die Übertaktbarkeit darf nicht zu kurz kommen. Ferner achten wir dabei auch auf ein adäquates Netzteil, die Kühlung sowie das Gehäuse. Egal ob dieser nachbaufähige Computer mit Standardeinstellungen oder im übertaktetem Zustand betrieben wird: Die Geräuschentwicklung soll im angenehmen Bereich bleiben, damit dieses Quad-Core-Modell neben dem Spielspaß für hohe Auflösungen auch zum Arbeiten als Office-PC taugt.

Diese Artikelserie gliedert sich in drei Teile. In diesem Artikel stellen wir alle Komponenten vor. Im nächsten Teil zeigen wir den Zusammenbau Schritt für Schritt, damit es auch ein jeder nachmachen kann. Im Schlussbeitrag zeigen wir anhand von Benchmarks die Performance und messen den Energiebedarf. Dabei stellt sich das deutsche Team den Ergebnissen unserer Kollegen aus USA, Frankreich und Italien.

Im Gesamtbudget sind folgende Komponenten enthalten:

  • Gehäuse
  • Netzteil
  • Prozessor
  • Motherboard
  • Arbeitsspeicher
  • Festplatte
  • DVD-Brenner
  • CPU-Kühler
  • Lüfter

Fangen wir nun mit dem Prozessor an.

Highpoint hatte als eines der ersten Unternehmen günstige Storage-Controllern für den Mainstream-Markt im Portfolio. Diese Controller-Chips fand man zur Jahrtausendwende auf Oberklasse-Motherboards, die bis vor wenigen Jahren derartige Eigenschaften entweder gänzlich vermissen ließen oder nur auf Controller-Karten zu finden waren.Dies ermöglichte Herstellern wie 3Ware, Highpoint oder Promise, professionelle RAID-Fähigkeiten zu erschwinglichen Preisen anbieten zu können. Allerdings gibt es aufgrund des konsolidierten Speichermarktes mittlerweile ausreichend Ports und Features, sei es Serial ATA (SATA) für den Mainstream oder Serial Attached SCSI (SAS) für Server und Workstations. Storage-Anbieter wie Highpoint konzentrieren sich nun darauf, ihren Kunden mehr für‘s Geld zu bieten als etablierte Unternehmen wie Adaptec. Wir haben zwei SAS-RAID-Controller miteinander verglichen.


RAID-Controller – die Optionen

Anbieter von Storage-Produkten haben es mittlerweile nicht besonders leicht, einen Host-Adapter mit merklich besseren Funktionen anzubieten als bereits erhältliche Produkte. RAID-Controller auf Basis von so genanntem Host-Based-RAID wie die Raidcore-Controller (leider derzeit nicht zu bekommen)  bieten ultimative Flexibilität, sind allerdings von der Performance des Host-Systems abhängig. Die VST Pro-Software gab es für Storage-Controller von Drittanbietern wie beispielsweise den On-Board-Controllern von Intel. Alle On-Board RAID-Lösungen werden ebenfalls RAID auf Host-Basis genannt. Software-RAID wird dagegen vollständig auf einem Host-Betriebssystem ausgeführt und eignet sich nicht für alle Szenarien, da das Storage-Array komplett vom Host-System abhängig ist.

Hardware-RAID

Für viele Menschen sind Hardware-unterstützte RAID-Controller das einzig Richtige, wenn das Thema RAID ernst genommen wird. Hardware-RAID nutzt eine dedizierte Controller-Karte, die mitsamt eigener Firmware, Verwaltungs-Tools, einem Beschleunigungs-Chip für die Berechnung von Paritätsdaten (XOR-Einheit) und dediziertem Cache angeboten wird. Diese Controller funktionieren mit den meisten Betriebssystemen (Treiber erforderlich), nehmen dabei allerdings – im Gegensatz zu oben erwähnten Lösungen – nicht besonders viele Ressourcen in Anspruch.

Ist Billig-RAID gut genug?

Highpoint bietet alle möglichen, teils ungewöhnliche Lösungen, sei es ein Host-Adapter in kompaktem Formfaktor (der RocketRAID 2680 ist gerade einmal 8,4 cm lang) oder SAS-RAID-Controller zu SATA-Preisen. Wir warfen einen Blick auf den RocketRAID 2640X4, ein 4-Port SAS-Controller mit RAID-Fähigkeiten für PCI Express und etwa 150 Euro. Hat dieses Produkt eine Chance gegen den Basis-4-Port SAS RAID-5405 von Adaptec (300 Euro)?

Sind die Zeiten endgültig vorbei, in denen sich verschiedene Motherboards in ihrer Performance erheblich voneinander unterschieden? Zahlreiche Hersteller statteten ihre Motherboards zunächst mit zusätzlichen Komponenten wie Festplatten -Controller aus, um sich von der breiten Masse der Angebote abzugrenzen (ab 1999) . Dann waren individuelle Übertaktungsfähigkeiten gefragt; ergänzt wurde das ganze durch massive und teils kreativ geformte Kühlkörper aus Kupfer – alles nach dem Motto „viel hilft viel“.

Nun haben die Motherboard-Hersteller den Klimaschutz über die Verbesserung der Energieeffizienz ihrer Produkte für sich entdeckt – im Interesse der Umwelt. Wir halten dies für eine gute Idee, denn kein Produkt sollte mehr Leistung aufnehmen als unbedingt nötig. Allerdings konnten wir auch merkliche Unterschiede bei der Implementierung der Energiespar-Mechanismen sowie deren Auswirkung auf die Performance feststellen.

Green-IT als Retter in der Not?

2008 war das Jahr des „Green Computing“ – der Bestrebung, Informationstechnik, Umwelt  und Ressourcen schonend zu gestalten. Die IT-Branche bediente sich der Farbe grün, die typischerweise mit Natur und Ökologie in Verbindung gebracht wird, um umweltfreundliche Produkte und Strategien zu kennzeichnen.

Allerdings werden Hersteller nicht über Nacht zu Umweltschützern, weil sie plötzlich ihre Liebe für die Umwelt entdecken, sondern schlichtweg, da mittlerweile in den Schlüsselmärkten entsprechende Gesetze und Vorschriften gelten. Zudem achten immer mehr Anwender auf die Leistungsaufnahme ihrer Geräte und kaufen gezielt „grüne“ Produkte. Lassen Sie sich nicht täuschen: Die Herstellung umweltfreundlicher Produkte ist eine betriebswirtschaftliche Entscheidung.

Die 2006 in Kraft getretene RoHS-Richtlinie der Europäischen Union beschränkt die „Verwendung bestimmter gefährlicher Stoffe in Elektro- und Elektronikgeräten“. Sie verlangt, dass Hersteller von Leiterplatten unter anderem auf die Verwendung von Blei, Quecksilber und Kadmium verzichten. Praktisch alle Motherboards sind heutzutage RoHS-konform. Die Herstellung solcher Produkte ist allerdings immer noch sehr ressourcenintensiv. Deshalb ist auch kein Hersteller von sich aus bereit, den genauen Bedarf an Wasser und Strom für die Fertigung eines Motherboards offenzulegen. Die Produkte sind zwar inzwischen bedeutend umweltfreundlicher geworden, die Produktion hingegen leider weniger. Auch hier gilt entsprechend: Ohne RoHS kein Umsatz!

Der nächste Schritt hin zu umweltfreundlicheren Computern liegt in der Verringerung der Leistungsaufnahme durch Minimierung der Energieverschwendung einzelner Komponenten; wie zum Beispiel bei Grafikkarten, Prozessoren und auch Motherboards, die sich im Leerlauf befinden. Denn jede Komponente, die Strom benötigt, hat ebenso das Potential, Energie zu sparen.

Energiespar-Techniken von Motherboards

Die einfachste Möglichkeit, die Leistungsaufnahme eines Motherboards zu senken, ist die Anzahl der elektrischen Komponenten zu begrenzen.

Jeder Firewire-Controller, jeder hochentwickelte Spannungsregler, jedes zusätzliche Speichermodul erhöht die Leistungsaufnahm ein zweierlei Hinsicht: Zum einen ist Energie für den Betrieb der Komponenten erforderlich, zum anderen steigt der absolute Gesamt-Leistungsverlust Ihres Netzteils.

Motherboard-Hersteller wirken der Leistungsaufnahme durch das dynamische An- und Ausschalten von Spannungsreglern entgegen: Die Verwendung aller 6–12 Spannungsregler für den Prozessor bietet zuverlässigere Energieversorgung bei hohen Strömen, während das Umstellen auf lediglich einenoder zwei Spannungsregler die Leistungsaufnahme in Leerlaufphasen verringert. Da solch eine Technologie einen Großteil des Marketings ausmacht, wollten wir wissen, ob und wie gut diese überhaupt funktionieren. Daher haben wir sechs verschiedene Motherboards von ASRock, Asus, Foxconn, Gigabyte sowie MSI getestet und überprüften, wer hinsichtlich Effizienz die Nase vorn hat. Einige der Produkte sind dabei keine selbsterklärten Energiesparer.

Die leistungsstärksten und neuesten PC-Grafikkarten werden für die große Mehrheit der Enthusiasten leider immer unerschwinglich bleiben. Natürlich braucht es eine Menge Geld für Forschung und Entwicklung, um die beste und neueste Hardware auf den Markt zu bringen. Die Hersteller sind also bemüht, einen großen Teil dieser Kosten mit Hilfe hochpreisiger Premium-Modelle für die Early Adopters wieder einzufahren. Da draußen wird es immer Gamer geben, die bereit sind, jeden Preis zu zahlen, um immer die neuesten Spielereien zu Hause zu haben. Alle anderen warten dann lieber ab, bis günstigere Modelle auf den Markt kommen, die vielleicht nicht ganz so viel Leistung bringen, dafür aber mit einem wesentlich überschaubareren Preisschild punkten können. Allerdings gab es diese Möglichkeit nicht immer.

In der Anfangszeit der 3D-Accelerators hatten die Grafikkartenhersteller nur sehr wenige Modelle im Angebot. Jeder Anbieter verkaufte in der Regel nur eine Sorte von 3D-Prozessoren und verlangte normalerweise einen hohen Preis dafür. Wer also auf seinem PC spielen wollte, musste bereit sein, richtig viel Geld für einen 3D-Accelerator auszugeben, ansonsten war an anspruchsvolle Spiele gar nicht erst zu denken.

Nvidia war das erste Unternehmen, das die Spielewelt wirklich verändert hat, indem es seine beste GPU nur ein klein wenig abschwächte, dafür dann aber nur noch einen Bruchteil des Preises verlangte wie für das Top-Modell. Nvidia setzte den Startpunkt für diese Entwicklung mit dem Launch der GeForce 2 MX, die ähnliche Features wie die High-End GeForce 2 und auch eine ganz anständige Leistung zu bieten hatte, ohne dass man dafür gleich sein letztes Hemd hergeben musste. Und plötzlich hatten auch die ganz normalen Gamer die Möglichkeit, sich zu einem erschwinglichen Preis mit den neuesten PC-Spielen zu vergnügen. Die neuen Karten gingen also weg wie warme Semmeln.

Damit war die Basis für eine neue Generation erschwinglicher und leistungsstarker Grafikkarten gelegt, die ähnliche Leistungswerte aufwiesen wie ihre teureren Schwestern. Dazu gehörten die GeForce 4 Ti 4200, die Radeon 9500 Pro, die GeForce 6600 GT, die GeForce 7600 GT, die Radeon X1900 Pro, die GeForce 8800 GT und die Radeon 4850.

Und noch etwas Geschichte

Dann schauen wir uns die GeForce 8800 GT doch mal etwas genauer an. Die im Oktober 2007 eingeführte Karte bietet die Leistungen einer GeForce 8800 GTX für den halben Preis und ist auch über ein Jahr nach der Markteinführung immer noch eine sehr gute Wahl. Die GeForce 8800 GT ist in der Tat so erfolgreich, dass Nvidia sie, anstatt ein neues Angebot auf der Grundlage seiner neuesten Architektur einzuführen, am Leben erhalten, mit HybridPower-Unterstützung versehen und in GeForce 9800 GT umbenannt hat. (Anm. d. Verf. – Es ist allerdings ein Jammer, dass das Unternehmen nach dem großen Erfolg seiner GeForce GTX 260 und 280 als Low-Power Idler mit dem GeForce 9300 Chipset anscheinend vom HybridPower-Konzept Abstand nimmt). Die 8800 GT/9800 GT ist jetzt also schon seit mehr als einem Jahr tonangebend in ihrer Preiskategorie. Mit 100 € ist sie immer noch die günstigste Karte, die für ernsthaftes High-Def-Gaming zu haben ist.

Aber leider hält nichts ewig. AMD hat es langsam satt und setzt alles daran, der 9800 GT Konkurrenz zu machen. Man nahm also den sehr erfolgreichen RV770 Grafikprozessor aus der Topkarte Radeon 4870, schwächte das Ganze etwas ab und reduzierte den Preis auf ein Drittel dessen, was das High-End-Modell kostet. Die neue Karte nennt sich Radeon 4830. Hat sie aber auch wirklich das Zeug, der altbewährten 9800 GT den Wind aus den Segeln zu nehmen?

Schon kurz nachdem ATIs Radeon 4870 X2 die GeForce GTX 280 als schnellste Grafikkarte überholt hatte, machten erste Gerüchte die Runde, Nvidia arbeite an einer Doppelchipkarte auf Basis der GT200 GPU. Sicherlich hat Nvidia mit der GeForce 7950 GX2 und der 9800 GX2 auf diesem Gebiet auch ausreichend Erfahrung gesammelt, und beide Karten bereiteten weiteren Verbesserungen bei den Multi-GPU-Lösungen den Weg. Dennoch wurden diese Gerüchte meist mit  dem durchaus zutreffenden Argument entkräftet, das zwei in 65 nm gefertigte GTX 280 GPUs bei weitem zu viel Strom verbrauchen und Abwärme produzieren würden, um zusammen auf einer einzigen Karte verbaut werden zu können.

Mit der Umstellung auf einen 55 nm Fertigungsprozess konnte Nvidia aber sowohl den Stromverbrauch als auch die Hitzeentwicklung der GPU verringern. Somit war der Weg frei für eine Neuauflage des „GX2“ Prinzips: Eine Karte mit zwei High-End Grafikchips. Wie schon bei den vorigen GX2-Varianten hat Nvidia auch hier die GPU leicht beschnitten, um Strombedarf und Abwärme weiter zu senken. So nutzt die GeForce GTX 295 das Speicherinterface und die Taktraten der GeForce GTX 260, verfügt aber wie die GTX 280 über volle 240 Stream Prozessoren.

Da Nvidia auch gerne Namen vergangener High-End Produkte recycelt, hätte eine Namensgebung à la „GTX 280 GX2“ oder sogar „GTX 380 GX2“ nicht überrascht. Stattdessen hat man sich für einen Mittelweg entschieden, das GX2 im Namen weggelassen und das neue Flaggschiff GeForce GTX 295 genannt.

In unserem Preview-Artikel GeForce GTX 295: Erste Benchmarks konnten wir uns schon von der hervorragenden Leistung des neuen Modells überzeugen, fragten uns jedoch auch, was für Verbesserungen neuere Treiber eventuell noch aus der Hardware herauskitzeln könnten. Außerdem interessierte uns, ob Nvidia das Problem der mangelnden Skalierung gelöst hat, mit dem die 7950 GX2-und 9800 GX2-Karten im Quad-SLI Modus zu kämpfen hatten: Stellte man die Detailstufe in Spielen auf „Ultra High“, fielen die Doppelchipkarten, paarweise betrieben, hinter konventionelle SLI-Verbände aus zwei 7900 GTX und 8800 GTX Einzelchipkarten zurück. Mit diesen Fragen im Hinterkopf gingen wir daran, uns eine zweite GeForce GTX 295 und zwei Radeon 4870 X2 zu besorgen, um die aktuellen Topmodelle als Quad-SLI und CrossFireX vergleichen zu können. Auch drei GeForce GTX 280 kamen dazu, um Nvidias schnellste drei-Wege SLI Kombination gegen die Quad-SLI Lösung antreten zu lassen.

Der Luftstrom im Gehäuse sollte alle Hardware-Komponenten erreichen und nicht durch Kabel oder andere Teile gestört werden. Die größten Wärmequellen im PC sind Prozessor, die Grafikkarte(n) und Chips vom Motherboard. Auch die Festplatten geben viel Wärme ab.

Um diese Problemzonen zu kühlen reichen 80 mm kleine Lüfter fast schon nicht mehr aus. Immer größer werden Lüfter, die die Hersteller in ihre Gehäuse quetschen. Die unterschiedlichsten Formen und Größen werden eingebaut und meist mit kleineren gemischt.

Neben Luftkühlung sind auch Wasserkühlungen sehr gefragt. In diesem Roundup sollten uns die Hersteller ihr bestes Gehäuse für diese Zielgruppe zum Testen zusenden. Das heißt, die Hersteller konnten selbst entscheiden, welches Gehäuse für dieses Marktsegment nach ihrer Meinung am besten geeignet ist.

Coolermaster / Silverstone / Gigabyte / ChieftecCoolermaster / Silverstone / Gigabyte / Chieftec

Die Testkandidaten im Überblick

  • APLUS El-Diablo Advance
  • Chieftec Aegis CX-05
  • Coolermaster Cosmos
  • Coolermaster HAF932
  • Gigabyte 3D Mercury Silver
  • Silverstone Fortress FT01
  • Thermaltake Spedo Advance VI90001W2Z

Aplus / Coolermaster / ThermaltakeAplus / Coolermaster / Thermaltake

Das Coolermaster gleich zwei Testsamples einschickte, ist purer Zufall, denn beide Gehäuse kommen fast Zeitgleich auf dem Markt.

weitere Vergleichstests :

13 Mid-Tower im Test vom 1. Oktober 2008

Der Preisverfall bei Festplatten in den vergangenen Jahren bringt Anwendern nur Gutes: Mehr Speicherkapazität zu geringeren Preisen. Beigetragen zu dieser finanziell angenehmen Gegebenheit haben unter anderem technische Neuerungen, die bei der Entwicklung und Produktion von Festplatten einfließen. Festplatten mit einem Terabyte Speicherkapazität wie zum Beispiel die Western Digital Caviar Green oder Samsung Spinpoint Eco Green F sind aktuell für etwa 75 Euro zu haben.

Die Nachfrage nach immer mehr Speicherkapazität ist nicht nur Unternehmen vorbehalten; auch Privatanwender haben Bedarf an noch mehr Speicherplatz. Die Gründe hierfür können vielfältig sein. Unangefochten auf den oberen Rängen der “Speicherfresser” rangieren sicherlich Aufnahmen mit einem digitalen Videorecorder, beziehungsweise Aufnahmen einer Videokamera mit Full-HD-Auflösung. Eine Möglichkeit, diese Daten zu speichern, wäre die Anschaffung einer weiteren Festplatte. Direkt an einen Computer angeschlossene Speichergeräte haben jedoch einen Nachteil: Sie stehen in erster Linie nur dem Gast-System zur Verfügung. Die Freigabe im Netzwerk ist zwar möglich, hierzu muss jedoch auch der Gast-Computer eingeschaltet werden.

Zentraler Speicherpunkt gewünscht

Möchte man Dateien unkompliziert und schnell im Netzwerk verfügbar machen, so dass von verschiedenen Computern im Haushalt darauf zugegriffen werden kann, bietet sich die Anschaffung eines NAS-Geräts (Network Attached Storage) an. Denn ein NAS-Gerät fungiert als zentraler Speicherpunkt, welcher unabhängig von bereits vorhandenen Computern im Netzwerk betrieben wird. 

Die im Markt verfügbaren Geräte sind zahlreich und unterscheiden sich sowohl durch den Funktionsumfang als auch durch die Anzahl der verwendeten Festplatten. Haben wir uns in der Vergangenheit vor allem NAS-Geräten mit zwei oder mehr Festplatten gewidmet, nehmen wir in diesem Kurztest das Maxtor Central Axis unter die Lupe. Im Gegensatz zu NAS-Produkten wie dem Thecus N4100 ProSynology DS-408 oder Qnap TS-409 Pro verfügt das von uns getestete Maxtor Central Axis über nur eine Festplatte. 

Eine Festplatte – kein RAID

Dementsprechend stehen Anwendern auch keine RAID-Modi zur Verfügung, die einen gewissen Grad an Datensicherheit gewährleisten. Maxtor richtet sich mit dem Central Axis auch weniger an Enthusiasten sondern an Heimanwender, die unkompliziert und schnell den vorhandenen Speicherplatz erweitern und im Netzwerk zur Verfügung stellen wollen.

Zudem ist das Maxtor Central Axis, welches bereits mit einer Terabyte-Festplatte ausgeliefert wird, für etwa 180 Euro vergleichsweise günstig zu erwerben. Zum Vergleich: Ein Synology Diskstation 207+, das zwar einen höheren Funktionsumfang als das Central Axis bietet, in der Grundkonfiguration jedoch keine Festplatten beinhaltet, kostet allein etwa 260 Euro. Rechnet man zu diesem Preis noch eine Terabyte-Festplatte mit zumindest 80 Euro hinzu, dürfte der Gesamtpreis von 340 Euro für viele außerhalb des geplanten Kostenrahmens liegen. Doch was erwartet Anwender beim Kauf eines Maxtor Central Axis – abgesehen von einem günstigen Preis?

Während 22-Zoll-Monitore mittlerweile als Schnäppchen über den Ladentisch gehen und teilweise für deutlich unter 150 Euro zu haben sind, gibt es Bewegung bei den 24-Zoll-Geräten. Hier beginnt die Full-HD-Klasse mit 1920×1200 Bildpunkten und mit in der Regel besserer Verarbeitung als bei den kleineren Formaten. Eine Ausnahme macht Samsungs 2343BW mit 23-Zoll-Diagonale mit 2048×1152 Bildpunkten – siehe Artikel Samsung 2343BW: 23-Zoll-Monitor mit 2048×1152. Doch mittlerweile rücken Bildschirme mit noch größerer Diagonale in den Fokus: 26-Zoll-Geräte mit 1920×1200 Pixeln, die sich preislich nah an den 24-Zollern orientieren. Aus diesem Anlass haben wir den populären Samsung SyncMaster 245B Plus mit dem brandneuen SyncMaster 2693HM aus gleichem Hause verglichen.

Beide Displays sind für Büro-Arbeit, zur Wiedergabe von hochauflösenden Filmen – etwa von Blu-Ray – oder das gelegentliche Spiel zwischendurch geeignet.

Ein Blick in die Preisliste von Fachhändlern offenbart erstaunliches: 24 Zoll Monitore gibt es ab 230 Euro und für 26-Zoll-Diagonale werden zirka 330 Euro aufgerufen. Gleichzeitig stellt sich die Frage, ob der um 2 Zoll (5,2 cm) größere Bildschirm die bessere Wahl ist oder nicht.

Unter dem Ansatz des Ergonomieaspekts verbucht der 26-Zoller schon auf dem Datenblatt einen Vorteil für sich: Hier beträgt die Pixeldichte 88 DPI und entspricht exakt dem eines 19-Zoll-Gerätes mit 1280x1024er Auflösung. Also der konventionellen Darstellung von Geräten, wie sie noch in vielen Büros anzutreffen sind. Demzufolge sind die Buchstaben und Menüs etwas größer und die Darstellung könnte als Augen-freundlicher beurteilt werden, als beim 24-Zoll-Monitor, der auf eine viel höhere Pixeldichte mit 94 DPI kommt. Letzteres resultiert aus dem geringeren Pixelabstand von 0,27 mm gegenüber 0,29 mm beim 26-Zoll-Gerät.

Technisch gesehen lassen sich beide Monitore gut vergleichen, da sie über preisgünstiges ein TN-Panel verfügen, welches allerdings eine höhere Blickwinkelabhängigkeit aufweist – als beispielsweise ein teureres IPS-Panel.

Diagonale Zoll Diagonale cm Auflösung Pixel Pixelabstand mm Breite cm DPI
19 48,26 1280×1024 0,29 37,1 87,6
24 60,96 1920×1200 0,27 51,8 94,1
26 66,04 1920×1200 0,29 55,7 87,6
27 68,58 1920×1200 0,3 57,6 84,7
30 76,2 2560×1600 0,25 64,0 101,6

Technikfans, die zu den getreuen AMD-Anhängern zählen, halten selbst nach den kleinsten Performance-Verbesserungen Ausschau – auch jetzt, wo die „Spider“-Plattform ein Jahr alt ist. Eine Reihe von Faktoren ist dafür verantwortlich, dass die ansonsten recht starke Kombination aus Prozessor, Chipsatz und Grafik bislang nicht auch in Sachen Performance die höchste Punktzahl erreichen konnte: Fehler im neuen Prozessorkern, ernsthafte Einschränkungen bei Geschwindigkeit und Übertaktungsmöglichkeiten der CPU sowie die verspätete Veröffentlichung von AMDs hochleistungsfähiger SB750-Southbridge.

Als die SB750 endlich herauskam, hielten die meisten Mainboardhersteller den eigentlich für Technikfreaks gedachten Chipsatz 790FX (mit seinen 32 PCI-Express-2.0-Pfaden, die zur Unterstützung von vier Grafikkarten aufteilbar waren) schon für Schnee von gestern, obwohl er wahrscheinlich immer noch der fortschrittlichste verfügbare AM2+-Chipsatz ist. Doch während viele versuchten, uns dazu zu bringen, AMDs neueren integrierten Chipsatz 790GX, der eher für den Mainstream gedacht ist, auf Profiniveau zu heben, haben sich drei Marken an AMDs ursprüngliches Konzept gehalten und den inzwischen ausgereiften 790FX mit der verspäteten SB750 zu kombinieren.

Die SB750 bringt das Versprechen mit, dank ACC (Advanced Clock Calibration) besser für das Übertakten geeignet zu sein, eine Einstellmöglichkeit, die nach Meinung vieler Overclocker einige der Grenzwerte bei einigen der internen „Tumbler“ des Prozessors lockert, wie AMD es nennt. Bisherige Tests haben gezeigt, dass dieses Feature die Möglichkeiten zum Übertakten der CPU deutlich verbessern kann, obwohl die Effektivität je nach Prozessor schwankt.

Die überragende CrossFireX-Unterstützung bleibt der Hauptgrund dafür, den 790FX konkurrierenden Lösungen vorzuziehen, aber wird das ACC-Feature der SB750 auch für einen entsprechenden Vorsprung in Sachen Übertakten sorgen? Doch bevor versucht werden soll, dies herauszufinden, sollen erst einmal die neuen Mainboards genauer unter die Lupe genommen werden.

Wie sich die Zeiten doch ändern können: Während man Prozessoren von Intel ein hohes Übertaktungspotenzial nachsagen kann, sprach man bezüglich Overclocking selten über AMD und dessen Chips. So griffen Interessenten, mit dem Ziel, eine gehörige Taktsteigerung zu erreichen, häufig zu preisgünstigen Typen des Core 2 Duo oder Core 2 Quad. Mit der Vorstellung des neuen Prozessors Phenom II, so scheint es, hat AMD seine Hausaufgaben gemacht und neben der gesenkten Energieaufnahme deutlich verbesserte Overclocking-Eigenschaften zu bieten. Mittels Übertaktung kann die Performance des Phenom II um 19 % erhöht werden.

Anders war es dagegen beim Vorgänger. So half es beispielsweise beim Phenom I wenig, die Versorgungsspannung anzuheben, um eventuell einen stabilen Betrieb zu ermöglichen. Denn nur selten konnte die Taktfrequenz um 200 MHz oder gar 400 MHz angehoben werden. Im neuen Kern des Phenom II wurden deshalb Verbesserungen im Schaltkreis vorgenommen, der im Zusammenspiel mit den feineren Strukturen die elektronischen Schalter bei höheren Taktraten stabiler arbeiten lässt. Die verbesserten Transistoren besitzen die Eigenschaft, mit steigender Spannung noch resistenter gegen Ausfälle bei hohen Frequenzen zu sein.

Unser Testexemplar des Phenom II X4 940, der einen Standardtakt von 3,00 GHz aufweist, konnten wir mühelos und ohne Anhebung der Versorgungsspannung, auf 3,50 GHz takten. Mit einem Luftkühler gelang es, einen dauerhaft stabilen Betrieb mit 3,80 GHz zu erreichen.

Im übertakteten Zustand reicht der Phenom II sogar an der Performance eines Intel Core i7-Systems heran. Wir haben den Phenom II auf Basis des DKA790GX Platinum von MSI übertaktet und mit Intels Core i7 920 und Core 2 Quad Q6600 verglichen.

  • 1
  • 2

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen