Monat: Juni 2010

Atom beschleunigt: Synology DS1010+

Intels neue Dual-Core Atom-Prozessoren (Codename Pineview) erfreuen sich offensichtlich großer Beliebtheit bei den Herstellern von anspruchsvollen NAS-Geräten für den Einsatz in kleinen und mittleren Unternehmen. So verwundert es nicht, dass auch der Hersteller Synology auf die Kraft von zwei Atom-Kernen setzt. Das bisherige Spitzenmodell DS509+, dessen Herzstück aus einer Freescale MPC8533 CPU mit einer Taktrate von 1,06 GHz besteht, wurde abgekündigt und durch das neue DS1010+ ersetzt. Beim neuen Modell kehrt Synology den Freescale-Prozessoren den Rücken und setzt auf Intels Atom Dual-Core-CPU. Wie leistungsfähig diese Atom-Prozessoren in NAS-Geräten sind haben schon Thecus und Qnap mit den 4-Bay-Modellen N4200 und TS-459 Pro gezeigt. Welche Performance Sie vom neuen DS1010+ erwarten dürfen zeigen wir Ihnen auf den folgenden Seiten.


Synology DS1010+: Mehr Gigaherz…

Betrachtet man die bisherige Produkte von Synology, fällt auf, dass der Hersteller bislang überwiegend auf Prozessoren mit ARM bzw. PPC-Architektur gesetzt hat – und das überaus erfolgreich. Unsere früheren Tests von Synology NAS-Geräten mit Freescale PPC-CPU wie z.B. dem DS409+ zeigen, dass es nicht immer eine Intel-CPU sein muss, damit ein Gerät auch Leistungsfähig ist. 

Währen andere Hersteller wie zum Beispiel Thecus mit dem N4100, (AMD Geode LX800), Qnap mit dem TS-509 Pro (Intel Celeron M420) oder Promise mit dem NS4600 (Intel Tolapai EP80579 SoC) Erfahrungen in der x86-Welt gesammelt haben, stellt die Verwendung eines Intel Prozessors und der x86-Architektur bei Synology ein Novum dar. So kommt beim neuen Modell DS1010+, das das ältere DS509+ ablöst, eine Intel Atom D510 Dual-Core CPU mit 1,66 GHz zum Einsatz, die als Basis für hohe Datenübertragungsraten im Netzwerk dienen soll. Unterstützt wird die CPU von 1GB DDR2-800 RAM, der von experimentierfreudigen Anwendern bei Bedarf per 200 Pin SODIMM auf 3GB erweitert werden kann. Synology bietet zwar selbst ein zertifiziertes RAM-Modul an, aber andere Module von z.B. Kingston oder Transcend sollten gemäß den Erfahrungsberichten in diesem Thread im Synology-Forum ebenfalls anstandslos funktionieren. 

…und Detailverbesserungen

Im Vergleich zum Vorgängermodell kommt jedoch nicht nur eine andere CPU zum Einsatz, sondern es wurde auch die Optik des Geräts gründlich überarbeitet und auch sonst lassen sich seitens der Hardware Verbesserungen im Detail ausmachen. Gleich geblieben ist die Möglichkeit, die Speicherkapazität des NAS-Geräts durch die Anbindung einer Erweiterungseinheit zu vergrößern, die für das DS1010+ in Form des DX510 zur Verfügung steht. Das DX510 ist, vereinfacht ausgedrückt, ein Backplane in einem Gehäuse mit fünf Festplatteneinschüben, das einfach per eSATA mit dem NAS-Gerät verbunden wird. Doch zurück zum DS1010+, das wir auf den folgenden Seiten näher beschreiben.

Nachdem wir den 6-Core Phenom II X6 von AMD mit 6, 5, 4, 3, 2 und 1 Kern getestet haben, ist es jetzt an der Zeit, das gleiche mit dem Core i7-Flagschiff 980X von Intel zu machen. Wie sieht es bei diesem Produkt mit Performance, Leistungsaufnahme und Leistungseffizienz aus, wenn weniger Cores benutzt werden? Läuft das 32-nm Core i7-Spitzenmodell nur mit allen sechs Kernen zur Höchstform auf?

Unsere Tests auf dem AMD Thuban Hexa-Core haben zwei wichtige Dinge ans Licht gebracht: Erstens mussten wir feststellen, dass es derzeit noch nicht besonders viele Anwendungen gibt, die wirklich von mehreren Prozessorkernen profitieren. Die Performance wäre um einiges besser, wenn seitens der Software endlich eine entsprechende Unterstützung der Hardware gewährleistet wäre. Es hat uns ziemlich frustriert, dass AMD und Intel extrem leistungsfähige Prozessoren liefern, nur um dann feststellen zu müssen, dass deren Potential insbesondere bei Mainstream-Anwendungen völlig brach liegt. Des Weiteren haben wir hinsichtlich der Effizienz folgendes herausgefunden: In Sachen Performance pro Watt gibt es nichts besseres, als den Phenom II X6 mit allen sechs Kernen zu betreiben, da die Performance-Gewinne hier deutlicher sind als die zusätzlich notwendige Energie für den Betrieb mit einer höheren Anzahl an Kernen.

Gilt das auch für das Flagschiff von Intel? Gibt es auch hier die beste Leistungseffizienz nur mit allen sechs Cores? Nimmt die Leistungsaufnahme im Leerlauf ab, wenn individuelle Kerne ausgeschaltet werden? Finden wir es heraus.

Die Frage nach der Zuverlässigkeit steht bei sehr vielen Anwendern kaum im Vordergrund, wenn sie sich für den Kauf eines ganz bestimmten Produktes entscheiden. So stehen oft genug nur Kapazität, Preis und die angegebenen Geschwindigkeiten allein im Fokus des Käuferinteresses. Das macht ihn, den potentielle Kunden, zu einem leichten Ziel der Marketingstrategen. Darüber hinaus ist beim Erwerb eines Fertig-PCs den wenigsten klar, welches Innenleben sie eigentlich im Detail erwerben. Zumal viele Handelsketten keinen Wert auf Transparenz bei den verwendeten Baugruppen und Teilen legen. Die meisten Kunden wiegen sich außerdem im Hinblick auf Gewährleistungs- und Garantiefristen in trügerischer Sicherheit. Statistische Erhebungen sind genauso rar, wie aussagefähige und vor allem unabhängige Langzeittests.

Praxisrelevanz und Allgemeingültigkeit

Die russische Firma Storelab, einer der osteuropäischen Marktführer für die professionelle Datenrettung und bekannt durch die auf ihrer Homepage veröffentlichten Analysen und professionellen Anleitungen, hat nach einer Langzeitstudie im eigenen Geschäftsbetrieb die Ausfallraten bestimmter Festplatten der führenden Hersteller verglichen und diese Untersuchung unlängst als Studie veröffentlicht. Dabei ergaben sich durchaus unerwartete Ergebnisse. Während die Erzeugnisse eines Produzenten im Schnitt 3,5 Jahre intakt blieben, hielten in Kapazität, Ausstattung und Preis vergleichbare Festplatten eines anderen Herstellers nur 1,5 Jahre. Sicher, im Heimanwenderbereich wird dies vielleicht nur die privaten Urlaubsfotos der letztjährigen Reise “verbrennen”, im kommerziellen Bereich können überproportional häufige Ausfälle jedoch komplette Strukturen lahmlegen und die Arbeit ganzer Monate vernichten. Selbst wenn die üblichen Sicherheitsmaßnahmen ergriffen wurden, entstehen durch den Ausfall dieser kurzlebigen Platten erhöhte Kosten durch Betriebsunterbrechung, Arbeitsaufwand und Ersatz. Aus diesen Gründen hat sich Storelab entschieden, die eigenen, in der Praxis gewonnen Informationen öffentlich auszuwerten, um zu belegen, welche der Festplatten welches Herstellers die geringsten Ausfallraten besitzen. 

Wir möchten einführend darauf hinweisen, dass es sich bei den durch Storelab statistisch erfassten Festplatten ausschließlich um eingesandte Festplatten handelte, für die eine Datenrettung durchgeführt wurde bzw. werden sollte. Dieser Umstand ermöglicht einerseits die genaue Analyse der tatsächlichen Fehlerursache, sagt andererseits jedoch nichts über die Gesamtzahl aller Schadensfälle aus, die über den Handel oder die Hersteller direkt abgewickelt wurden. Vorteilhaft an dieser Analyse ist jedoch der Langzeitfaktor, der in marktstatistischen Erhebungen sonst nur eine untergeordnete Rolle spielt und die Praxisrelevanz auf Grund der Analysemöglichkeiten von Storelab. Aus diesem Blickwinkel möchten wir auch die nachfolgenden Ergebnisse und Aussagen bewertet wissen.

Radeon HD 5550: Passiv gekühlte 3D-Zwerge

Oftmals stellt sich die Frage ob eine passiv gekühlte Grafikkarte auch genug 3D-Leistung erzeugen kann, um aktuelle Spiele ausreichend zu beschleunigen und ob sie dabei so kalt bleibt, dass keine zusätzlichen Gehäuselüfter nötig sind, um einen Hitzestau zu vermeiden. Die 40-nm-Fertigung hat Vorteile. Durch die geringe Leistungsaufnahme beim Grafikchip müssen die Kühlerkonstruktionen gar nicht besonders aufwändig sein. Während Sapphire filigrane Lamellen über die Platine zieht und mit Heatpipes verbindet, kommt HIS hervorragend mit einem flachen und stabilen Aluminiumblock aus.

Im Test: Radeon HD 5550 und Geforce GT 240Im Test: Radeon HD 5550 und Geforce GT 240

Hinsichtlich der Leistung ist die Radeon HD 5550 kein vollwertiger Ersatz für eine HD 4670, die man relativ gut passiv kühlen kann. Für einen richtigen Vergleich fehlt der HD 5550 noch etwas 3D-Power. Sie kann die HD 4670 nicht schlagen, das schafft erst die schnellere Chipklasse Radeon HD 5570. Was sich sehr stark auf die Performance der Testkandidaten auswirkt, ist der Grafikspeicher. Die verfügbaren Modelle sind mit DDR2- und DDR3-Ram ausgestattet, was sich bei gleicher Grafikchipleistung mit 49 Prozent in der Gesamtwertung bemerkbar macht. Da sich die Preise zwischen den Modellen und Herstellern manchmal wenig unterscheiden, sollte man nicht am falschen Ende sparen.

Festplattenkäufer, die nicht auf hohe Kapazitäten angewiesen sind, haben die Wahl: Unterschiedliche Kapazitätspunkte basieren auf unterschiedlichen internen Hardware-Konfigurationen. Infolgedessen bieten die Produkte einer einzelnen Festplattenfamilie im Regelfall auch unterschiedliche Performance- und Effizienzwerte. Wir wollten wissen, worin sich die drei beliebten Kapazitäten im 2,5-Zoll-Enterprise-Segment unterscheiden und haben uns mit den drei jüngsten Toshiba-Laufwerke auf die Jagd nach Antworten gemacht. Dabei stehen sich 600GB, 450GB und 300GB mit verschiedenen Head- und Platter-Konfigurationen gegenüber.

Viele Menschen tendieren zu der Annahme, dass Flash-SSDs, die zweifellos viel schneller und physisch robuster sind als Festplatten, mittlerweile die Einsatzgebiete von herkömmlichen Festplatten erobern. Was in der Theorie sicherlich der Fall ist, sieht in der Praxis jedoch etwas anders aus, da man in verschiedenen Szenarien, in denen eine hohe Zuverlässigkeit erforderlich ist – wie z.B. bei Banken und in der Wissenschaft – nicht einfach von magnetischem Speicher auf Flash-Speicher umstellen kann. Eine derartige Umstellung erfordert Langzeittests hinsichtlich der Zuverlässigkeit, eine akribisch vorhersehbare Performance und eine detailierte Validierung aller Komponenten, die von den Anforderungen der jeweiligen Anwendung abhängig ist. Die Validierung einer neuen Festplatte für die Installation in eine bereits bestehende Systemungebung ist deutlich einfacher als die Validierung einer neuen Technologie. Und genau das ist der Grund dafür, weshalb Flash-SSDs bei extrem wichtigen Servern noch nicht auf dem Vormarsch sind und die gute alte Festplatte auch in den kommenden Jahren weiterhin präsent bleibt.

Festplatten basieren auf rotierenden magnetischen Plattern, was große Auswirkungen auf Kapazitäten und Performance hat. Stellen wir uns dabei Festplatten als komplexe Plattenspieler mit mehreren Platten vor. Sich bewegende Arme helfen bei der Positionierung der Lese- und Schreibköpfe ähnlich des Tonarms und Tonabnehmers eines alten Plattenspielers. Pro Platter wird ein Satz Lese/Schreibköpfe verwendet – ein Kopf an der Ober- und ein Kopf an der Unterseite eines jeden Platters – um so beide Oberflächen der Scheibe nutzen zu können. Die Umdrehungsgeschwindigkeit der Platter beinflussen die Zugriffszeit durch die sogenannte Umdrehungslatenz, da eine geringere Wartezeit mit einer schnelleren Zugriffszeit gleichzusetzen ist. Der Durchsatz wird von der Fähigkeit beeinflusst mehrere Bits bei erhöhter Umdrehungsgeschwindigkeit lesen und schreiben zu können. Schließlich ermöglicht noch die Kombination von mehreren Plattern eine höhere Gesamtkapazität.

Moderne Festplatten bestehen normalerweise aus zwei oder mehr rotierenden Plattern. Allerdings ist es manchmal auch notwendig nur bestimmte Bereiche der Platter-Oberfläche zu nutzen, um so die gewünschte Kapazität zu erreichen. Ein einfaches Beispiel: Eine 2,5-Zoll-SAS-Festplatte mit 600GB bietet eine Kapazität von 200GB pro Platter. Für die Erstellung eines ähnlichen Laufwerks mit 300GB benötigt man also zwei Platter, die nicht komplett verwendet werden, wobei ein Laufwerk mit 450GB sowie eine Festplatte mit 600GB auf drei Platter basieren muss. Ein Blick auf die Performance sollte hier interessantes zu Tage fördern, denn es stellt sich folgende Frage: Nimmt die Zugriffszeit bei einem derartigen Laufwerk mit 450GB ab? Immerhin wird die durch die Köpfe abzudeckende Fläche geringer. Und gibt es Auswirkungen beim Durchsatz? Theoretisch sollte es von Vorteil sein, wenn das Laufwerk hautpsächlich die äußeren Sektoren des Festplatte nutzt, da diese mit der höchsten absoluten Umdrehungsgeschwindigkeit laufen.

Entscheidungsträger dürften sich wundern, wie sich die einzelnen Kapazitätspunkte und Konfigurationen unterscheiden. Wir haben die jüngsten 2,5-Zoll Enterprise-Festplatten mit 10.000 U/Min von Toshiba für Sie getestet und mit 600GB, 450GB und 300GB drei Kapazitätspunkte miteinander verglichen.

Zugegeben – ein Mobiltelefon zählt heute bereits zu den Grundbedürfnissen menschlicher Existenz. Aber was aktuell in Sachen iPhone 4 abgeht, hat nichts mit Bedürfnissen zu tun. Und dabei gibt es das Teil noch gar nicht. Man kann es lediglich vorbestellen. Trotzdem werden bereits „Fluggemeinschaften“ gebildet und die besten Zeltplätze diskutiert.

Vordergründig handelt es sich beim Apple iPhone 4 um die vierte Version eines zugegebenermaßen sehr erfolgreichen und unumstritten einzigartigen Smartphones. Wirft man jedoch einen Blick hinter die Kulissen dann offenbart sich schnell eine ganz andere Wahrheit. Das iPhone ist kein Telefon. Nein – es ist eine Offenbarung, quasi die elektronische Fassung des Evangeliums und der Lutherischen Thesen in einem. Das iPhone kennt keine Rassen-, Glaubens- oder Meinungsunterschiede. Und mit Version 4 scheint der Wahnsinn seinen vorläufigen Höhepunkt zu finden.

Quelle: AppleQuelle: Apple

Die neue Marketing-Waffe: Vorbestellung

Es ist ja im Prinzip nichts Neues, dass bestimmte Produkte vorbestellt werden können, noch bevor sie tatsächlich auf den Markt kommen. Ich gebe zu, ich habe das auch schon gemacht. Allerdings ging es dabei um ein Auto, das ich zuvor zumindest in einer sehr ähnlichen Version schon mal Probe fahren durfte.

Doch was Apple derzeit macht, führt das Thema Vorbestellung – oder wie es neudeutsch heißt Pre-Order  – völlig ad absurdum. Das hat beim iPad begonnen und wird jetzt beim iPhone in Vollendung fortgeführt. Kaum wurde in einschlägigen Blogs und News-Diensten rund um Apple verkündet, dass das iPhone 4 ab 15. Juni 2010 vorbestellt werden kann, gingen die aus meiner Sicht doch recht bedenklichen Diskussionen los: „Wann bestellt ihr euer iPhone 4? Gleich um Mitternacht? Oder legt Apple da die US-Zeit zugrunde, und hier ist dann noch der 14. Juni?“ Ich finde, in einer Zeit der weltweiten Wirtschafts- und Finanzkrise sollten zunächst andere Dinge geklärt werden. Nicht, dass ich den Zeigefinger erheben und auf die aktuellen Zustände verweisen will. Aber habe nur ich das Gefühl, dass in unserem Land mehr gemeckert und gejammert wird denn je? Sollte dann bei der Vorstellung eines Produktes wie dem iPhone 4 nicht vielleicht zuerst die Frage gestellt werden „Was kostet das Teil eigentlich?“ oder „Kann ich mir das leisten?“ oder noch schlimmer: „Brauche ich das überhaupt?“. Doch scheinen solch profane Fragen bei einem Heilsbringer wie dem iPhone 4 einfach nicht angemessen.

Nicht alle Prozessoren sind automatisch dann am besten, wenn sie mit sovielen Einheiten wie möglich betrieben werden. Daher wollten wir uns Performance, Leistungsaufnahme und Effizienz des neuen Phenom II X6 genauer ansehen und haben dafür alle möglichen Core-Einstellungen genutzt: 6, 5, 4, 3, 2 und einem einzelnen CPU-Kern.

Die Ergebnisse dieses Artikels sind für diejenigen Anwender weniger wichtig, die bereits einen der neuen AMD Sechs-Kern-Prozessoren verwenden, da die meisten wohl kaum in Betracht ziehen dürften, Prozessorkerne auszuschalten – zumindest nehmen wir das an, schließlich kauft man sich einen Sechskern-Prozessor nicht ohne Grund. Allerdings zeigen die Werte auf anschauliche Weise, wie gut die Performance und Energieeffizienz des Thuban-Kerns bei Verwendung weniger Kerne bis hin zum Maxiumum von sechs Prozessorkernen skaliert. Letztlich sind sechs Kerne bei ge-threadeten Arbeitslasten mit Sicherheit schneller, bieten dabei aber nicht unbedingt die beste Leistungseffizienz. Dabei dürfte der Schritt von vier auf sechs Kerne nicht so deutlich ausfallen wie der von zwei auf vier Kerne.

Auch unter einem weiteren Gesichtspunkt ist es durchaus sinnvoll, die Unterschiede zwischen vier und sechs Kernen zu betrachten: Wie man bereits unserem Artikel Meet Zosma: AMD’s Quad-Core Phenom II X4 960T Gets Unlockedentnehmen konnte, ist es möglich, die Prozessoren von AMD zu entriegeln und so zusätzliche Prozessorkerne hinzu zu gewinnen. Ob diese Unlock-Prozedur wirklich zuverlässig ist, steht allerdings auf einem anderen Blatt, da man womöglich aus Ertragsgründen bei der Produktion aus einem Sechs-Kern-Prozessor mit ein oder zwei nicht funktionstüchtigen Kernen ein Vier-Kern-Modell gemacht hat. Daher sollte man  umfassende Tests zur Zuverlässigkeit durchzuführen, bevor man in Erwägung zieht, ein solches System einzusetzen.

Auch als Doppel- oder Dreifachpaket ist die Radeon HD 5670 richtig flott. Durch zwei Crossfire-Anschlussleisten kann man bis zu drei Platinen miteinander koppeln, wodurch sich die Rechenarbeit aufteilen lässt. Als Doppelpaket überholt die Radeon HD 5670 im Crossfire-Modus eine Radeon HD 5770 und konkurriert mit der HD 5830. Im Dreierverbund kommt sie fast an eine Radeon HD 5870 heran.

Im Test: Radeon HD 5670 und HD 5770.Im Test: Radeon HD 5670 und HD 5770.

Für den Test stehen uns drei aktiv gekühlte Modelle zur Verfügung. Der Grafikchip wäre als passive Variante ziemlich interessant, wobei die luftgekühlten Versionen sehr gute Ansätze zeigen: HIS verbaut das bewährte IceQ-Konzept mit eigenem Luftkanal und Sapphire setzt auf einen Kühler mit superleisem Arctic-Cooling-Lüfter. Von Asus kommt eine modifizierte Radeon HD 5770, die sich mit dem beigelegten Tool SmartDoctor stark übertakten lässt und die Manipulation der Spannung erlaubt.

Kommt eine neue Grafikkartenserie auf den Markt, stellt man sich immer die Frage, neu kaufen oder abwarten und eine Generation überspringen. In der Regel wartet man mindestens eine Generation ab, da die neuen Karten oft nur ein paar Prozent schneller sind, obwohl sie eine neue Nummer tragen. Ob das mit der 5000er-Serie von ATI noch stimmt, haben wir mit der 4000er-Generation etwas genauer verglichen. Konzentriert haben wir uns hierbei auf die 3D-Geschwindigkeit für Spiele und zusätzlich Übersichten zur Temperatur und Leistungsaufnahme erstellt. Eine umfassende Übersicht bietet unser abschließender Preisleistungsindex.

Generationsvergleich: Radeon HD 3870 X2, HD 4670 bis HD 5870 im Test.Generationsvergleich: Radeon HD 3870 X2, HD 4670 bis HD 5870 im Test.

Als Basis für alle Tests wird die aktuelle Benchmarksuite mit AVP, Avatar, Battlefield Bad Company 2, Dragon Age, Left4Dead 2, Mass Effect 2 und Supreme Commander 2 verwendet. Das Gesamtergebnis aus allen erreichten Frameraten ist eine grobe Orientierung für die Leistung der Grafikchips. Etwas aussagekräftiger sind die Prozentvergleiche, die normalisiert wurden. Dabei werden für jeden Benchmark die Frameraten in Prozent umgerechnet, wodurch extreme hohe Spitzenwerte in den Einzelergebnissen geringer gewichtet werden.

Die Chipklassen werden in verschiedenen Bereichen gezielt miteinander verglichen, wodurch die Unterschiede zwischen den Grafikkarten besser zu erkennen sind. Die kompletten Tests mit allen Ergebnissen finden Sie gegen Ende des Artikles als Gesamtvergleich. Wir haben insgesamt 30 Sets von Radeon HD 4670 bis HD 5870 untereinander bewertet. Nicht dabei sind die HD 5970 und HD 5870 als Crossfire, da die Einzelchipkarte mit Radeon HD 5870 in der Leistung schon so hoch liegt, das sie zur 4000er-Serie kein Gegenstück mehr hat.

AMD wird oft als der kleinere der beiden verbleibenden großen Hersteller im x86-CPU-Markt belächelt, der oft Intel hinterher hechelt oder bestenfalls gleichziehen kann. Zumindest bei den Chipsätzen trifft dieses Bild momentan aber überhaupt nicht zu. Bestes Beispiel ist AMDs neuer High-End-Chipsatz 890FX, der im Gegensatz zu Intels X58 nicht nur mehr PCIe-Lanes mitbringt (AMD 42, Intel 36), sondern in der aktuellen Southbridge SB850 auch einen SATA-6Gb/s-Controller integriert. Einen solchen kann Intel derzeit in keinem seiner Chipsätze bieten. Der Vergleich mit Intels LGA-1156-Plattform und ihren nur 16 PCIe-Lanes im Prozessor (und den ausgebremsten weiteren Lanes im PCH) fällt noch deutlicher zu AMDs Gunsten aus. Vor allem für Gamer bietet AMD Vorteile.

Glücklicherweise kann Intel wenigstens sowohl CrossFire als auch SLI in die Waagschale werfen, denn ansonsten wäre die Firma für Spieler mit beschränktem Budget noch weit weniger interessant. AMD ist derweil auf CrossFire beschränkt.

Man könnte argumentieren, AMD versuche mittels der besseren Chipsatzfeatures CPU-Kunden zu gewinnen. Selbst wenn das der Fall wäre (und es ist gut möglich), so ist das aus Gamer-Sicht nichts Schlechtes. Viele unserer Vergleichstests haben gezeigt, dass AMDs CPUs es nur in einigen Anwendungen schaffen, mit Intels Prozessoren gleichauf zu liegen. Dazu gehören vor allem Spiele.

AMD scheint also, was Features anbelangt, die bessere High-End Gaming-Plattform im Portfolio zu haben. Die Frage ist aber, welche Firma baut das beste AMD-Board mit dem 890FX-Chipsatz? Wir wollen uns fünf Modelle genauer anschauen.

  • 1
  • 2

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen