Monat: April 2009

Bietet das TV-Programm nichts interessantes, greift man entweder zu einem guten Buch oder zur DVD beziehungsweise Blu-ray-Disk. Falls da nichts passendes zu finden ist, könnte man den Weg zur nächsten Videothek auf sich nehmen. Ist aber kein Verleih-Automat in der Nähe, hat man nachts oder außerhalb der Öffnungszeiten meist schlechte Karten. Anders bei Maxdome: Der Anbieter liefert Filme über die Internetleitung nach Hause – egal, wie spät es ist.

Online-Videotheke MAXDOMEOnline-Videotheke MAXDOME

Um den Dienst in Anspruch zu nehmen, benötigt eine schnelle Internetverbindung, einen PC mit aufgespieltem Microsoft Media Center oder eine für Maxdome zertifizierte Settop-Box.

Die Settopbox muss man bei MAXDOME kaufenDie Settopbox muss man bei MAXDOME kaufen

Neue Gaming Grafikkarten-Charts 2009

Gestartet werden die neuen Grafikkarten-Charts mit den schnellsten und aktuellsten Grafikkarten von ATI und Nvidia. Im Moment lassen sich 32 Retail-Produkte und Chipklassen miteinander vergleichen, die genauen Leistungswerte lassen sich an den Ergebnissen von über 30 Gaming-Benchmarks ablesen. Die aktuelle Basis wird monatlich durch weitere Referenzmodelle aus allen Kategorien erweitert. Neu sind alle Benchmarks, die Unterteilung in Mainstream und High-End, sowie Testmodelle direkt vom Hersteller.

 

Für eine optimale Übersicht werden alle Grafikchips erst mit Standardtakt gemessen. Die Charts werden sich ab sofort aber nicht nur auf Referenzmodelle beschränken: ab jetzt kann man auch etliche, im Handel erhältliche Produkte, Sondermodelle und übertaktete Versionen aller bekannten Hersteller in den Vergleich mit einbeziehen. Damit reagiert Tom‘s Hardware auf den Markt, da immer mehr Hersteller Taktraten, Kühllösungen und Designdetails modifizieren, um bessere Leistungen gegenüber den Hersteller-Referenzkarten zu erzielen.

Für die neue Benchmark-Suite gibt es wieder eine breite Palette aus verschiedenen Spielen und 3D-Engines. Ziel ist, eine breite Mischung aus Echtzeitstrategie, Simulation, Rollenspiel und 3D-Shooter zu bekommen. Mittlerweile haben aktuelle Grafikkarten ausreichend Leistung, um mit 1920×1200 Pixel, also etwas mehr als Full-HD-Auflösung, flüssig auf den Bildschirm zu übertragen. Deshalb wird das Niveau der Testauflösungen entsprechend angehoben: High-End startet ab 1680×1050 Pixel mit Kantenglättung, da kleinere Auflösungen schon flüssig laufen und stärker von der CPU-Leistung limitiert sind.

Mit 1920×1200 Pixel werden die größten Unterschiede sichtbar, hier gibt es drei verschiedene Testvarianten: Test ohne Kantenglättung (Anti Aliasing), um bei aufwendigeren Titeln noch ein paar Frames pro Sekunde mehr zu bekommen. Anschließend testen wir mit vierfacher Kantenglättung, um die Bildqualität noch mal etwas zu verbessern und die Leistungsreserven starker Grafikkarten auszunutzen. Und letztlich testen wir mit achtfacher Kantenglättung, um die Unterschiede bei Taktung, Chipklasse und Grafikspeicher besser herauszuheben.

Benchmarksuite 2009

Modus

Standard

Quality

Quality 8AA

3D-Engine

Fallout 3

DX9

0AA+0AF

4AA 8AF

8AA 15AF

Gamebryo (Oblivion)

Far Cry 2

DX10

0AA+0AF

4AA 8AF

8AA 16AF

Dunia Engine

F.E.A.R. 2

DX10

0AA+0AF

4AA 8AF

LithTech Jupiter Extended (EX)

Left4Dead

DX9

0AA+0AF

4AA 8AF

8AA 16AF

Source Engine (Halflife 2)

The Last Remnant

DX10

0AA 4AF

0AA 4AF

Unreal 3

Tom Clancy’s Endwar

DX10

0AA+0AF

4AA 8AF

Unreal 3.1

Tom Clancy’s H.A.W.X

DX10

0AA+0AF

4AA 8AF

Ubisoft Bukarest (Blazing Angels)

3DMark06 v1.1.0

DX9

1280×1024

Default

Default

Futuremark

Neuigkeiten im Festplatten- bzw. Storage-Markt drehen sich vor allem um Flash-SSDs: Sofern man der Berichterstattung diverser Internet-Magazine Glauben schenkt, stehen Laufwerke auf Flash-Basis kurz vor der Übernahme des Speichermarkts. Sie gelten als schneller und effizienter als Festplatten –aber auch wesentlich teurer wenn man Kosten pro Gigabyte zugrunde legt. Die tatsächliche Situation sieht allerdings anders aus, da Flash-Speicher bislang lediglich sehr kleine Marktanteile für sich in Anspruch nimmt. Die gute alte Festplatte ist also noch lange nicht tot. Wir haben einen weiteren Grund entdeckt, weshalb Festplatten auch in I/O-intensiven Anwendungen noch ihre Berechtigung haben: Die Short-Stroking-Technologie.

Bildquelle: Anwender “Zzubnik”, Wikimedia.Bildquelle: Anwender “Zzubnik”, Wikimedia.

HDD contra SSD

Lassen Sie uns zu Beginn klarstellen, dass wir nicht pauschal Festplatten oder Flash-SSDs bevorzugen. Jede Technologie hat ihre Vor- und Nachteile und macht Sinn, wenn sie entsprechend klug eingesetzt wird. Die Vorteile von SSDs liegen in einer kaum noch vorhandenen Zugriffszeit und einer hohen I/O-Performance. Einzelne Modelle bieten zudem sehr hohen Datendurchsatz, der jedoch für Server von geringerem Interesse ist als für Desktops und Notebooks. Hinzu kommt, dass Flash-Speicher für eine Kapazität von bis zu 64 GB inzwischen bezahlbar geworden ist. Und schließlich können Flash-SSDs zudem auch sehr energieeffizient sein.

Leider enttäuschen zahlreiche Flash SSD-Produkte noch immer. Zudem sollten Sie über die Unterschiede zwischen MLC- und SLC-Flash bescheid wissen (Multi Level Cell contra Single Level Cells). MLC ermöglicht schnelle Lesevorgänge, ist allerdings für flotte Schreibvorgänge nicht geeignet – besonders wenn diese zufällig auftreten. SLC-Flash hat die Oberhand, ist allerdings auch teurer. Während einige MLC-Flash-SSDs recht erschwinglich geworden sind, kosten SLC-Flash-SSDs auch weiterhin viel Geld.

Effizienz und Zuverlässigkeit sind zusätzliche Aspekte, die Sie bedenken sollten. Performance und Leistungseffizienz hängen größtenteils vom Controller ab, der von einer Flash-SSD genutzt wird. Der Markt bietet zahlreiche gute Produkte, die allerdings auch ihren Preis haben.

HDDs noch nicht überholt

Herkömmliche Festplatten sind fast schon billig geworden, wobei selbst Festplatten mit Terabyte-Kapazität schon deutlich unter 100 Euro zu haben sind. Eine hohe Speicherkapazität, Kosten und Verfügbarkeit in großen Stückzahlen zählen eindeutig zu den entscheidenden Faktoren, die für eine weitere Nutzung traditioneller Festplatten sprechen. Zudem sind HDDs trotz magentischer, mechanischer oder elektronischer Komponenten, meist zuverlässig und oft erstaunlich widerstandsfähig. So müssen Festplatten im Unternehmensbereich extreme Testverfahren und eine anspruchsvolle Validierung für spezifische Einsatzzwecke über sich ergehen lassen, bevor sie letztlich für unternehmenskritische Anwendungen eingesetzt werden. Die Zuverlässigkeit von Flash-SSDs über einen langen Zeitraum hinweg ist noch weitgehend unerforschtes Territorium, weshalb zahlreiche Unternehmen den Einsatz solcher Produkte noch scheuen.

Kampf der Physik

Der größte Nachteil herkömmlicher Festplatten ist der Zeitverlust durch die Repositionierung der Lese-/Schreibköpfe. Während das bei sequentiellen Lese- bzw. Schreibvorgängen, bei denen konventionelle Festplatten oftmals schneller sind als viele Flash-SSDs, keine Rolle spielt, ist es für die Performance von zufälligen Lese- oder Schreibvorgängen von entscheidender Bedeutung.

Sobald eine Festplatte auf zufällige Information zugreifen muss, die über das gesamte magnetische Medium verteilt sein kann, ist es durchaus möglich, dass ein Durchsatz von mehr als 150 MB/s bei einer schnellen Server-Festplatte mit 15.000 U/Min auf wenige hundert Kilobyte pro Sekunde zusammenschrumpft. Mit anderen Worten: Das Laufwerk bzw. die Anwendung verliert durch die Positionsänderung der Köpfe viel Zeit. Was wäre, wenn man diese mechanische Aktivität verringern könnte? Das geht. Wir haben uns einen Ansatz namens Short Stroking näher angesehen und eine Reihe von Hitachi-Festplatten dazu herangezogen. Mit Hilfe eines Ansatzes, der als Short Stroking bekannt ist, wollten wir die mechanische Aktivität verringern indem die Laufwerke in einem RAID-Array lediglich einen Bruchteil der Festplattenkapazität bzw. Medienoberfläche einsetzen.

40 nm im Mainstream: ATi Radeon HD 4770

Über die allerneueste Hardware schreiben zu können hat schon seine Vorteile und macht unbestreitbar auch riesigen Spaß. Es ist schon praktisch ein Hobby geworden, auch außerhalb der normalen Redaktionszeiten im Labor mit aktuellen Komponenten herumzuexperimentieren – ein Gefühl, was die meisten Enthusiasten sicherlich gut nachvollziehen können.

Gleichzeitig wissen wir aber auch, dass Dual-GPU Grafikkarten jenseits der 400-Euro-Marke und Extreme-Edition-Prozessoren der 1000-Euro-Klasse sozusagen Kaviar sind in einem Markt, der davon lebt, Big Mäcs zu verkaufen. Es gibt zwar ein paar glückliche Gamer, die sich die Hardware der obersten Preisklasse auch wirklich leisten können. Die Mehrheit nähert sich diesen großen Kalibern eher durch Reviews und investiert das mühsam angesparte Geld in Komponenten, die von den Boliden abgeleitet sind.

Glücklicherweise geht es im Moment selbst in der Mittelklasse sehr spannend zu. Die Preisklasse von 100 bis 200 Euro ist gespickt mit Preis-Leistungs-Knallern, angefangen bei der Radeon HD 4830 über die Radeon HD 4850/GeForce GTS 250 bis hin zur Radeon HD 4870/GeForce GTX 260.

Für Hersteller wie ATI und Nvidia besteht die Herausforderung darin, dass auch die Karten im Preiswert-Segment in vielen Fällen auf den gleichen Grafikprozessoren basieren wie die High-End Modelle. Es muss schon ziemlich schmerzen, den Kern einer 300 Euro teuren GeForce GTX 285 in abgewandelter Form auch in einer GTX 260 für 160 Euro einzusetzen. Ebenso wenig wirtschaftlich ist es für ATI, die GPU einer Radeon HD 4870, die ab 150 Euro den Besitzer wechselt, auch in einer Radeon HD 4830 zu verkaufen, die man schon für weniger als 80 Euro finden kann.

Deshalb sind Mainstream GPUs oft von größeren Modellen abgeleitet. Der G94-Chip ist beispielsweise eine eingedampfte G92-GPU, und für den RV620-Chip stand ATIs RV670 Pate. Bei der Architektur machen sie große Anleihen bei den Flaggschiff-GPUs, beschränken sich dabei aber auf eine kleine Die-Fläche. So lange es ATI und Nvidia gelingt, die GPU-Derivate in ausreichender Zahl abzusetzen, kann sich der Entwicklungsaufwand für den “kleineren” Chip bald amortisieren, und die Firmen machen trotzdem noch ein gutes Plus.

ATI nimmt mit der Radeon HD 4770 einen weiteren ''Demand Peak'' ins Visier.ATI nimmt mit der Radeon HD 4770 einen weiteren ”Demand Peak” ins Visier.

Herausforderer im Mainstream?

An dieser Stelle betritt ATIs neue Radeon HD 4770 die Bildfläche: die erste GPU, die in einem 40-nm-Prozess hergestellt wird. Wie die anderen Modelle der HD-4000-Reihe ist auch die HD 4770 von der RV770-GPU abgeleitet, die vor etwa einem Jahr in der HD 4850 und HD 4870 das Licht der Welt erblickte.

Im Kern ist die GPU der neuen Karte allerdings leicht anders aufgebaut. Sie soll auch die Radeon HD 4830 ersetzen, die auf derselben teuren RV770-GPU in 55-nm-Fertigung basiert. Es steht also zu erwarten, dass die neue und die alte Karte zumindest vergleichbare Leistung erzielen. Normalerweise beschreibt man Produkte, die sich am unteren Ende des Preisspektrums bewegen, nicht mit dem Wort “beeindruckend.” Sollte der Herausforderer selbst bei 1920 x 1200 noch flüssige Bildwiederholraten schaffen, könnte dieses Adjektiv aber durchaus angebracht sein. Glaubt man den Marktdaten von Mercury Research, die wir schon in unserem Artikel «ATI Radeon HD-4890: Mehr als ein Refresh?» zitierten, wäre ATI in Anbetracht der Nachfrage an 100-Dollar-Karten außerdem ein richtiger Coup gelungen. 

Schauen wir uns den Kern der Radeon HD 4770 ein Mal im Detail an, um herauszubekommen, warum diese Karte das Potential zum Siegertypen hat.

Im Handel erhältliche Prozessoren bieten teils beeindruckende Reserven, denn viele Modelle können mir geringem Aufwand 30-50% schneller betrieben werden, als vom Hersteller vorgesehen. Extremes Overclocking führt jedoch zu exzessiver Verlustleistung, so dass wirklich hohe Taktraten allein deshalb fragwürdig erscheinen. Tatsächlich ist die Steigerung der Prozessorgeschwindigkeit oftmals lohnenswert, denn die Verlustleistung steigt – je nach Modell – erst einmal nur gering an. Bei welcher Taktrate bietet ein Core i7-920 das beste Verhältnis zwischen maximaler Rechenleistung und noch akzeptabler Leistungsaufnahme? Wir haben getestet.

Overclocking ist ein Verkaufsargument

In den späten 90er Jahren war die Übertaktung von Prozessoren nur auf wenigen Hauptplatinen möglich, denn sie mussten die Anpassung von CPU-Multiplikator und Systemtakt sowie Spannungen unterstützen. Die öffentliche Wahrnehmung von Overclocking ist heute allerdings erheblich anders. Jedes bessere Einstiegs-Motherbpard unterstützt Overclocking-Funktionen, auch wenn die Kundschaft davon meist nie Gebrauch macht, und High-End-Boards drehen sich teilweise nur noch um Übertaktbarkeit uns das Ausreizen des technisch machbare. Overclocking ist zum Feature und Verkaufsargument für Hauptplatinen geworden, ohne dass wir dies an dieser Stelle bewerten wollen. Klar ist: wer sich auf vernünftige Steigerungen beschränkt hat nicht einmal mehr mit Schäden an der Hardware zu rechnen.

Jeder kann übertakten

Heute sind praktisch alle Prozessoren, Chipsätze, Grafikchips und andere Chips mit teils erheblichen Sicherheitsreserven ausgestattet, um deren reibungslosen Betrieb in allen denkbaren Betriebsszenarien zu gewährleisten. Das Ergebnis sind bessere Übertaktungs-Reserven und eine vielzahl an Funktionen, die Overclocking vieler PC-Komponenten selbst für wenig erfahrene Anwender zu einem leichten Unternehmen machen. Jeder Anwender mit technischem Interesse und der Lust, etwas auszuprobieren, kann sein System oder die Grafikkarte übertakten – entsprechende Tools gibt’s im Web meist gratis.

Jeder aktuelle Prozessor lässt sich zuverlässig im Bereich von 10-20% übertakten, was die Leistungsfähigkeit steigert, ohne dabei großartige Risiken zu bergen. Viele Motherboards bieten für derartige, im vernünftigen Rahmen anvisierte Overclocking-Versuche sogar automatische Einstellmöglichkeiten, die sich um alle anzupassenden Parameter kümmern.

Wo sind die Grenzen?

Es liegt in der Natur des Menschen, sich oft nicht mit 10-20% zu begnügen, wenn noch mehr Leistung möglich ist. Es gibt allerdings Grenzen, ab denen die durch Übertaktung gewonnene Mehrleistung in keinem gesunden Verhältnis zum Stromverbrauch mehr steht. Doch wie weit kann man wirklich gehen? Wir haben ein aktuelles System auf Basis eines Core i7-920 zusammengestellt, um eben diese Grenze der Vernunft zu ermitteln.

13 SDHC-Speicherkarten im Vergleich

Preise für Speicherkarten sind auf ein beinahe lächerliches Tief gefallen: So sind z.B. SDHC-Karten mit 8 GB für wenige Euro zu haben. Allerdings kommt für Enthusiasten nicht jede beliebige Speicherkarte in Frage. Dieses Klientel legt wert darauf, dass das gewünschte Produkt für Geräte wie Digitalkameras einen hohen Schreibdurchsatz und schnelle Lesevorgänge bietet, um so Inhalte schneller auf ihr System zu übertragen. Die erstklassigen Produkte sind natürlich bedeutend teurer – Heute im Vergleich: Acht bekannte Marken und insgesamt 13 Speicherkarten.

SD-Karten: Die Einzelheiten

Im Jahr 2001 brachte San Disk als erstes eine SD-Karte auf Grundlage des MMC-Standards (Multi Media Card) auf den Markt. Aus technischer Sicht sind sich SD (Secure Digital) und MMC ähnlich, allerdings bietet SD zudem eine Digitale Rechteverwaltung (Digital Rights Management oder kurz DRM) auf CPRM-Basis. SD-Karten verfügen zudem über einen Schalter, der das versehentliche Überschreiben von Daten verhindert. Allerdings handelt es sich dabei nicht um einen Hardware-Schalter, sondern um Geräteeinstellungen, mit denen das Client-Gerät, also z.B. eine Digitalkamera, entsprechend umgehen muss.

SD und SDHC

Da eine Kapazität von 2 GB, die der SD 1.1-Standard festlegt, heute nicht mehr ausreicht, kam der SD 2.0- bzw. SDHC-Standard hinzu. Dieser Standard ermöglicht derzeit Kapazitäten von bis zu 32 GB und verfügt über ein Potential von bis zu 2 TB. Nächstes Jahr folgt der SDXC-Standard. Da sich SDHC- und SD-Karten äußerlich nicht unterscheiden, sollten Sie sich auf alle Fälle vergewissern, dass Ihr Gerät SDHC unterstützt, bevor Sie sich für eine deartige Karte (4 GB und mehr) entscheiden.

Class 2, 4 und 6

Die ersten SD-Karten konnte man mit bis zu 3,6 MB/s auslesen und mit 0,8 MB/s beschreiben. Eine immer bessere Auflösung von Digitalkameras und zunehmend anspruchsvollere Verbraucher veranlassten die Hersteller, schnellere Karten auf den Markt zu bringen. SDHC wird folglich in drei Kategorien unterteilt: Class 2, 4 und 6 – die Zahlen stellen hier den jeweils maximalen Schreibdurchsatz dar.

Anwendungen

Allerdings sind nicht nur digitale SLR-Kameras, die zum Schreiben mehrerer Fotos pro Sekunde eine schnelle Speicherkarte benötigen. Zahlreiche Anwender nutzen solche Karten auf vielfältige Weise als schnellen mobilen Speicher und mit einem USB- bzw. eSATA-Kartenleser.

Wir haben Lexar, OCZ, Patriot, PNY, Sandisk, Silicon Power und Transcend gebeten, uns ihre schnellsten SD-Karten mit großer Kapazität für diesen Test zur Verfügung zu stellen. Werfen wir einen Blick auf 13 Karten von 4 GB bis 32 GB.

Big Apple: MacBook Pro 17

In den vorangegangenen Artikeln Obst für unterwegs – Apple Notebooks im Vergleich und  Prüfstand: Runderneuertes MacBook Air haben wir bereits das MacBook, MacBook Pro 15 und MacBook Air getestet. Als letztes Modell aus Apples aktueller Notebook-Reihe bleibt also nur das Flaggschiff übrig, das MacBook Pro 17, das ab 2.499 Euro erhältlich ist. Was bringt es außer seinem großen Display noch mit?

Design

Das MacBook Pro 17 trägt die Designmerkmale der aktuellen MacBook-Reihe: Der Korpus besteht aus angerautem Aluminium, das Display ist von einem schwarzen Rahmen eingefasst und sitzt hinter Glas. Im Deckel sitzt das weiße, beleuchtete Apple Logo, und die beleuchtete Tastatur mit ihren frei stehenden Tasten ist in einer kleinen Vertiefung eingebettet. Bis auf die neben dem Keyboard gelegenen Lautsprecher sieht es auf den ersten Blick aus wie ein überdimensioniertes MacBook  – und diese Familienähnlichkeit ist durchaus gewollt. Alles wirkt edel und seriös, aber auch minimalistisch, aufs Notwendigste beschränkt. Werbesticker oder blinkende Leuchten wird man an diesem Notebook nicht finden.

Als AMD vor zwei Monaten seinen neuen Sockel AM3 vorstellte, wunderte man sich, warum der Launch von vergleichsweise langsamen CPUs begleitet wurde – zumal der Phenom II X4 940 bereits für den Sockel AM2+ existierte.

Das soll nicht heißen, dass die Dreikerne der Phenom-II-X3-700-Reihe und die Quads der X4-800-Serie mit ihrem reduzierten L3-Cache Langweiler gewesen wären. Wobei, ehrlich gesagt war das ganze schon etwas dröge. Vor allem wenn sie sich dann in den Benchmark-Charts regelmäßig den schnelleren Quad-Cores mit vollem Cache geschlagen geben mussten.

Natürlich stellte AMD damals das Thema Interoperabilität in den Vordergrund. Man konnte ab sofort jeden dieser neuen, preiswerteren Prozessoren kaufen und entweder in einem der neuen AM3-Boards nutzen oder in ein bestehendes AM2+-System mit DDR2-Speicher einsetzen. Der höhere Preis der DDR3-Speichermodule passte nicht so recht zum Anspruch der preiswerteren Plattform. Deshalb spielte AMD den Sockel AM3 selbst anfangs auch herunter.

Seitdem hat sich bei AMD jedoch einiges getan. Zuerst einmal gibt es nun einen neuen Flaggschiff-Prozessor für den neuen Sockel. Darüber hinaus steht mit der Radeon HD 4890 eine neue Grafiklösung bereit, die der Dragon-Plattform einen weiteren Leistungsschub verpasst. Außerdem ist eine neue Version der Overdrive-Software in Arbeit, die in Version 3.0 auch Systemen mit DDR3-Speicher zu besserer Performance verhelfen soll.

Ein kleiner Rückblick: Dragon, im Wandel der Zeit

Als AMD im Januar die Dragon-Plattform vorstellte, umfasste sie einen Phenom-II-X4-Prozessor, eine Grafikkarte aus ATIs Radeon-HD-4800-Familie und einen Chipsatz der 7er-Reihe von AMD. In der Praxis bestand ein Dragon-System üblicherweise aus ein Phenom II X4 940, einer Radeon HD 4870 und einem AMD-790GX-Mainboard.

AMD behauptet, dass sich seitdem jede einzelne Komponente der Dragon-Plattform verändert hat. Das stimmt aber nicht ganz, denn bei den Chipsätzen hat sich nichts getan, und wenn die uns vorliegende Roadmap nicht daneben liegt, wird sich vor 2010 in dem Bereich auch nichts mehr tun. Erst dann wird der 790FX durch die Kombination aus RD890/SB850 abgelöst werden. Der 790GX wird dann ebenfalls aufs Altenteil geschickt, womit dem 790X/SB850 das Performance-Segment zufällt. Aber Eins nach dem Anderen.

Immerhin geht es hier eigentlich um die neuen Phenom-II-X4-Modelle, die nun auch die Modellnummer 945 und 955 tragen. Das xx5 signalisiert, dass es sich um einen AM3-Prozessor handelt, während die “runden” Nummern wie 920 und 940 dem Sockel AM2+ vorbehalten sind. Mit dem Sockel AM3 wechselt die Dragon-Plattform vom DDR2-Arbeitsspeicher auf die neuere DDR3-Technologie. Die Mehrleistung der Radeon HD 4890 von etwa 10% verglichen mit der Radeon HD 4870 1 GB muss man allerdings mit einem kräftigen Aufpreis bezahlen. AMD legt den Box-Versionen seiner neueren CPUs seit kurzem auch andere Kühler bei, die sowohl kürzer als auch schmaler ausfallen als das Vorgängermodell. Natürlich gibt es auch noch das neue Overdrive-Tool, doch dazu später mehr. Zuerst einmal wollen wir uns die neuen Phenom-II-X4-Prozessoren mal genauer ansehen.

Die amerikanische Medienlandschaft ist der deutschen um Lichtjahre voraus. Hochauflösendes Fernsehen gehört in Amerika seit Jahren zur Normalität, während hierzulande das HDTV-Angebot noch immer zu wünschen übrig lässt. Auf klare Bekenntnisse pro HDTV seitens der Fernsehanstalten warten interessierte Konsumente vergeblich und die Abschaltung des HDTV-Programms der Sender Sat1 und Pro7 Anfang 2008 enttäuschte die Fans des hochauflösenden Bildmaterials. 

Deutsche Medienanstalten im Internet

Auch die Online-Angebote der deutschen Fernsehsender sind im internationalen Vergleich gesehen stark ausbaufähig. So stehen für einen gewissen Zeitraum bei den öffentlich-rechtlichen Online-Auftritten zwar Serien aus Eigenproduktionen in einer guten Qualität zum Abruf bereit und der Sender RTL bietet die erfolgreiche Serie “CSI – Den Tätern auf der Spur” im Abo für 19,90 Euro zum Streaming an. Fans von US-Serien wie Lost, Simpsons, 24 oder Heroes müssen in die Röhre schauen.

Hinzu kommt noch, dass der weitere Ausbau der für Nutzer kostenlosen Online-Angebote der öffentlich-rechtlichen Sendeanstalten in der Diskussion steht. Die Angebote privater Sender scheinen sich hierzulande, wohl bedingt durch die preislichen Vorstellungen für ein eingeschränktes Programmangebot und aus lizenzrechtlichen Gründen, nicht durchzusetzen.

Besseres Angebot in den USA

Ein Blick über den großen Teich beschert Internetnutzern hingegen eine reiche Auswahl an erfolgreichen US-Serien. Anbieter wie Hulu oder theWB stellen hier Serien und Spielfilme kostenlos  als Video-on-Demand ins Netz. Allerdings sind diese nur für Personen abrufbar, die mit einer amerikanischen IP-Adresse auf diese Angebote zugreifen. Internetnutzer aus anderen geographischen Regionen haben keinen Zugriff auf diese Angebote – Geo-Targeting sei Dank.

Weil Intel den Core i7-Prozessor auf das High-End-Segment ausgerichtet hat, sind die LGA-1366 Mainboards sowohl auf den Enthusiast-Bereich als auch das Workstation-Segment zugeschnitten. Für den jetzigen Sockel geht es in Zukunft wohl verstärkt in Richtung der Xeon-Linie, da die Mainstream-Prozessoren der neuen Mikroarchitektur ein neues Interface mit weniger Pins nutzen werden. Der High-End-Markt ist für die Hersteller also klar umrissen, und so haben sie sich bislang auch auf ihre Flaggschiffe konzentriert.

Wir haben beinahe drei Monate gewartet, um den Mainboard-Firmen Zeit zu geben, sich der Bugs in ihren High-End-Modellen anzunehmen. Erst dann begannen wir mit den Tests für unseren Artikel Intel X58: Sechs Motherboards bis 300 Euro im Vergleich. Unsere Geduld zahlte sich aus, denn die meisten Testmodelle arbeiteten zuverlässig und problemlos. In den vergangenen Wochen sollten die Hersteller nun ausreichend Zeit gehabt haben, auch ihre Mittelklasse-Modelle genau so marktreif zu bekommen. Oder zumindest hatten wir das erwartet. 

Stattdessen wurde dieser Vergleichstest einer der interessantesten, die wir in der letzten Zeit durchführten, wenn auch leider aus den völlig falschen Gründen. Von den ursprünglich zehn Firmen, die uns Testmuster zugesagt hatten, vergaß eine uns ein Board zu schicken. Eine weiteres Board erreichte uns leider zu spät, während ein dritter Kandidat trotz diverser Versuche mit verschiedensten Kombinationen aus Grafikkarten, CPUs und RAM bereits am POST (Power-On Self Test) scheiterte. Wem das noch zu gewöhnlich ist, der findet vielleicht spannender, dass eines der verbleibenden Test-Boards mit dem Übertakten unseres Core i7 überfordert war: Es blieb in einer Endlos-Reset-Schleife hängen. Weniger glimpflich ging es für einen Kandidaten aus, der sich aufgrund des offenbar fehlenden Überspannungsschutzes im BIOS ins Hardware-Nirwana verabschiedete. Das inspirierte wohl ein anderes Board, es ihm gleich zu tun – und unseren Core i7 920 gleich mit sich in den Silizium-Tod zu reißen.

Wer also glaubt, aufgrund des gehobenen Preises von 200 Euro und mehr geprüfte Qualität erwarten zu können, wird wohl von den Zuständen, die derzeit im Bereich der Core i7-Boards herrschen, unangenehm überrascht werden – und das, obwohl man hier im Vergleich zur Vorgängergeneration gerne mal 75 bis 100 Euro mehr auf den Tisch legen darf, nur um den neuen Sockel zu bekommen. Dennoch stießen wir auch auf ein paar Highlights, die wir uns nun genauer anschauen wollen.

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen