Monat: Mai 2010

Fermi light: Nvidia GeForce GTX 465

Wenn man es genau nimmt, ist die GeForce GTX 480, Nvidias derzeitiges Spitzenmodell, schon so etwas wie ein Derivat. Mit 480 Shader Kernen kommt sie auf knapp 94% des Maximums, das die GF100-GPU erlaubt – das wären dann 512 Shader Cores. Die GeForce GTX 470 bringt es noch auf etwa 88 % der Vollausstattung.

Heute stellt Nvidia eine dritte Karte vor, die auf dem mehr als drei Milliarden Transistoren großen Monster-Chip GF100 basiert. Zeitgleich soll die Karte auch im Handel erhältlich sein. Mit 352 aktiven Shader Cores ausgestattet, sind bei ihr nur noch rund 66 % der Ausführungseinheiten eines kompletten GF100-Chips aktiv. Schon anhand dieser Zahlen können wir recht gut abschätzen, wie die Performance einer GeForce GTX 465 ausfällt. Vergleicht man die durchschnittlichen Benchmark-Ergebnisse der beiden Karten bei 1920 x 1200 mit aktivierter Kantenglättung, kommt die GeForce GTX 465 auf etwa 66% der Performance einer GeForce GTX 480.

Die bislang kleinste Fermi-Karte hat im Zuge ihrer Entstehung aber nicht nur CUDA-Kerne einbüßen müssen. Die GeForce GTX 465 verfügt auch nur über 44 Textur-Einheiten und vier ROP-Partitionen, die bis zu 32 ganzzahlige Pixel pro Takt mit einer Genauigkeit von 32 Bit ausgeben können. Auch das Speicherinterface hat die Schrumpfkur nicht unbeschadet überstanden: Ist der Speicherbus bei der GeForce GTX 470 noch 320 Bit breit, bleiben hier nur noch 256 Bit übrig, die 1 GB GDDR5-Speicher anbinden.

Ein Neuling sucht seinen Platz

Die GeForce GTX 465 in den aktuellen Grafikkarten-Markt einzuordnen, fällt alles andere als leicht. Nvidia nennt als empfohlenen Verkaufspreis 279 US-Dollar, und erste (Pre-Launch-)Listungen in Preissuchmaschinen schwanken zwischen 275 und gut 300 Euro. Der Preis wird sicherlich in den Tagen nach der offiziellen Vorstellung deutlich fallen. Zum Vergleich: Die Radeon HD 5850 kostet derzeit ab 255 Euro aufwärts, leicht schnellere Varianten gibt es ab 275 Euro.

Da wir schon wissen, dass eigentlich die GeForce GTX 470 mit ATIs Radeon HD 5850 konkurrieren soll und für ihren Mehrpreis auch mehr Performance bietet, macht das stutzig. Lässt man sich die technischen Daten der GTX 465 noch einmal durch den Kopf gehen, ist nicht damit zu rechnen, dass sie der HD 5850 Paroli bieten kann. Dennoch kostet sie zumindest derzeit mehr.

Wer wäre denn dann der passende Gegenpart zur GeForce GTX 465? Diese Rolle fällt wohl der Radeon HD 5830 zu. Diese Karte hatte uns bei ihrer Einführung Ende Februar alles andere als vom Hocker gehauen. Auch wenn sie nicht signifikant mehr Performance mitbringt als eine ältere Radeon HD 4890, kann man sie wenigstens schon für um die 200 Euro finden.

Laut Nvidia soll die GeForce GTX 465 genau in die Lücke zwischen der Radeon HD 5850 und der HD 5830 passen. Da ihr Preis aber wohl selbst nach dem Launch noch eher im Bereich einer HD 5850 liegen wird, müsste sich ihre Performance schon weit mehr an der GeForce GTX 470 orientieren, als es die technischen Daten erwarten lassen.

Vor sieben Jahren hatte die Firma Intel eine klare Meinung zum Thema Übertakten: Sie war strikt dagegen und wollte es nach aller Möglichkeit unterbinden. Immerhin stellte Overclocking eine Möglichkeit für skrupellose Händler dar, preiswertere Prozessoren als High-End-Modelle zum entsprechenden Preis zu verkaufen.

Die Wende kam, als Intel den Pentium 4 Extreme Edition mit Gallatin-Kern auf den Markt brachte, der mit 3,4 GHz getaktet war. (Interessant: Vom reinen Takt her lief er damit schneller als das aktuelle Spitzenmodell Core i7-980X Extreme Edition, der es ohne Turbo auf 3,33 GHz bringt.) Für damalige Verhältnisse ein Alleinstellungsmerkmal war der 2 MB große L3-Cache, der für zusätzliche Performance sorgte.

Mit der Zeit differenzierte Intel seine 1.000 Dollar teuren Extreme Editions zunehmend von seinen anderen Desktop-Prozessoren. Der größte Unterschied war, dass die teuren Schwergewichte mit einem offenen Multiplikator ausgeliefert wurden. Das vereinfachte das Übertakten immens, erlaubte es Intel aber gleichzeitig, die Methode offiziell nach wie vor nicht zu unterstützen. Der Haken: Für dieses praktische kleine Feature musste man schon eine ganze Menge Kohle hinblättern – und wer hat schon mal eben 1.000 Dollar oder Euro für eine CPU übrig?

Um die Enthusiasten (trotz des nach wie vor bestehenden Performance-Rückstandes) auf seine Seite zu ziehen, hat AMD im Laufe der Jahre einige Black-Edition-Prozessoren herausgebracht, die ebenfalls über einen offenen Multiplikator verfügen. Natürlich liegen preislich zwischen AMDs und Intels entsperrten CPUs auch Welten. Ein Phenom II X2 555 Black Edition kostet beispielsweise nicht einmal 90 Euro. Selbst AMDs aktuelles Flaggschiff, der Phenom II X6 1090T Black Edition mit sechs Kernen, bleibt noch deutlich unter der 300-Euro-Marke. Das ist nur etwa ein Drittel von dem, was Intels Extreme Editions kosten.

Eins darf man dabei aber nicht aus den Augen verlieren: AMDs Prozessoren kosten weniger, weil sie bei ihrem Standard-Takt langsamer sind. Sie sind also weniger Preisbrecher sondern tragen schlicht einen ihrer Performance angemessenes Preisschild. Dem Overclocker ist der Standard-Takt aber herzlich egal. Er will stattdessen wissen, was passiert, wenn man die Kernspannung erhöht, an der Frequenzschraube dreht und einem Prozessor so richtig Beine macht.

Intel entdeckt die Enthusiasten wieder

Wegen seiner Preisgestaltung und der offenen Multiplikatoren der Black Editions ist AMD vielen Enthusiasten, die gerne die volle Kontrolle über ihr System haben, die sympathischere Firma. Viele kaufen genau aus diesem Grund schon aus Prinzip AMD-Hardware. Das mag nicht jeder so sehen, doch spiegelt sich diese Meinung in vielen Leserkommentaren wieder.  

Inzwischen sieht auch Intel das Thema Overclocking und den Enthusiast Bereich sehr viel lockerer – man könnte sogar sagen: sportlicher. Das äußert sich nicht nur in den High-End-Prozessoren, sonder auch in flexibleren Mainboards und sogar der Skulltrail-Plattform mit ihren beiden Prozessorsockeln. Eins hat sich aber nie geändert: Nach wie vor sind die spannendsten Produkte gleichzeitig die teuersten. Das widerspricht eigentlich dem Grundgedanken des Overclocking, nämlich aus bezahlbarer Hardware das Maximum herauszuholen, so wie einst beim legendären Celeron 300A.

Offenbar gab es bei Intel aber einen Sinneswandel: Die Firma tut etwas fast schon unglaubliches und bricht AMDs bisheriges Monopol, indem sie nun auch bezahlbare Prozessoren mit offenem Multiplikator anbietet, die das Potential haben abzugehen wie Schmidts sprichwörtliche Katze. Die beiden Neuen heißen Core i7-875K und Core i5-655K. Sieht man vom angehängten K, dem offenen Multiplikator und den wählbaren Speicherteilern ab, sind sie mit zwei bereits verfügbaren CPUs identisch, dem Core i7-870 (2,93 GHz) und Core i5-650 (3,2 GHz).

Der Core i7-875K baut natürlich auf Intels in 45 nm gefertigtem Lynnfield-Design, verfügt über vier Kerne, Hyper-Threading und Turbo Boost und besitzt 8 MB L3-Cache. Der Dual-Channel-Speichercontroller sitzt direkt im Prozessorkern, was den Datentransport beschleunigt. Laut Intel nutzt der Core i7-875K genau dieselbe Revision wie die bislang vorgestellten Lynnfield-CPUs.

Prozessor Normaler Takt Offene Multiplikatoren Turbo Takt Kerne/ Threads L3 Cache Speicher TDP Preis*
Core i7-980X 3,33 GHz Core, DDR3, Spannung bis zu 3,6 GHz 6/12 12 MB 3 x DDR3-1066 130W $999
Core i7-875K 2,93 GHz Core, DDR3, Spannung bis zu 3,6 GHz 4/8 8 MB 2 x DDR3-1333 95W $342
Core i7-860 2,8 GHz DDR3 (bis zu 1.600 MT/s) bis zu 3,46 GHz 4/8 8 MB 2 x DDR3-1333 95W $284
Core i5-655K 3,2 GHz Core, DDR3, Spannung bis zu 3,46 GHz 2/4 4 MB 2 x DDR3-1333 73W $216
Core i5-650 3,2 GHz n.V. bis zu 3,46 GHz 2/4 4 MB 2 x DDR3-1333 73W $176

*offizieller Listenpreis in US-Dollar, laut Intel

Im Core i5-655K steckt hingegen der Clarkdale-Kern in 32 nm. Er verfügt über zwei echte Prozessorkerne, die dank Hyper-Threading bis zu vier Threads parallel verarbeiten können. Der Turbo Boost ist auch hier mit an Bord, der L3-Cache aber mit 4 MB weit kleiner. Der Speichercontroller des Clarkdale befindet sich zwar auch auf dem Prozessorträger, aber zusammen mit einem Grafikkern in einem separaten Die. Erwartungsgemäß beherrscht die CPU außerdem die AES-NI Befehle.

Da beide CPUs Intels LGA-1156-Interface nutzen, bieten beide von sich aus nur 16 PCIe-2.0-Lanes. Das schränkt die Flexibilität der Plattform für Konfigurationen mit mehreren Grafikkarten durch CrossFireX oder SLI ein. Für diesen Test haben wir uns aber für eine Radeon HD 5970 entschieden, die auf ihrer Platine zwei GPUs trägt. Für dieses Grafik-Schwergewicht sind die 16 Lanes genau richtig.

3D-Power mit Crossfire und SLI steigern

ATI bezeichnet es als Crossfire, wenn sich zwei oder drei Grafikkarten die Berechnung der 3D-Darstellung untereinander teilen. Nvidia nennt diese Technik SLI (Scalable Link Interface), wobei auch hier bis zu drei Grafikarten auf einem Mainboard unterstützt werden.

SLI und CrossfireSLI und Crossfire

Die Installation ist nicht immer einfach. Bevor der Treiber installiert wird, steckt man die Grafikkarten in das Mainboard. Hier können schon die ersten Fragen auftauchen. Wie schnell muss der Slot sein? Braucht man eine Steckverbindung um die Karten zu koppeln? Wie viel Leistung sollte die CPU haben? Wir haben Installation und Skalierung genau getestet und die besten Tipps für Sie zusammengestellt.

Mehr Speicherplatz für die PlayStation 3

Die PlayStation 3 (PS3) von Sony ist bereits seit 2006 auf dem Markt. Die aktuell verkauften Modelle haben mit der ursprünglichen Version allerdings nur noch ein paar grundlegende Eigenschaften gemeinsam. Die jüngste PlayStation 3 Slim ist schlanker als die erste Ausgabe und mit einer Kapazität von 120GB und 250GB in den USA für jeweils $349 bzw. $429 und in Europa für etwa € 279 bzw. € 309 erhältlich. Ganz egal, ob man viel spielt oder nicht, es lässt sich nicht verleugnen, dass es sich bei der PS3 um einen Multimedia-Alleskönner handelt, der auch als Blue-Ray-Player dient. Wir haben für Sie erörtert, was nötig ist, um die eingebaute Festplatte durch ein größeres Laufwerk zu ersetzen und die PS3 so zu einem Medienarchiv zu machen.

Sony hat mehr als 30 Millionen Exemplare der PlayStation 3 verkauft und das Gerät dadurch zu einem der dominanten Produkte auf dem Spielekonsole-Markt gemacht. Konkurrenten sind die Xbox 360 von Microsoft und die Nintendo Wii; allerdings nimmt die PlayStation 3 laut VGCharts.com lediglich den dritten Platz ein. Für welches Produkt man sich am besten entscheidet, hängt von diversen Dingen ab.

Zunächst besteht durchaus die Möglichkeit, dass ein Spiel, das einem besonders gefällt, nur für eine bestimmte Konsole erhältlich ist, womit sich dann die Wahlmöglichkeit erledigt hätte. Abgesehen davon weisen die drei Angebote unterschiedliche Charakteristika auf: Bei Nintendo Wii geht es hauptsächlich um den Spaß. Die Nintendo Wii unterstützt kein HD-Video, digitales Audio oder anspruchsvollere Technologien. Die Xbox 360 von Microsoft dient mit seiner Anbindung an das Windows Media Center auf einem herkömmlichen PC als Schnittstelle zwischen der PC-Welt und den Spielekonsolen. Die PlayStation 3 ist neben der etwas überlegenen Hardware zudem mit einem Blue-Ray-Player ausgestattet. Unter einem rein technischen Aspekt gesehen, sollte man sich demnach für die PS3 entscheiden.

Die PlayStation 3 und die Xbox 360 qualifizieren sich zudem als Medien-Server, wobei wir uns in diesem Artikel lediglich auf das Produkt von Sony konzentrieren. Wie bereits erwähnt, bietet das aktuelle Produkt entweder 120GB oder 250GB an Speicherkapazität. Für die meisten Anwender reicht das zwar aus, sollten man allerdings auch Fotos und Videos, insbesondere HD-Inhalte, speichern wollen, dann dürfte die gebotene Kapazität sehr schnell nicht mehr ausreichend sein. Glücklicherweise lässt sich die PlayStation 3 Slim mit einer größeren Festplatte aufrüsten. Im heutigen Test haben wir das eingebaute 250GB-Laufwerk durch eine neue Festplatte mit 640GB ersetzt.

Dieser Artikel wurde am 26. Mai 2010 überarbeitet. Nähere Details hierzu erfahren Sie am Seitenende.

Die Idee ist nicht gerade neu: Warum nicht einmal nicht flüchtigen, ultra-schnellen Silizium-Speicher mit rotierenden Speicherscheiben und damit maximale Geschwindigkeit und hohe Speicherkapazität miteinander kombinieren? Hybrid-Festplatten (H-HDDs) kamen 2007 auf den Markt und verschwanden relativ schnell wieder in der Versenkung, da sie kaum einen spürbaren Vorteil boten. Heute enthüllt Seagate eine neue Art von Hybrid-Laufwerken, die dem ursprünglichen H-HDD-Konzept ähneln. Allerdings verlässt sich die neue Momentus XT nicht auf die Unterstützung durch das Betriebssystems und dürfte dadurch etwas vielseitiger sein.

Momentus XT ist eine Festplatte!

Man kann Flash-Speicher und eine herkömmliche Festplatte auf zwei Arten miteinander kombinieren: Entweder durch das Hinzufügen von rotierenden Plattern  zum Flash-Speicher oder umgekehrt. Seagate hat sich für letztere Variante  entschieden und 4GB Flash-Speicher auf seiner 2,5-Zoll-Momentus 7200-Festplatte untergebracht. Daraus ergibt sich natürlich, dass sich das Laufwerk im schlimmsten Fall wie eine herkömmliche Festplatte verhält. Das ist zwar nichts schlechtes, sollte man aber wissen.

Die Lösung?

Trotz aller theoretischen Vorteile haben H-HDDs für Enttäuschung gesorgt. Daher  muss man es Seagate hoch anrechnen, dass das Unternehmen ein Produkt für ein noch noch immer undefiniertes Marktsegment vorstellt. Einerseits gibt es Flash-SSDs, die maximale Performance bieten, dafür aber auch sehr viel kosten. Andererseits stehen Anwendern 2,5-Zoll-Festplatten mit bis zu 750GB zur Verfügung, die allerdings nicht die gleiche Performance bieten wie Flash-SSDs. Infolgedessen scheint ein Hybrid also durchaus sinnvoll.

Seagate hat sichergestellt, dass die Momentus XT dafür geeignet ist, eine bestehenden Festplatte nahtlos zu ersetzen. Das Produkt sieht aus und verhält sich wie andere Festplatten im 2,5-Zoll-Format (9,5 mm Bauhöhe), nimmt ähnlich viel Leistung auf und bietet ein SATA 3 Gb/s-Interface. Zudem gefällt uns, dass Seagate auch für dieses Produkt eine Garantie von fünf Jahren bietet. Das ist unserer Ansicht nach insofern wichtig, da sich die neue Momentus XT erst noch bewähren muss. Dann wollen wir mal!

[Update: 26. Mai 2010]:

Unser ursprünglicher Artikel bot sämtliche Informationen zur Low-Level- und Anwendungs-Performance. Durch einen sehr eng gesteckten Zeitrahmen für unsere Tests war es uns nicht möglich praxisbezogene Testergebnisse mit aufzuführen, die zeigen, dass die Momentus XT „lernfähig“ ist und eine ähnliche Performance wie SSDs erreicht. Diese Ergebnisse reichen wir in unserem Update nun nach und präsentieren Ihnen aktuelle Werte für die Benchmarks PC Mark Vantage (Tests wiederholt) Windows Bootup und Anwendungsstart.

Was bringt Low-Voltage DDR3 RAM?

Es gibt kaum ein Segment im Hardware-Markt, in dem keine sogenannten umweltfreundlichen Produkte angeboten werden. Mit derartigen Geräten zielen Hersteller auf das Umweltbewusstsein von Kunden ab oder ermöglichen sogar Kosteneinsparungen, die sich durch eine geringere Leistungsaufnahme ergibt. Ein umweltbewusstes Produkt sollte im Idealfall sowohl umweltfreundlich hergestellt als auch Stromsparend sein, allerdings konzentriert man sich bei derartigen Produkten normalerweise auf die geringere Leistungsaufnahme. Das gilt auch für die neue HyperX LoVo-Reihe von Kingston, die typische DDR3-Speichergeschwindigkeiten bei verringerter Spannung bietet. Wir wollten uns diese genauer ansehen und haben mit dem KHX1600C9D3LK2/4GX, so lautet die Produktbezeichnung des DDR3-1600 2x2GB-Kit, ein paar Tests durchgeführt.

Die Geschichte der Leistungsaufnahme

Low-Power-Hardware spielt in Europa mit Sicherheit eine wichtigere Rolle als in Nordamerika, da durchschnittliche Stromkosten in den USA niedriger sind und Europäer grundsätzlich mehr auf den Stromverbrauch achten als ihre Nachbarn jenseits des Atlantiks. An dieser Stelle sollten wir nochmals zwei Eigenschaften von Low-Power-Produkten erwähnen: Zum einen die umweltfreundliche Herstellung, zum anderen die niedrige Leistungsaufnahme, die sich auf die Stromrechnung auswirkt. Die Umwelt könnte von einer  geringeren Leistungsaufnahme der Hardware durchaus profitieren. Wir drücken uns in dieser Hinsicht absichtlich so aus, da die Energie, die für die Produktion und das Recyceln oder Entsorgen von Hardware notwendig ist, normalerweise nicht Teil der Energie-Gleichung ist; diese sollte sogar das erforderliche Frischwasser bei der Produktion berücksichtigen. Das alles sollte in einer Bilanzierung notwendiger Ressourcen mit einbezogen werden, allerdings gehen Unternehmen und deren Marketing-Abteilungen in Wirklichkeit nur die Hälfte des Weges. Deshalb möchten wir den Faktor “Umweltfreundlichkeit” auch nicht allzu stark betonen und unsere Aussagen eher auf eine geringere Leistungsaufnahme beschränken.

Low Voltage = Low Power

Werfen wir daher nur einen Blick auf den Stromverbrauch. In diesem besonderen Fall haben wir auf eine Komponente geschaut, die sonst wenig Beachtung findet, da diese im Gegensatz zu einem Prozessor oder einer Grafikkarte nicht sonderlich viel Leistung aufnimmt: Der Systemspeicher. Das Hauptaugenmerk von Anwendern und Speicherherstellern liegt normalerweise auf höheren Speichergeschwindigkeiten. Daher wäre es unakzeptabel, die Geschwindigkeit des Speichers zu senken, um dadurch die Leistungsaufnahme zu verringern. Allerdings ermöglicht ein moderneres Stück Silizium oftmals die Reduzierung der Betriebsspannung. Das haben wir bereits des öfteren bei Prozessoren gesehen; jetzt hat Kingston damit angefangen, diese Vorgehensweise auch im Speichersegment umzusetzen.

Die HyperX DDR3 LoVo-Reihe bedient die gehobenen DDR3-Geschwindigkeiten des Mainstreams, um genau zu sein DDR3-1333 und DDR3-1600 und bietet die  Performance, die man bei einer verringerter Spannung erwarten würden. Angesichts der Tatsache, dass der Hauptspeicher sowieso nur ein paar Watt aufnimmt, hatten wir so unsere Zweifel: Hat das ganze wirklich spürbare Auswirkungen auf die Gesamtleistungsaufnahme des Systems? Und bieten diese Module die gleiche Performance wie Produkte mit regulärer Spannung? Wir haben es für Sie herausgefunden.

Die maximale Kapazität von Notebook-Festplatten lag bislang bei 500GB. Mittlerweile haben Festplattenhersteller Produkte mit 640GB auf den Markt gebracht. Allerdings gibt es zwei Ausnahmen: Hitachi hat derzeit noch kein 2,5-Zoll-Laufwerk mit mehr als 500GB im Angebot und Western Digital bietet derzeit 750GB an. Wir haben für Sie alle Modelle mit 640GB und mehr getestet.

Stößt Perpendicular Magnetic Recording an seine Grenzen?

PMR (Perpendicular Magentic Recording) bzw. Senkrechtaufzeichnung wurde 2005 eingeführt. Als Ersatz für die Längsaufzeichnung ermöglichte die Senkrechtaufzeichnung den Festplattenherstellern, die Bits im wahrsten Sinne des Wortes näher zusammenzurücken. Damit konnte die Datendichte über mehrere Produktgenerationen und alle Festplatten-Segmente hinweg erheblich erhöht werden. PMR war notwendig, um 3,5-Zoll-Festplatten mit 500GB hinter sich lassen zu können und dafür zu sorgen, dass 2,5-Zoll-Festplatten von 250GB auf die derzeit erhältlichen Kapazitäten steigen konnten.

Allerdings hat das magentische Aufzeichnungsverfahren auch seine Grenzen – am wichtigsten ist hierbei der superparamagnetische Effekt. Kurz zusammengefasst heißt das, dass individuell magnetisierte Bits anfangen und sich gegenseitig zu beeinflussen, was dazu führen kann, dass die Magnetisierung plötzlich die Richtung ändert wobei Daten verloren gehen. Deshalb ist es wichtig, neue Technologien einzusetzen, bevor höhere Datendichten erreicht werden können. Zwei häufig diskutierte Technologien sind Patterned Media und Heat-Assisted Recording. Patterned Media nutzt Lithografie-Techniken zur Strukturierung der Disk-Oberfläche, um so Segmente bereit zu stellen anstatt viele einzelne magnetische Körner zu nutzen. Das dadurch entstehende Muster (pattern) ermöglicht die Verringerung des Platzes, der zum Speichern eines einzelnen Bits benötigt wird. Heat-Assisted Recording nutzt einen Laser zur Erhitzung einer höchst stabilen magnetischen Komponente wie z.B. einer Eisen-Platin-Legierung.

Die 4K-Sektorgröße kommt

Der Festplattenhersteller, der als erster eine neue Technologie zur Massenproduktion einführt, wird auch als erster höhere Kapazitäten bieten. Bis das der Fall ist, stellen alle Unternehmen die Sektorgröße ihre Mainstream-Produkte von 512 Bytes auf 4KB um. Das verringert den Speicherplatzbedarf von ECC-Daten zur Fehlerkorrektur und bietet dem Anwender damit mehr freie Speicherkapazität. Wir empfehlen Ihnen hierzu auch unseren Artikel »Generationswechsel: Festplatten mit 4K-Sektoren sind im Kommen« – hier finden Sie alles zu den Einschränkungen bei der Performance, die bei Betriebssystemen älter Windows 7 oder Vista existieren.

Werfen wir nun einen Blick auf die vier 2,5-Zoll-Notebook-Festplatten mit hoher Kapazität und einer Bauhöhe von 9,5 mm: Die Samsung Spinpoint M7E, die Barracuda 5400 von Seagate, die Toshiba GSX-Serie mit 640GB und die neue Scorpio Blue von Western Digital mit 750GB.

GTA IV: Episodes from Liberty City

Zugegeben, Grand Theft Auto (GTA)  IV ist nicht mehr ganz neu. Trotzdem wollen wir in diesem Test  noch einmal auf einen aktuellen Ableger dieses Titels eingehen, denn nach näherer Betrachtung ist die unlängst veröffentlichte eigenständige Fortsetzung mehr als nur ein lieblos nachgereichtes Addon. Und wir erinnern uns natürlich mit gewisser Ehrfurcht an GTA IV als extrem CPU-hungriges Spiel, das dazu noch leistungsstärkere Grafikkarten nonchalant zum Nachtisch verspeiste.

Erzählt werden diesmal sogar gleich zwei Stories – beide separat und unabhängig voneinander spielbar zum Preis von einer. Ob die für die Konsolen erhältlichen Downloadinhalte als Zusammenfassung für den PC den Ansprüchen der Spieler gerecht werden können, ob es ein guter Gegenwert zum verlangten Preis ist und wie die technische Entwicklung vielleicht Einfluss auf den Hardwarebedarf genommen hat, das soll vorrangig Gegenstand dieses Tests sein.

Wir haben dieses Mal mit viel Aufwand insgesamt 46 CPUs und 15 Grafikkarten in verschiedenen Leistungsgruppen auf Herz und Nieren gegeneinander getestet, um unseren Lesern einen möglichst guten Vergleichswert für die eigene Hardware zu bieten. So kann man nun bereits im Vorfeld prüfen, ob sich der Einsatz lohnt oder man möglicherweise bereits an der eigenen Hardware scheitert. Eins können wir vorab attestieren: die Engine skaliert nach allen Updates mittlerweile etwas besser über die verschiedenen Leistungsklassen und auch Besitzer von ATI-Karten werden keine negativen Überraschungen mehr erleben. Gespannt? Dann steht einer Lektüre der nächsten Seiten bis zum Fazit nichts mehr im Wege.

USB 3.0: Super Talent RAIDDrive

USB 3.0 ist endlich da: Immer mehr Motherboards verfügen über einen zusätzlichen Controller, der das schnelle Interface bereitstellt. Speicheranbieter rüsten ebenfalls auf und bringen fast wöchentlich neue Produkte auf den Markt. Wir wollten wissen, welche Auswirkungen USB 3.0 auf Speichersticks hat – und haben USB 3.0 mit USB 2.0 und eSATA verglichen.

480 Mb/s ist nicht genug?

Eine Brutto-Übertragungsrate von 480 Mb/s bei USB 2.0 entspricht 60 MB/s. Allerdings ist bei USB 2.0-Geräten effektiv gesehen bereits bei ungefähr 35 MB/s Schluß – je nach Dateigröße, ausgewählter Partition und Format geht unter Umständen bereits schon früher nichts mehr.

Während die Performance von USB 2.0 für den gelegentlichen Gebrauch ausreicht, schränkt sie Power-User und Anwendungen ein, die auf eine schnelle Datenübertragung bauen. Als Beispiele seien hier die Übertragung großer Datenmengen oder Zeitdruck, z.B. bei einer Datensicherung in letzter Minute,  genannt. Es gibt noch viele weitere solcher Szenarien da es schlichtweg so ist, dass die Performance im allgemeinen dann als unangemessen wahrgenommen wird, wenn man als Anwender mehr als ein paar Minuten warten muss.

USB 3.0 als Retter in der Not

USB 3.0 bietet die zehnfache Bandbreite von USB 2.0 und liefert einen Brutto-Durchsatz von 5 Gb/s. Wir haben bereits im Juni 2009 einen einführenden Artikel über SuperSpeed USB 3.0 veröffentlicht, uns im März 2010 die Auswirkungen unzureichender Plattform-Bandbreite angesehen und erst kürzlich einen ersten Bericht über USB 3.0-Gehäuse nachgelegt.

Jetzt ist es an der Zeit herauszufinden, was USB 3.0 für Speichersticks bedeutet. Da wir Ihnen einen umfangreichen Überblick bieten wollten, haben wir uns dazu entschlossen, nicht nur über die USB 3.0- und USB 2.0-Performance zu berichten, sondern auch zwei Produkte mit eSATA-Unterstützung miteinzubeziehen. eSATA bietet wiederum eine Brutto-Bandbreite von bis zu 3 Gb/s und ist damit hinischtlich der Datenübertragungsraten vielleicht sogar ein ebenbürtiger Konkurrent für USB 3.0.

Oberklasse: HP EliteBook 8440p

Wer sich ein Office-Notebook kauft, der muss nicht tief in die Tasche greifen. Ab 350 Euro ist man heute dabei und wird mit Billig-Modellen verschiedenster Hersteller förmlich bombardiert. Ob Acer Extensa, HP 615 oder Lenovo G-Serie – Alles sind sie Notebooks, aber die Geräte können nicht viel. Die Mobilität ist flau, die Displaypanels dimmen düster, die Tastaturen klappern und die Leistung wird von Netbooks überholt.

Anspruchsvolle Notebook-Nutzer können mit diesen Geräten nichts anfangen. Privat- wie Business-User legen lieber den vierfachen Preis auf den Tisch. Dafür erhalten sie, wie im Falle der HP EliteBook-Serie, mobile Rechner mit allen Business-Schikanen. Nachdem kürzlich der Business-Einsteiger HP ProBook 6540b (15,6-Zoll, 850 Euro) durch die Redaktion wanderte, nehmen wir uns jetzt den ganz großen Burschen vor. Der ist mit 14-Zoll zwar im Formfaktor kleiner als das ProBook, kostet aber fast 1.200 Euro. Womit rechtfertigt der Hersteller diesen Preis? Reicht nicht eine günstigere ProBook-Variante? Antworten auf diese Fragen gibt unser Test.

Dicker Brocken aber stabil

Wer schon immer etwas Handfestes in den Händen haben wollte, für den ist das ProBook der richtige Kandidat. Das Gehäuse bringt stolze 2,36 Kilogramm auf die Waage. Im Gegenzug wiegt das Netzteil ohne Kabel jedoch nur 258 Gramm. Das Gehäuse können wir auch mit Kraft kein Stück verbiegen.  Gleiches gilt für Handballenauflage und Bodenplatte. Eindellungen? Fehlanzeige. Richtig beeindruckend ist die Festigkeit des Deckels. Seine Fläche gibt punktuell nur minimal nach. Flächig, etwa mit der flachen Hand, können wir nichts eindrücken.

Die silbernen Flächen bestehen aus gebürstetem Aluminium. Sie fühlen sich kühl an und sind kratzfest. Bei den Gelenken setzt der Hersteller auf echtes Metall. Sie sitzen so fest an der Base Unit, kein Drücken und Schieben von uns kann diese nur ein Stückchen bewegen. Das Scharnier hält den Deckel straff in seiner Position, so dass es nicht zum Nachwippen kommt. Das Gewicht der Base Unit erlaubt die Öffnung des Deckels mit einer Hand.  Dabei hilft der große silberne Drucktaster, der den Deckelverschluss löst. Er lässt selbigen automatisch einen halben Zentimeter aufklappen. Dieser Spalt reicht, um die Anzeige bequem mit einer Hand zu greifen und zu öffnen.

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen