Monat: April 2012

Die Vertex 4 von OCZ, die auf der CeBIT vorgestellt wurde, ist nun im Handel erhältlich. Sie basiert auf dem Everest-2-Controller, der erstmals auf der diesjährigen CES in Las Vegas vorgestellt wurde. Die Vertex 4 ist nicht nur die neue Flaggschiff-SSD von OCZ, sie symbolisiert auch den Versuch von OCZ, aus der Masse der SSD-Anbieter herauszustehen – denn im SSD-Markt bieten mittlerweile viel zu viele SSD-Hersteller Produkte an, die alle auf einer äußerst überschaubaren Anzahl von SSD-Controllern basieren.

Vor wenigen Jahren hat OCZ mit der Vertex 2 die erste SSD auf Basis eines SandForce-Controllers herausgebracht, und erst vor rund einem Jahr die Vertex 3, die auf der zweiten SandForce-Generation beruht. Wir fanden es faszinierend, wie es eine relativ kleine Firma wie OCZ schaffte, dem Industriegiganten Intel, der mit der X25-M den SSD-Markt quasi geschaffen hat, Paroli zu bieten. Aber dieser Erfolg wurde von der Tatsache getrübt, dass auch andere Firmen SandForce-Controller in ihren SSDs einsetzen konnten und so das Erfolgsrezept von OCZ schon nach wenigen Wochen kopierten.

Heute gibt es nur wenige Anbieter, die einen hauseigenen Controller bzw. hauseigenes NAND-Flash und selbst entwickelte Firmware einsetzen. Der Großteil der Anbieter bezieht diese Komponenten einfach von Drittherstellern und integriert sie. Das erklärt die große Zahl an SSDs mit SandForce-Controller, die fortwährend den Weg zu unserem Testlabor finden. Nicht von ungefähr ist es OCZ leid, in der Masse ähnlicher Produkte und ihrer Hersteller unterzugehen und sich nicht differenzieren zu können.

Auf der Suche nach Unabhängigkeit

Zweifelsohne gebührt SandForce Dank und Anerkennung dafür, dass nunmehr auch Dritthersteller in der Lage sind, SSDs zu fertigen, ohne vorher ihren eigenen SSD-Controller entwickeln zu müssen. Aber die sich daraus zwangsläufig ergebende breite Palette an ähnlichen, miteinander konkurrierenden Produkten war aus der Sicht von OCZ natürlich problematisch, und OCZ wollte aus dieser Situation ausbrechen.

Vor knapp über einem Jahr hat OCZ dann den südkoreanischen SSD-Controllerpionier Indilinx aufgekauft. Obwohl (oder vielleicht sogar gerade weil) die Vorgängermodelle dieser Firma Performance-Enthusiasten nie so richtig begeistern konnten, konzentrierte man sich in der Pressemitteilung zur Akquisition explizit auf die Controller-Technologie von Indilinx für tragbare Geräte, Tinkerbell. Die Meldung erwähnt aber auch, dass OCZ weiterhin plant, SSD-Controller von Drittherstellern zu beziehen.

Erst kürzlich haben wir eine 512 GB Octane SSD, die auf dem Indilinx Everest-Controller basiert, bekommen, und wir waren durchaus von ihr angetan, obwohl ihre Performance nicht bahnbrechend war. Jedenfalls haben wir damals schon angenommen, dass OCZ ihre Indilinx-Controller auch in SSDs für Power-User einbauen will.

Mit der Markteinführung der Vertex 4 untermauert OCZ diese Annahme. Der auf der CES vorgestellte Everest-2-Controller, ein Nachfolger des in der Octane SSD eingebauten Chips, taucht jetzt in einem Produkt auf: der Vertex 4. OCZ ist so sehr von dem neuen Controller überzeugt, dass die Firma die keineswegs langsame Vertex 3 nach nur einem Jahr durch ein neues Produkt ersetzt.

Update: Wir wollten hier eigentlich argumentieren, dass es für einen Gerätehersteller wie OCZ Sinn macht, einen Bauteilhersteller wie Indilinx aufzukaufen, um sich damit von der Preis-, Liefer- und Modellpolitik von Drittherstellern wie SandForce unabhängig zu machen. Vor ein paar Wochen hat aber ein Poster auf dem Hardware-Forum Extreme Systems den Verdacht geäußert, dass der Everest 2-Controller in Wirklichkeit ein Marvell-Controller ist. Wir haben OCZ um eine Stellungnahme gebeten, und drucken sie hier ab:

“OCZ und Marvell unterhalten enge Geschäftsbeziehungen und haben bei der Entwicklung der Everest- und der Kilimanjaro-Systemplattform zusammengearbeitet. Wie jedes Produkt besteht eine SSD-Systemplattform aus vielen Komponenten, und die Hauptkomponenten sind ein mit erhöhter Taktfrequenz betriebener ASIC und spezielle Firmware, die zu 100% von Indilinx entwickelt wurde. Diese Kombination ermöglicht es OCZ, erweiterte Funktionalität sowie höhere Performance und längere Lebensdauer zu erzielen und somit eine ausgereifte Systemplattform zu schaffen, die ausschließlich in OCZ-SSDs wie Octane und Vertex 4 enthalten ist.”

Wir finden die Situation von OCZ interessant – anstatt endlich von Controllerherstellern unabhängig zu sein, wechselt OCZ vom Dritthersteller S zum Dritthersteller M. OCZ behauptet, dass die enge Partnerschaft mit Marvell Vorteile wie eine erhöhte Taktfrequenz bringt, streicht aber insbesondere die komplett selbst entwickelte Firmware heraus. Wir werden diesbezüglich noch weiter nachforschen und erneut berichten, sobald wir weitere Details erfahren.

Details zur Vertex 4 mit Everest 2-Controller

Bezüglich der internen Architektur des Everest 2-Controllers hält sich OCZ absichtlich bedeckt. Wir wissen aber, dass die meisten Architekturmerkmale vom Vorgänger übernommen wurden. Wie dieser ist auch Everest 2 ein Achtkanal-Controller mit einem internen Dual-Core ARM-Prozessor. Als Cache und Zwischenspeicher für Garbage-Collection-Operationen wird ein normales, außerhalb des Controllers befindliches DRAM-Array verwendet.

Und wie bei der vor einiger Zeit getesteten Octane sind auch in der neuen SSD 64 Gb ONFi 2.2 NAND-Chips in 25 nm-Technologie verbaut. Wie bei der Octane wird auch kein Flash-Speicher fürs Overprovisioning  reserviert, sondern 100% des Speichers stehen dem Anwender zur Verfügung.

Bei unserem Testexemplar mit 256 GB weist jeder der sechzehn Flash-Chips eine Kapazität von 16 GB auf (zwei Dies zu je 8 GB).

Herstellerangaben zur 256 GB SSD OCZ Octane OCZ Vertex 3 OCZ Vertex 4
NAND 64 Gb 25 nm, ONFi 2.2
4 KB Random Read 35 000 IOPS 85 000 IOPS 90 000 IOPS
4 KB Random Write 25 000 IOPS 60 000 IOPS 85 000 IOPS
128 KB Sequential Read 480 MB/s 550 MB/s 535 MB/s
128 KB Sequential Write 310 MB/s 520 MB/s 380 MB/s

Die Unterschiede zwischen der neuen Controllergeneration und der vorigen Generation werden aus den Performanceangaben von OCZ ersichtlich. Verglichen mit der Vertex 3 weist die neue SSD durchwegs höhere Zugriffsraten auf, ist aber beim sequentiellen Datentransfer geringfügig langsamer. Die Octane-SSD wird aber in allen Belangen übertroffen.

Herstellerangaben zur Vertex 4 128 GB 256 GB 512 GB
DRAM Cache 512 MB 512 MB 1 GB
512 B Random Read 120 000 IOPS 120 000 IOPS 120 000 IOPS
4 KB Random Read 90 000 IOPS 90 000 IOPS 95 000 IOPS
4 KB Random Write 85 000 IOPS 85 000 IOPS 85 000 IOPS
128 KB Sequential Read 535 MB/s 535 MB/s 535 MB/s
128 KB Sequential Write 200 MB/s 380 MB/s 475 MB/s

Die drei nach Speicherkapazität gestaffelten Modelle unterscheiden sich voneinander nur bezüglich der sequentiellen Schreibrate.

  

Nun also ist die Katze, ähm Karte, aus dem Sack! Nvidia hatte versprochen, dass auf Geforce.com nach Ablauf des Countdowns ein Live Stream zu einem neuen Produkt zu sehen sei. Gemutmaßt worden war viel: die GTX 670 oder eine Spielekonsole? Oder vielleicht doch schon die GTX 690, ohne die Vorlage von AMD abzuwarten? Die Aufklärung brachten der Live-Stream und eine Mail, die Nvidia an alle Redaktionen versandt hat:

Good morning!

Moments ago, at the GeForce LAN/NVIDIA Game Festival in Shanghai, our CEO, Jen-Hsun Huang, unveiled the new GeForce GTX 690 dual GPU graphics card!
With the power of two Kepler GPUs under the hood, the GTX 690 performs and looks unlike any graphics card you’ve ever seen before.

Also doch die GTX 690! Nur eben nicht als Kepler-Vollausbau, sondern als Dual-GPU-Karte mit 2 Chips, wie man sie auch auf der GTX 680 findet, die unlängst von Nvidia gelauncht wurde. Die GeForce GTX 690 besteht somit aus 2 vollwertigen GK104 Chips. Damit ergeben sich rein rechnerisch in der Summe beider GPUs immerhin 3072 CUDA Kerne (1536 pro Karte), die Anzahl der Textureinheiten bleibt pro GPU ebenfalls gleich (jeweils 128), genauso wie die 32 ROPs pro Kartenteil. Anstelle des älteren NF200-Brückenchips tritt nun allerdings eine PCIe 3.0-Lösung, die Nvidia in Form eines PEX 8747 bei PLX zukauft (siehe Bild, rechts neben der linken GPU)Der Chip ersetzt den alten PCIe 2.0-Flaschenhals durch immerhin 48 Lanes,  jeweils 16 von jeder GPU und 16 zum Bus-Interface. Die angestrebten Latenzen sollen dabei niedrig gehalten werden können (>126 ns).Jede GPU kann bei dieser Karte, wie schon bei der GTX 680 auch, auf jeweils 2 GB GDDR5-Speicher zurückgreifen, der über das bereits bekannte 256-Bit-Speicherinterface angebunden ist. Der Speicherdurchsatz sollte damit für jede der zwei GPUs indentisch zur GTX 680 bleiben (192 GB/s Bandbreite). Gesunken ist allerdings der GPU-Takt, der nun nur noch 915 MHz statt der 1006 MHz der GTX 680 beträgt. Nimmt man jedoch die angepeilte TDP-Grenze von 300 Watt als Richtwert, dann sollte der Turbo durchaus in der Lage sein, die Kerne bis auf 1019 MHz hochzutakten. Das läge dann jedoch nur noch knapp unter dem Wert einer einzelnen GTX 680.Die zwei 8-Pin-Anschlüsse sollen es richten, denn immerhin könnte man inklusive den 75 Watt, die der Slot selbst liefert, stolze 375 Watt verbrennen. Die Vorgängerung GTX 590 lag ja immerhin nur knapp unter diesem Maximalwert. Da diese Dual-GPU-Karten in der Regel weniger als zwei ähnliche Einzelkarten im SLI verbrauchen, dürfte der avisierte Maximalwert von 300 Watt also gar nicht so realitätsfern sein.

Verfügbarkeit

Die GTX 690 wird ab dem 3. Mai 2012 in homöopathischen Dosen verfügbar sein, ein breiteres Angebot soll dann ab dem 7. Mai 2012 über die Boardpartner wie z.B. ASUS, MSI, Gigabyte, EVGA, Gainward, Palit and Zotac sichergestellt werden.

Weiß der Geier, wie Avision gerade auf die Bezeichnung MiWand gekommen ist. Wobei – es ist ja wirklich ein Hand-Wand-Allesmögliche-Scanner, der als Hybride nicht nur als Desktop-Scanner zu gefallen weiß, sondern den man von seinen USB-Fesseln befreien und auch einfach mal mitnehmen kann.

Der Schrecken aller Copy-Shops? Aus Sicht eines zum Sparen verdammten Studenten wohl allemal, wenn das Gerät und die Batterien halten, was der Hersteller verspricht. Mobil Scannen bis der Arzt kommt oder die Bibliothekarin, um das Licht aus zu machen. Und selbst dann könnte es noch weiter gehen, denn das Teil funktioniert auch im Dunkeln. Oder aber dann einfach mal im Vorbeigehen einen Teil eines interessanten Plakates, die Speisekarte des Dönerdealers um die Ecke oder aber irgend etwas anderes auf die beiliegende Speicherkarte bannen.

''Copy to go'' statt ''Pay for your copy''. Heute guttenbergt man mobil.”Copy to go” statt ”Pay for your copy”. Heute guttenbergt man mobil.

Der Markt ist geizig, denn es gibt den einen oder anderen reinen Handscanner und dazu jede Menge Einzugscanner. Aber beides in einem? So etwas zusammen zu stecken und auseinander nehmen zu können, sind zwei recht selten gemeinsam anzutreffende Attribute bei solchen Geräten, denn auch der Einzugscan des MiWand 2 Pro funktioniert ganz ordentlich. Testen wollen wir natürlich beides – Handscan und Dokumentenscan mit Einzug.

Eines dürfen wir vorab schon erwähnen: Wir schwankten beim Testen am Schluss zwischen dem Ausloten der Alltagstauglichkeit und der fast schon kindischen Freude, alles in den Weg Kommende einscannen zu müssen. Lomografie hat es ja auch schon bis zur Kunstrichtung geschafft, warum also nicht mal unbeschwertes Freihandscannen, also quasi eine Art Scan-Parkour für Kreative? Doch bevor wir unserem Affen Zucker geben, zunächst natürlich das Wesentliche: technische Daten und der Test, dann das Vergnügen – vielleicht steckt ja ein einem der Leser ein unentdeckter Kandinsky?

Weniger Stromverbrauch, weniger Abwärme, weniger Silizium-Fläche, weniger Herstellungskosten pro CPU – und auch weniger Overclocking-Spielraum? Unser großer Test von Intels Ivy Bridge Architektur ergab, dass Overclocking sich auf den neuen Prozessoren schwieriger gestalten könnte, als dies bislang mit Sandy Bridge der Fall war. Mehr Taktraten als beim 32-nm-Vorgänger erreichten wir initial nämlich nicht, obwohl die Vorzeichen an sich sehr gut standen.

Overclocking: Was ist nötig?

Grundsätzlich müssen Transistorschaltungen für bestimmte Taktraten taugen, d.h. diese physisch auch umsetzen können. Dazu wird eine bestimmte Spannungsversorgung benötigt, um einen zuverlässigen Betrieb zu gewährleisten. Mit größerer Spannung und steigenden Taktraten klettert dabei der elektrische Widerstand und somit die Verlustleistung, die sich in erhöhter Abwärme ausdrückt. Somit wächst beim Overclocking auch immer der Kühlungsbedarf, und dies leider mehr als nur linear mit der Taktrate. Wie oft im Leben gilt dabei: Wer das letzte Quäntchen an Leistungsfähigkeit herausquetschen will, muss oft einen unverhältnismäßig hohen Aufwand dazu betreiben.

Die Hersteller stehen Overclocking heute nicht mehr kritisch gegenüber. Im Gegenteil: Sowohl AMD als auch Intel bieten seit einigen Jahren Prozessormodelle, die ausschließlich für diesen Zweck vorgesehen sind. Solche CPUs erlauben dem Anwender, praktisch alle relevanten Betriebsparameter wie etwa die Multiplikatoren (diese bestimmen die Taktraten des Systems, der CPU-Kerne, des Arbeitsspeichers, etc) im Betrieb auf passenden Motherboards komfortabel zu verändern.

Im Fall des Core i7-3770K bedeutet das: Der höchste CPU-Multiplikator wurde von 57 bei Sandy Bridge auf 63 bei Ivy Bridge erhöht, so dass bei 100 MHz Basistakt prinzipiell 6300 MHz CPU-Takt erreichbar sind. Mehr geht anschließend nur durch Erhöhung des Systemtakts, was in der Praxis recht enge Grenzen hat. Über 110 MHz funktionieren selten zuverlässig, weil dann der PCI-Express-Bus aus dem Tritt kommt. Sei’s drum, denn so weit kommt ohnehin nur, wer zumindest mit Flüssigkeiten oder gleich mit Flüssigstickstoff kühlt. Letzteres ist nicht praxistauglich, taugt aber für Overclocking-Wettbewerbe und den gewissen Kick.

Overclocking: Erwartungen

Nun war es in der Vergangenheit fast immer so, dass geschrumpfte Transistorstrukturen die Spielräume fürs Overclocking verbesserten. Kleinere Transistoren kommen mit weniger Spannung aus – so auch bei Ivy Bridge – was den Spielraum für mehr Taktraten erhöhte. Sandy Bridge erreicht bei den übertaktbaren K-Modellen locker 4,3-4,6 GHz bei bodenständiger Luftkühlung, teilweise auch mehr. Die Erwartung für die neue Ivy-Bridge-Generation schießt so schnell in den Bereich um 5 GHz.

Diese Taktraten haben wir allerdings verfehlt, was nicht einmal an unserem Testmuster liegt. Tom’s Hardware lagen in anderen Ländern ebenfalls Testexemplare vor, die ähnlich hoch bzw. nur geringfügig schneller zu betreiben waren. Gleichzeitig gibt es bereits Berichte, nach denen Ivy Bridge mit Flüssigstickstoff-Kühlung schon weit schneller betrieben werden konnte. In diesem Artikel wollen wir die Performance bei Maximaltakt mit Luftkühlung betrachten sowie die Ursachen für die klaren Grenzen bei der Übertaktbarkeit diskutieren, welche nur mit brachialem Kühlaufwand übertreten werden können.

Mehr Platz: 4-TB-Laufwerke von Hitachi

Was ist das denn: Gleich zwei Festplatten schickte uns die kürzlich von Western Digital akquirierte Festplattenschmiede HGST (Hitachi Global Storage Technologies) zum Test. Bislang ist HGST damit der einzige Hersteller, der Laufwerke mit einer Kapazität von 4 TB einzeln verkauft. Seagate hat so etwas zwar auch, verbaut diese Modelle aber ausschließlich in den eigenen externen Laufwerken.

WD selbst ist den Schritt zu 4 TB noch nicht gegangen, Samsung ist seit letztem Jahr nicht mehr selbst im Festplattenmarkt tätig, und Toshiba bedient mit 3,5”-Laufwerken vor allem Enterprise-Segmente. Das beutetet, dass die 4-TB-Laufwerke von HGST bis auf weiteres die einzigen Modelle bleiben dürften, die sich der ambitionierte Anwender selbst kaufen und in den PC oder ins NAS-Systeme schrauben kann. Grund genug für einen Test also.

4 TB – ein Mal schnell, ein Mal effizient

Die Produktbezeichnungen bei HGST sprechen eine klare Sprache: Die Deskstar 7K4000 arbeitet mit 7.200 U/Min, während die Deskstar 5K4000 mit 5.400 U/Min arbeitet. Beide speichern satte 4 TB – bislang lag die Obergrenze bei 3 TB pro Laufwerk. Schon aufgrund der Drehzahl sollten sich Performance-Unterschiede ergeben. Die Frage ist jedoch: Wie wichtig sind diese in der Praxis? Wer ein schnelles Systemlaufwerk sucht und einen dreistelligen Eurobetrag ausgeben kann, ist heute mit einer SSD plus zusätzlicher Festplatte am besten bedient. Da macht der Unterschied zwischen 5.400 und 7.200 U/Min den Kohl sicher nicht fett.

HGST klassifiziert die beiden Laufwerke wie folgt: Das Modell mit 7.200 U/Min und 64 MB Cache bedient Performance-Segmente, die schlicht viel mehr Speicherplatz benötigen, als dies mit SSDs zu realisieren wäre. Man denke hier an Videoschnitt, schnelle externe (portable) Speicherlösungen oder Video-Überwachungsserver. Mit 4 TB sind die HGST-Laufwerke mindestens acht Mal größer als die derzeit größten SSDs, und kosten dabei weniger als die Hälfte.

Das zweite Modell mit 5.400 U/Min hat 32 MB Cache und schielt auf Anwendungen, bei welchen große Datenmengen abrufbereit gespeichert werden müssen, also große File Server oder NAS-Lösungen im Bereich Near-Line-Storage. Dabei betont HGST den Vorteil der hohen Energieeffizienz. Es geht also darum, beim Einsatz dutzender oder hunderter Laufwerke wenig Energiebedarf für Betrieb und Kühlung zu erzeugen.

Leistung und Kosten

Doch wie schlagen sich die beiden neuen Speicherriesen für Enthusiasten und Power-User? Die Deskstar 5K4000 gibt’s derzeit ab knapp 260 Euro im Handel. Für das Modell mit 7.200 U/Min sind zumindest 340 Euro fällig. Zum Vergleich: Festplatten mit 2 TB Speicherplatz gibt es derzeit ab knapp 100 Euro. Der Faktor ‘Kosten pro Gigabyte’ ist somit keinesfalls das entscheidende Argument, also schauen wir die Leistungsfähigkeit der beiden Speichermonster im Detail an.

Eines muss man HIS ja wirklich lassen: sie sind beharrlich und konsequent. Waren früher Karten wie eine X800 IceQ II XT PE von ATI mit Ihren Kühlerlösungen von Arctic Cooling quasi das Maß der Dinge, hat sich die Masse der Boardpartner mittlerweile fast schon geschlossen auf Kühler mit Axial-Lüftern eingeschossen und das DHE-Prinzip (Direct Heat Exhaust) samt den lauten Radial-Lüftern den ungeliebten Referenzkarten von AMD und Nvidia überlassen. Mit der HD 6970 IceQ hat HIS vor einem Jahr die Legende der direkten und trotzdem leisen Wärmeentsorgung per überdimensionalem Radiallüfter wieder aufleben lassen und bei der aktuellen Grafikkartengeneration mit der HIS 7870 IceQ zur Freude vieler Kenner fortgesetzt.Nun also auch die HD 7950. Aber warum nicht, denn eigentlich gehört die Wärme ja nun wirklich nicht fein säuberlich im Gehäuse-Inneren verteilt, sondern kompromiss- und gnadenlos entsorgt. Das alles lässt sich aber nur dann auch gehörschmeichelnd lösen, wenn man statt der üblichen kleinen Referenz-Turbinen einen richtig großen Radial-Lüfter verwendet und diesen ans Ende der Karte verfrachtet. Dass die Form dann im Ergebnis polarisiert und so mancher die Nase rümpft, ist die eine Seite. Wer jedoch nicht auf Seitenfenster samt Präsentations-Habitus, sondern auf kompromisslose Leistung und trotzdem nicht allzu laute Kühlung steht, der sollte auf den folgenden Seiten durchaus fündig werden können.

Sicher, es ist nach wie vor ein Exot für all diejenigen, die sich abseits der Nischenlösungen dem Mainstream beugen und blind kaufen, was die Marketing-Maschinerie den potentiellen Kunden ins Ohr trommelt. Wir erwarten nicht die leiseste der getesteten 7950er-Modelle, aber auch nicht die lauteste. Was wir erwarten, ist die kühlste Lösung, die in der Summe auch dem PC-Innenleben keine heißen Zeiten beschert und trotzdem die Ohren nicht überstrapaziert. Genau dies wollen wir nun testen und bewerten.

AMD und Intel wissen aus Erfahrung,dass gute Produkte zu hohen Erwartungen führen. Wenn man nach einem Athlon einen Athlon 64 oder nach einem Core 2 einen Core i7 bringt, erwarten die Kunden von einem auch in den folgenden Generationen solche sprunghaften Fortschritte.

Sandy Bridge war auf dem Desktop ein weiterer voller Erfolg für Intel. Kann man es den Enthusiasten, die in ihren Stammforen voller Vorfreude verkündeten, sie könnten den Start von Ivy Bridge kaum noch abwarten, wirklich verübeln, wenn sie auch dieses Mal ein stolzes Performance-Plus erwarten?

Man darf aber eins nicht vergessen: Ivy Bridge war nie dafür ausgelegt, für einen so großen Geschwindigkeitsschub zu sorgen wie seine Vorgänger. Intels “Tick-Tock” Fahrplan sieht vor, dass abwechselnd eine neue Prozessorarchitektur oder ein neuer Fertigungsprozess zum Einsatz kommen. Stellt Intel auf der Basis eines ausgereiften Herstellungsverfahrens eine solche neue Architektur vor, zahlt sich das meist in Form mächtiger Performance-Gewinne aus. Man denke nur an Nehalem und Sandy Bridge, die beide “Tock” Prozessoren waren. Ein kleinerer Herstellungsprozess bringt normalerweise andere Vorteile mit sich, etwa kleinere Chipgrößen und eine gesenkte Leistungsaufnahme. Die Benchmarkergebnisse ändern sich bei ihnen gegenüber der Vorgängergeneration aber meist nur wenig.

Intels letzter “Tick” Generation waren die Westmere-Prozessoren, mit denen 32-nm-Strukturen in x86-CPUs Einzug hielten. Die Verkleinerung der Chipfläche nutzte man aus, um seinen bis dato schnellsten Desktop-CPUs weitere Kerne zu spendieren, was uns Prozessoren wie den Core i7-990X bescherte.

Mit dem heutigen Debüt der Ivy-Bridge-Generation steht Intels nächster “Tick” an, bei dem die bisherige Sandy-Bridge-Architektur fast unverändert in 22-nm-Fertigung übernommen wird. Allerdings spricht Intel von einem “Tick-Plus”, weil es dieses Mal zusätzlich eben doch noch einige Änderungen auf Chipebene gegeben hat.

Desktop-Enthusiasten sollten jetzt aber keine allzu großen Erwartungen aufbauen, denn die größten Änderungen betreffen die integrierte Grafikeinheit, die sich gerade bei dieser Zielgruppe wohl eher selten im Einsatz befinden dürfte.

Im Mobilbereich sieht das natürlich ganz anders aus, denn dort ergeben eine niedrige Leistungsaufnahme und “ausreichend schnelle” 3D-Fähigkeiten zusammen lange Akkulaufzeiten und überraschend annehmbare Performance. Allerdings handelt es sich beim Core i7-3770K, den wir heute unter die Lupe nehmen, nicht um einen Mobilprozessor. Vielmehr handelt es sich um Intels schnellstes Modell, das zudem mit einem offenen Multiplikator antritt und die erfolgreichen Modelle Core i7-2600K und -2700K beerben soll.

Vis-à-vis mit Ivy Bridge

Intel stellt seine Sandy-Bridge-CPUs in drei verschiedenen Konfigurationen an: einen Quad-Core und zwei Dual-Cores. Die komplexeste Variante vereinte auf einem Die mit einer Fläche von 216mm² immerhin 995 Millionen Schaltkreise. Zum Vergleich: Der größte Ivy-Bridge-Die misst nur noch 160 mm², umfasst aber ganze 1,4 Milliarden Transistoren.

Ivy Bridge: 1,4 Milliarden Transistoren auf einem 160-mm²-DieIvy Bridge: 1,4 Milliarden Transistoren auf einem 160-mm²-Die

Sandy Bridge: 995 Millionen Transistoren auf einem 216 mm² großen DieSandy Bridge: 995 Millionen Transistoren auf einem 216 mm² großen Die

Auch wer erst wenige Aufnahmen von CPU-Dies gesehen hat erkennt auf den ersten Blick, wo der Großteil der 400 Millionen neuen Transistoren investiert wurde: Die integrierte Grafikeinheit hat deutlich zugelegt.

Die meisten Schaltkreise gehen auf das Konto zusätzlicher Execution Units (EUs, Ausführungseinheiten), also der programmierbaren Shader, die sich um die Grafikbearbeitung kümmern. Laut Intel soll die 3D-Performance gegenüber der Vorgängergeneration deshalb bis zu doppelt so hoch ausfallen. Sandy Bridge konnte mit der HD Graphics 3000 12 dieser EUs aufbieten. Die HD Graphics 4000 in Ivy Bridge erhöht deren Anzahl auf 16. Zu den weiteren Fähigkeiten, die die neue integrierte GPU mitbringt, gehören DirectX 11, die Bildausgabe auf bis zu drei Bildschirme, OpenCL und DirectCompute sowie höhere Quick-Sync-Performance. Ehrensache, dass wir das alles auch testen.

Das restliche Layout sollte den meisten sehr bekannt vorkommen. Da es sich um einen Mainstream-Prozessor handelt, steckt im Core i7-3770K ein Die mit vier Kernen, Hyper-Threading und 8 MB L3-Cache, der aus vier 2-MB-Scheiben besteht. Soweit ist also wie beim Core i7-2600K, den wir nun schon seit über einem Jahr kennen. Allerdings sind auch die Kerne selbst leicht überarbeitet worden. Laut Intel sollen die Optimierungen zusammen mit kleinen Verbesserungen an Cache und Speichercontroller die Anzahl der Befehle erhöhen, die diese Architektur pro Taktzyklus ausführen kann. Um das zu prüfen, ob und wie sehr sich das auswirkt, werden wir natürlich auch einen Direktvergleich zwischen Ivy und Sandy Bridge bei gleicher Taktraten durchführen.

Kerne / Threads Basistakt
(CPU)
max. Turbo
(CPU)
L3-
Cache
HD Graphics Basistakt
(Grafik)
Maximaltakt
(Grafik)
TDP (W) Preis
(US-Dollar)
Core-i7-Familie (dritte Generation)
-3770K 4/8 3,5 GHz 3,9 GHz 8 MB 4000 650 MHz 1,15 GHz 77 $313
-3770 4/8 3,4 GHz 3,9 GHz 8 MB 4000 650 MHz 1,15 GHz 77 $278
-3770T 4/8 2,5 GHz 3,7 GHz 8 MB 4000 650 MHz 1,15 GHz 45 $278
-3770S 4/8 3,1 GHz 3,9 GHz 8 MB 4000 650 MHz 1,15 GHz 65 $278
Core-i5-Familie (dritte Generation)
-3570K 4/4 3,4 GHz 3,8 GHz 6 MB 4000 650 MHz 1,15 GHz 77 $212
-3570T 4/4 2,3 GHz 3,3 GHz 6 MB 2500 650 MHz 1,15 GHz 45 $194
-3570 4/4 3,4 GHz 3,8 GHz 6 MB 2500 650 MHz 1,15 GHz 77 $194
-3550 4/4 3,3 GHz 3,7 GHz 6 MB 2500 650 MHz 1,15 GHz 77 $194
-3550S 4/4 3,0 GHz 3,7 GHz 6 MB 2500 650 MHz 1,15 GHz 65 $194
-3470 4/4 3,2 GHz 3,6 GHz 6 MB 2500 650 MHz 1,1 GHz 77 $174
-3470T 2/4 2,9 GHz 3,5 GHz 3 MB 2500 650 MHz 1,05 GHz 35 $174
-3470S 4/4 2,9 GHz 3,6 GHz 6 MB 2500 650 MHz 1,1 GHz 65 $174
-3450 4/4 3,1 GHz 3,5 GHz 6 MB 2500 650 MHz 1,1 GHz 77 $174
-3450S 4/4 2,8 GHz 3,5 GHz 6 MB 2500 650 MHz 1,1 GHz 65 $174

Der Speichercontroller spricht nach wie vor zwei Kanäle an, die allerdings jetzt bis Module bis DDR3-1600 zu vertragen. Mit dem richtigen Speicher können Enthusiasten also in 200-MHz-Schritten auf bis zu 2667 MT/s übertakten, wo es vorher nur 2133 MT/s waren.

Wie Sandy Bridge trägt auch Ivy Bridge einen PCI-Express-Controller direkt im Die, der 16 Lanes bereitstellt. Allerdings kommt nun die offizielle Zertifizierung für PCIe 3.0 für Karten wie die Radeon aus AMDs HD-7000-Serie oder Nvidias GeForce GTX 680 dazu.

Insgesamt handelt es sich bei Ivy Bridge also wieder um einen hoch integrierten Prozessor von Intel, dessen einzelnen Komponenten von unterschiedlichen und unabhängigen auf der ganzen Welt verteilten Teams entwickelt wurden. Die IA-Kerne stammen von israelischen Ingenieuren, ein Team im kalifornischen Folsom kümmerte sich um die Grafikeinheit, und ein weiteres am gleichen Standort kümmerte sich um die Verbindungen zwischen den Komponenten, den Cache und den System Agent. Und natürlich gibt es da noch das Team in Oregon, dass sich um die Weiterentwicklung des Herstellungsprozesses kümmert und die 22-nm-Fertigung beigetragen hat. 

Was darf man aber vom fertigen Produkt erwarten? Schauen wir uns Ivy Bridge erst einmal Stück für Stück an und gehen darauf ein, wo die neue CPU glänzt und wo sie den teils hohen Erwartungen der Community nicht gerecht wird.

Als wir letzten Monat die Pitcairn-basierten Radeon-HD-7800-Karten testeten, stolperten unsere US-Kollegen in ihrem Nachtest (sie nutzten zwar wegen anfänglichen Setup-Problemen unsere Testergebnisse, hatten die Karte aber ein paar Tage länger als wir und konnten somit auch diesen Aspekt austesten) über Bildqualitätsprobleme bei AMDs beiden neuesten Grafikkarten. Texturen in beliebten aktuellen Spielen schienen nicht nur bei den beiden 7800ern, sondern bei allen Karten der Radeon-HD-7000-Familie verschwommener zu sein als bei den Vertretern der Vorgänger-Generation. Dies trat wohlgemerkt bei identischen Bildqualitätseinstellungen im Software-Treiber und den von uns getesteten Spielen auf.

Hier ist eine Animation aus dem Test unserer US-Kollegen (AMD Radeon HD 7870 And 7850 Review: Pitcairn Gets Benchmarked), die das Problem illustriert:

Leider gestand uns AMD vor dem jeweiligen Launch seiner Grafikkarten der Radeon-HD-7000-Serie nur extrem wenig Zeit mit der neuen Hardware zu, so dass wir nicht so in die Tiefe gehen konnten, wie wir uns das gewünscht hätten. Aber jetzt haben wir die Zeit und können tiefer graben.

Ist das Problem vielleicht auf AMDs ausschließlich für die Presse bestimmten Beta-Treiber zurückzuführen? Sind nur die 7800er Karten betroffen oder machen alle 7000er Karten qualitativ einen Schritt zurück? Verbessert sich die Performance? Ist dem so, dann würde dies implizieren, dass AMD an der Bildqualität herumgespielt hat, um mehr Performance herauszukitzeln. Ist dem aber nicht so, dann würde es auf einen simplen Bug hinweisen, der behoben gehört.

Ganz abgesehen davon wollten wir sowieso die Radeon-HD-Familie 6900 und 7000 mit Nvidias Standard-Bildqualität vergleichen. Und natürlich wollten wir AMDs Feedback, um Schritt für Schritt abklären zu können, was genau schiefgelaufen ist. Was hat also AMD dazu zu sagen?

Hintergrund: NFC und die Sicherheit

Die Near Field Communication (NFC) ist eine Kurzstreckenfunktechnik, die in Kombination mit einem Handy den Austausch von Kontaktdaten oder ein besonders einfaches und schnelles Bezahlen erlaubt. Mit der Smartphone-Geldbörse kann man bargeldlos Tickets und Fahrkarten einkaufen oder im Supermarkt und Kaufhaus bezahlen, indem man das NFC-Gerät an der Kasse vorbeiführt und die Ware damit bezahlt. Das dauert nur wenige Sekunden und wird komplett berührungsfrei erledigt, sofern der Abstand zwischen Handy und Lesegerät nicht mehr als 10 Zentimeter beträgt.

Mittlerweile tummeln sich insbesondere in den USA einige NFC-Bezahldienste, allen voran die Google Wallet, eine elektronische Geldbörse, die derzeit allerdings nur auf dem Google Nexus S-Smartphone läuft. Hierzulande ist die Begeisterung für NFC noch etwas verhaltener, was sicher auch daran liegen dürfte, dass es derzeit nur wenige solcher Dienste gibt und sie ebenso selten überregional verfügbar sind.

Google Wallet ist in Deutschland noch nicht verfügbar.Google Wallet ist in Deutschland noch nicht verfügbar.

Dass es bislang kaum NFC-taugliche Handys wie etwa das Nokia C7-00, das oben erwähnte Nexus S oder das seit April 2012 verfügbare Panasonic Eluga gibt, wollen wir an dieser Stelle dezent ausblenden. Der Einfachheit halber haben wir die Mobiltelefone trotzdem als Beispiel für eine Geräteklasse gewählt, die NFC unterstützt, denn entscheidend ist letztlich die zugrundeliegende Technik. Die läuft unabhängig vom Handy- oder Smartphone-Modell oder einem beliebigen anderen NFC-Gerät vordergründig sehr unkompliziert ab, setzt im Hintergrund aber eine enge Zusammenarbeit der am Datentransfer beteiligten Komponenten voraus. Deren Funktionen regeln zahlreiche internationalen Normen wie etwa ISO 14443 und ISO 18092.

So funktioniert das kontaktlose Bezahlen mit Google Wallet.So funktioniert das kontaktlose Bezahlen mit Google Wallet.

Uns interessiert an dieser Stelle besonders der Sicherheitsaspekt der NFC-Bezahlverfahren. So praktisch es sich auch anhört, das Einkaufen bequem per Handy zu erledigen, so sehr drängen sich dabei zahlreiche Fragen nach der Sicherheit auf. Welche Maßnahmen ergreifen die Anbieter, damit der per Funk überwiesene Geldbetrag auch auf dem richtigen Konto landet, wie geht man bei Verlust des Handys vor und was droht einem in diesem Fall? Diesen und anderen Fragen rund um das Thema Sicherheit und Datenschutz bei NFC gehen wir im Folgenden nach.

Dells XPS 13: Ultrabook-Generation 1.5Dells XPS 13: Ultrabook-Generation 1.5

Der Volksmund sagt “Was lange währt, wird endlich gut.” Dauert etwas besonders lange, sind die Erwartungen also auch höher. Dell hat sich mit seinem ersten Ultrabook mehr Zeit gelassen als die Konkurrenten. Erreichten die ersten der Ultraflach-Notebooks den deutschen Markt kurz nach der IFA, ist Dells XPS 13 erst jetzt, kurz vor der Einführung der Ivy-Bridge-Generation, im Webshop erhältlich. In einem Gespräch auf der CeBIT erklärte man uns, dass die Wartezeit nicht von ungefähr zustande gekommen sei: Man wollte ein runderes Produkt als die Konkurrenz abliefern und zum Teil auch aus deren Fehlern lernen.

Was sich Ultrabook nennen will, muss enge Vorgaben einhalten. Das gilt nicht nur für die Technik im Innern sondern auch für die Verpackung. Das Dell XPS 13 hält Intels Ultrabook-Designkriterien natürlich ein, was gewisse Designentscheidungen vorwegnimmt. Dennoch zeigt es dabei einen ganz eigenen Charakter: Ultraflach und 1,36 Kilo leicht kommt das Ultrabook mit seinem schlichten aber edlen Business Design gut an. Der silberschwarze Look trägt ebenfalls dazu bei, das Dell zu einem einem unauffälligem Hingucker zu machen. Das schlichte Design setzt sich auf allen Ebenen durch. So ist auch das Display komplett hinter einer durchgängigen Front aus widerstandsfähigem Gorilla Glas. Auf dem Tastaturfeld sieht es ebenfalls übersichtlich aus. Hier findet man nur eine etwas tiefer eingesetzte, beleuchtete Tastatur mit darunter liegendem Mousepad, alles im matten schwarz. Auch die Unterseite ist schlicht und besteht aus Karbonfaser. Das sieht nicht nur schick aus, es erhöht auch die Verwindungssteifheit und verhindert die Bildung von Hotspots an der Unterseite – Karbon ist ein schlechter Wärmeleiter.

Schick und stabil: Die Unterschale des XPS 13 besteht aus einem Stück und ist aus Karbonfaser gefertigt.Schick und stabil: Die Unterschale des XPS 13 besteht aus einem Stück und ist aus Karbonfaser gefertigt.

Das Dell macht einen gut verarbeiteten Eindruck. Trotz des sehr schlanken Äußeren gibt es keine Geräusche beim Anfassen, Hochheben oder beim Verstellen des Displays. Dazu trägt nicht zuletzt die Materialwahl bei. Abgesehen vom erwähnten Karbon besteht das Gehäuse noch aus Aluminium, ein gleichzeitig robustes, hochwertiges und haptisch ansprechendes Material. Seine Stabilität verdankt das XPS 13 einerseits seinem Unibody-Design, also dem aus einem Stück gearbeiteten Chassis, und der durchgängigen Unterschale. Letztere wird allerdings nur dadurch ermöglicht, dass sich Dell, wie eigentlich alle Ultrabook-Hersteller, für einen fest verbauten Akku entschieden hat. Die einzige Klappe am Unterboden ist schon fast mehr ein Gimmick als eine echte Funktion, denn sie schützt den Aufkleber mit dem Windows-Lizenzschlüssel.

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen