Monat: August 2012

Tom’s Hardware: Guten Tag Herr Caldarone. Würden Sie sich unseren Lesern kurz vorstellen?

Christian CaldaroneChristian CaldaroneChristian Caldarone: Gern. Ich heiße Christian Caldarone, Jahrgang 1972, und bin aktuell in Deutschland als Unternehmenssprecher für VIA Embedded tätig. Zudem bin ich auch für das Channel Business verantwortlich.

TH: Unsere jüngeren Leser kennen VIA vielleicht nur als Hersteller von Audio-Chips oder Firewire-Controllern. Könnten Sie die Firma also vielleicht kurz vorstellen?

CC: VIA wurde 1987 in Kalifornien gegründet. 1992 verlegte die Firma ihr Hauptquartier nach Taipeh, Taiwan. Gegen Ende der 1990er Jahre kam es zur Akquise des Prozessorherstellers Cyrix/Centaur, und auf der Basis des eingekauften Knowhows entwickelte man im Laufe der folgenden Jahre die C3-CPUs. 2002 wurde die VIA Embedded Platform Division gegründet. Seitdem konzentrieren wir uns  zunehmend auf den Embedded-Markt [VIA EPIA Embedded Plattform, Anm. d. Red.]. Als Zukunftsanforderungen hat man bei VIA vor allem eine geringe Leistungsaufnahme, hohe Performance pro Watt, lüfterloses und leises Design und die Miniaturisierung ausgemacht. Im von VIA entwickelten Mini-, Nano- und Pico-ITX-Design findet sich aus Herstellersicht die Synthese dieser Faktoren.

Aktuell beschäftigt VIA weltweit etwa 2000 Mitarbeiter. Der Großteil von ihnen arbeitet in der Embedded Division sowie im Bereich Chipsets/CPUs.

TH: Eine Zeitlang galten VIA-Chipsätze als echte Alternative zu Angeboten von AMD, Intel und Nvidia. Heute ist man in diesem Segment abseits der eigenen Plattformen nicht mehr vertreten, und auch da passiert verglichen mit den Produktzyklen bei den genannten Mitbewerbern eher wenig. Tritt VIA auf der Stelle?

CC: Nein, auch VIA präsentiert immer wieder Innovationen, beispielsweise den kürzlich vorgestellten QuadCore Processor. Er läuft mit 1,2 GHz, unterstützt 64-Bit-Befehlssätze, verwendet adaptives Overclocking und erreicht dank seines Low-Power-Designs eine TDP von nur 27,5 Watt. Dabei handelt es sich zudem um eine Out-of-Order-Architektur. Im Gegensatz zu den Produkten einiger Mitbewerber stecken in ihm vier echte Kerne, und Systeme mit QuadCore Processor + VX11 können bis zu 16 GB RAM verwalten. Der VX11-Chipsatz enthält darüber hinaus eine DirectX-11-kompatible GPU namens VIA Chrome 645.

TH: Wird aktuell an neuen x86-CPUs gearbeitet? Der Nano/Nano X2 ist inzwischen immerhin 5 Jahre alt und wird in 40 nm gefertigt, und auch der QuadCore Processor ist eigentlich nur eine Abwandlung dieses Designs – zwei Nano X2 auf einem Die.

VIAs Nano-DesignVIAs Nano-DesignCC: Natürlich wird es neue, weiter entwickelte und verbesserte Prozessoren geben, das ist logisch, aber aktuell gibt es noch nichts anzukündigen.  Unsere aktuellen Produkte können in ihrem Segment der Konkurrenz auch gut die Stirn bieten. [Anm. d. Red.: Im Artikel Scharmützelchen auf dem Desktop: Nettop-Plattformen im Vergleich schlug sich VIAs Nano X2 in der Tat sehr gut und konnte in mehreren Fällen Intels damals aktuellen Atom D2700 klar abhängen.]

xUnsere Kunden schätzen an unserem Portfolio aber nicht zuletzt auch den langen Produktlebenszyklus von fünf bis sieben Jahren. Um die Pin-Kompatibilität zu wahren und damit die Plattformen entsprechend lange unterstützen zu können, ist es deshalb nicht einfach möglich, beispielsweise einen Die-Shrink durchzuführen. Das hört sich so simpel an: „Die Strukturgröße wird verfeinert.“ Fakt ist aber, dass ein Die-Shrink sehr viel Nacharbeit an den Plattformen erfordern würde.

Wie mobil muss mobil sein, und wo kann und darf man auch Abstriche machen? Welche Qualität benötigt man am Ende und wie viel Leistung bekommt man im Gegenzug fürs Geld? Der heutige Test ist diesmal eigentlich kein reiner Produkttest, sondern eher ein Erfahrungs- und Praxisbericht, denn unser Testobjekt hat bereits einen längeren Redaktionseinsatz hinter sich. Mit dem Fujitsu ScanSnap S1300i haben wir vor geraumer Zeit den kleineren ScanSnap S1100 ersetzt, dessen Funktionsumfang den steigenden Anforderungen vor allem in stationären Einsatz nicht mehr so recht genügte und der nun als kleiner mobiler Begleiter im Auto des Autors seinen festen Platz im Handschuhfach gefunden hat. Was aber kann der S1300i im Büro und unterwegs besser, damit sich auch für uns der Gegenwert von ca. 100 Tagesangeboten einer größeren Baguette-Kette noch rechnet?

Zunächst steht wohl die berechtigte Frage: Warum muss es ein Mobilgerät mit solchen Abmessungen sein? Wer wirklich glaubt, Papier hätte als Medium ausgedient, der irrt leider. Doppelseitig bedruckte Dokumentationen, Anleitungen im Handzettelformat, Rechnungen mit dem üblichen Kleingedruckten auf der Rückseite – all dies hatte uns bewogen, nach einem Kleinscanner Ausschau zu halten, der vor allem duplexfähig ist und in einem Durchgang auch die Vorder- und Rückseite gleichzeitig einscannen kann. Der Rest ist wie immer eine Frage der Treiber und vor allem auch der mitgelieferten Software. Nicht vergessen sollte man auch die fast schon unentbehrlichen Mobilgeräte wir Tablets und Smartphones, doch dazu im Verlauf unseres Erfahrungsberichtes mehr.

Noch einmal kurz zusammengefasst: wir stellen heute ein Arbeitsgerät vor, das uns im täglichen Gebrauch überwiegend positiv aufgefallen ist. Wir werden den Liefer- und Softwareumfang bewerten, die technischen Daten auflisten und kommentieren und natürlich auch mit Testscans belegen, wo die Stärken und Schwächen liegen. Das Thema Konnektivität wird ebenfalls nicht zu kurz kommen. Gut, ein paar nervige Eigenheiten hat das Teil am Ende auch, aber damit kann man eigentlich recht gut leben. Trotzdem wollen wir auch darüber schreiben.

Das ursprüngliche Spiel Guild Wars aus dem Jahr 2005 war das Debütspiel von ArenaNet, einer Firma, die von ehemaligen Blizzard-Mitarbeitern gegründet wurde. Guild Wars konnte seinerzeit viele Spieler für sich gewinnen, weil nach dem Kauf des Spieles dafür keine Abo-Gebühr anfiel.

Das Geschäftsmodell von ArenaNet ist einfach: Man muss das Spiel kaufen und dafür genau einmal bezahlen, und kann dann in der Folge auch Expansion-Packs kaufen. ArenaNet hatte mit diesem Geschäftsmodell Erfolg – im Grunde war es der Vorläufer des Free-to-Play-Modells, das sich bei MMOs mehr und mehr durchsetzt. Sogar die eigentlich traditionellen Geschäftsmodellen verhaftete Firma Bioware möchte jetzt mit Star Wars: The Old Republic das Free-to-Play-Modell ausprobieren.

Kann Guild Wars 2 im  heißumkämpften MMO-Markt reüssieren und an den Ruhm des Vorgängerspiels anknüpfen?

Für mich war der Schwerpunkt, den Guild Wars auf PvP (Player vs. Player) legte, nie besonders attraktiv, aber ich verstehe, dass andere Spieler hierzu eine andere Meinung haben können. Wenn man so gestresst ist, dass man nicht allabendlich zu einer fixen Zeit einloggen kann, um seine Rolle in einer Spielergilde wahrzunehmen, dann wird man einem MMO-Spiel, das ja vom Design her auf große Gruppen ausgelegt ist, kein optimales Spielerlebnis entlocken können. Es gibt einige Spiele, bei denen auch Gelegenheitsspieler auf ihre Rechnung kommen können. Aber dann kommt man meist in eine Warteschlange und spielt mit Leuten, die man nicht kennt, oder man spielt Meta-Spiele.

Die Lösung dieses Dilemmas wäre, wenn man einfach einloggen und sofort ins Spielgeschehen eingreifen könnte, ohne dass man in einer Warteschlange auf die Bildung einer neuen Spielergruppe warten muss. Als ich Gelegenheit erhielt, die letzte Beta-Version von Guild Wars 2 vor dem offiziellen Launch-Datum 28. August 2012 zu testen, stellte ich fest, dass dieses Spiel genau das ermöglicht, mittels Dynamic Events.

Das Spiel versucht gar nicht, Dynamic Events irgendwie zu erklären. Stattdessen passieren sie ganz einfach, völlig flüssig und scheinbar natürlich. Beispielsweise spielte ich gerade als rangniedriger Sylvari (ein Stamm von Ackerbau betreibenden Wesen mit starkem Elfen-Einschlag), als die Stadt plötzlich von einem Mob angegriffen wurde. Naturgemäß versuchte ich, beim Abwehren dieser Invasion mitzuhelfen. Ganz spontan halfen aber auch andere in der Stadt anwesende Spieler bei der Verteidigung mit.

Die erfolgreiche Abwehr des Angriffs erfreute alle, und mir wurde klar, dass ich gerade bei einem PvE (Player vs. Environment)-Teamerlebnis dabei war, also an einem Spielereignis teilnehmen konnte, ohne vorher Zeit in einer Warteschlange zubringen zu müssen – vergleichbar mit dem, was Trion Worlds in Rift gelungen ist.

Ich habe später erfahren, dass alle Spieler, die bei der Verteidigung mithalfen, die gleiche Punkteanzahl von “Group-PvE”-Erfahrung erhielten. Das eliminiert einerseits die ärgerliche Praxis des ‘Kill Stealing’ aus dem Spiel und schafft andererseits einen starken Anreiz zur Kooperation – unter anderem auch deshalb, weil Guild Wars 2 die Schwierigkeit eines Spielereignisses dynamisch an die Anzahl der beteiligten Spieler anpasst.

ArenaNet behauptet, dass diese Dynamic Events sogar langdauernde Konsequenzen in der Spielwelt haben und z.B. auch andere Unternehmungen im Spiel beeinflussen. Aufgrund der beschränkten Zeit, die ich mit der Beta-Version des Spiels testen konnte, war es mir nicht möglich, das selbst zu erleben. Aber ich finde das zugrundeliegende Konzept interessant – die Spielcharaktere können unterschiedliche Erfahrungen sammeln.

Abgesehen von Dynamic Events bietet Guild Wars 2 eine ganze Reihe anderer interessanter Spielelemente. Der Ausgang eines Kampfes hängt stark vom Skill-Level und anderen Punktekriterien ab, aber auch ein schneller Mausfinger zählt – gekonntes Ausweichen und ein gutes Timing der Attacken sind durchaus relevant. Es ist entscheidend, sich auf dem Schlachtfeld so zu positionieren, dass man diverse Objekte verwenden kann. Das jeweilige Nahkampfgeschick hängt nicht von der Kategorie der Spielfigur ab, sondern von den Waffen, die sie gerade trägt. Das Spiel gibt individuellen Spielweisen großen Raum und die Kategorisierung der Spielfiguren ist nicht so strikt wie in anderen Spielen.

Guild Wars 2 bietet eine breite Palette an Charakteren und Einstellmöglichkeiten; beispielsweise gibt es fünf verschiedene Stämme, die unterschiedliche Heimatgebiete und Abstammungsgeschichten aufweisen. Die Asura (kleingewachsene mystische Forscher, ähnlich den Gnomen in WoW), die Sylvari (Pflanzenwesen mit elfischem Einschlag), die Menschen (den anderen Stämmen unterlegen, seit sie in den rund 250 Jahren nach den ursprünglichen Guild Wars ihre Macht verloren haben), die Norn (großgewachsene, stämmige Barbaren aus dem Norden) und, etwas überraschend, die Charr (bereits aus dem ersten Spiel bekannte angriffslustige Kriegerrasse, eine gefährliche Mischung aus Wolf, Bär und Wildschwein).

Dann gibt es acht Berufe: Mesmer, Wächter, Necromant, Waldläufer, Elementarmagier, Krieger, Dieb und Ingenieur. Da, wie erwähnt, die Nahkampfstärke jeder Spielfigur von ihren Waffen abhängt, gibt es eine Unzahl an Kombinationsmöglichkeiten und sehr weitgehende Flexibilität bei der Ausstattung und dem Spieleinsatz des Avatars. Jede Spielfigur hat übrigens auch ein Haustier, und auch bei der Wahl des Haustiers gibt es mehrere Möglichkeiten.

Verglichen mit dem Vorgängerspiel ist das neue Spiel viel besser ausgestaltet und opulenter. Die Erstellung des Avatars geschieht in Form des Schreibens eines Briefes, auf Basis von persönlichen und zum Teil absurd klingenden Wahlmöglichkeiten. Auch die Spielgeschichte von Guild Wars 2 wirkt überzeugender als die des Vorgängerspiels. Jeder der fünf Stämme hat ein eigenes Stammesgebiet und eine eigene Kunstform, und Gespräche werden von 2D-Animationen und Slideshows begleitet – auf diese Weise wird die Spielhandlung vorangetrieben.

Guild Wars 2 beinhaltet viel mehr als ich hier beschreiben kann. Beispielsweise ist einer der Hauptaspekte des Spiels PvP (Player vs. Player). Allerdings konnte dieser Aspekt aufgrund der kurzen Zeit, die mir die Beta-Version zur Verfügung stand und aufgrund unseres Schwerpunkts auf Performancetesting nicht gebührend erforscht werden.

“Danach kommen die taktischen Manöver, und es gibt nichts Schwierigeres. Die Schwierigkeit besteht darin, das Ungezielte ins Gezielte zu verwandeln, das Unglück in den Sieg.”

    —Sun Tzu, Die Kunst des Krieges

Als wir 2002 Dave Orton, damals Präsident von ATI Technologies, interviewed habe, war einer seiner ersten Sätze ‘Es ist immer das geschäftliche Potential, das Mitarbeiter motiviert.’ Seine Worte hätten kaum prophetischer sein können, denn schon kurz danach fusionierte seine Firma mit der CPU-Schmiede AMD. Die wirkliche Frage ist aber nicht, ob etwas möglich ist – nicht einmal, ob die Möglichkeit in die Realität umgesetzt wird. Die Gretchenfrage ist, ob eine potentielle Möglichkeit rechtzeitig genug umgesetzt wird.

Dave OrtonDave Orton

Orton verbrachte den Großteil der Neunzigerjahre bei Silicon Graphics, verließ SGI aber im Jahr 1999, als im Technologiebereich fast alles möglich schien, und begann bei einer kleinen Core-Logikschmiede namens ArtX. ArtX erhielt den Zuschlag für die Entwicklung des Nintendo Gamecube, von dem dann über 20 Millionen Stück verkauft wurden. Im Herbst dieses Jahres stellte ArtX dann ihr erstes integriertes Chipset bei der Comdex aus und wurde über Nacht ein begehrter Übernahmekandidat.

Letztendlich wurde ArtX von ATI erworben und Dave Orton wurde zum Präsidenten und COO von ATI befördert. Aber dann kam der Dot-Com-Crash, es gab Probleme mit dem Grafiktreiber, angekündigte Liefertermine wurden zur Makulatur und eine Weile lang schien es, dass ATI nichts gelingen konnte.

Orton schaffte den Turnaround, indem er die beiden Entwicklungsteams von ATI und ArtX fusionierte und einen 12-monatigen Entwicklungszyklus für eine neue Chiparchitektur und einen sechs- bis neunmonatigen Zyklus für inkrementelle Produktverbesserungen einführte. Die einzelnen Produktteams erhielten mehr Einfluss und mehr Verantwortung. Und allmählich, über eine Zeitspanne von rund 18 Monaten hinweg, permanenten Demütigungen von Nvidia ausgesetzt, schaffte ATI den Turnaround – die Firma fand den Weg auf die Gewinnerstraße zurück.

‘Man muss auf den Ausgangspunkt zurückblicken und die Stärken und Schwächen sehen’, sagt Orton. ‘Und permanent entwickeln. Man darf sich nie mit dem Status Quo zufriedengeben. Man muss sich ein Ziel setzen und dann konsequent darauf hinarbeiten.’

Als die Firma endlich wieder rund lief, war Orton klar, dass der nächste Schritt gemacht werden musste – aber wohin? Bei unserem Gespräch 2002 gab es keinerlei Hinweise auf die bevorstehenden Fusion. ATI war gut darin, Northbridge-Chips mit integrierter Grafik zu bauen, und die Beziehung zu Intel, wo die Ansicht vorherrschte, dass Chipsatzgrafik gerade eben gut genug für Büroanwendungen sein musste, war eher partnerschaftlich denn ein Konkurrenzverhältnis.

Aber ich erinnere mich an eine prophetische Stelle im Interview, wo Orton sagte: ‘Wenn ich einen Aspekt der Computertechnologie ändern könnte, dann würde ich mir wünschen, dass die Innovation auf einer viel breiteren Basis stattfände. Ich bin mir der Vorteile von Standards voll bewusst. Standards schaffen Geschäftspotential.’

Während des damaligen Interview beklagte sich Orton zwei Mal über die Megastaus im Silicon Valley, wobei er sagte, wenn er etwas beliebiges erfinden könnte, ohne Rücksicht auf physikalische Gegebenheiten, dann wäre es der so etwas wie der Transporter aus der Fernsehserie ‘Raumschiff Enterprise’. Offenbar meinte er es ernst und hat seine Konsequenzen aus den Verkehrsproblemen gezogen, denn 2007 trat er von seinem Posten als Executive Vice President bei AMD zurück, um mehr Zeit für seine Familie zu haben. Aber wir haben einige Jahre übersprungen. Zuerst ging er nämlich nach Texas.

Der aktuell Trend bei Smartphones deutet in eine Richtung: Mehrkern-Architekturen. Wie der Test der HTC-One-Familie schon gezeigt hat, ist dies zwar nicht unbedingt der Weisheit letzter Schluss, weil Chips mit schmaleren Strukturbreiten mit weniger Kernen (und mit dem Cortex A15 mit verbesserten Befehlssätzen) durchaus schneller sein können. Doch hinsichtlich des augenblicklichen Architektur-Standards – ein ARM-Cortex-A9-CPU-Kern, der in einem 40-nm-Verfahren gefertigt wird – gehören der Nvidia Tegra 3 und der Samsung Exynos 4412 zu den schnellsten Prozessoren am Markt. Überflieger ist dabei einmal mehr das Samsung, der mit seinem Galaxy S3 den schon nicht eben geringen Erfolg des Vorgängers noch einmal deutlich überflügeln konnte. Doch was macht das S3 im Vergleich zu anderen Smartphones, wie z.B dem LG Optimus HD 4X so besonders, das mit großem Display und schnellem Vierkern-Prozessor in der gleichen Liga kämpft?

Das Galaxy S3 ist schick, das Optimus HD 4X praktisch

Optisch weiß das Galaxy S3 zu gefallen. Alle Ecken und Kanten sind abgerundet, sodass das Smartphone angenehm in der Hand des Nutzers liegt. Allerdings ist die enorme Größe schon eine Herausforderung: ein 4,8“ großes Display wirkt nicht nur wuchtig, sondern verlangt auch nach einem entsprechend dimensionierten Gehäuse, das mit Außenmaße von 136,6 x 70,6 x 8,6mm alles andere als kompakt ist. Selbst mit einer großen Hand fällt hier die einhändige Bedienung langsam schwer. Das gilt auch für das LG Optimus HD 4X, dessen Bildschirm nur einen Tick kleiner ist. Mit 132,4 x 68,1 x 8,9 mm ist der Unterschied in Länge und Breite gerade einmal 4 bzw. 2 mm. Dafür ist das LG-Smartphone etwas schwerer. Das S3 bringt ein Gewicht von 133 g auf die Waage, während das Optimus 141 g wiegt.

Optisch kann es mit dem S3 allerdings nicht mithalten, dessen Design nicht nur den Geschmack der Zeit trifft. Im Gegensatz dazu kommt das LG-Smartphone vergleichsweise kantig daher und erinnert optisch etwas an das Galaxy S2. Dafür weiß LG mit praktischen Eigenschaften zu punkten. Denn während Samsung dem Klavierlack, der einst auf beinahe jedes elektronische Gerät gespritzt wurde, treu bleibt, ist die Oberfläche des beim Optimus HD 4X in schwarz gehaltenen Kunststoffdeckel mit einer geriffelten Struktur versehen. Auf solche Eigenschaften sollten gerade jene Nutzer Wert legen, die ihr Gerät nicht wie ein rohes Ei behandeln. Bei diesen dürfte die lackierte Oberfläche des S3 schnell von ihrer Anmut verlieren, vor allem wenn man sich für die in dunkelblau gehaltene Variante entschieden hat. Vorsicht sollte ist in jedem Fall im Umgang mit den Displays geboten. Gorilla Glas hin oder her – die Bildschirme bieten viel Platz für Einflüsse aller Art.

Unterm Strich kann das LG Optimus HD 4X hinsichtlich der Verarbeitung dennoch nicht ganz mit der des Galaxy S3 mithalten. Und dies liegt vor allem amDeckel: Der schlanke Plastiküberzug über der Rückseite des LG-Smartphones neigt unter Druck zu leichtem Knarzen. Anders das Galaxy S3. Hier sitzt die Abdeckung bombenfest und lässt auch unter Druck nichts von sich hören. Außerdem ist das S3 deutlich verwindungssteifer als das LG-Smartphone.

Nividia hat zwar nicht die ultimative Katze aus dem Sack gelassen, aber die Vielfalt der Boardpartnerkarten ist bereits fast genauso groß wie bei der GeForce 670. Das sollte niemanden verwundern, denn es gibt kein wirklich eigenständiges Referenz-Design, sondern man setzt durchgängig auf das Modell der GTX 670. In unserem Launchartikel zur GTX 660 Ti sind wir ja bereits sehr ausführlich auf die technischen Details eingegangen, so dass wir uns dies größtenteils sparen möchten und die Karten der einzelnen Boardpartner in den Mittelpunkt unserer Betrachtungen stellen werden. Mit Asus, Gainward, Gigabyte, Galaxy/KFA², MSI, Palit und Zotac konnten wir 7 Boardpartner für dieses Roundup gewinnen, lediglich EVGA konnte nach eigener Aussage kein Sample mehr liefern, und von Point of View bekamen wir außer Pressemeldungen nicht einmal eine Absage.

Doch stopp! Der Vergleich der Benchmarkergebnisse der verschiedenen Review-Seiten hat zum Teil sehr unterschiedliche Einschätzungen ergeben, was vor allem darauf basiert, welche Spiele unter welchen Einstellungen jeweils gebenchmarkt wurden. Dabei wurde fast ausschließlich auf die üblichen Einstellungen zurück gegriffen, ohne die zur Verfügung stehende Bandbreite der Speicheranbindung wirklich gezielt zu hinterfragen. Diesen Aspekt haben wir in den heutigen Artikel mit aufgenommen, damit sich das Zustandekommen unserer Benchmarkergebnisse und die einiger anderer Kollegen aus den Launchartikeln besser verdeutlichen lässt. Außerdem haben wir den tatsächlich nutzbaren Boost-Takt der einzelnen Karten etwas näher unter die Lupe genommen, denn man weiß ja nie…

USB-2.0-Festplatten sind ideal für den Datentransport, hinken mit vergleichsweise langsamen Transferraten aber PC- und Mac-Schnittstellen neueren Datums wie eSATA, FireWire und Thunderbolt hoffnungslos hinterher. Auch wenn im USB-2.0-Gehäuse das schnellste Laufwerk steckt, das Ergebnis ist immer gleich und immer gleich ernüchternd: Sobald der Konverterchip den SATA-Datenstrom für die USB-2.0-Übertragung umwandelt, bleibt die tatsächliche Transferrate bedingt durch den Protokoll-Overhead deutlich unter den laut Spezifikation maximal möglichen 480 Mb/s und kommt nicht über 40 MB/s (320 Mb/s) hinaus.

Erst USB 3.0 löst diesen Bremsklotz, und das nachhaltig, denn das neue Tempolimit ist mit 4000 Mb/s so hoch angesetzt, dass man eine ganze Weile nicht mehr von einer Einschränkung reden dürfte. „SuperSpeed“-USB soll Daten etwa 10-Mal schneller übertragen als USB 2.0 (“Hi-Speed”) und rund 500 MB/s erreichen. Damit steht selbst für die schnellsten Festplatten ausreichend Bandbreite zur Verfügung, was sich auch in der Praxis zeigt. USB-3.0-Festplatten egal welchen Formats können so schnell wie ihre internen Versionen sein und besonders schnelle USB-3.0-Sticks erreichen im sequenziellen Lesemodus schon bis zu 200 MB/s.

Da USB 3.0 im Gegensatz zu USB 2.0 keinen Flaschenhals bei der Datenübertragung darstellt, spricht alles dafür, auch sein externes USB-2.0-Laufwerk zu modernisieren. Dieses könnte man natürlich in Rente schicken und stattdessen eine neue USB-3.0-Festplatte kaufen, doch es geht auch deutlich preiswerter. Wieso nicht einfach das Laufwerk aus dem alten USB-2.0-Gehäuse herausholen und in ein neues USB-3.0-Gehäuse einbauen? Die Auswahl an passenden Produkten ist groß und die günstigsten von ihnen kosten gerade einmal 9,90 Euro, rechnet man die Versandkosten nicht mit ein. Schlechte Karten hat hier nur, wessen Festplatte noch mit PATA-Anschluss werkelt, denn USB-3.0-Gehäuse verwenden intern fast ausschließlich die SATA-Schnittstelle. Eine der ganz wenigen Ausnahmen, da sowohl mit SATA- als auch PATA-Interface bestückt, ist beispielsweise das DeLOCK 42494.

In diesem Test wollen wir herausfinden, inwieweit mit einem Laufwerk bestückte USB-3.0-Gehäuse im 2,5-Zoll-Format herkömmlichen USB-3.0-Festplatten gleicher Größe Konkurrenz machen können, bei denen Gehäuse und Laufwerk schon eine Einheit bilden. Um den maximalen Datendurchsatz der Testkandidaten zu ermitteln, haben wir statt einer Notebookfestplatte die Samsung-SSD PM830 verwendet. Insgesamt neun verschiedene SATA-Produkte sind im Testlabor vorstellig geworden, die zwischen 9,90 Euro und rund 37 Euro kosten und im Durchschnitt schon für 15 Euro zu haben sind. Recht einheitlich geht es auch intern zu, denn mit dem AS Media ASM1051 und dem Genesys Logic GL3310 kommen in den USB-3.0-Gehäusen lediglich zwei verschiedene Typen von USB-Controllern zum Einsatz, wobei der AS Media-Chip eindeutig in der Mehrzahl ist.

Höchste Zeit, einmal wieder AMDs Flaggschiff ins Trockendock zu fahren und die Llano-basierten APUauf Herz und Nieren zu testen. Nachdem der A8-3780K mit offenem Multiplikator inzwischen schon für 95 Euro zu haben ist, 2000+ MT/s-Speicher auf einem Rekordniedrigpreis ist, und die Performance-Verbesserungen beim Catalyst-Treiber ebenfalls die Leistung beflügeln, müsste doch eigentlich die Zeit des A8-3870K gekommen sein. Außerdem erwarten wir immer noch die Desktop-Version der AMD Trinity APU-Serie.

Nicht zum ersten Mal übertakten wir einen Llano-Chip, diesmal aber wollten wir noch einen Schritt weitergehen und das Maximum aus dem Speichercontroller herausholen. Immerhin hat der Speichertakt immense Auswirkungen auf die Performance der APU-Grafik. Wir wollten wissen: Können wir genug Performance aus dem A8-3870K herauskitzeln, um ihn zu einem echten Herausforderer für eine Einsteiger-Grafikkarte zu machen? Ist das zu viel verlangt, oder kann sich eine APU mit einer Radeon HD 6670 DDR3 messen, die wir als Referenzkarte für Otto-Normal-Gamer ansetzen?

Dazu trafen wir uns mit Sami Mäkinen, einem weltbekannten Übertakter, der mehrere Weltrekorde hält. Wir fragten ihn, wie er das Maximum aus einem Llano herauskitzelt.

Don Woligroski: Hallo, Sami, schön dich zu treffen. Lass uns gleich loslegen: Welche Empfehlungen kannst du unseren Lesern geben, die ein Motherboard zum Übertakten eines A8-3870K suchen?


Sami Mäkinen: Hi, Don. Die wichtigsten Komponenten dafür sind die Stromversorgungs-Logik und das Speicher-Subsystem. Ich habe mit Asus´ F1A75-M Pro gute Erfahrungen gemacht, weil die Northbridge und die GPU-Stromversorgung etwas mehr Reserven haben als bei anderen Herstellern. Und ein aggressiver GPU-Takt ist natürlich die Voraussetzung für Gaming-Performance.

Don Woligroski: Ich habe gelesen, was du zum Übertakten von APUs veröffentlicht hast, und das Speicher-Übertakten bei Llano ist auch eine deiner Spezialitäten.

Sami Mäkinen: Auf dieser Plattform haben Übertakter mit Speicher schon sehr viel erreicht. Wenn ich mich nicht irre, ist der Weltrekord beim Speicherübertakten mit Llano aufgestellt worden. Auf jeden Fall ist ein hoher Speichertakt enorm wichtig für die optimale Performance, besonders wenn die GPU übertaktet werden soll.

Don Woligroski: In welcher Reihenfolge legen wir nun los? Speicher? GPU? CPU-Kerne?

Sami Mäkinen: Beim Speicher ist es ziemlich kompliziert, und es dauert seine Zeit, schnelle und gleichzeitig stabile Einstellungen zu finden. Deswegen beginne ich normalerweise damit, die Llano-GPU zu übertakten. Der GPU-Takt leitet sich vom Referenztakt ab; im BIOS-Menu finden sich die verschiedenen Teiler, anhand derer sich dir verfügbaren Taktraten ergeben. Ich beginne mit der GPUund lote dann deren Limit aus. Dabei behalte ich zunächst mit der Standardspannung und hebe sie dann in kleinen Schritten an.

Don Woligroski: Was ist die ideale Spannung zum Übertakten der GPU einer A8-3870K?

Sami Mäkinen: Wenn wir bei Luftkühlung bleiben wollen, liegt die optimale Spannung zwischen 1,2 und 1,3 V für die Northbridge, was auch die Spannung für die GPU festsetzt. Die Voreinstellung sollte bei 1,1 V liegen, also sollte man da beginnen und, um es nicht zu übertreiben, in 5 mV-Schritten nach oben gehen. Man erreicht dann einen Punkt, ab dem die Stabilität schlechter wird. Manchmal helfen wiederum höhere Spannungen, aber ab 1,4 V kann die APU beginnen, Schaden zu nehmen, besonders wenn noch der Original-Kühler verwendet wird.

Don Woligroski: Was kommt nach der GPU?

Sami Mäkinen: Die CPU ist schnell übertaktet,  und es ist wichtig, die Grenzen jedes Subsystems zu kennen; deswegen geht es jetzt hier weiter. Die CPU-Kerne einer 3870K-APU, die mit einem Standardtakt von 3 GHz laufen, erreichen nicht selten zwischen 3,5 und 4,0 GHz. Damit hat man also schon mal einen Anhaltspunkt, was gehen sollte. Wenn man den CPU-Teil aufs stabile Maximum gebracht hat, werden die Kerne auf ihre Standardwerte (oder niedriger) gesetzt, und dann wird der Speicher getunt.

Speicheroptimieren ist eine weit komplexere Angelegenheit, denn es spielen viele Faktoren mit hinen: Es kommt darauf an, welche Speichermodule verwendet werden, ob sie 2 oder 4 GB groß und Single- oder Dual-Sided sind.

Außerdem muss man dabei auf den Referenztakt aufpassen. Um über 1866 MT/s zu kommen, muss der angehoben werden. Folgendes gilt es zu beachten: Die Takte des Llano sind mit einander gekoppelt. Wenn man also den Referenztakt anhebt, übertaktet man praktisch alles andere auch ebenfalls, also leider auch PCI Express, Serial ATA und USB. Das macht es etwas kompliziert. Wir haben herausgefunden, dass man bei einer Festplatte im AHCI- oder RAID-Modus die Grenzen recht schnell findet, und die liegen in der Regel zwischen 105 und 110MHz. Im altbewährten IDE-Modus ist 133MHz normalerweise kein Problem. So wird also der Referenztakt und alles was mit dranhängt ausgelotet. Das brauchen wir, wenn der Speicher optimiert werden soll. Dabei gehen wir übrigens hier mal davon aus, dass High-End-Speicher zum Einsatz kommt, der auch über 2 GT/s schafft.  

Auch die Display-Outputs muss man im Auge behalten, bevor es an den Referenztakt geht, weil VGA auch an diesen Taktmechanismus gebunden ist. Bei einem schnelleren Referenztakt, kann auch mal das VGA-Signal verloren gehen. Daher empfiehlt sich auf jeden Fall DVI oder HDMI, was die meisten ohnehin schon benutzten.

Fassen wir also zusammen: Um alle Grenzen auszuloten, sollte man den IDE-Modus verwenden und entweder HDMI oder DVI-Ausgänge benutzen. 133MHz sollten dabei leicht drin sein und von dort aus geht es nach oben, je nachdem wie viel die jeweilige Konfiguration schafft.

Don Woligroski: Speicheroptimierung ist also etwas komplizierter. Was sind konkrete Empfehlungen, wenn wir wirklich das letzte herausholen wollen?

Sami Mäkinen: Wenn es um Performance geht, sollten wir auf jeden Fall dual-ranked (also effektiv dual-sided, beidseitig bestückte) DIMMs nehmen. Single-ranked Module sind für Memory-Controller etwas leichter, sie lassen aber auch etwas Leistung auf der Strecke, weil das Interleaving nicht so effizient ist. Ich würde zwei dual-ranked Sticks mit 2 GB nehmen, also 4 GB zusammen. Damit kommt vermutlich der Memory-Controller am besten zurecht, und 4 GB reichen heute gut aus.

Um den Speicher zu tunen, lässt man die meisten Settings im BIOS auf “auto” und passt die wichtigen Parameter abhängig von den technischen Daten des DIMM an. Zu erreichen sind Fein-Tunings mit bis zu etwa 50MHz. Generell sollten die meisten Speicher-Einstellungen auf “auto” gut laufen. Was die Spannung anbelangt, kommen die meisten DIMMs mit einer kleinen Erhöhung von 1,5 auf 1,6 oder 1,65 V ganz gut klar.

Wenn dann erst einmal klar ist, wie weit die GPU, die CPU und der Referenztakt und der Speicher getunt werden können, geht es darum, die optimale Kombination der einzelnen Werte zu finden. Wenn es um 3D-Performance gehen soll, sollten GPU und Speicher im Vordergrund stehen. Die CPU sollte dabei auf dem Standardtakt oder sogar darunter bleiben (Spannung absenken). Es geht insgesamt darum, die Datenmenge auf dem Motherboard auszubalancieren. Wenn wir bei der CPU Energie sparen können, bleibt die vielleicht für die GPU zur Verfügung.

Vielen Dank an Sami für die Tipps zum Übertakten von Llano. Mit diesen Expertentipps geht´s nun ab ins Labor.

Inzwischen ist es gut vier Monate her, dass Nvidia mit der GeForce GTX 680 die erste Karte mit der neuen Kepler-Architektur vorstellte. Da wir beide schon im Launch-Artikel GeForce GTX 680 2GB im Test: Kepler schickt Tahiti auf die Insel ausführlich behandelt haben, begnügen wir uns mit dem Verweis anstatt alle Details erneut zu wiederholen. Seitdem hat Nvidia die neue 600er-Familie im High-End-Bereich um die Modelle GeForce GTX 670 und GeForce GTX 690 ergänzt. Im Mainstream-Bereich blieb aber die GeForce GT 640 die vorerst einzige Karte der Kepler-Generation. In der breiten Preisspanne zwischen diesen Kepler-Kandidaten klaffte aber eine Lücke, die von ihren älteren Fermi-Vorgängern GeForce GTX 560, 570 und 580 gefüllt wurde. Es war von vornherein klar, dass Nvidia auch hier früher oder später auf ein Kepler-Derivat umschwenken würde, und genau das ist mit der heutigen Einführung der GeForce GTX 660Ti der Fall. 

Es ist nicht ungewöhnlich, dass eine Firma einen bestehenden Chip als Ausgangsbasis für eine kleinere Variante nimmt und dann zurechtstutzt, um verschiedene Preispunkte zu bedienen. AMD wie Nvidia drehen an der Taktrate, variieren das Speicherinterface und schalten einzelne Bereiche der GPU an oder aus. So nutzt auch die GeForce GTX 660 Ti die gleiche GK104-GPU wie die GeForce GTX 670. Allerdings hat Nvidia das Speicherinterface von 256 Bit auf 192 Bit beschränkt und eines der vier Render-Back-Ends abgeklemmt. Ansonsten bleibt alles andere gleich. 

Man hätte erwarten können, dass Nvidia zur Differenzierung die GK104-GPU sogar noch weiter „anpasst“, doch die GeForce GTX 660 Ti nutzt nicht nur die gleichen Speicher- und Kerntaktraten wie die GeForce GTX 670, der Neuzugang verfügt wie das größere Modell auch über sieben SMX-Blöcke. Damit bringt es die GTX 660 Ti auf 1344 CUDA Cores und 112 Textureinheiten. Jeder der drei verbleibenden ROP-Cluster kann bis zu acht 32-Bit-Pixel ausgeben, also 24 Pixel pro Takt. Drei 64 Bit breite Speicherkanäle ergeben ein insgesamt 192 Bit breites Speicherinterface. Dementsprechend dürfen wir erwarten, dass die GTX 660 Ti bei allgemeinen Berechnungen in etwa mit der GTX 670 gleichauf liegt, in Spielen aber zurückfällt.

Abgesehen von den harten technischen Daten teilt sich die GeForce GTX 660 Ti mit ihren größeren Geschwistern GTX 670 und GTX 680 auch noch den GPU Boost, die Fähigkeit bis zu vier Displays anzusteuern und TXAA-Unterstützung in Spielen, die diese Form der Kantenglättung anbieten. Doch während die größeren Modelle im SLI-Verbund mit bis zu vier Karten genutzt werden können, beschränkt Nvidia die GTX 660 Ti auf maximal eine Drei-Karten-Konfiguration. Das ist interessant, denn diese Konfiguration haben wir bislang von Nvidia noch nicht gesehen. Normalerweise hätten wir zudem in diesem Preissegment maximal ein Karten-Doppel erwartet.

GeForce GTX 670 GeForce GTX 660 Ti GeForce GTX 580 Radeon HD 7950 Radeon HD 7870
Shader 1344 1344 512 1792 1280
Textureinheiten 112 112 64 112 80
Full Color ROPs 32 24
48 32 32
Grafiktakt (Basis) 915 MHz 915 MHz
772 MHz 800 MHz 1000 MHz
Texturfüllrate 102,5 Gtex/s 102,5 Gtex/s 49,4 Gtex/s 89,6 Gtex/s 80 Gtex/s
Speichertakt 1502 MHz 1502 MHz 1002 MHz 1250 MHz 1200 MHz
Speicherbus 256-bit 192-bit
384-bit 384-bit 256-bit
Speicherdurchsatz 192,2 GB/s 144,2 GB/s
192,4 GB/s 240 GB/s 153,6 GB/s
Grafik-RAM 2 GB GDDR5 2 GB GDDR5 1,5 GB GDDR5 3 GB GDDR5 2 GB GDDR5
Die-Größe 294 mm2 294 mm2 520 mm2 365 mm2 212 mm2
Transistoren (Milliarden) 3,54 3,54 3 4,31 2,8
Strukturgröße 28 nm 28 nm 40 nm 28 nm 28 nm
PCIe-Stromanschlüsse 2 x 6-pin 2 x 6-pin 1 x 6-pin
1 x 8-pin
2 x 6-pin 2 x 6-pin
maximale Leistungsaufnahme
(TDP)
170 W 150 W
244 200 W 175 W
UVP $400 $300
N/A $350
$300

Nvidia peilt für die GeForce GTX 660 Ti eine unverbindliche Preisempfehlung von runden 300 Euro (bzw. 300 US-Dollar) an, was sie zur direkten Konkurrentin der Radeon HD 7870 macht. Verglichen mit dieser AMD Karte mag ihr Speicherinterface zwar schmaler ausfallen, doch das kompensiert sie zum Teil mit einem höheren Speichertakt von 1502 MHz, was das Delta beim Speicherdurchsatz verringert. Beim Speicherausbau herrscht hingegen wieder Gleichstand, denn beide Karten sind mit 2 GB GDDR5-RAM ausgestattet.

Bei der Pixel-Füllrate zieht die neue GeForce dann wieder den Kürzeren. Dennoch erwartet Nvidia, dass die GeForce GTX 660 Ti AMDs Radeon HD 7870 schlagen und in einigen Fällten selbst der größeren HD 7950 gefährlich werden kann – und das, obwohl die Tahiti-Karte über deutlich mehr Speicherdurchsatz verfügt.

MSI GeForce GTX 660 Ti Power Edition

Von der GeForce GTX 660 Ti gibt es keine Referenzkarte, weshalb wir uns für unsere Tests auf eine Partnerkarte verlassen mussten. Freundlicherweise stellte uns MSI zwei Exemplare seiner GeForce GTX 660 Ti Power Edition zur Verfügung, sodass wir die Performance der Einzelkarte sowie eines SLI-Duos ermitteln konnten.

MSIs Interpretation der GeForce GTX 660 Ti fällt ein wenig teurer aus als Nvidias UVP, denn die Karte soll 310 Dollar kosten. Für den Aufpreis bekommt man allerdings auch Einiges: Der Basistakt ist um gut 100 MHz auf 1019 MHz erhöht und lässt sich zudem im Normalfall per GPU Boost auf bis zu 1097 MHz erhöhen; beim Kühler setzt MSI auf eine Eigenentwicklung mit zwei Lüftern namens „Twin Frozr IV“; es kommen besonders langlebige „military class“ Komponenten zum Einsatz und Nutzer erhalten die Möglichkeit, drei Spannungen anzupassen (GPU, Speicher und VDDCI).

Wie erwartet bietet die Karte die gleichen Anschlussoptionen wie das Referenzmodell der GeForce GTX 670. An der Rückseite finden sich also zwei Dual-Link DVI-Buchsen (je einmal als DVI-I und DVI-D ausgeführt), ein einzelner HDMI-Ausgang und ein DisplayPort. So lassen sich im 2D-Modus bis zu vier und beim Spielen bis zu drei Monitore im Surround-Modus zu einer Anzeigefläche zusammenschließen. Im zweiten Fall muss man, im Gegensatz zu AMD, nicht einmal den DisplayPort nutzen.

MSIs Karte hat mit 24,1 x 11,4 cm exakt dieselben Maße wie Nvidias bereits erwähnte Referenzkarte der GTX 670 und auch die Radeon HD 7870. Die TDP gibt MSI mit 190 Watt an, was 40 Watt über Nvidias Spezifikationen liegt. Grund dafür sind vermutlich die höheren Taktraten. Den notwendigen Strom zieht die Karte jedenfalls aus zwei 6-Pin-Stromsteckern. Nvidia sagte uns, dass die Karte eine Warnung auf dem Bildschirm anzeigt, wenn man vergisst, diese zusätzliche Stromversorgung anzuschließen.

MSIs Twin Frozr IV Kühler nutzt vier Heatpipes und zwei 80-mm-Lüfter. Man sagte uns, dass dieses Design Staubansammlung vorbeuge, was wir aber aufgrund unserer kurzen Testzeit nicht einschätzen können. Wir können hingegen bestätigen, dass die Karte sowohl kühl als auch leise läuft, und die passenden Zahlen liefern wir im entsprechenden Abschnitt im Laufe des Artikels nach.

Ist es eher ein Smartphone oder eher eine Kamera? Mit einem Fotosensor, der eine Auflösung von 41 Megapixeln leistet, ist dies schon eine berechtigte Frage – schon dann, wenn man das Nokia PureView 808 aus der Verpackung nimmt. Nicht nur, weil die vom Rest des Gerätes deutlich abgesetzte Kamera mit ihrem monströs anmutenden Blitzlicht sofort in Auge fällt. Man staunt im nächsten Augenblick über die Ausmaße: Zwar zählt die Oberfläche von 123,9 x 60,2 mm nicht zu den kompaktesten, bleibt aber im Rahmen. Anders die Bauhöhe, die der Hersteller mit 13,9 mm angibt. Das gilt allerdings nicht für den Teil mit der Kamera. Hier kratzt das Smartphone schon beinahe an der 2-cm-Marke. Auch hinsichtlich des Gewichts ist der Eindruck nachhaltig: Mit 169 g liegt das PureView 808 mit seinem 4“-Display schwer in der Hand.

Dass Nokia nach wie vor Smartphones bauen kann, zeigt sich schon in der Verarbeitung des Geräts, die sehr hochwertig ist. Der an den Seiten abgerundete Deckel und der das Display einfassende Rahmen sind aus einem hart und robust anmutenden Kunststoff. Selbst bei größerem Druck knarzt hier nichts. Die Tasten sitzen ordentlich im Gehäuse, klappern nicht, sind aber dennoch gut erreichbar. Auf die Genauigkeit der Spaltmaße scheint ähnlich viel Wert gelegt worden zu sein wie bei PKWs aus deutscher Herstellung.

Display mit nur mäßiger Auflösung

Das Nokia PureView 808 erinnert der Nutzer daran, dass gigantische Bildschirme mit Diagonalen von mehr als 4,5″ nicht in jedem Fall der Weisheit letzter Schluss sein müssen: Das 4″ große PureView-Display wirkt nicht zu klein, und dennoch bleibt es von seinen Oberflächen-Ausmaßen angenehm kompakt.

Doch schon beim Anschalten des Smartphones stellt sich beim Nutzer schnell Ernüchterung ein. Denn mit einer Auflösung von 640 x 360 Pixeln lässt die Bildqualität deutlich zu wünschen übrig. Vor allem die Rundungen von Buchstaben und Flächen werden an den jeweligen Rändern nicht mehr sauber dargestellt. Zudem leidet der Bildschirm bei geringerer Helligkeit unter einem leichten Grün-Stich; bei hoher Leuchtstärke ist hingegen ein leichter Rot-Ton auszumachen.

Außerdem wirkt der Bildschirm zuweilen etwas dunkel, was allerdings nicht an mangelnder Leistungsfähigkeit des Displays liegt, sondern vielmehr an Nokias Helligkeitssteuerung: Die Leuchtstärke des Bildschirms wird automatisch an die Helligkeit der Umgebung angepasst und auf diese Weise die Ressourcen des Akkus geschont. Im Test konnten maximal 376 cd/m² gemessen werden.

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen