Monat: Mai 2013

LG Optimus GLG Optimus G

Mit dem Optimus G will sich LG in diesem Jahr unter die Runde der Highend-Smartphone-Hersteller mischen, ohne der technischen Hochrüstung in ihrer letzten Konsequenz zu folgen. Denn während die Konkurrenz bereits 5″ große Bildschirme mit Full-HD-Auflösung auf den Markt bringt, setzt LG noch auf ein 4,7″ großes Panel. Auch die weitere Hardware-Zusammenstellung ist nicht gänzlich unbekannt und ähnelt der des Schwestermodells Google Nexus 4, das ebenfalls von LG produziert wird. Dementsprechend kommt auch das gleiche SoC zum Einsatz – der Qualcomm APQ8064, der eine Adreno-320-GPU mitbringt, in diesem Fall aber auch über ein freigeschaltetes LTE-Modul verfügt. Unterstützt wird er bei seiner Arbeit von einem 2 GB großen Arbeitsspeicher. Zudem kann sich der Nutzer auf einen recht üppigen Datenspeicher von 32 GB freuen, der allerdings – und hier ist der kleine Haken – nicht mit einer microSD-Karte erweitert werden kann.

Software-seitig nimmt sich der Hersteller das Schwestermodell leider nicht zum Vorbild. Während das Nexus 4 das Referenzgerät für das Android-4.2-Update war, ist auf dem Optimus G, das auch als E975 geführt wird, noch die mittlerweile auch schon fast ein Jahr alte Version 4.1 installiert. Diese wird garniert mit einer LG-eigenen Oberfläche, die sicherlich Geschmackssache ist, aber auch damit auffällt einige Sonderwege in der Menu-Führung zu gehen, die sicherlich nicht jeden schmecken werden. So entfällt beispielsweise die Möglichkeit sich per Android-Standardtaste die aktiven Anwendungen zeigen zu lassen.

Ausstattungstabelle
Modell LG Optimus G (E975)
Betriebssystem Google Android 4.1
Display 4,7″/ IPS-Display/ 1280 x 768 Pixel
CPU Qualcomm APQ8064/ 4 x 1,5 GHz
GPU Adreno 320
Arbeitsspeicher 2048 MB
Interner Speicher 32 GB
Externer Speicher
WLAN a/b/g/n
Bluetooth 4.0
Datennetze GSM 850/900/1800/1900 UMTS 900/2100 LTE 800/900/1800/2100/2600
Funknetze GPRS/EDGE/HSDPA/HSUPA/HSPA+
Kamera (1) 13-MP-Kamera, Full-HD-Videoaufzeichnung
(2) VGA-Kamera für Videotelefonie
Akku
2100 mAh
Abmessungen 131.9 x 68.9 x 8.5mm
Gewicht 145 g
Besonderheiten
Straßenpreis ca. 430 €

Schlichte Kiste mit schicker Rückseite

Das aktuelle LG-Flaggschiff ist eine schicke Kiste, ohne dabei durch gestalterische Experimente auf sich aufmerksam zu machen. Das E975 ist ein schlanker Riegel mit einer Bauhöhe von 8,5 mm, ein schlichter Quader in schwarz, der von einem silbernen Rahmen rund ums Display eingefasst wird. In der Oberliga spielt auch die Grundfläche. Mit 132 x 69 mm ist das Smartphone sicherlich nicht mehr als kompakt zu bezeichnen. Dank der an allen Seiten abgerundeten Kanten liegt es aber noch gut in der Hand, wenn diese große genug ist. Kleinere Finger kommen nicht mehr ohne weiteres bis in die letzten Winkel des Bildschirms.

Wie es sich für ein Gerät der Premiumklasse gehört, gibt es an der Verarbeitung nichts beanstanden. Fest verbaute Akkus nehmen auf der einen Seite ein Stück Freiheit und sorgen unter Umständen dafür, dass die Lebenszeit des Gerätes früher als nötig endet, auf der anderen Seite können mit ihnen aber auch enorm stabile Systeme entwickelt werden. Das gilt auch für das Optimus G, das sich auch bei größerer Kraftanstrengung nicht verwindet oder auch nur knarzende Geräusche von sich gibt.

Fraglich ist dagegen, wie lang die leicht spiegelnde Rückseite ihren Glanz behält. Optisch ist das ein durchaus gelungener Aufheller, doch nach wie vor gelten glänzende Oberflächen als empfindlich. Insgesamt jedoch macht das LG-Flaggschiff jedoch einen sehr guten Eindruck hinsichtlich der Verarbeitungsqualität.

Preis und Leistung, das sind nicht nur bei uns die Punkte, die im Fazit die Grundlage für die abschließende Bewertung liefern. Wir meinten beispielsweise bei der GeForce GTX 780, dass sie zweifelsohne eine beeindruckende Leistung abliefert, Nvidia sich das aber auch gut bezahlen lässt. Mag sein, dass wir deshalb etwas zu hart zur kleinen Schwester der Titan waren. Immerhin wird es auch viele geben, die nicht eine rund 600 Euro teure Single-GPU-Karte sehen sondern eine nur unwesentlich langsamere Alternative zur Titan, die dafür aber 300 Euro weniger kostet.

Wie gesagt, wir betrachten das meist aus der umgekehrten Perspektive und waren daher vielleicht ein wenig härter als andere zur GeForce GTX 780. Sicher, wenn man Nvidias erste Karte der neuen 700-Familie der Titan gegenüber stellt, dann sieht die GTX 780 nach einer durchaus sinnvollen Alternative aus. Andererseits liefert auch eine Radeon HD 7970 GHz Edition, die man ab rund 340 Euro mit brauchbarer Kühllösung im Onlinehandel findet, sehr respektable Ergebnisse in aktuellen Spielen – und bringt ein sehr ansprechendes Spielebundle mit, das dem Zielpublikum einen deutlichen, ehrlichen Mehrwert liefert. Mit der Preis-Leistungs-Brille scheint das Pendel dann deutlich Richtung AMD auszuschlagen.

Bekommt man für den Aufpreis von rund 260 Euro eine Karte, mit der man in Auflösungen und Detailstufen spielen kann, die AMDs Single-GPU-Spitzenmodell nicht packt? In einigen Fällen definitiv!

Gleichzeitig schielten mit wir einem Auge aber auch schon gespannt in die Zukunft, denn wir wussten bereits, dass wir es schon sehr bald mit einer anderen Karte zu tun haben würden: der GeForce GTX 770. Sie basiert auf der gleichen GK104-GPU, die vor inzwischen einem guten Jahr mit der GeForce GTX 680 ihr Debüt gab, und soll der Radeon HD 7970 GHz Edition Paroli bieten. Zudem, so hatten wir erwartet, würde Nvidia seine Preise generell nach unten korrigieren. Immerhin kostete eine GeForce GTX 680 mehr als die schnellere Radeon HD 7970 und konnte diese nur in Mehrkarten-Konstellationen schlagen.

Eine schnellere, preiswertere GeForce GTX 770 solle auch als Einzelkarte problemlos die Radeon HD 7970 GHz Edition schlagen. Noch gespannter waren wir aber darauf, welches Potenzial die Karte im SLI-Verbund würde bieten können. Dass zwei GK104-GPUs im Doppelpack eine sehr ansprechende und vor allem gleichmäßige Performance liefern und die GeForce GTX 690, die wiederum schneller als eine Titan ist, hinter sich lassen, wissen wir spätestens seit unserem Artikel Ein zweiter Blick auf die GeForce GTX 680: SLI, 5760×1080 und Overclocking. Ein GTX-770-Duo zu einem von uns damals noch angenommenen Preis von rund 450 Euro pro Stück sollten also eine hervorragende Wahl sein, um bei einer Auflösung von 2560×1440 oder sogar 5760×1080 zu spielen – und würden dabei sogar nicht einmal mehr kosten als die mächtige Titan!

GK104: Auch in der GeForce GTX 770 wieder mit dabei

Bei der GK110-GPU stand Nvidia einiges an Spielraum zur Verfügung, um durch Kniffe und Verfeinerungen die GeForce GTX Titan, die GTX 780 und mögliche zukünftige GPUs zu erschaffen. Immerhin basieren die bisherigen Modelle auf einem riesigen Chip mit 7,1 Milliarden Schaltkreisen, bei dem 12 oder 14 der 15 verfügbaren Streaming Multiprocessors aktiviert sind.  

Bei der GK104-GPU, dem Herzstück der GeForce GTX 680, sieht das anders aus, denn die tritt bereits im Vollausbau an. Der Chip enthält vier Graphics Processing Clusters (GPC) mit jeweils zwei SMX, von denen alle aktiv sind. Wie schafft es Nvidia also, aus dem gleichen Chip nun eine GeForce GTX 770 zu machen? Dazu setzt die Firma an verschiedenen Punkten die Stellschräubchen an. Erstens werden die Taktraten der GK104-GPU erhöht. Die GeForce GTX 770 läuft mit einem Basistakt von 1.046 MHz, wo es bei der GeForce GTX 680 noch 1.006 MHz waren. Der Boost-Takt Steigt von 1.058 auf 1.085 MHz. Zweitens liefert das 256-Bit-Speicherinterface jetzt mehr Bandbreite. Bei der GeForce GTX 680 verbaute Nvidia 2 oder 4 GB GDDR5-RAM mit einem Takt von 1.502 MHz. Die GeForce GTX 770 verfügt über die gleichen Varianten, betreibt ihren Speicher aber mit 1.752 MHz oder 7 Gb/s.

Mehr zu GK104 und GK110

Den GK104-Chip haben wir bereits in unserem Artikel GeForce GTX 680 2GB im Test: Kepler schickt Tahiti auf die Insel detaillierter beschrieben. Wer mehr Informationen zu dieser GPU und ihrer Architektur sucht, wird dort fündig. Wer mehr über den GK110-Prozessor wissen möchte, der die GeForce GTX Titan und 780 antreibt, dem empfehlen wir unseren Beitrag Nvidia GeForce GTX Titan 6 GB: GK110 auf einer Gamer-Karte.

Die weiteren Eckpunkte der 3,54 Milliarden Transistoren großen GPU bleiben unverändert. Hier noch einmal die Highlights: Die GK104-GPU enthält acht SMX-Blöcke mit je 192 CUDA-Cores und 16 Textureinheiten. Unterm Strich macht das also 1.536 CUDA-Cores und 128 Textureinheiten. Jede der vier ROP-Partitionen kann pro Takt einen 32-Bit Integer-Pixel ausgeben, in Summe also 32. Und ein Quartett von 64 Bit breiten Speicherinterfaces ergibt zusammen eine 256 Bit breite Anbindung des RAM.

GeForce GTX 770: Wieder schick in Schale!

Wir geben es zu – wir sind verwöhnt. Die letzten drei Nvidia-Karten, die wir in unserem Testlabor begrüßen durften, traten alle in Nvidias neuem Look an, der sich durch die Aluminiumverschalung, das Polykarbonatfensterchen mit Blick auf den beeindruckenden Kühler und das hintergrundbeleuchtete GeForce-Logo auszeichnen. Letzteres lässt sich sogar über eine API, die Nvidia seinen Partnern zur Verfügung stellt, steuern. Im direkten Vergleich wirken die GeForce GTX 680 und die Radeon HD 7970 im Vollplastikkleid, die beide ebenfalls um die 400 Euro kosten, sehr … gewöhnlich.

Optisch gleicht die GeForce GTX 770 der 780, die ihrerseits wie eine Titan aussieht. Wir haben es auch hier mit der 26,7 cm messenden Platine, der Metallhülle und dem Radiallüfter zu tun, der die warme Abluft am Kartenende direkt aus dem Gehäuse befördert.

Bedenkt man, dass Nvidia die TDP der GeForce GTX 770 mit 230 Watt angibt, also 20 Watt weniger als bei der GeForce GTX 780 und der Titan, dann scheint der Kühler auf einer Karte wie der GTX 770 etwas überdimensioniert. Für Overclocker, die aus ihrer GK104-GPU mit ein wenig Mehrtakt das letzte Quäntchen Performance herausholen wollen, sind das eigentlich gute Grundvoraussetzungen. Aber dazu kommen wir nachher noch.

Geringere TDP hin oder her, trotzdem benötigt die Karte immer noch einen 8-Pin- und einen 6-Pin-Stromanschluss, um ihren Stromhunger zu stillen. Nvidia empfiehlt mindestens ein Netzteil der 600-Watt-Klasse.

Bei den Display-Anschlüssen hat sich nichts geändert. Auch die GeForce GTX 770 kann dank zweier Dual-Link DVI-Ports, einem HDMI-Anschluss und einem DisplayPort bis zu vier Displays gleichzeitig mit Pixeln versorgen.

Ein USB-Stick für 700 Euro, wo gibt es denn so was? Bei jedem Versandhändler, der den 512 GB großen Kingston DataTraveler HyperX Predator anbietet, den teuersten Speicherstift, den wir bis dato durch unseren Testparcours geschickt haben. Der 64 GB große Sandisk Cruzer Extreme, verdienter Sieger unter immerhin 31 getesteten USB-Sticks, kostet im Vergleich dazu gerade einmal 50 Euro, also weniger als ein Zehntel dessen, was man für den Kingston investieren muss.

Der saftige Aufpreis für den DataTraveler HyperX Predator begründet sich seitens des Herstellers in erster Linie durch die beeindruckende Speicherkapazität, die derzeit mit 512 GB ihresgleichen sucht. Kingston will künftig sogar eine 1-TB-Ausgabe des gleichen Modells auf den Markt bringen, doch vorerst steht nur die 512-GB-Version zur Auswahl, die unter der Bezeichnung DTHXP30/512GB läuft.

Ein USB-3.0-Anschluss vorausgesetzt soll der Kingston-Bolide eine sequenzielle Lesegeschwindigkeit von bis zu 240 MB/s erreichen und beim sequenziellen Schreiben auf maximal 160 MB/s kommen. Damit wäre der DataTraveler HyperX Predator vom Datendurchsatz betrachtet zwar sehr schnell unterwegs, aber keineswegs flinker als beispielsweise der Sandisk Cruzer Extreme.

In punkto Schreibleistung würde der DataTraveler HyperX Predator allerdings ganz vorne mitspielen, denn auf deutlich dreistellige Werte kommen hier bislang nur eine Handvoll USB-Sticks. Im jüngsten Vergleichstest waren das neben dem Sandisk Cruzer Extreme mit dem Kingston DataTraveler HyperX 3.0, dem Mach Xtreme MX-ES, dem Patriot Supersonic Magnum und dem Transcend JetFlash 780 lediglich vier weitere Speicherstifte. Was der DataTraveler HyperX Predator zu leisten imstande ist und ob er ausgehend davon seinen stolzen Preis tatsächlich wert ist, zeigt unser Test.

Berlin – 29. Mai 2013 – Cooler Master, einer der führenden Hersteller von Gehäusen, Kühllösungen, Gaming-Produkten, Mobil- und Computerzubehör, kündigt heute ein innovatives neues Folio für das iPad mini und das iPad der 2., 3. und 4. Generation an – das Yen Folio. Der stylishe Rundumschutz lässt sich nicht nur zu einem Dreieck aufrollen, sondern lässt sich auf vier verschiedene Arten falten. Der User erhält dadurch eine noch größere Auswahl an verschiedenen Betrachtungs- und Arbeitswinkeln für die neuereniPads sowie das iPad mini. Die Faltlinien haben die Form des japanischen Währungszeichens ¥ – Yen. Im Handel sind das neuartige Folio für € 29,99 (iPad mini) und € 34,99 (iPad 2, 3 und 4) ab sofort erhältlich.

Sicherer und stylisher Schutz
Dank des smarten Schutzes mit Wake-Up-Funktion lässt sich das Tablet in Stand-by versetzen oder wieder aktivieren. Die ausgeschnittenen Bereiche für Anschlüsse, Kamera und Bedienelemente erhalten die optimale Konnektivität und Funktionalität. Dank des modernen Carbon-Looks vieler angesagter Farbvariationen, ist das Yen Folio nicht nur funktionell, sondern bietet auch ein stilvolles Exterieur.
 
Erhältliche Farben: Midnight Black, Sky Blue, Silver White, Golden Bronze und Charcoal Grey.
 
Weitere Informationen zum Cooler Master Yen Folio finden Sie unter:
http://www.coolermaster-mobile.com/de/ipad/yen-folio

Verfügbarkeit: sofort
 
Preise
Yen Folio für iPad mini: € 29,99
Yen Folio für iPad 2, 3 und 4: € 34,99
 
Eigenschaften

  • Einzigartiger Carbon-Look mit gummiertem Rahmen
  • Vier Betrachtungswinkel: 80° oder 60° für Videobetrachtung, 45° zum Lesen und 10° zum Tippen
  • Magnetische Abdeckung zur Aktivierung des Stand-By-Modus und zur Reaktivierung
  • Der robuste Schutz wehrt Staub, Flüssigkeit und harte Gegenstände ab.
  • Vier Farben zur Auswahl: Midnight Black, Sky Blue, Silver White, Golden Bronze und Charcoal Grey

Spezifikationen

  Yen Folio für iPad mini Yen Folio für iPad 2, 3 und 4
Modell C-IPMF-CTYF-KK / C-IPMF-CTYF-BB
C-IPMF-CTYF-SS / C-IPMF-CTYF-ZZ
C-IPMF-CTYF-DD
C-IP4F-CTYF-KK / C-IP4F-CTYF-BB
C-IP4F-CTYF-SS / C-IP4F-CTYF-ZZ
C-IP4F-CTYF-DD
Farben Midnight Black, Sky Blue, Silver White, Golden Bronze und Charcoal Grey Midnight Black, Sky Blue, Silver White, Golden Bronze und Charcoal Grey
Material Polycarbonat, Mikrofaser und Polyurethan Polycarbonat, Mikrofaser und Polyurethan
Maße 203 x 139 x 12 mm 245 x 193 x 13 mm

Über Cooler Master
Cooler Master wurde 1992 mit dem Ziel die branchenweit besten Kühllösungen anzubieten gegründet. Seither entwickelt das Unternehmen ununterbrochen innovative Produkte von höchster Qualität. Die Produktlinien von Cooler Master umfassen Kühler, Lüfter, Gehäuse, Netzteile, Gaming-Produkte, Mobil- und Computerzubehör. Cooler Master bietet ausgehend von der Firmenzentrale in Taiwan und in regionalen Niederlassungen in Europa, Amerika und Asien einen unübertroffenen Service für seine Kunden. Für weitere Informationen besuchen Sie uns bitte unterwww.coolermaster.de.

Als Fractal Design mit dem Arc vor ungefähr zwei Jahren einen für etwa 80,- Euro erhältlichen und damit erschwinglichen Midi-Tower in sehr zurückhaltender Optik auf  den Markt brachte, stieß der Hersteller auf viel Gegenliebe und Begeisterung seitens der Käuferschaft und erlangte wohlwollende Reaktionen seitens der Fachpresse. Dies war nicht nur dem Preis geschuldet. Das Gehäuse konnte zudem in vielen funktionellen Detailfragen überzeugen, die zu diesem Zeitpunkt bei weitem noch nicht zum vorauszusetzenden Standard gehörten, wie z.B. Kabelmanagement, umfangreiche Staubschutzfilterung, integrierte Lüftersteuerung und modulare Festplattenkäfige.

Prinzipiell befindet sich das Arc auch nach zwei Jahren noch auf der Höhe der Zeit. Es erfährt jedoch in Form des aktuellen Fractal Design Arc Midi R2 vor allem eine kleine optische Modifikation in Form eins großen, seitlichen Sichtfensters, das die vom Arc bekannte seitliche Lüfteraufnahme ersetzt. Bei ansonsten relativ identischem Aufbau zum Vorgänger finden sich eine Reihe von technischen Detailverbesserungen wie der Möglichkeit zur Montage von 2,5“ Laufwerken an der Rückseite des Mainboardtrays, die Möglichkeit, einen 240-mm-Radiator beziehungsweise eine entsprechende Kompaktwasserkühlung nicht nur unter dem Gehäusedeckel, sondern auch an der Innenseite der Front verschrauben zu können und vor allem eine sinnvollere Positionierung der integrierten Lüftersteuerung.

Da das neue Modell für nur wenige Euro mehr über die virtuelle Ladentheke wandert als der Vorgänger, kann man die mutmaßlichen Verbesserungen zum Nulltarif also durchaus mitnehmen. Wir werfen einen Blick auf die Details und zeigen, in welchen Bereichen die Produktpflege dem Arc Midi R2 Vorteile bringt.

Über Festplatten-Technologien muss sich HGST, vormals Hitachi Global Storage und jetzt ein Unternehmensteil von Western Digital, nicht belehren lassen. Als Hitachi und IBM ihre Laufwerkssparten im Jahr 2002 zusammenlegten, holte sich Hitachi nämlich keinen geringeren als den Erfinder der Festplatte an Bord. Seit dieses Medium Mitte der 50-er Jahre seine Marktreife erreichte, hat es eine sehr beachtliche Karriere hingelegt, unter anderem was Speicherkapazität, Speicherdichte, Drehzahl und nicht zuletzt die Übertragungsgeschwindigkeit angeht.

Welche beeindruckende Evolution die Festplatte allein in den letzten 20 Jahren hingelegt hat, zeigt Beispiel die Maxtor 7040A. Als die 40 MB große 3,5-Zoll-Festplatte 1991 auf den Markt kam, beeindruckte sie mit einer für die damalige Zeit beachtlichen Speicherkapazität. Die sorgt heute aber bestenfalls für Belustigung, denn aktuelle 3,5-Zoll-Festplatten speichern bis zu 4 TB, also 100.000-Mal mehr als der Maxtor-Oldie. Nebenbei sei angemerkt, dass sich die Geschwindigkeit nicht in gleichem Maße entwickelt hat wie die Speicherkapazität – warum, das zeigen wir in einem anderen Artikel.

Brendan Collins, VP Produktmarketing HGSTBrendan Collins, VP Produktmarketing HGST

Zurück ins Heute: Festplatten decken ein breites Einsatzspektrum ab und laufen gleichermaßen in Desktop-PCs, Notebooks, in Unternehmens-Servern sowie in Cloud-Rechenzentren. Doch wie entwickelt sich der Festplatten-Bereich angesichts starker Konkurrenten wie der SSD weiter und welche Pläne haben die Hersteller in der Schublade? HGST hat uns dazu im Rahmen seiner Future Pulse-Roadshow über Markttendenzen und Strategien informiert und uns außerdem einen Einblick in die HGST-Roadmap für neue HDD-Technologien gewährt. Die interessantesten Punkte der von Brendan Collins, Vice President für Produktmarketing bei HGST, gehaltenen Präsentation stellen wir Ihnen im Folgenden vor.

Die Atom-Pozessoren hatten es schon immer besonders schwer und wurden als stromsparende aber schnarchlahme Netbook-Prozessoren lange belächelt. Die ersten auf der Silverthorne-Prozessor-Architektur aufsetzenden Modelle mit ihren beinahe niedlichen Einkern-CPUs unterschritten zwar die 1-Watt-Marke; allerdings sorgte der ihm zur Seite gestellte Controller-Hub dafür, dass der Plattformverbrauch wieder auf etwa 5 Watt kletterte. Die leistungsstärkeren Varianten der Diamondville-Serie trieben den Stromverbrauch dann sogar noch höher. Auch das lag wieder an einer unglücklichen Verpaarung mit einem hungrigen Chipsatz, denn allein der damals nicht mehr taufrische 945GC verbrauchte schon etwa 22 W.

Dementsprechend selten fielen schmeichelhafte Erwähnungen des Prozessors aus. Vor allem die Saft- und Kraftlosigkeit von Intels Einsteiger-Prozessor sorgte immer wieder für negative Bewertungen, auch wenn bei einzelnen Entwicklungsschritt(ch)en Verbesserungen konstatiert wurden. Zumeist hieß es: Atom im Desktop: Lieber nicht. Und selbst heute, fünf Jahre nach Intels ersten Bemühungen mit den ARM-basierten SoCs mithalten zu können, fragt man sich in der Branche, ob der Hersteller jemals in der Lage sein wird, eine passable Leistung mit einem niedrigen Energieverbrauch zu kombinieren, um in den gerade so trendigen Smartphones und Tablets zu gefallen. 

Doch dank systematischer Fortschritte sahen wir uns im vergangenen Jahr zu einer Neubewertung der Situation gezwungen, und einer unserer Kollegen bei Tom’s Hardware USA machte die damals mutige Vorhersage, Intel könne Qualcomm binnen drei Jahren überholen–und das obwohl der Hersteller zu diesem Zeitpunkt noch keinen einzigen Partner für seine damaligen Smartphone SoCs hatte gewinnen können. Seine Analyse stützte er dabei auf die Erwartung, Intel würde 32-nm-Prozessoren mit In-Order-Architektur liefern, die in Sachen Performance konkurrenzfähig wären, sowie die von Intel damals kommunizierte Fertigungs-Roadmap. Außerdem schien absehbar, dass man auf eine Out-of-Order-Architektur umstellen würde.

Vor kurzem hat Intel nun weitere Details zur kommenden Atom-Generation bekannt gegeben, von der bislang praktisch nur der Codename durchgesickert war: Silvermont. Kann die neue CPU tatsächlich alles halten, was Intel verspricht, wird die Chipschmiede tatsächlich einen SoC im Programm haben, der mit der ARM-Konkurrenz mithalten kann. Dann würde man bei Messungen wie in unserem Analyseartikel ARM gegen x86: Warum der Intel Atom das Effizienzrennen gewinnt nicht mehr nur im Nachkommastellenbereich punkten müssen, um den Effizienzvorteil aufzuzeigen – er läge auf der Hand.

Wer die Entwicklung der Atom-Familie der letzten fünf Jahre verfolgt hat, der weiß dass Intel die grundlegende Mikroarchitektur seitdem kaum modifiziert hat. Zwar wurden die Strukturbreite, in der die Prozessoren gefertigt wurden, von 45 nm auf 32 nm reduziert, die einzelnen Kerne – unter dem Codenamen Saltwell geführt – basierten jedoch weiterhin auf dem ursprünglichen Bonnell-Design. Damit blieb nicht nur die Befehlsausführung nach dem In-Order-Prinzip bestehen, sondern auch der Ansatz, dass ein möglichst niedriger Stromverbrauch wichtiger als eine steigende Performance ist.

Mit Silvermont ändert sich das, denn das neue Design verfügt über eine deutlich komplexere Engine, die Befehle Out-Of-Order umsetzen kann. Zusammen mit einer weiteren Reduzierung der Strukturbreite auf nun 22 nm hat Intel einen signifikanten Fortschritt erzielt, der diesmal allerdings kaum fünf erneute Jahre des Stillstands einleiten wird. Der Hersteller hat erhebliche Kräfte mobilisiert um die Entwicklung seiner “Light-Architektur” voranzutreiben und verspricht nun jährliche Aktualisierungen. Der nächste Schritt soll Airmont werden, der in einem 14-nm-Prozess gefertigt wird und so nicht zuletzt Intels Fertigungskompetenzen unterstreicht, die mit den 22-nm-Chips schon jetzt deutlich vor der Konkurrenz liegt.

Der Hersteller unterteilt dabei die einzelnen Veränderungen in drei große Kategorien: Maßnahmen, die zur Steigerung der Leistungsfähigkeit geführt haben, Veränderungen, mit denen ein geringerer Stromverbrauch erreicht worden ist und schließlich die Optimierungen im Fertigungsprozess.

Sony Alpha 57: Mit SLT-Technik noch eine dSLR?Sony Alpha 57: Mit SLT-Technik noch eine dSLR?

Im täglichen Job als Redakteur gehört eine anständige Kamera zur Grundausstattung wie ein PC samt Office-Suite und Internetanschluss. Testgeräte wollen aus den verschiedensten Perspektiven abgelichtet werden. Vergleichsaufnahmen zu den meist mäßigen Fotos von Smartphone- und Tablet-Cams werden gebraucht. Und natürlich fotografiere ich auch privat – erst recht seit der Geburt meiner beiden Kinder. Da sich gerade erst wieder Nachwuchs eingestellt hat, kam der Wunsch nach einer neuen Kamera auf. Dabei bin ich bereits im Besitz einer – für meine Ansprüche – völlig ausreichenden Kamera. Die Nikon D40, ihres Zeichens eine Einsteiger-DSLR mit etwa sieben Jahren Nutzungszeit auf dem Buckel, zeigte noch keine ernsthaften Verschleißerscheinungen – trotz des aktuellen Auslösezählerstandes von 53.443 Bildern. Dennoch sagte ich mir: „Sechs Megapixel sind nicht mehr wirklich up-to-date, und filmen kann ich mit der D40 auch nicht. Vielleicht gibt es ja für kleines Geld was Besseres?“. Dabei war die Nikon D40 seinerzeit ein echtes Schnäppchen. Zusammen mit dem Kit-Objektiv mit 18–55 Millimeter Brennweite kostete die Kamera 2006 nur rund 550 Euro.

Das Kit-Objektiv.Das Kit-Objektiv.Ich durchstöberte also das Netz, las in einschlägigen Foren und war nach zahlreichen durchwachten Nächten so schlau als wie zuvor. Was ich wusste: Gute Kameras bauen, das können die renommierten Hersteller allesamt. Ich liebäugelte erst mit einer der derzeit wohl beliebtesten DSLRs der unteren Mittelklasse, der Canon EOS 650D. Doch dann las ich von Sonys SLT-Technik. SLT steht für „Single Lens Translucent“ oder einfacher bzw. auf Deutsch: teildurchlässiger Spiegel. Damit sollen die SLT-Kameras von Sony einen Vorteil beim Live-View-Bild haben, was die Geschwindigkeit der Fokussierung betrifft. Und auch bei Videos soll sich diese Technik positiv auswirken. Auf der anderen Seite gibt es keinen optischen, sondern einen elektronischen Sucher. Zudem geht ein Teil des einfallenden Lichts verloren, da dieses für den Sucher und das Live-View-Bild genutzt wird. Im Vergleich zu traditionellen DSLRs mit wegklappendem Spiegel – die teildurchlässigen Spiegel bei Sony sind feststehend – bedeutet das einen Lichtverlust von etwa einer Drittel Blendenstufe.

Langer Rede kurzer Sinn: Ich habe mich letztendlich für die Sony Alpha 57 (SLT-A57M) mit dem Sony-eigenen Kit-Objektiv SAL18135 DT 18-135 mm F3,5-5,6 SAM entschieden. Dieses klassische Reisezoom deckt damit meine Anforderungen an Brennweiten komplett ab, ist aber sicher nicht so lichtstark wie kleinere Zooms oder gar eine Festbrennweite. Der Preis im Internet: rund 950 Euro. Und noch eines vorweg: Ich bin sicher kein Foto-Profi. Dieser Artikel soll mehr das subjektive Empfinden eines Nutzers wiederspiegeln, denn einen professionellen Test darstellen. Das können andere viel besser.

Jetzt holt Gigabyte jetzt mit Nvidias Erlaubnis bei der GeForce GTX 780 genau das nach, was man der Firma seinerzeit bei der GeForce Titan noch strikt untersagt hatte: eine extrem leistungsstarke Kühlung und etwas mehr Takt ab Werk. Beim hierbei verwendeten 450-Watt-Kühler handelt es sich nämlich um exakt das Produkt, was immer mal wieder durch die Medien huschte und leider nie konkret wurde. Nun darf man es sogar ganz legal kaufen. Erinnern wir uns noch einmal kurz an den gestrigen Launchartikel zur GeForce GTX 780 und betrachten später die Positionierung der neuen Gigabyte-Karte zur GeForce Titan und der GeForce GTX 780 im Referenzdesign

Einen Titanen als Vorspeise? Mit der übertakteten GeForce GTX 780 könnte dies durchaus gelingenEinen Titanen als Vorspeise? Mit der übertakteten GeForce GTX 780 könnte dies durchaus gelingenWir wissen ja bereits aus dem Launchartikel, dass durch den GPU-Boost 2.0 nunmehr das Thermal-Target das Maß der Dinge ist, was letztendlich auch höhere Verlustleistungen ermöglicht – immer vorausgesetzt, dass die Temperatur auch niedrig genug bleibt. Am Ende ist es also wie mit den Triebwerken im Motorsport, bei denen oft genug der Hubraum durch die Regeln begrenzt oder beschnitten ist und man die nötige Mehrleistung über höhere Drehzahlen gewinnen muss. Allerdings stellt sich spätestens an dieser Stelle eine berechtigte Frage: Kann man die ca. 14% weniger Shader- und Textureinheiten im Vergleich zur GeForce Titan einfach durch mehr Takt wieder kompensieren? Die GeForce GTX 780 als Referenzkarte hat dieses knapp Ziel verfehlt, aber vielleicht geht ja mit besserer Kühlung mehr?

GeForce GTX Titan GeForce GTX 690 GeForce GTX 780 Gigabyte
GeForce GTX 780 OC
Shader 2,688 2 x 1,536 2,304 2,304
Textureinheiten 224 2 x 128 192 192
Full Color ROPs 48 2 x 32 48 48
GPU-Takt 836 MHz 915 MHz 863 MHz+ 954 MHz+ (Werks-OC)

1005 MHz+ (Manuelles OC)

Texturfüllrate 187.5 Gtex/s 2 x 117.1 Gtex/s 165.7 Gtex/s 183.2 Gtex/s
Speichertakt 1,502 MHZ 1,502 MHz 1,502 MHz 1,502 MHz
Speicherbus 384-bit 2 x 256-bit 384-bit 384-bit
Speicherdurchsatz 288.4 GB/s 2 x 192.3 GB/s 288.4 GB/s 288.4 GB/s
Speichermenge 6 GB GDDR5 2 x 2 GB GDDR5 3 GB GDDR5 3 GB GDDR5
Die-Größe 551 mm2 2 x 294 mm2 551 mm2 551 mm2
Transistoren (Milliarden) 7.1 2 x 3.54 7.1 7.1
Strukturbreite 28 nm 28 nm 28 nm 28 nm
Stromanschlüsse 1 x 8-pin, 1 x 6-pin 2 x 8-pin 1 x 8-pin, 1 x 6-pin 1 x 8-pin, 1 x 6-pin
max. Stromverbrauch 250 W 300 W 250 W 250 W

Klappt das mit der GTX Titan oder nicht? Lassen wir uns einfach mal überraschen und betrachten als Erstes die neue Karte samt Kühler im Detail.

Es ist schon lustig, wenn man sich so anschaut, wie sich manch Fazit zu vergangenen Grafikkartenlaunches heute liest. Als Nvidia die GeForce GTX 680 vorstellte, lag AMDs Preisempfehlung für die Radeon HD 7970 noch bei 500 Euro, und das GK104-Board machte dem damaligen AMD-Flaggschiff das Leben mächtig schwer. Die Nvidia-Karte war schneller, kühler, leiser und kleiner als AMDs Spitzenmodell. Da fiel es uns nicht besonders schwer, die GeForce GTX 680 zu empfehlen. Und bis Nvidia die beinahe gleich schnelle GeForce GTX 670 für noch weniger Geld an den Start brachte, blieb die GeForce GTX 680 auch eine hervorragende Wahl.

Heute findet man eine Radeon HD 7970 ab rund 330 Euro, während die GeForce GTX 680 in einschlägigen Online-Shops ab 420 Euro als verfügbar gelistet ist. Die Ausgangssituation hat sich also komplett umgekehrt! Zudem hat AMD kräftig am Treiber gefeilt, sodass die Radeon HD 7970 ihre GeForce-Rivalin heute schlägt – und das zum niedrigeren Preis. Sicher, dafür muss man bei AMD mit einer höheren Lautstarke und einem höheren Stromverbrauch leben, aber dafür bekommt man bei den Tahiti-Boards auch eine Rechenleistung in allgemeinen Anwendungen, die der Gaming-Geschwindigkeit in nichts nachsteht. Wenn man also nicht gerade mit einer Multi-GPU-Konfiguration liebäugelt, ist die Radeon HD 7970 eine kluge Wahl.

Wer mit einer Karte mehr Grafikpower erreichen will, muss deutlich tiefer in die Tasche greifen – unter 900 Euro geht hier nichts. Egal ob die Karte der Wahl GeForce GTX Titan, GeForce GTX 690 oder AMD Radeon HD 7990 heißt, erst wenn man mehr als doppelt so viel Geld in die Hand nimmt wie für eine einzelne Radeon HD 7970, bekommt man auch wirklich merkliche Mehrperformance. Damit vergrätzen sich AMD und Nvidia gleichermaßen potentielle Kunden, die durchaus gewillt wären, ein wenig mehr in ihre Grafikausrüstung zu investieren – aber der Schritt von rund 400 auf mindestens 900 Euro ist dann schon ein wenig schwer zu verdauen.

GK110 findet in der GeForce GTX 780 ein neues Zuhause

Mit der GeForce GTX 780 versucht Nvidia etwas gegen diese riesige preisliche Lücke zwischen der GeForce GTX 680 und den superteuren High-End-Boliden zu tun. Auch wenn der Name einen neuen Chip vermuten ließe, ist die GeForce GTX 780 eigentlich ein Titan-Derivat und basiert auf der gleichen riesigen GK110-GPU.

Natürlich kommt auf der GeForce GTX 780 eine etwas abgespeckte Variante der GK110-GPU zum Einsatz um der Titan nicht das Wasser abzugraben. Wie wir wissen, enthält eine GK110-GPU im Vollausbau 15 Streaming Multiprocessors (SMX), von denen jeder 192 CUDA Cores und 16 Textureinheiten umfasst. Bei der GeForce GTX Titan sind davon noch 14 SMX aktiv, und die Karte bringt es auf 2.688 CUDA Cores und 224 Textureinheiten. Noch weiter geht die GK110-Verschlankung bei der GeForce GTX 780, wo noch 12 SMX, 2.304 CUDA Cores und 192 Textureinheiten übrig bleiben.

Je nachdem, welche Karte man bekommt, verteilen sich die 12 SMX-Blöcke entweder auf vier oder fünf Graphics Processing Clusters (GPC). Der GK110-Chip ist mit seinen 7,1 Milliarden Transistoren alles andere als klein, und ein solches GPU-Monster herzustellen ist keine leichte Aufgabe. So kommt es, dass an verschiedenen Stellen Defekte auftreten. Nvidia kann also keine exakte Konfiguration für jede einzelne GK110-GPU, die sich auf einer GTX 780 findet, angeben. Stattdessen bleibt man eben bei der allgemeineren aber ebenso aussagekräftigen Angabe, dass die GPU mit 12 aktiven SMX antritt.

Nvidias Einschnitte wirken sich so gut wie gar nicht auf die Taktraten aus. Der Basistakt liegt genau wie bei der GTX Titan bei 863 MHz, doch beim GPU Boost beschleunigt die GTX 780 auf bis zu 900 MHz, wo es bei der großen Schwester offiziell nur 876 MHz sind.

Das Render-Back-End der GK110-GPU bleibt hingegen vollständig erhalten, womit sechs ROP-Partitionen zur Verfügung stehen, die jeweils über acht 32-Bit-Pixel pro Takt  ausgeben können. Nvidia spricht deshalb von 48 ROP-Einheiten. Zudem bindet ein Sextett von 64-Bit-Speichercontrollern den Grafikspeicher mit 384 Bit an. Doch wo Nvidia die Titan mit 6 GB GDDR5-Speicher ausstattete, hat die GTX 780 nur 3 GB an Bord. Hier wie dort läuft er aber mit 1.502 MHz und liefert in der Spitze einen Durchsatz von 288,4 GB/s.

Trotz aller Übereinstimmungen gibt es auch einen nicht unwichtigen Unterschied zur Titan: die Rechenleistung in allgemeinen Anwendungen. Wie wir bereits in unserem Artikel Nvidia GeForce GTX Titan 6 GB: GK110 auf einer Gamer-Karte berichteten, lässt sich bei Nvidias Single-GPU-Flaggschiff per Treiber die Performance bei Berechnungen in doppelter Genauigkeit erhöhen. Dann laufen die entsprechenden FP64-Einheiten mit voller Geschwindigkeit, doch im Gegenzug muss man auf den GPU Boost verzichten. Das machte die GeForce GTX Titan für Entwickler, die mehr Rechenleistung brauchten als andere Nvidia-GPUs liefern konnten, zu einer echten Alternative. In diesem Modus kann sie sogar mit AMDs Tahiti-Chips konkurrieren.

Auch die GeForce GTX 780 bringt 64 FP64-CUDA-Cores pro SMX mit. Die Treiberoption, um deren volle Dual-Precision-Geschwindigkeit freizuschalten, fehlt hier allerdings, weshalb die Performance bei doppelter Genauigkeit bei nur 1/24 der FP32-Leistung liegt. In Sachen Fließkommaleistung sollte die Radeon HD 7970 die Nase also deutlich vorn haben, da der FP64-Durchsatz künstlich beschränkt ist.

GeForce GTX Titan GeForce GTX 690 GeForce GTX 780 GeForce GTX 680 Radeon HD 7970 GHz Ed.
Shader 2.688 2 x 1.536 2.304
1.536 2.048
Textureinheiten 224 2 x 128 192
128 128
Full Color ROPs 48 2 x 32 48
32 32
GPU-Takt 836 MHz 915 MHz 863 MHz
1.006 MHz 1.000 MHz
Texturfüllrate 187,5 Gtex/s 2 x 117,1 Gtex/s 165,7 Gtex/s
128,8 Gtex/s 134,4 Gtex/s
Speichertakt 1.502 MHZ 1.502 MHz 1.502 MHz
1.502 MHz 1.500 MHz
Speicherbus 384-bit 2 x 256-bit 384-bit
256-bit 384-bit
Speicherdurchsatz 288,4 GB/s 2 x 192,3 GB/s 288,4 GB/s
192,3 GB/s 288 GB/s
Speichermenge 6 GB GDDR5 2 x 2 GB GDDR5 3 GB GDDR5
2 GB GDDR5 3 GB GDDR5
Die-Größe 551 mm2 2 x 294 mm2 551 mm2 294 mm2 365 mm2
Transistoren (Milliarden) 7,1 2 x 3,54 7,1
3,54 4,31
Strukturbreite 28 nm 28 nm 28 nm
28 nm 28 nm
Stromanschlüsse 1 x 8-pin, 1 x 6-pin 2 x 8-pin 1 x 8-pin, 1 x 6-pin 2 x 6-pin 1 x 8-pin, 1 x 6-pin
max. Stromverbrauch 250 W 300 W 250 W 195 W 250 W
Straßenpreis ab 890 Euro ab 880 Euro 640 Euro (UVP)
ab 420 Euro ab 370 Euro

Namensspielchen

Nun kann man sich fragen, warum Nvidia die Karte dann überhaupt GeForce GTX 780 genannt hat. Immerhin ist sie ganz klar von der Titan abgeleitet und basiert auf der gleichen Kepler-Architektur, die auch den Großteil der GTX-600-Serie antreibt. Etwas Ähnliches hat Nvidia schon bei der GTX-500-Familie getan, die auf der Fermi-Architektur der GTX-400-Karten aufbaute. Allerdings handelte es sich bei den 500ern um überarbeitete GPUs, die mehr Performance bei geringerer Leistungsaufnahme lieferten und dementsprechend viel effizienter waren.

Nvidia wollte uns dazu nur sagen, dass ein solcher Schritt bei der GeForce GTX 780 nicht nötig war, da man ja gerade erst die ersten Desktop-Boards mit GK110-Chip vorgestellt hat. Zudem ist in der GTX-600-Familie nicht mehr viel Platz für neuere und schnellere Modelle. Es wird sich zeigen, wie Nvidia die 700-Familie in Bezug auf Performance und Preisgestaltung von hier aus fortführt. Wir werden jedenfalls ganz genau hinschauen um zu prüfen, ob das neue Namensschema mit Zahlensprung sich auch in der Performance widerspiegelt. Zudem brauchen wir auch weiterhin überzeugende Produkte von AMD, damit Nvidias Preise nicht aus dem Ruder laufen. Heute heißt der beste Gegenkandidat Radeon HD 7970.

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen