Monat: September 2014

Mit dem netten Spruch “viel hilft viel” liegt man zumindest bei der GTX 970 gründlich daneben. Man kann die Karte nämlich auch schon mal für einen einzigen Frame pro Sekunde an Mehrleistung schnell mal eben 25 Watt – und für zwei Frames pro Sekunde dann sogar bis zu 45 Watt – mehr an Leistung aufnehmen lassen, ohne dass das Ergebnis dann wirklich sichtbar besser wird.

Wir werden das Power Target unseres Testmusters bei 100 Watt beginnend in 25-Watt-Stufen bis auf 250 Watt erhöhen und das Verhalten der Karte analysieren. Gaming-Performance und Boost-Takt, Leistungsaunahme und Temperatur – nichts werden wir außer Acht lassen, um den echten Sweet-Spot zu finden.

Es wird sich mit Sicherheit lohnen und auch beweisen, dass Overclocking oft genug zwar für Top-Plätze in Benchmark-Listen gut sein mag, in der Praxis aber eher etwas kontraproduktiv ist, wenn man es übertreibt.

Testsystem

Die komplette Testmethodik für Messung der Leistungsaufnahme haben wir in unserem Grundlagenartikel bereits ausführlich beschrieben, hier noch einmal schnell die Eckdaten des Testsystems mit dem Core i7-5960X, den wir bei 4,2 GHz laufen lassen.

Messverfahren: berührungslose Gleichstrommessung am PCIe-Slot (Riser-Card)
berührungslose Gleichstrommessung an der externen PCIe-Stromversorgung
direkte Spannungsmessung am Netzteil
Infrarot-Überwachung in Echtzeit
Messgeräte: 2x HAMEG HMO 3054, 500 MHz Mehrkanal-Oszillograph mit Speicherfunktion
4x HAMEG HZO50 Stromzangenadapter (1 mA bis 30 A, 100 KHz, DC)
4x HAMEG HZ355 (10:1 Tastteiler, 500 MHz)
1x HAMEG HMC 8012 Digitalmultimeter mit Speicherfunktion
1x Optris PI450 80Hz Infrared Camera + PI Connect
Testsystem: Intel Core i7-5960X @4.2 GHz + Raijintek Triton Water Cooler
16 GByte G.Skill Ripjaws DDR4 2666 (4x 4 GByte)
Gigabyte X99 SOC Force
2x Transcend SSD370 512 GB (System, Applikationen + Daten, Storage)
Be Quiet Dark Power Pro 1200W
Microcool Banchetto 101

Was bis heute nicht erfunden wurde, ist das perfekte Mobilgerät. Die sogenannten Phablets, jene Smartphone-Giganten mit Bildschirmdiagonalen jenseits der 5-Zoll-Marke, werden zwar als Rundumsorglos-Pakete angepriesen. Aber die Geräte haben längst Dimensionen erreicht, die die eng geschneiderte Hosentasche der Hipster-Jeans vor unlösbare Aufgaben erstellt.

Eine sich anbietende Lösung wäre eine Kombination aus einem kompakten Smartphone für unterwegs und einem kompakten Tablet, wenn es auf der Couch etwas mehr Bildschirm sein darf. Wir haben vier dieser schlanken Media-Tablets mit sieben Zoll großem Bildschirm getestet. Im einzelnen sind das:

Schlanke Media-Tablets – das hat zuletzt unser Vergleichstest 10-zölliger Tablets gezeigt – müssen nicht teuer sein und liefern in manchen Situationen – etwa auf dem erwähnten heimischen Kanepee, aber auch als Alleinunterhalter auf Reisen – ein angenehmes Quäntchen Mehr-Bildschirm fürs Surfen, Daddeln oder Videoschauen.

Nicht immer muss es dabei gleich ein derart großformatiger Flachrechner sein. Gerade wer sich unterwegs gern aufs Handgepäck beschränkt, dürfte sich auch hier wiederum ein kompaktes Gerät wünschen, das sich etwa im Zug schnell mal aus der Tasche ziehen lässt. Die kleinste Möglichkeit sind dabei die 7-zölligen Tablets. Diese Kategorie wird allen Unkenrufen ob der aufkommenden Phablets zum Trotz aktuell mit einer ganzen Reihe neuer Modelle bereichert.

Dazu zählen etwa das Dell Venue 7, das Huawei Mediapad X1 und das LG G Pad 7.0, die allesamt mit Googles neustem Android 4.4.2 angeboten werden und bis auf das Dell mit einer eigenen Oberfläche daherkommen. Noch eigener ist nur Amazon: Das Kindle HDX7 ist zwar auch im gewissen Sinne ein Google-Android-Tablet, aber das Fire OS 3.0 genannte Betriebssystem ist ein eigenständiger Android-Fork, der auf der Basis der Android-Version 4.0 in Eigenleistung entwickelt wurde. Eine neuere Variante, das auf Android 4.4 basierende Fire OS 4.0, soll noch im Laufe des Jahres per Update verteilt werden.

Technische Daten: Amazon Kindle HDX 7 Dell Venue 7 Huawei Mediapad X1 LG G Pad 7.0
Betriebssystem: Fire OS 3.0 Android 4.4.2 Android 4.2 4.2.2
Display: 7 Zoll, 1920 x 1200 Pixel 7 Zoll, IPS-Display, 1280 x 800 Pixel 7 Zoll, IPS-Display, 1920 x 1200 Pixel 7 Zoll, IPS-Display, 1280 x 800 Pixel
CPU: Qualcomm Snapdragon 800, 4x 2,20 GHz Intel Atom Z3460, 2x 1,6 GHz Hisilicon Kirin 910, 4x 1,6 GHz Qualcomm Snapdragon 400, 4x 1,2 GHz
GPU: Adreno 330 Intel HD Graphics ARM Mali-450 MP4 Adreno
Arbeitsspeicher: 2 GByte 1 GByte 2,0 GByte 1 GByte
Interner Speicher: 16 GByte 8 GByte 16 GByte 8 GByte
Externer Speicher: microSD-Karte nach SDXC-Standard microSD-Karte nach SDHC-Standard microSD-Karte nach SDHC-Standard
WLAN: 802.11 a/b/g/n 802.11 b/g/n 802.11 a/b/g/n 802.11 a/b/g/n
Bluetooth: 4.0 4.0 4.0 4.0
Kamera: Front: 0,9-MP-Kamera Front: 1-MP-Kamera
Rear: 5-MP-Kamera
Front: 5-MP-Kamera
Rear: 13-MP-Kamera
Front: 1,3-MP-Kamera
Rear: 3-MP-Kamera
Akku: 4550 mAh 4.550 mAh 5.000 mAh 4.000 mAh
Abmessungen: 18,6×12,8 x 0,9 cm 19,3 x 11,8 x 1,0 cm 18,4 x10,4 x 0,8 cm 18,9 x 11,4 x 1,0 cm
Gewicht: 311 g 372 g 239 g 293 g
Besonderheit LTE-Modem LTE-Modem
Marktpreis: ab 259 Euro ab 139 Euro ab 392 Euro ab 179 Euro

Was steckt eigentlich wirklich an Arbeit und Know-How in einem modernen Computer-Netzteil? Wir kennen die fertigen Produkte, testen und vergleichen sie – mehr allerdings auch nicht. Die Foren sind voll mit offenen Fragen und oft genug fehlt die nötige Transparenz der Anbieter. Nun dürfen wir erstmals hinter die Kulissen eines großen Auftragsfertigers blicken und begleiten ein neues Produkt vom Prototypen bis hin zum serienreifen Netzteil.

Dieser heutige Artikel ist die nur allzu logische Fortsetzung unseres Artikels Grundlagen GPUs: Leistungsaufnahme, Netzteilkonflikte & andere Mythen, der sich nicht nur regen Zuspruchs seitens der Leser erfreut, sondern uns auch eine Menge Feedback von den Herstellern einbrachte. Für viele der dort angesprochenen Fragen gibt es nämlich schon mögliche Antworten.

Eines muss man be quiet! ja lassen – es gab (fast) keine Geheminisse voreinander, als wir erstmalig nicht nur fertige Samples in die Hand bekamen, sondern gemeinsam in Asien ins Allerheiligste der Netzteilfertiger durften. Natürlich kann man es sich leisten, den Wissendurst neugieriger Journalisten zu befriedigen, wenn man als Netzteilanbieter nichts zu verbergen hat. Trotzdem ist dies natürlich alles andere als selbstverständlich; es gibt praktisch nie einen Blick hinter die Kulissen. 

Wir wollen deshalb exemplarisch am Beispiel des neuen be quiet! Straight Power E10 zeigen (das dann natürlich auch ab und zu mal im Bild auftauchen wird), wie aus Plattformen, Ideen und Prototypen dann genau die Produkte entstehen, die wir aus den Medien und dem Handel kennen.

Bevor jedoch ein Netzteil in die Massenproduklion gehen kann, müssen zunächst viele Stationen und Tests durchlaufen werden. Deshalb wollen wir im ersten Teil unserer Asien- und Netzteil-Rundreise mit dem Hauptquartier der FSP Group in Taoyüanhsie (Taiwan) beginnen, wo wir neben dem Besuch der Entwicklungsabteilung auch ausnahmsweise mit ins Safety Lab durften.

Eines wollen wir jedoch auch voranstellen: Über Schaltungsdetails und Features wollen wir uns an dieser Stelle nicht auslassen, das überlassen wir später wieder den Reviewern und den Marketing-Abteilungen. Schließlich ist dies auch kein Netzteiltest oder Advertorial.

Wir wollen vielmehr eine einmalige Gelegenheit nutzen, um all jene Abläufe zu zeigen, die bisher nur wenige Eingeweihte und natürlich die Mitarbeiter selbst kennen. Und keine Angst: Theorie und Bilder halten sich ausgeglichen die Waage, so dass es weder staubtrockener Lesestoff, noch eine belanglose, bunte Fotostory werden wird. Aber eines wird es garantiert: Interessant!

Was verbirgt sich eigentlich hinter der Triton genau? Der Lösungsansatz von Raijintek ist genial und einfach zugleich. Man bietet die Einfachheit einer ganz normalen, vorgefüllten All-In-One Wasserkühlung für den PC, lässt dem Kunden aber auch die Möglichkeit offen, diese zu reinigen, mit eigenen Schläuchen zu versehen oder mit den Farben zu spielen.

Damit wäre dieses System optional sogar auf Grafikkarten erweiterbar – nicht schlecht für einen Kampfpreis von nur 75 Euro.

Ja, es ist wirklich kein Schreibfehler: Raijintek bietet mit der Trition eine komplette, ab Werk voll befüllte AIO mit 240-mm-Radiator, zwei 12-cm-Lüftern samt Steuerung, 40 cm langen, transparenten Schläuchen und drei Farben zum Selbsteinfärben.

Optisch macht das transparente Pumpengehäuse mit der eingebauten LED ebenfalls eine Menge her, so dass wir fast schon geneigt sind, irgendwo nach einem Pferdefuß zu suchen.

Wie gut kühlt eine 75-Euro-Wasserkühlung wirklich und wie gestaltet sich der Umgang mit der Triton beim Reinigen oder Umbauen? Diesen Fragen werden wir genauso nachgehen wie einem Lautstärketest und dem Praxiseinsatz, der härter kaum hätte sein können: Das Herunterkühlen eines auf 4,5 GHz getakteten Intel Core i7 5960X.

Unmöglich? Doch – es geht! Wie gut, das lesen wir später. Zunächst erst einmal schauen wir auf die in der Tabelle zusamnmengefassten technischen Daten:

Raijintek Trition
Formfaktor: geschlossene Kompaktwasserkühlung (Closed Loop AIO Water Cooling)
Pumpe: Abmessungen: 3,8 x 5,6 x 3,9 cm
Heatsink: 100 % Kupfer, vernickelt.
Lager: Graphitröhrchen und Keramikachse
Durchsatz: 120 l/h
Lautsärke: 20 dB(A)
MTBF: 50000 Stunden
Drehzahl: 3000 U/min
Spannung: 12 Volt (DC)
Leistungsaufnahme: 4 Watt
Radiator: 27,5 x 12,0 x 3,2 cm
100% Aluminium
für 2x 12-cm-Lüfter
Schläuche: 40 cm transparent, 13/10 Standardschlauch (0,5 Zoll)
optional änderbar
Lüfter: 2x 12,0 x 2,5 cm
1000 bis 2600 U/min (±10%)
Durchsatz: 38,889 – 100,455 Cubic Foot/min.
Druck: 0,744 ~ 4,819 mm H2O
Geräuschentwicklung: 21,6 – 36,6 dB(A)
Stromstärke: 0,08 – 0,48 Ampere
Leistungsaufnahme: 0,96 – 5,76 Watt
Anschluss: 3 Pin
Füllmenge: 350 ml ±5%  (vorgefüllt)
Kompatibilität: Intel-Sockel: LGA 2011 / 1366 / 115X / 775
AMD-Sockel: FM2+ / FM2 / FM1 / AM3+ / AM3 / AM2+ / AM2 
Preisempfehlung: 75 Euro

Nun geht es los, denn es kribbelt schon in den Fingern!

Die Gründe, warum wir diesen weiterführenden Test nach dem Launch-Artikel am letzten Freitag (Nvidia GeForce GTX 980 und GTX 970: Maxwell mit maximaler Power?) überhaupt gemacht haben, sind schnell aufgezählt. Erstens haben wir beobachtet, dass die werksübertaktete Gigabyte GTX 970 Windforce OC nicht so recht in das TDP-Schema passte, das Nvidia für die Referenz ausgibt, und zweitens sich auch die Gigabyte GTX 980 Windforce OC in vielen Messungen bei der Leistungsaufnahme gravierend von den Referenzdaten unterschied.

Familientreffen: 5 Karten treten gegeneinander anFamilientreffen: 5 Karten treten gegeneinander an

Da wir außerdem sehr viel Feedback erhielten, auf Äpfel-und-Birnen-Vergleiche zwischen Referenz- und OC-Karten doch bitte zu verzichten, stellen wir nun der GeForce GTX 970 als der interessanteren der beiden Neuerscheinungen nur werksübertaktete Karten aus dem gleichen Haus gegenüber.

Alle Karten, egal ob Radeon oder GeForce, besitzen eine ordentliche Portion Mehrtakt ab Werk, gehören mit zu zu den gebräuchlichsten und preiswertesten Vertreterinnen ihrer Klasse und eignen sich somit sicher auch für eine verallgemeinerte Aussage mit am besten.

Unser Testsample für die GeForce GTX 970 kam von GigabyteUnser Testsample für die GeForce GTX 970 kam von Gigabyte

Vor allem irritierte uns die leistungsmäßige Nähe der ab Werk übertakteten Gigabyte GTX 970 Windforce OC zu Nvidias Referenzkarte der GeForce GTX 980. Gleichzeitig liegt die Leistungsaufnahme der übertakteten 970er von Ggabyte deutlich über dem, was Nvidia für diese Kartenklasse offiziell als TDP angibt – sie ist diesbezüglich kaum besser als eben die GTX 980.

Gut: Wir wissen, dass TDP nicht gleich Leistungsaufnahme ist, aber ein Richtwert sollte zumindest auch ein solcher bleiben. Deshalb haben wir Gigabytes Forschungs- und Entwicklungsabteilung kontaktiert und offiziell bestätigt bekommen, was wir bei den Messungen bereits vermutet hatten: Die Werte für das festgesetzte Power-Target liegen deutlich über dem, was beim Launch kommuniziert wurde!

Ein Schelm, der Böses dabei denkt, dass Nvidia bei der GeForce GTX 970 bewusst auf eigene Samples verzichtet hat. Vielleicht, um so auch die Begehrlichkeiten der Kunden zu steigern, indem man den Board-Partnern beim Overclocking freien Lauf lässt?


Offizielle TDP
(Referenz)
Freigegebenes
Power Target (default)
Freigegebenes
Power Target (Maximum)
GeForce GTX 980
Referenz
180 Watt 180 Watt 220 Watt
GigabyteGTX 980
Windforce OC
n.a. 300 Watt 366 Watt
GeForce GTX 970
Referenz
145 Watt
145 Watt
162 Watt
GigabyteGTX 970
Windforce OC
n.a.
250 Watt
280 Watt

Die Unterschiede sind wirklich extrem, so dass wir uns sicher sind, mit einer detaillierten Betrachtung eine Antwort zu finden, wie effizient Maxwell in Form der marktüblichen Boardpartnerkarten mit Werksübertaktung wirklich ist. Doch bevor wir loslegen, schnell noch die tabellarische Übersicht der Kontrahenten:

  Gigabyte
GTX 970
Windforce OC
Gigabyte
GTX 780
Windforce OC
Gigabyte
GTX 780 Ti
Windforce OC
Gigabyte
R9 290X
Windforce OC
Gigabyte
R9 290
Windforce OC
Shader-Einheiten: 1664
2304 2880 2816 2560
ROPs: 64
48 48 64 64
Speicher: 4096 MB
3072 MB 3072 MB 4096 MB 4096 MB
Speicherbandbreite: 256 Bit
384 Bit 384 Bit 512 Bit 512 Bit
Kern-Takt: 1178 MHz+
954 MHz+ 1020 MHz+ 1040 MHz 1040 MHz
Speicher-Takt: 1753 MHz
1502 MHz 1750 MHz 1250 MHz 1250 MHz

Wichtige Vorbemerkungen

  • Soweit wir bisher in Erfahrung bringen konnten, handhaben die Boardpartner diese Lockerung beim Power-Target sehr unterschiedlich und die Gigabyte-Karten sind im direkten Vergleich ganz offensichtlich auch recht großzügig ausgelegt. Sicherlich nicht ganz so gut für die Effizienz, dafür aber wohl fürs Übertakten.
  • Wir wollen auch noch einmal daran erinnern, dass die Messungen der Leistungsaufnahme die gesamte Karte betreffen, also auch die Verlustleistung der Spannungswandler mit einbezieht (was absolut Sinn macht).

Testsystem

Das komplette Test-Setup haben wir in unserem Grundlagenartikel ausführlich beschrieben, hier noch einmal schnell die Eckdaten:

Messverfahren: berührungslose Gleichstrommessung am PCIe-Slot (Riser-Card)
berührungslose Gleichstrommessung an der externen PCIe-Stromversorgung
direkte Spannungsmessung am Netzteil
Infrarot-Überwachung in Echtzeit
Messgeräte: 2x HAMEG HMO 3054, 500 MHz Mehrkanal-Oszillograph mit Speicherfunktion
4x HAMEG HZO50 Stromzangenadapter (1 mA bis 30 A, 100 KHz, DC)
4x HAMEG HZ355 (10:1 Tastteiler, 500 MHz)
1x HAMEG HMC 8012 Digitalmultimeter mit Speicherfunktion
1x Optris PI450 80Hz Infrared Camera + PI Connect
Testsystem: Intel Core i7-5960X @4.2 GHz + Raijintek Triton Water Cooler
16 GByte G.Skill Ripjaws DDR4 2666 (4x 4 GByte)
MSI X99 Gaming 7
2x Transcend SSD370 512 GB (System, Applikationen + Daten, Storage)
Be Quiet Dark Power Pro 1200W
Microcool Banchetto 101

EVGAs Gaming-Maus platziert sich kompromisslos als Eingabegerät für Nutzern mit höchsten Ansprüchen – das zeigt schon ein Blick auf die technischen Daten. EVGA hat sich hier nicht lumpen lassen und geklotzt statt gekleckert: Avagos bester Laser-Sensor, Omron-Schalter, beidhändig benutzbar sowie in Form, Gewicht und Beleuchtung einstellbar – gar nicht mal schlecht.

Auch der Lieferumfang kann sich sehen lassen. Neben der Maus selbst bekommt man einen Torx-Schraubendreher, ein Paar Ersatzgleiter, sechs Gewichte und zwei selbstklebende Reibungsflächen für die Mausseiten. Dazu gibt es zwei kleine Anleitungen; auf einen Datenträger mit der Software wurde allerdings verzichtet.

Verarbeitung

Bei der Verarbeitung gibt sich EVGAs Erstlingswerk keine Blöße. Während die Unterseite der Maus aus Metall besteht, kleidet sich die Oberseite in stabil anmutenden Kunststoff bzw. Carbon. Die strukturierte Mausoberfläche macht einen sehr wertigen Eindruck, Fingerabdrücke fallen nicht störend auf.

Negativ ist uns alleine ein Umstand aufgefallen: Um das Gewicht der Maus zu verändern, muss man erst die Platte mit der linken und rechten Maustaste abzunehmen – was einen größeren Kraftaufwand erfordert, als man von einer Maus zu erwarten würde. Wichtig ist es, die Platte in Richtung Mausrückseite zu schieben. Das Gewicht der Maus lässt um vier, acht, bzw. zwölf Gramm erhöhen, ohne Gewichte bringt die Maus 132 Gramm auf die Waage.

Das Design der EVGA Torq X10 weicht dabei durch die Modifizierbarkeit bedingt von dem einer “Standard-Maus” ab, ist im Gegensatz zu vielen Spielermäuse aber symmetrisch und damit sowohl von Links- als auch Rechtshänder benutzbar.

Die Oberschale der Maus ist zweigeteilt, über eine Schraube an der Rückseite lassen sich beide Teile nach oben und unten fahren. Der Mechanismus ist zwar hochwertig ausgeführt, aber wenn man großen Druck auf das hintere Ende des vorderen Teiles ausübt, so gibt dieser knarzend nach.

In der Praxis ist dieser kleine Schönheitsfehler aber ohne Belang, die Belastung bei normaler Benutzung verkraftet die Maus souverän. Dafür liegt die Maus dank der Anpassung optimal in der Handfläche.

Trotz der Einstellungsmöglichkeit ist und bleibt die Torq X10 aber eindeutig auf den Palm-Grip ausgelegt – daran ändern auch die beiden beigelegten Sticker nichts. An den Mausseiten angeklebt erhöhen diese die Griffigkeit der Mausseiten zwar enorm, verändern die Abmessungen der Maus aber natürlich nicht.

Bevor wir zur Ausstattung wechseln – hier noch einmal die technischen Daten der EVGA Torq X10 in der Übersicht:

Technische Daten
Sensor: Avago 9800 (Laser)
Auflösung: 200 bis 8200 dpi (umstellbar)
Polling/Report Rate: 125 bis 1000 Hz (umstellbar)
DPI-Schalter: vorhanden (vier Stufen, einstellbar)
Mausrad: 2-Wege-Mausrad
Seitentasten: 4 (frei programmierbar)
Maustasten: Omron (20 Mio. Klicks)
Abmessungen (LxBxH): 11,4 x 5,7 x 3,2-3,8 cm
Gewicht: 121-134 g
Kabellänge: 1,82 m
Verfügbare Farben: schwarz
Lieferumfang: Gewichte, 1 Satz Ersatzgleiter, 1 Satz Seitensticker, Handbuch, Torx-Schraubenzieher
Software: EVGA Unleash
Preis (Hersteller): 64 Euro bzw. 90 Euro (Carbon)
Besonderheiten:     Höhe der Maus ist modifizierbar, Beleuchtung lässt sich anpassen

Vor rund sieben Monaten stellte Nvidia seine neue Grafikarchitektur mit dem Codenamen “Maxwell” in Form der GeForce GTX 750 und 750 Ti vor. Diese Karten definierten die Grenzen der Grafikperformance von Gaming-PCs zwar nicht neu, sorgten aber für eine bis dato unerhörte Effizienz. Die Maxwell-basierte GeForce GTX 750 Ti ist ein Paradebeispiel für hohe Performance pro Watt und erzielt Framerates auf dem Niveau von Grafikkarten mit dem Doppelten seiner TDP von 65 Watt.

Eine derart hohe Effizienz ist wundervoll – und Nvidias Ansatz, sich künftig zuerst auf die Verbesserung der Leistungsaufnahme seiner mobilen SoCs (wie zum Beispiel den Tegra K1) zu konzentrieren, die dann von den Desktop-GPU-Architekturen übernommen werden, lässt auf noch mehr Energieeffizienz hoffen.

Dennoch ist Energieeffizienz in der Regel nicht die Kenngröße, die das Herz eines PC-Enthusiasten schneller schlagen lässt. Daher haben wir uns natürlich seit Tag eins eine hochperformante Version von Nvidias Maxwell-Architektur gewünscht. Die gute Nachricht: Genau diesen Wunsch hat das Unternehmen mit der heutigen Markteinführung der GeForce GTX 970 und GTX 980 erfüllt.

Auf den ersten Blick erinnert die GM204-GPU der GeForce GTX 970 und 980 an eine entsprechend hochskalierte Version der GM107 der GeForce GTX 750 Ti. Wie die GM107 hat sie vier Blöcke je Streaming-Multiprozessor (SMM) und jeder SMM beherbergt 128 CUDA-Kerne, 32 Load/Store-Units, acht Textureinheiten und eine einzelne Polymorph-Engine. Der ganzen GPU stehen zwei Megabyte gemeinsam genutzter L2-Cache zur Verfügung.

Der offensichtliche Unterschied ist die Anzahl der SMMs: Wo die GM107 deren fünf hat, verfügt die GM204 in der GeForce GTX 980 über satt 16 Stück. Das summiert sich zu 2048 CUDA-Kernen, 512 Load/Store-Units, 128 Textureinheiten und 16 Polymorph-Engines beim Top-Modell GeForce GTX 980 auf. Bei der “kleinen” GeForce GTX 970 sind es immer noch 13 SMMs, was in 1664 CUDA-Kernen, 416 Load/Store-Units, 104 Textureinheiten und 13 Polymorph-Engines resultiert.

Trotz ihrer Ähnlichkeiten profitiert die GM204 im Vergleich zu GM107 von etlichen Upgrades. Beispielsweise hat jeder SMM bei der GTX 980 Zugriff auf einen 96 Kilobyte großen Adressbereich für GPU-Rechenaufgaben; bei der GTX 750 Ti waren es noch 64 Kilobyte. Der L1-/Textur-Cache ist bei der neuen GPU 24 Kilobyte je zwei CUDA-Kerne groß (also 48 Kilobyte pro SMM), was die Ressourcen im Vergleich zur GM107 effektiv verdoppelt.

Im Gegensatz zur GM107 verfügt die GM204-GPU anstelle eines einzelnen GPCs (Graphics Processor Clusters) über deren vier; sie profitiert also von der vierfachen Anzahl an Raster-Engines. Natürlich brauchen High-End-Grafikkarten auch ein leistungsfähigeres Back-End, um mit all dem Datendurchsatz klarzukommen. Daher verfügt die GTX 980 über vier Render-Back-Ends, die für jeweils 16 Vollfarb-ROP-Operationen je Takt durchführen können, also 64 insgesamt. Dazu kommen noch vier 64-Bit-Speicher-Controller, was sich zu einem aggregierten256 Bit breiten Speicher-Bus aufsummiert.

Schauen wir uns mal die Taktraten an: Die GeForce GTX 980 hat einen Basistakt von 1126 MHz und einen Boost-Takt von 1216 MHz, während die Taktraten der GeForce GTX 970 bei 1050 MHz respektive 1178 MHz liegen. Beide Grafikkarten verfügen über vier Gigabyte RAM, der mit 1750 MHz taktet. Das entspricht einer effektiven GDDR5-Rate von sieben Gigahertz, was wiederum auf eine Speicherbandbreite von 224 GByte/s hinausläuft. Aber schauen wir uns mal Nvidias aktuelle High-End-Palette an um zu sehen, wie gut sich die neuen Maxwell-basierten Karten auf dem Papier schlagen:

Hinsichtlich der Platzierung am Markt macht es aber mehr Sinn, die GM204 mit der Kepler-basierten GK110  der GeForce GTX 780 Ti zu vergleichen. Diese Karte hat 2880 CUDA-Kerne, 240 Textureinheiten, 48 ROPs und einen aggregierten Speicher-Bus von 384 Bit, was in einer Speicherbandbreite von 336 GByte/s resultiert. Jedes dieser Attribute (abgesehen von ROPs/Takt) liegt über den Spezifikationen der neuen GeForce GTX 980. Aber Maxwell ist ja eine sehr effiziente Architektur, die mit weniger mehr leisten soll.

Wer sich noch mal ein bisschen in der Theorie einlesen will, sollte sich unseren Launch-Artikel Nvidia GeForce GTX 750 Ti: Maxwell ist da – mehr Power, weniger Durst zu Gemüte führen.

Wir erwarten jedenfalls, dass die GeForce GTX 980 gegen die GTX 780 Ti antritt und sie eventuell sogar schlägt. Die GeForce GTX 980 scheint beim Raster-Processing besonders stark zu sein und kann hier mit 64 Vollfarb-ROPs pro Takt und einer Füllrate von 72 Gpixel/Sekunde punkten. Zum Vergleich: die GTX 780 Ti hat 48 ROPs pro Takt und eine Füllrate von 44 Gpixel/Sekunde. Dies sollte der GM204 bei hohen Auflösungen und Anti-Aliasing einen Vorteil verschaffen – und den wird sie auch brauchen, wenn es um Gaming mit 4K-Auflösung geht.

Unabhängig von der verbesserten Effizienz der GU-Architektur der GeForce GTX 980 reden wir hier immer noch über ein Drittel weniger Speicherbandbreite im Vergleich zu GeForce GTX 780 Ti. Nvidia versucht dieses Defizit mit einer verbesserten Speicherkompression ausgleichen, denn die GM204 verfügt über einen verbesserten Delta-Color-Compression-Modus der dritten Generation, der der Hardware mehr Möglichkeiten eröffnet.

Bei Nutzung von 8×8-Blöcken von 64 Pixeln wird die Kompressionsanalyse an 2×4-Blöcken durchgeführt, um die beste Kompression in 8:1-, 4:1- und 2:1-Schritten zu erzielen. Wenn 2:1-Kompression nicht möglich ist, wird der betreffende Block nicht komprimiert. Alle erfolgreich komprimierten Blöcke sparen jedes Mal Bandbreite ein, wenn der Speicher gelesen wird.

Laut Nvidia soll diese Verbesserung die effektive Speicherbandbreite im Vergleich zu den Kepler-basierten GTX-680-Karten von 224 GByte/s auf etwa 300 GByte/s steigern. Wir werden noch sehen, ob das genug ist, damit die GeForce GTX 980 sich gegen die formidable GeForce GTX 780 Ti durchsetzen kann.

An dieser Stelle sollte man noch kurz über die die verbesserte Tessellation-Performance der GM204 reden. Das Design von Nvidias Polymorph Engine 2.0 kam bei Kepler und sogar der Maxwell-basierten GM107 zum Einsatz, aber die GM204 setzt auf die verbesserte Polymorph Engine 3.0. Laut Nvidia sollen dank architektonischer Verbesserungen pro Engine bis zu 50 Prozent mehr Leistung bei hohen Tessellation-Faktoren drin sein.

Nvidias neue GPU bietet zudem einige einzigartige Display-Optionen. Die GeForce-Modelle GTX 980 und GTX 970 sind die weltweit ersten Grafikarten, die den HDMI-2.0-Standard unterstützen. Das bedeutet volle 4K-Unterstützung mit 60 Hz; bei HDMI 1.2 waren es nur 30 Hz. Das Design der Referenzkarte beinhaltet drei DisplayPort-1.2-Ausgänge sowie einen DVI-Anschluss (Dual-Link). Die GPU kann bis zu vier 4K-Displays gleichzeitig befeuern und verfügt über eine Display-Engine, die Auflösungen bis zu 5K unterstützt.

Nvidia hat außerdem die GPUs der GM2xx-Generation mit einem verbesserten Video-Decoder bestückt, der nun H.265-Encoding (HEVC) unterstützt. Dies ist ein nettes, zukunftssicheres Feature, da es bisher noch keine Software gib, die die Vorteile von H.265 wirklich nutzt. Bezüglich des aktuellen H.264-Standards sollte man im Hinterkopf behalten, dass die Maxwell-basierte GM107-GPU in der GeForce GTX 750-Serie bereits verbessert wurde und im Vergleich zur Kepler-Generation den zweieinhalbfachen Durchsatz bieten soll.

Das wären die wichtigsten Änderungen aus der Architektur-Perspektive. Nvidia hat natürlich nicht verlauten lassen, ob die GM204 der GeForce GTX 980 beschnitten ist oder nicht. Es ist also sehr gut möglich, dass wir diese GPU noch mit mehr (oder weniger) CUDA-Kernen in einem anderen, künftigen Produkt wieder zu Gesicht bekommen.

Da wir die Änderungen an der Hardware damit abgehandelt haben, können wir uns jetzt den neuen Features der GeForce GTX 970 GeForce GTX 980 und den potenziellen Vorteilen widmen, die Gamern daraus erwachsen.

Normalerweise ruft Dell für das Latitude 3340 in der von uns getesteten Ausstattung einen Preis von knapp 1000 Euro auf. Derzeit gibt es den mobilen Begleiter im 13,3-Zoll-Format jedoch im Angebot für 689 Euro. Hardwareseitig besitzt das Gerät eine brauchbare Grundausstattung und versucht insbesondere durch Akkulaufzeit und Robustheit zu punkten.

Dell visiert mit dem Angebot laut eigener Einstufung vor allem den Bildungsbereich an – also vornehmlich Schüler, Studenten, Lehrkräfte und ganze Bildungseinrichtungen, die man mit dem aktuellen Angebotspreis auch viel eher ansprechen dürfte als mit der ursprünglich aufgerufenen Summe.

Mit abmessungen von 33,1 x 24,3 x 3,4 cm und einem Gewicht von 1,77 kg widersetzt sich das Notebook dem aktuellen Trend hin zu extremen Slim-Formaten. Der Vollkorpus aus angerautem Kunststoff, der vom Displaydeckel und –rahmen über die Unterschale bis hin zum Areal um die Tastatur alle Bereiche abdeckt, versprüht wenig optischen Charme.

Er kann dafür aber mit einer Qualität punkten, die viele auf eine schlanke Linie getrimmte Notebooks vermissen lassen: Einen hohen Grad an Robustheit, der das Latitude 3340 vielleicht nicht zum schönsten, aber gemessen am angedachten Einsatzzweck sicherlich zu einem der zweckdienlichsten und stabilsten Vertreter macht. Der Display-Deckel ist verwindungssteif und der Bereich der Handballenablage und der Tastatur gibt nicht nach – sehr schön.

Die Display-Scharniere sitzen sehr straff, so dass beide Hände eingesetzt werden müssen, um das Latitude 3340 aufzuklappen. Dafür wird die Anzeigefläche anschließend bombenfest an Ort und Stelle gehalten, ein Nachwippen gibt es praktisch nicht.

Der Bildschirm lässt sich um etwas mehr als 180° aufklappen, so dass das Notebook komplett aufgeklappt auf dem Tisch liegend genutzt werden kann.

Wer das 3340 als Arbeitstier nutzen möchte, wird sich über den gegenüber Verschmutzungen unempfindlichen Tastaturbereich freuen: Keine glänzende Klavierlack-Optik, sondern erneut angerauter Kunststoff zwischen den einzelnen Tasten sowie im Bereich darum. Aus rein funktioneller Sicht ist das nur zu begrüßen.

Der Einschaltknopf befindet sich rechts oben seitlich von der Tastatur, knapp darunter die üblichen Status-LEDs. Sonderfunktionstasten gibt es nicht.

Weder im vorderen, noch im hinteren Bereiche wurden Steckplätze untergebracht. Diese konzentrieren sich allesamt an den Seiten des Latitude 3340: Auf der linken Seite gibt es eine Buchse für den Netzteilstecker sowie Netzwerk-, HDMI- und Mini-Display-Port-Kabel. Dazu kommen noch ein USB 3.0-Anschluss und der Luftauslass der internen Komponentenkühlung des Notebooks.

Auf der rechten Seite sind Kensington-Lock, ein weiterer USB-3.0.Steckplatz, Status-LEDs, eine Kombo-Klinke-Buchse für das Headset und ein SD-Kartenleser zu sehen.

Für den Bildungsbereich wäre allerdings ein VGA-Anschluss oder die Beilegung eines entsprechenden Adapters wünschenswert gewesen, denn an vielen Schulen und Universitäten ist und bleibt diese Anschlussart vermutlich noch auf Jahre hinweg der Standard.

Erfreulicherweise ist auch das Innere des Geräts ohne allzu große Anstrengungen zugänglich: Nach dem Entfernen des Akkus muss der Anwender lediglich neun Schrauben lösen, um die Wartungsklappe an der Unterseite abzunehmen.

Die einzige direkte Aufrüstoption ist die Erweiterung des Arbeitsspeichers in Form eines zusätzlichen Speicherriegels. SSHD, WLAN-Modul und der kleine Notebookkühler sind zu Wartungszwecken erreichbar.

“Reduktion auf das Wesentliche” scheint das Motto von Dell im Hinblick auf das Latitude 3340 zu lauten – und hinsichtlich der Funktionalität gelingt das auch mit Bravour.

Noch vor etwas mehr als einem Jahr galt für uns Cooler Masters CM Storm Havoc für unter 50 Euro als echter Preisbrecher – günstiger war eine Maus auf Basis von Avagos Lasersensor-Flaggschiff ADNS-9800 zu diesem Zeitpunkt kaum zu bekommen. Allerdings sind die Preise in den vergangenen 12 Monaten noch einmal gehörig ins Rutschen geraten. Aber zu Marktpreisen von unter 30 Euro sind Mäuse mit dem ADNS-9800 allerdings auch heute noch ein Ausnahmefall und höchstens in Form von Angeboten zu haben.

Anders verhält es sich bei der neuen Delux M811, die den beliebten Laser-Sensor bereits zu einem Normalpreis von 30 Euro bietet und erstens wegen ihres sehr günstigen Preises, aber zweitens auch dank Makro-Funktionalität, Software zur Anpassung der Mauseinstellungen und der Möglichkeit, von Links- und Rechtshändern gleichermaßen genutzt zu werden, unser Interesse weckte.

Bei einem derartigen Kampfpreis muss natürlich an einigen Stellen gespart werden, dennoch ist selbst eigener Onboard-Speicher verfügbar, so dass die einmal abgespeicherten Makro-Funktionen Maus auch ohne Treiberinstallation an einem anderen Rechner genutzt werden können.

Als “graue Maus” kann man die M811 jedoch nicht bezeichnen, sie sieht in etwa so martialisch aus, wie ihr Daseinszweck vermuten lässt. Auch bei der Gestaltung der Kartonage, in der Nager geliefert wird, wurde nicht auf die Sparbremse getreten. Die Gaming-Optik ist auf den ersten Blick ersichtlich und die angesichts des verbauten Sensors zu erwartenden Daten werden erwartungsgemäß auf der Umverpackung aufgelistet. Als kleines Eye-Candy-Häppchen hat Delux die aufklappbare Pappschachtel mit einem Magnetverschluss versehen.

Der Lieferumfang umfasst eine Kurzanleitung mit Beschreibung von Maus und Software, wobei letztere in Form einer Mini-CD beiliegt. Das ist auch dringend nötig, da die Homepage von Delux derzeit ein entsprechendes Download-Paket vermissen lässt.

Bevor wir zu den Details übergehen, zeigen wir an dieser Stelle die Delux M811 im Überflug:

Delux M811
Sensor: Avago ADNS-9800 (Laser)
Auflösung: 8200 dpi (in 200-dpi-Schritten per Software anpassbar); Werkseinstellung: 1000/1600/2400/3200/4000/8000 dpi
Polling Rate: 125, 250, 500, 1000 Hz (PR)
Response Rate: 2-255 ms (RR) (per Schiebregler in Software einstellbar)
Scan Rate: 12000 FPS
Beschleunigung: 30 G
Tracking Speed: 150 IPS
Angle Snapping: aus
Prozessor und Speicher: 128 KByte Speicher Onboard
Taster: 2 Maustasten, 4 Seitentasten, 2-Wege-Scrollrad, DPI-Umschalter (durchweg Omron Taster)
Druckpunkte: 70 +/- 15 g (sämtliche Taste)
Beleuchtung: Farbmodi: aus/an/pulsierend; 6 Farben für 6 DPI-Stufen: Rot, Grün, Blau, Orange, Pink, Türkis
Makros / Software: alle 8 Tasten mit Makros belegbar, 5 Profile; Onboard-Speicher auf der Maus getrennte Empfindlichkeit für x- und y-Achse;
Maße (LxBxH): 13,29 x 8,02 x 4,22 cm
Gewicht (ohne/mit Kabel): 125 / 162 g
Anschlussart: USB, 16 cm textilummanteltes Kabel
Besonderheiten: für Rechts- und Linkshänder geeignet
Lieferumfang: Kurzanleitung, Treiber-CD
Herstellerseite: Delux M811 Laser Gaming Mouse

Ja, wir bewegen uns zu wenig. Ja, ich bewege mich zu wenig. Kein Wunder, ich habe nun mal eine – wie sagt man so schön? – sitzende Tätigkeit. Wie ein Großteil meiner Freunde und Bekannten, ja sogar der arbeitenden Gesellschaft in den Industrieländern. Wie wenig ich mich allerdings bewege – zumindest werktags -, führen mir die gelegentlichen Tests von Aktivitäts-Trackern immer wieder schmerzhaft vor Augen.

Erst vor wenigen Wochen konnten wir uns den Vivofit von Garmin einige Tage anschauen, diesmal hat der Fitbit One den Weg in unsere Redaktion gefunden. Also ran ans Handgelenk und ab dafür, oder? Doch im Gegensatz zu vielen Fitness-Trackern ist Fitbit One kein Armband: Er wird mit einem Clip getragen oder verschwindet einfach in der Hosentasche.

Für die Schlafüberwachung gibt es dann zwar doch ein Armband, aber diese Manschette trägt sich deutlich komfortabler als ein klassisches Uhrenarmband.

Wie die meisten Fitness-Tracker zählt auch der Fitbit One in erster Linie Schritte. Hierfür ist ein 3-achsiger Beschleunigungssensor verbaut. Und damit der kleine Geselle auch erkennt, wenn man sich vertikal bewegt (also etwa Treppen steigt), besitzt er obendrein einen Höhenmesser.

Angezeigt werden die Informationen auf einem sehr gut ablesbaren OLED-Display, zur Steuerung bzw. zum Durchblättern durch die einzelnen Info-Seiten dient eine einzelne Taste. Die gesamte Technik samt Lithium-Polymer-Akku steckt in einem äußerst kompakten (HxBxT: 4,8 x 1,93 x 0,965 cm) und mit acht Gramm superleichten Gehäuse.

Wasserdicht ist es allerdings nicht. Zwar darf der Tracker bis maximal ein Meter Tiefe untergetaucht werden, für größere Tiefen ist er aber nicht ausgelegt.


Zu haben ist der Fitbit One in den Farben Schwarz und Burgunderrot. Fitbit ruft dafür 100 Euro auf. Die günstigsten Online-Angebote beginnen zum Testzeitpunkt bei rund 90 Euro. Damit ist der Mini-Coach von Fitbit vergleichsweise günstig. Viele Armbänder kosten deutlich über 100 Euro.

  • 1
  • 2

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen