Monat: Januar 2013

Der Gedanke, eine kleine mSATA-SSD direkte aufs Mainboard stecken zu können ist schon bestechend, aber nur, wenn das Stecklaufwerk auch in etwa so schnell ist wie seine Geschwister im 2,5“-Format. Außerdem sollte es sich auch preislich in ähnlichen Dimensionen pro Gigabyte bewegen, denn wer will schon mehr Geld für ein langsameres Laufwerk ausgeben, auch wenn es sich nur um ein kleines Modell fürs SSD-Caching handelt? Da aber immer mehr SSDs im Standardformat inzwischen unter die Schwelle von 1 Euro pro Gigabyte gefallen sind, wird es immer einfacher, Desktop-Rechner mit mindestens 128 GB großem SSDs auszustatten.

Doch in Umgebungen, in denen es ein wenig enger zugeht, kann mSATA möglicherweise die einzige Möglichkeit darstellen, überhaupt eine SSD ins System zu bekommen. Ultrabooks sind dafür ein Paradebeispiel. Da sie per Definition zu den besonders schlanken Geräten gehören, fassen sie meist entweder ein 2,5“-Laufwerk, ein mSATA-Stecklaufwerk oder eine Kombination aus beidem. Da kann es sich unter Umständen schon lohnen, ein wenig mehr Geld auszugeben, um in einem solch kompakten System ein schnelles Systemlaufwerk und eine langsamere aber größere Festplatte für große Datenmengen unterzubringen.

Vor zwei Jahren stellten wir mSATA in unserem Artikel Intel SSD 310 80 GB: Große Speicherflexibilität für kleine Notebooks vor. Doch auch wenn dieses Interface mit seiner kleinen Kontaktleiste stark an mini-PCIe erinnert, nutzt mSATA allen äußeren Ähnlichkeiten zum Trotz die gleichen Übertragungsprotokolle wie SATA. Glücklicherweise besitzen einige der heute verfügbaren Boards Multiplexer, die es erlauben, im Steckplatz entweder eine mini-PCIe-Karte oder ein mSATA-Laufwerk zu nutzen. Bleibt noch ein letzter potentieller Stolperstein, denn einige Mainboards wie Intels DH61AG erlauben am mSATA-Steckplatz nur eine Datenübertragungsrate von 3 Gb/s, was schnellere SSDs der 6-Gb/s-Generation ausbremsen kann.

Was wir damit sagen wollen: Es ist nicht immer einfach, die passende Kombination aus Chipsatz, Mainboard, Steckplatz und SSD zu finden. Doch wenn es gelingt, kann sich das mehrfach auszahlen. Natürlich kann man so SSD-Caching ermöglichen, was aber wie erwähnt aufgrund stetig sinkender Preise immer weniger attraktiv erscheint. Aus unserer Sicht viel spannender ist die Möglichkeit, ein 128 GB großes Flash-Laufwerk im mSATA-Format fürs Betriebssystem und die wichtigsten Programme zu nutzen und für alle weiteren Daten wie Filme, Dokumente, Bilder usw eine mindestens 500 GB große Festplatte dazu zu stecken.

Die Auswahl an mSATA-SSDs ist jedoch immer noch eher dünn gesät, und so haben wir für diesen Vergleich so viele Modelle zusammengetragen, wie wir finden konnten. Vier Firmen sind vertreten: Adata, Crucial, Mushkin und OCZ.

Mit dem Nexus 4 sorgten die beiden Hersteller LG und Google zuerst für einiges Aufsehen und wenig später für einigen Verdruß: Sie versprachen ein Highend-Smartphone zum Mittelklasse-Preis, das allerdings schon nach nur wenigen Minuten ausverkauft und dann über Wochen hinaus nicht lieferbar war. Und auch aktuell prangt über den zwei Versionen des Smartphones im Google-Play-Store zumeist ein rotes “AUSVERKAUFT”. Andere Händler, die das aktuelle Android-Referenzgerät listen, etwa Saturn, geben Lieferzeiten von drei bis vier Wochen an. Nach inoffiziellen Schätzungen sind bisher gerade mal 400.000 Geräte verkauft worden. Selten hatten Hersteller ein derart geringes Interesse die Kaufgelüste der Nutzer zu erfüllen. Damit stellt sich vor allem eine Frage: Lohnt sich das Warten eigentlich?

Typisch Nexus: Das Nexus 4 ist opisch an seine Vorgänger angelehntTypisch Nexus: Das Nexus 4 ist opisch an seine Vorgänger angelehnt

Schickes Äußeres mit Reminiszenzen an vorangegangene Nexus-Modelle

Mit seinen leicht abgerundeten Ecken, der schwarzen Oberfläche, die nicht, wie bei so vielen anderen Android-Geräten, durch Funktionstasten unterbrochen wird und von einem silbernen Rahmen umfasst wird, wirkt das Nexus 4 elegant und greift gleichsam die fast schon traditionellen Gestaltungsmerkmale vorangegangener Modelle, auch wenn diese nicht von LG produziert wurden, auf. In der linken und rechten Längsseite ist jeweils eine Hardware-Taste – zum einen die Wippe zur Regelung der Lautstärke und zum anderen die Taste zum Ein- bzw. Ausschalten – untergebracht, die sich in jeder Situation gut erreichen lassen.

Von besonderem Chic ist die Rückseite, bei der unzählige Quadrate hinter einer dünnen Glasplatte wie eine Art Pailettenbesatz im Gegenlicht glitzern. Damit wirken die Oberflächen insgesamt relativ glatt und das Smartphone fühlt sich in einer schwitzigen Hand leicht rutschig an – und dürfte bei unvorsichtigeren Nutzern schnell an Glanz verlieren. Das gilt übrigens auch für die Display-Oberfläche, die aus dem Rahmen nach außen herausgewölbt ist. Das mag man zwar auf den ersten Blick als optisch schick erachten, äußeren Einflüssen ist es jedoch schutzlos ausgesetzt. Wird das Display auf einem Tisch o.ä. aufgelegt ist auch das Gorilla Glas schnell überfordert.

Aufgrund der Integration der klassischen Android-Funktionsstasten in das Display wirkt das Nexus 4 trotz einer Diagonale von 4,7″ weit weniger wuchtig als andere Bildschirmgiganten wie etwa das Samsung Galaxy S3; zudem sind die Display-Ränder recht schmal gehalten, sodass ein Panel verbaut werden konnte, das etwas breiter ist als üblich und eine Auflösung von 1280 x 768 Pixeln besitzt. Dies macht sich bei den Außenmaßen positiv bemerkbar. Denn trotz des großen Bildschirms liegt die Größe des Smartphones mit Maßen von 133.9 x 68.7 mm eher auf dem Niveau eines Smartphones der 4,3″-Klasse – vom Motorola RAZR i einmal abgesehen.

Das sollte aber nicht darüber hinwegtäuschen, dass das Smartphone alles andere als kompakt ist. In der Hand ist es eine mächtige Erscheinung, die dem Nutzer die Bedienung mit einer Hand schwer macht. Das liegt nicht zuletzt auch an der Bauhöhe. Mit 9,1 mm ist das neuste Google-Smartphone zwar alles andere als ein sperriger Klopfer, insgesamt aber eines der dickeren Geräte in dieser Klasse. Auch beim Gewicht wurde nicht ums Gramm gefeilscht: 139 g sind völlig im Rahmen, aber längst kein Bestwert.

Hinter der etwas kryptischen Bezeichnung „Eterno A6 Superior-RTX“ verbirgt sich ein Gehäuse mit durchaus ungewöhnlichem Aufbau: Das Mainboard wird an der (aus der Perspektive der Frontalansicht) linken Seite und zudem um 180° gedreht verbaut, so dass der Prozessor unten, die Grafikkarte hingegen oben positioniert wird. Innovative, aber rein optische Spielerei oder tatsächlich ein Garant für messbare Vorteile hinsichtlich der Kühlung? Wir testen die Hardware im Kopfstand.

Der überwiegenden Anzahl unserer Leser wird Inter-Tech auf dem Gehäusemarkt bisher vor allem durch eine Reihe von Low-Cost-Gehäusen für den Einstiegsmarkt ein Begriff sein, die den meist gehobenen qualitativen Ansprüchen der Gemeinde der PC-Selbstbauer nicht unbedingt genügten. Dass man aber auch fähig ist, im hart umkämpften Bereich der günstigen Mittelklasse zu punkten, möchte man mit den aktuellen Eterno-Gehäusen der Baureihe A6 zeigen. Neben dem ungewöhnlichen Innenaufbau im RTX-Format mit einem daraus resultierend auf der rechten Seite angebrachten Sichtfenster, blauer Lackierung des Innenraums sowie einer blauen Beleuchtung von Lüftern und Elementen an der Front will man vor allem Anwender mit einer Vorliebe für das Ungewöhnliche ansprechen. Vorerst werden hier mit dem Eterno A6 Superior sowie A6 Confident zwei sich allein durch die Frontblende unterscheidende Varianten der RTX-Gehäuse angeboten, der Innenaufbau ist bei beiden allerdings identisch.

Für einen Preis von etwa 40,-€ erwartet den Käufer ein Hardwareheim mit einem hohem Wiedererkennungswert, das sich zudem mit einem USB-3.0-Anschluss, sinnvoll platzierten Luftfilterelementen und Möglichkeiten zum Kabelmanagement auf der Höhe der Zeit befindet. Da das Gehäuse durch seinen inneren Aufbau und das Vertauschen der Position von Grafikkarte und CPU vom Kühlkonzept sämtlicher anderer aktuell erhältlicher Midi-Tower-Gehäuse abweicht, haben wir es in verschiedenster Testszenarien einem wahren Test-Marathon unterworfen.

Andrew Ku hat vor kurzem zwei Samsung-Tablets unter die Lupe genommen: Das mit einem Atom Z2760 ausgestattete ATIV Smart PC 500T und das auf einem Qualcomm APQ8060A basierende ATIV Tab. Unser US-Chefredakteur Chris Angelini hat sich mit dem Acer Iconia W510 beschäftigt, in dem ebenfalls ein Atom Z2760 steckt, und wird seine ersten Testergebnisse in Kürze veröffentlichen. Hier in Deutschland arbeiten wir gerade an einem Testbericht zu HPs Envy x2, einem x86-Tablet mit eben diesem Atom Z2760 und Tastatur-Dock, der in kürze erscheint.

Durchweg waren die Redakteure waren aber davon beeindruckt, wie die Atom-Tablets, die immerhin mit einer Vollversion von Windows 8 ausgestattet sind, mit dem von einem Nvidia Tegra 3 angetriebenen Microsoft Surface mithalten können.

Wenn man nur den Performanceaspekt betrachtet, liefert sich der Atom Z2760 (Codename ‘Clover Trail’) mit dem Nvidia Tegra 3 einen harten Schlagabtausch bei den Geekbench-Messwerten, gewinnt den Teilbereich Web-Surfen aber überzeugend. Ein weiterer Vorteil ist natürlich, dass der Atom x86-Anwendungen ausführen kann.

Wie ist es möglich, dass die Ergebnisse einiger Performancetests beim Atom-Tablet dramatisch höher liegen und die Laufzeit im Batteriebetrieb mit dem ARM-Tablet vergleichbar ist, obwohl im Atom-Tablet eine kleinere Batterie eingebaut ist? Diese Frage ist schwer zu beantworten, wenn man nicht über ein gut ausgestattetes Labor verfügt. Wir haben daher Intel um Zugang zum gutausgestatteten Intel-Labor ersucht, um die Messergebnisse im Detail nachvollziehen zu können.

Als wir Anfang Januar in Santa Clara waren, hat uns Intel die Messergebnisse des Performanceanalyse-Teams gezeigt, die Testmethodik erläutert und uns sogar Zugang zu den Testgeräten gegeben, damit wir unsere eigenen Messungen vornehmen konnten. Die Intel-Ingenieure haben uns auch im Detail die Stärken und die Schwächen der Clover Trail-Plattform erläutert. Die folgenden Messwerte stammen von Intel, also nicht aus unserem eigenen Labor. Wir haben aber mit einem Gossen Luminanz-Messgerät überprüft, dass die Beleuchtung aller Displays wirklich auf 200 cd/m2 (nits) eingestellt war – denn die Displaybeleuchtung ist ein großer Stromfresser. Der Leistungsbedarf wird übrigens zwanzigmal pro Sekunde gemessen. In diesem Artikel analysieren wir die von Intel publizierten Messwerte und stellen sie den Messwerten, die wir in unserem eigenen Labor ermittelt haben, gegenüber.

Leerlauf: Microsoft Surface (ARM)
Plattform (W) CPU (W) GPU (W) RAM (W) LCD (W) Rest (W)
System Idle (Ideal): Windows 8 UI 2.82 0.0038 0.21 0.25 0.98 1.38
System Idle (Ideal): Desktop 3.00 0.0047 0.21 0.25 1.11 1.42
System Idle: Split Screen 3.64 0.29 0.31 0.37 1.11 1.56
Leerlauf: Acer W510 (Atom)
Plattform (W) CPU (W) GPU (W) RAM (W) LCD (W) Rest (W)
System Idle (Ideal): Windows 8 UI 2.47 0.02 0.11 0.29 0.84 1.22
System Idle (Ideal): Desktop 2.76 0.02 0.11 0.30 1.09 1.24
System Idle: Split Screen 3.37 0.18 0.24 0.36 1.14 1.45

  

Die Leistungsaufnahme der beiden Tablets – Microsoft Surface und Acer W510 – wurde in je drei Situationen gemessen, nämlich im Windows 8 UI, im Windows 8 Desktop und in der geteilten Bildschirmanzeige, wenn eine Windows 8-App eine Seite des Bildschirms beansprucht und der Desktop auf der anderen Bildschirmhälfte angezeigt wird.

Betrachten wir zunächst die Spalte mit der CPU-Leistungsaufnahme. Im Leerlaufbetrieb mit dem Windows 8 UI auf dem Bildschirm verbraucht der Tegra 3 nur 0,0038W, ein bemerkenswert niedriger Wert, während der Atom mit 0,02W auf das Fünffache kommt. Aber bei geteilter Bildschirmanzeige springt der Tegra 3 auf 0,29W, während der Atom mit 0,18W nur zwei Drittel dieser Leistung verbrät.

Die nächste Systemkomponente, die wir uns vornehmen, ist die GPU. Wir wissen natürlich, dass die im Atom eingebaute Grafikeinheit PowerVR SGX545 nur einen einzigen Core aufweist und im 3D-Grafikbetrieb deutlich langsamer als der Tegra 3 ist. Aber wenn man 2D-Anwendungen betrachtet, verbraucht die einfachere Grafikeinheit des Atom auch weniger Strom.

Wenn man die Messwerte in den RAM-Spalten der beiden Prozessoren vergleicht, sieht der Atom sogar schlechter aus als der Tegra. Aber halten wir uns vor Augen, dass der Atom Z2760 zwei 32-Bit-Speichercontroller mit Support für LPDDR2-800 aufweist, also bis zu 6,4 GB/s Speicherbandbreite. Der Tegra T30, der in den meisten Tablets eingebaut ist, verfügt hingegen über einen Einkanal-Speichercontroller, der DDR3-L mit bis zu 1500 MT/s anbinden kann, was nur bis zu 6 GB/s ergibt. Ohne vorgreifen zu wollen – bei den Lasttests wird sich zeigen, dass der Speicherstromverbrauch des Atom unter Last nur geringfügig, der des Tegra aber signifikant zunimmt.

Die anderen Teile der Systemplattform bestehen aus dem LCD und den Peripherieeinheiten, z.B. den LVDS-Treibern, den WLAN- und Bluetooth-Modulen, Audiocodecs, NAND-Flash, Spannungswandlern und dergleichen. Selbst in einer Betriebsart, in der das LCD des Acer-Tablets mehr Strom verbraucht, also der geteilten Bildschirmanzeige, ist der verbleibende Rest der Atom-Systemplattform um 0,1W effizienter.

Ich hatte ja unlängst in unserem Artikel “12 Workstation- und 28 Consumer-Grafikkarten im Gaming-Test und eine handfeste Überraschung” insgesamt 40 Grafikkarten, davon 12 Workstation-Grafikkarten und 28 Gamer-Karten getestet und bei diesem Test durchaus eigenartige bis unerklärliche Ausfälle der zwei großen Tahiti-Karten in Form der FirePro W8000 und W9000 feststellen müssen.

Nach Rücksprache mit AMD und gemeinsamen Tests stellte sich heraus, dass einige Benchmarkergebnisse identisch und andere wiederum komplett abweichend ausfielen. Da ich beide Tahiti-Karten erst am Ende des Durchlaufes getestet hatte und auch die bis dahin gemessenen Ergebnisse absolut plausibel erschienen, hegte ich auch keinen Verdacht, dass mir vielleicht genau bei diesen zwei Karten die Technik einen Strich durch die Rechnung hätte machen können. Da ich zudem die FirePro 8000 später noch in unserer Workstation laufen ließ und diese auch dort ähnlich schlechte Ergebnisse erzielte, war dieses Thema für mich zunächst vom Tisch.

Das Treiber-Team in Toronto schickte mir später für die FirePro W9000 zum Teil sehr abweichende Ergebnisse mit einem nahezu identischen Setting, weshalb ich die W9000 noch einmal in die Tiefenprüfung geschickt habe. Dabei musste ich leider feststellen, dass das verwendete Mainboard durch die Dauerbelastung beim monatenlangen Grafikkartenwechsel gelitten hatte und vor allem bei sehr großen und schweren Karten nicht mehr kontinuierlich alle PCI-Express-Lanes genutzt wurden. Natürlich gerät eine Karte wie die FirePro W9000 mit nur 2- oder 4-facher Anbindung schnell ins hintertreffen. Da dieser Fehler erst im Verlauf der Benchmarks auftrat und beim ersten Gegencheck mit GPU-Z noch alles in Ordnung schien, ist dies alles noch umso ärgerlicher. Ich habe deshalb die Technik getauscht und mit einem äquivalenten Setup für die FirePro W8000 und W9000 einen kompletten Nachtest durchgeführt. Die Ergebnisse finden sich auf den folgenden Seiten.

Stabilität ist oberstes Gebot, schließlich soll der ganze Aufbau ja nicht wackeln wie ein nervöser Lämmerschwanz im Abendwind. Geiz ist geil, und auch ich habe bereits bei einem Online-Händler mit einem (viel zu) günstigen Modell einen grandiosen Schiffbruch erlitten. So eine Art Costa Volksrepublik mit gehöriger Schlagseite für den Desktop, was mir am Ende nichts weiter eingebracht hat, außer einem defekten Monitor und einer Rücksendung. Da ich aber auch keine 250-300 Euro mehr für so ein Teil ausgeben wollte, habe ich bei fast schon verdächtigen 75 Euro schließlich doch noch einmal zugegriffen und es von vornherein auch etwas vorsichtiger angehen lassen. Was aber bekommt man nun für 75 Euro eigentlich? Dass eine Art Haken dabei sein muss, kann man sich natürlich denken. Fragt sich nur, wo eingespart wurde und ob die Ersparnis eher in Richtung geringerer Flexibilität (was tolerierbar wäre) oder in Richtung mangelnder Material- und Herstellungsqualität zu suchen sein wird (was nicht duldbar wäre).

Natürlich muss man bei diesem Preis eine generelle Einschränkung einkalkulieren: es gibt so etwas nicht mit eigenem Standfuß, sondern nur mit  Tischmontage über Klemmen. Da ich aber damit leben kann, steht einem Selbstversuch nichts mehr im Wege. Auf dem Bild sah das Teil ja stabil aus, sodass ich wirklich gespannt bin, was mich und meine Monitore diesmal erwartet. Tragfähige Lösung zum kleinen Preis oder der übliche Billigschund zum Knicken? Schaun wir doch mal….

Einsteigertablet zum Kampfpreis: Acer Iconia B1Einsteigertablet zum Kampfpreis: Acer Iconia B1

In Zeiten einbrechender PC- und stagnierender Notebook-Verkäufe sehen viele Hersteller und Anbieter von Hardware den Tablet-Markt als Heilsbringer oder letzte Chance. Anders ist es kaum zu erklären, warum in den vergangenen Monaten zahlreiche neue Marken erschienen sind und kaum ein Tag vergeht, an dem nicht „das innovativste und überhaupt tollste“ Tablet vorgestellt wird. Trotz der Flut an neuen Geräten finden sich auch immer wieder ein paar Leckerbissen. Für die sind meist die Großmächte Apple, Google, Asus und Co. verantwortlich. Doch aktuell sorgt Acer mit seinem im Rahmen der CES in Las Vegas vorgestellten Einsteiger-Tablet Iconia B1 für Aufsehen: Für unter 120 Euro soll das B1 mit ansprechender Leistung, guter Verarbeitung und einfacher Bedienung punkten. Das haben uns jedoch schon einige Hersteller versprochen. Halten konnte das in dieser Preisklasse bis dato jedoch noch keiner.

Das Datenblatt liest sich jedenfalls schon ganz ordentlich: Dual-Core-CPU mit 1,2 GHz Taktfrequenz, erweiterbarer 8 GB-Speicher und 512 MB RAM. Das Display misst 7 Zoll, die Auflösung beträgt 1024 x 600 Punkte. Für ein Tablet dieser Preisklasse klingen die Eckdaten mehr als vernünftig. Der Test wird zeigen, was Acer daraus gemacht hat.

Das B-77 von Microlab hatte ich ja bereits unlängst in unserem Roundup mit fünf Audiosystemen getestet, wobei mich das Ergebnis nicht wirklich vom Hocker gehauen hat. Da es sich jedoch schon um ein etwas älteres System handelt, bin ich auch so fair und teste ein aktuelleres 2.0-System nach, das mich in Form des Solo-15 erreicht hat. Man bewegt sich hierbei natürlich statt im 60-Euro- nunmehr im 100-Euro-Bereich, wobei man unter 100 Euro wirklich kaum Klangwunder erwarten darf. Ich bin jedenfalls gespannt, ob Microlab mit dem Solo-15 im Vergleich nicht nur einen winzigen Quantensprung, sondern vielleicht einen richtigen Warpsprung in eine andere Klang-Galaxie geschafft hat. Natürlich bewegt man sich bei 100 Euro Einstiegspreis immer noch nicht in der richtigen Mittelklasse, aber ein wenig an ihr kratzen könnte man damit eigentlich schon. Ich lasse mich überraschen und verweise zunächst erst einmal auf die Herstellerangaben zum Gerät.

Technische Daten im Überblick
Typ 2.0 System, aktive 2-Wege Bassreflexboxen
Ausgangsleistung 2x 40 Watt RMS (bei <0.3% Klirrfaktor bei 1 Watt und 1 KHz, Herstellerangabe)
Verstärkertyp Integrierter Verstärker
Frequenzbereich 40 Hz bis 20 kHz
Fremdspannungsabstand 70 dB
Übersprechen 50 dB
Abmessungen Lautsprecherbox 31,5 cm (Höhe) x 16,8 cm (Breite)  x 23,8 cm (Tiefe)
Material MDF, beschichtete Oberfläche 
Front aus Kunststoff, nicht abnehmbar
Treiber 25,4 mm Hochtöner
13,3 mm Mittel-Tiefton-Chassis
Eingänge 2x RCA L/R (Chinch), nicht umschaltbar
Ausgänge keine
Zubehör – Lautsprecherkabel (nicht verzinnt)
– 1,5 m Cinch-Kabel (RCA to RCA)
– Handbuch
Leistungsaufnahme Idle: 10,1 W
Vollast: ca. 82 Watt
Schutzschaltungen Keine
Netzspannung 230V, 50/60Hz
Preis ca. 100 Euro

  

Im Gegensatz zum B-77 merkt man bereits jetzt, dass der Preis wohl eher zum Produkt passt. Anders ausgedrückt: Man erhält auch auf dem Papier im Verhältnis durchaus mehr fürs Geld. Ob sich dieser Trend dann in der Praxis fortsetzt, muss dann der Test beweisen. Vorab kritisieren muss ich aber den unverhältnismäßig hohen Verbrauch im Leerlauf, denn die gemessenen 10.1 Watt sind heute eigentlich nicht mehr zeitgemäß. Auch ein dezenter Netzbrumm ist noch hörbar, wenn man das Ohr direkt vor die Lautsprecher hält. Das Grundrauschen ist hingegen bei geschlossenem Kanal kein Thema.

Externe Festplatten haben in Zeiten schneller USB-3.0-Sticks ihre Daseinsberechtigung nicht verloren, denn speziell wenn es darum geht, umfangreiche Datenmengen schnell und unkompliziert von einem Ort an einen anderen zu befördern, sind sie den Speicherstiften überlegen. Bei Datenvolumina jenseits der 1 TB muss außerdem nicht mehr zwangsläufig eine 3,5-Zoll-Festplatte herhalten, denn 2,5-Zoll-Laufwerke haben in Sachen Speicherplatz gehörig aufgeholt und bringen es mittlerweile auf bis zu 2 TB Kapazität, die Hälfte dessen, was ihre großen Kollegen aufzunehmen imstande sind.

USB 3.0 hat externen Speichermedien im allgemeinen neuen Schwung verpasst, denn das “Superspeed”-Interface löst die Tempo-Blockade des USB-2.0-Vorgängers, die keine Übertragungsgeschwindigkeit jenseits der 40 MB/s zuließ, unabhängig davon, wie schnell das Speichermedium tatsächlich Daten lesen und schreiben konnte. Doch auch ohne diesen Bremsklotz ist USB 3.0 kein Garant für hohe Transferraten. Genau das zeigte sich im Praxistest, den wir mit einer Auswahl aktueller 2,5-Zoll- und 3,5-Zoll-Festplatten durchgeführt haben. Mit dabei sind die folgenden Laufwerke:

Externe 2,5-Zoll-Laufwerke im Test

  • Extrememory Portable HDD 3.0
  • G-Technology G-Drive Slim
  • LaCie Porsche Design Mobile Drive P’9220
  • LaCie Porsche Design Mobile Drive P’9223
  • Toshiba STOR.E SLIM
  • WD My Passport for Mac

Externe 3,5-Zoll-Laufwerke im Test

  • LaCie Porsche Design Mobile Drive P’9233
  • Toshiba STOR.E CANVIO DESKTOP

  

Wer den ersten Teil des Artikels mit dem Basis-PC noch nicht gelesen hat (Silent-Gaming-Projekt (1) – Wir bauen den 0dB Basis-PC), sollte dies zunächst nachholen. Doch kommen wir zum Thema der Fortsetzung. In so einem kleinen Gehäuse ist der Passivbetrieb mehrerer Komponenten natürlich immer eine gewisse Herausforderung, vor allem auch dann, wenn man nicht mit perforierten Kleincontainern oder teuren Heatpipe-Systemen arbeiten möchte. Ich werde insgesamt 3 verschiedene Grafikbestückungen testen. Zum Einsatz kommen eine passive Radeon HD 7750 iSilence 5 von HIS, eine von mir für den Passivbetrieb umgebaute GeForce GTX 650 OC von Sparkle und ein Dual-GPU-System mit einer CrossfireX-Bestückung aus der A10-5700 und einer passiven Radeon HD 6670 iSilence 5 von HIS. Der aufmerksame Leser wird sich natürlich fragen, wieso eine Radeon HD 6670 für das CrossfireX verwendet wurde, da die Trinity-APUs ja neueren Datums sind. Die Antwort ist recht einfach, da die verwendete Grafikeinheit der A10-5700 noch nicht über die GCN-Architektur verfügt, sondern ungefähr einer Radeon HD 6570 entspricht.

Ich will ehrlich sein und auch nicht verschweigen, dass man bei einer Vollbestückung aus APU und Grafikkarte mit dann weit über 100 Watt Abwärme und so einem kleinen und recht geschlossenen System an gewisse Grenzen stoßen kann, wenn die Zimmertemperatur über 25°C ansteigt. Was dann zu tun ist und wie man sich trotzdem einen Hauch von Silent bewahrt, soll eine kleine Bastelanleitung veranschaulichen, bei der ein ultraleiser Lüfter nur bedarfsweise zugeschaltet wird. Ein gutes Mainboard kann das sogar übers BIOS, wenn man es zielgerichtet nutzt, ansonsten bleibt nur ein thermisch gesteuerter Zu- und Abschalter, der dann als Basteltipp daher kommt. Doch Genug der Einführung, stürzen wir uns in die Praxis.

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen