Monat: November 2011

Antec veröffentlicht P280 Gehäuse

Berlin, 30.11.2011 – Antec Deutschland GmbH. freut sich, das neueste Mitglied der preisgekrönten Performance One Gehäuseserie, das P280, anzukündigen. 

Das P280 spiegelt das anspruchsvolle Design und die Quiet Computing ™ Technologien seiner Performance One Vorgänger wieder und bietet für Enthusiasten und Gamer gleichzeitig eine Reihe neuer Funktionen zu einem attraktiven Preis.

In Weiterführung der Performance One Tradition, integriert das P280  geräuschreduzierende Technologien wie schalldämmenden Stahl und Seitenwände aus Polykarbonat, eine dreilagig verstärkte Fronttür, sowie Festplatteneinschübe mit schwingungsdämpfenden Silikonunterlagen. Seine schlichte Ästhetik spricht sowohl Gamer als auch Enthusiasten an, die Wert auf ein stilvolles und funktionales Gehäuse legen.

Vom vergrößerten Innenraum, bis zu den Luftfiltern und Lüftern, ist jede Funktion des P280 darauf ausgerichtet, High-End Systeme aufzunehmen. Motherboards bis zur XL-ATX Größe werden genauso unterstützt wie Vier-Wege Grafikkarten und bieten damit eine neue Ebene der Erweiterbarkeit in der Performance One Serie. 

Dank Antec’s Verständnis für Komfort und Benutzerfreundlichkeit bietet das P280 werkzeuglose Laufwerksschächte für optische Laufwerke, 3,5-Zoll Schlitten mit Kompatibilität zu 2,5-Zoll Laufwerken, 30mm Platz hinter der Motherboard-Auflage für beispielloses Kabelmanagement und insgesamt sechs großzügigen Kabeldurchführungen von denen vier gummiert sind. Die Frontseitigen Luftfilter, genauso wie der Luftfilter beim Netzteil, lassen sich auf einfachste Weise entfernen ohne das Seitenteil abzunehmen oder das Gehäuse kippen zu müssen.

Dennis Pang, Produktmanager für Gehäuse und Accessories bei Antec „Die Performance One Serie hat schon immer einen besonderen Platz im Herzen unserer User eingenommen. Komfort & einfache Bedienung gekoppelt mit einem günstigen Preis, sollen dafür sorgen, dass die sich bestehenden,  als auch neuen Kunden der Performance One Serie für das P280 entscheiden”.

Das  P280 ist ab Mitte Dezember in der Schweiz und Österreich, sowie exklusiv bei Alternate in Deutschland erhältlich. Ab dem 01.01.2012 ist das P280 überall in Deutschland verfügbar. Der empfohlene Verkaufspreis beträgt € 139. 

Für weitere Informationen zum P280, besuchen Sie bitte unsere Webseite unter http://www.antec.com

Weitere Informationen stehen auf der offiziellen Facebook Seite von Antec Deutschland unter

facebook.com/AntecDeutschland sowie auf Antec Twitter und dem Antec YouTube Kanal unter watchAntecTV zur Verfügung.

Über Antec, Inc.

Seit der Gründung im Jahr 1986 hat Antec sich zu dem weltweit führenden Hersteller von Computer-Hardware und -Zubehör für den Upgrade- und DIY-Markt etabliert.

Antec hat bei Gehäusen verschiedene Serien im Programm: zum Beispiel die hochperformante  Performance One-Serie, die kosteneffektive  New Solution Serie, die innovativen Gaming-Gehäuse der Hundred Serie, leistungsfähige MiniITX Gehäuse der ISK-Serie und natürlich elegante HTPC Gehäuse der Veris-Serie. Ebenfalls zur Antec Produktpalette gehören die sehr innovativen Netzteilserien, die leistungsfähig, hocheffizient und natürlich entsprechend leise sind.

Abgerundet wird das Antec-Portfolio mit Antec advance, den patentierten LED-Lüftern, den hocheffektiven Notebook Cooling-Lösungen und einer Kollektion mit hochwertigen CPU-Kühlern.

Soundscience ist eine hundertprozentige Tochtergesellschaft von Antec. Sie produziert Audio- und Video-fähige Lifestyle-Produkte sowie Zubehör für PCs und für das Home Entertainment.

Vor acht Jahren führte Antec seine Produkte auf dem europäischen Markt ein und ist in Deutschland bei allen wichtigen Distributoren, sowie im Einzel- und Fachhandel erhältlich.

Der Hauptsitz von Antec befindet sich in Fremont, Kalifornien, die europäische Hauptniederlassung in Rotterdam. In Deutschland ist Antec mit dem Marketing-Headquarter in Berlin, sowie einem Vertriebsbüro in München vertreten. Die Produkte von Antec werden in mehr als 40 Ländern weltweit verkauft.

Zunächst ist es natürlich interessant, wenn man sich ein Gehäuse zum Test besorgen kann, das es so noch gar nicht auf dem Markt gibt. Wenn dieser Erlkönig dann nicht nur gewichtig und mächtig ausschaut, sondern im Inneren voller netter Überraschungen und Features steckt, dann macht das Testen (und Entdecken) erst richtig Spaß. Und das Beste: Wir haben es noch knapp vor der ersten Lieferung nach Europa geschafft, diesen völlig neu entworfenen Versuch von Xilence, im Big-Tower-Sektor neue Maßstäbe zu setzen, auch als Artikel online zu stellen. Wir bitten an dieser Stelle den Hersteller, unsere permanente Neugier zu entschuldigen (die wir gern mit unseren Lesern teilen), aber das musste einfach raus. Und eines wollen wir natürlich wie immer auch kritisch hinterfragen: Stimmen hier Anspruch und Produktrealität wirklich überein?

“Interceptor Pro” klingt martialisch, die Breite von 23 cm, eine Höhe von 78 cm und die Tiefe von 60,5 cm sind es auch. Wohlgemerkt – das sind die reinen Netto-Maße ohne Füße! Gigantische 0.10 m³ Rauminhalt, also immerhin 100 Liter bzw. so viel wie 200 Flaschen Bier (10 große Kästen), bieten Platz für Hardware ohne Grenzen. Beeilen wir uns, denn die Zeit drängt…

Es kommt nicht oft vor, dass ein Grafikkartenhersteller nur fürs Weihnachtsgeschäft eine Sonderausgabe eines seiner Produkte herausbringt. Genau das tut Nvidia aber heute mit der GeForce GTX 560 Ti 448 Core.

Vom Namen her würde man erwarten, dass es sich bei diesem Modell um eine frei geschaltete oder irgendwie “erweiterte” Version der bisherigen GTX 560 Ti handelt, aber das ist nicht der Fall. Wir erinnern uns: Die GF114-GPU, die eine GeForce GTX 560 Ti antreibt, stellt bereits deren Vollausbau mit 384 Shader-Kernen dar; es ist nichts abgeklemmt oder deaktiviert. Stattdessen hat Nvidia zur großen Schwester, der GF110-GPU der GeForce GTX 570, gegriffen und bei dieser den Rotstift angesetzt. Das Ergebnis ist die neue GeForce GTX 560 Ti 448 Core.

Diesen Grafikchip stellte Nvidia erstmals als Herzstück des aktuellen Single-GPU-Flaggschiffs GTX 580 vor, und er wurde für den Einsatz in der GTX 570 leicht zurück gestutzt. Als GTX 560 Ti 448 Core muss sich der GF110-Chip einer weiteren wenn auch moderaten Schlankheitskur unterziehen.

GeForce GTX 560 Ti 448 Core: Die Eckdaten

Gegenüber der GeForce GTX 580 hat Nvidias Weihnachtsausgabe der GTX 560 Ti zwei Streaming Multiprocessors (SMs) eingebüßt, denn die GeForce GTX 560 Ti 448 Core kann nur auf 14 der 16 verfügbaren SMs der GF110-GPU zugreifen. Jeder aktive SM verfügt über 32 Shader-Kerne und vier Textureinheiten. Außerdem sind fünf der sechs 64-Bit ROP-Partitionen aktiv, von der jede acht 32-Bit-Ganzzahl-Pixel pro Takt ausführen kann.

So kommt diese Karte auf insgesamt 448 Shader-Cores, 56 Textureinheiten, 40 ROPs und ein 320 Bit breites Speicher-Interface. Schon aufgrund der Abstammung überrascht es nicht, dass die Platine zwei 6-Polige PCIe-Stromanschlüsse trägt. Da es sich bei der GeForce GTX 560 Ti 448 Core um ein High-End-Modell handelt, unterstützt sie dank zweier SLI-Brücken den Mehrkartenbetrieb in Konfigurationen mit zwei, drei und sogar vier Karten. Natürlich kann man sie aber nicht mit einer normalen GTX 560 Ti verkuppeln sondern nur mit anderen 448-Core-Karten. Wer sich also einen SLI-Verbund aus diesen Karten zusammenstellen will, sollte gleich zugreifen und mehrere Karten ordern; immerhin sollen sie nicht wirklich lange verfügbar bleiben. 

Nvidias GF110-GPU wie sie in der GTX 560 Ti 448 steckt.Nvidias GF110-GPU wie sie in der GTX 560 Ti 448 steckt.

Wenn unseren Lesern diese technischen Daten bekannt vorkommen, so ist das kein Zufall; genau so sah auch Nvidias inzwischen ausgelaufene GTX 470 auf dem Papier aus. Anders betrachtet ist die GeForce GTX 560 Ti 448 Core eigentlich nichts weiter als eine GeForce GTX 570, bei der ein SM abgeschaltet worden ist. Das bedeutet auch, dass sich Nvidias Weihnachtsausgabe an deren Taktfrequenzen orientiert: Die GPU rechnet mit 732 MHz, die Shader laufen mit 1464 MHz, und der Takt des GDDR5-Speichers liegt bei 950 MHz.

Aus der Erfahrung mit den anderen im Laufe des vergangenen Jahres vorgestellten Nvidia-Karten dürfen wir also erwarten, dass die Performance der GeForce GTX 560 Ti 448 Core irgendwo zwischen der GeForce GTX 560 Ti und der GeForce GTX 570 anzusiedeln ist. Wer mehr über Nvidias aktuelle Grafikchips und deren Architektur wissen möchte, sollte sich folgende Artikel anschauen:

Nvidias GeForce GTX 560 im Test: Geht’s auch ohne Ti?
Nvidia Geforce GTX 560 Ti im Test: sparsam, kühl und leise
GeForce GTX 570: Die bessere GTX 480
Fermi schlägt Fermi: GF110 alias GeForce GTX 580 im Test
GeForce GTX 480 und 470: Nvidias schnelles heißes Eisen

Bei so vielen Familienähnlichkeiten ist eine Tabelle die sinnvollste Art, die verschiedenen Modelle zu vergleichen. Schauen wir uns die vier Karten also noch einmal an:

GeForce GTX 560 Ti GeForce GTX 470 GeForce GTX 560 Ti 448 Core GeForce GTX 570
Shader-Cores 384 448 448
480
Textureinheiten 64 56 56 60
Full Color ROPs 32 40 40
48
Grafikkerntakt 822 MHz 607 MHz 732 MHz 732 MHz
Shadertakt 1644 MHz 1215 MHz 1464 MHz 1464 MHz
Speichertakt 1002 MHz 837 MHz 950 MHz
950 MHz
GDDR5-Speicher 1 GB 1280 MB 1280 MB 1280 MB
Speicherinterface 256-bit 320-bit 320-bit 320-bit
Bauhöhe Dual-slot Dual-slot Dual-slot Dual-slot
Stromanschlüsse 2 x 6-pin 2 x 6-pin 2 x 6-pin 2 x 6-pin

Nvidia betonte uns gegenüber, dass die GeForce GTX 560 Ti 448 Core keine bestehende Karte ablöst. Außerdem werden die Karten exklusiv über folgende Boardpartner zu bekommen sein: Asus, Evga, Gainward, Gigabyte, Inno3D, Palit, MSI und Zotac. Zudem wird dieses Modell nur in den Vereinigten Staaten, Kanada, Deutschland, dem Vereinigten Königreich, Frankreich, Russland und den skandinavischen Staaten verkauft.

Anfangs rätselten wir, was Nvidia dazu bewogen hat, diese Karte aufzulegen. Vielleicht hatte man ja eine relativ kleine Menge an GF110-GPUs auf Lager, die aus irgendeinem Grund nicht für eine GeForce GTX 570 taugten (Stichwort: Teildefekt). Genauso wäre es möglich, dass man einfach für das Jahresendgeschäft ein Modell im Programm haben wollte, das die Lücke zwischen zwei bestehenden Modellen schließt. Oder ist diese Karte einfach nur eine Art “Testballon” um auszuloten, ob es eine Käuferschaft für eine Karte gibt, die zwischen der GeForce GTX 560 Ti und GTX 570 angesiedelt ist?

Als wir bei Nvidia nachfragten, stellten sich unsere ersten beiden Vermutungen als Volltreffer heraus: Wie jeder Hersteller betreibt auch Nvidia sogenanntes “binning”, sortiert also seine GPUs nach erreichbarer Taktrate und funktionierenden Ausführungseinheiten. Nun hatten sich wohl einige GF110-GPUs mit nur 14 funktionierenden SMs angesammelt, und man entschied sich, diese auf einer speziellen Karte als Weihnachtssonderausgabe zu verbauen. So wurde die GeForce GTX 560 Ti 448 Core geboren. Doch egal wie exklusiv die Karte letztlich ist und wie viele oder wenige davon am Ende in den Regalen zu finden sein werden: Entscheidend für ihren Erfolg wird wie bei allen anderen Karten sein, wie viel Performance sie fürs Geld liefert.

Bulldozer im Effizienzvergleich

AMDs neue FX-Prozessorreihe ist auf Energieeffizienz zugeschnitten, sagt der Hersteller. Wir haben ihn beim Wort genommen und anhand diverser Overclocking-Einstellungen untersucht, wie gut die Bulldozer-CPU unter diesem Aspekt abschneidet und wo sie sich gegenüber der Intel-Konkurrenz einordnet.

Mit Spannung erwartet, doch zwiespältig in der Performance und aktuellen Intel-Konkurrenten wie Core i5-2500K und Core i7-2600K eher unter- als überlegen: AMDs neue Prozessorfamilie FX, sieben verschiedene Versionen umfassend und bekannt unter ihrem Mikroarchitektur-Namen Bulldozer. Diese konnte die hochgesteckten Erwartungen, bedingt durch die interne Organisation der Prozessorkerne, jedoch nicht ganz erfüllen (AMD FX-8150 im Test: Der Bulldozer rückt an). Trotz der Performance-Querelen gebührt dem Hersteller Lob für seine CPU, denn AMD hat viele der Design-Entscheidungen laut eigener Aussage speziell dazu getroffen, um die Effizienz des Bulldozers zu erhöhen.

Die Hardware-Voraussetzungen für einen Strom sparenden Betrieb bringt der AMD FX allemal mit, darunter zum Beispiel seine Strukturbreite von 32 Nanometer, 8 MB L3-Cache und maximale Taktraten von 4,3 GHz. Hinzu kommen das auf effiziente Auslastung getrimmte Kerndesign mit bis zu 8 Kernen (respektive 4 Modulen nach AMDs FX-Zählweise für Kerne) sowie das seit dem AMD Phenom II bekannte Feature TurboCore.

Bessere CPU-Auslastung durch TurboCore der zweiten Generation

TurboCore zielt darauf ab, die CPU möglichst optimal auszunutzen. Dazu wird die Energieaufnahme jedes Moduls in Echtzeit überwacht und die Taktfrequenz erhöht, wenn ein definierter thermischer Spielraum das zulässt. Lastet eine Anwendung den Prozessor nicht vollständig aus, wechselt TurboCore zwischen dem Basistakt und einer höheren Taktfrequenz hin und her und kann so eine bessere Gesamtleistung erzielen. Mit der FX-Reihe hat AMD das TurboCore-Feature weiter verbessert, wodurch der Bulldozer gegenüber dem Phenom II zwischen drei statt vormals zwei Taktstufen wechseln und damit noch genauer arbeiten kann. Auf das Bulldozer-Spitzenmodell FX-8150 mit acht Kernen/vier Modulen umgerechnet, wird der Basiszustand (genannt P2) immer erreicht, und der mittlere Zustand P1 lässt sich auch dann aktivieren, wenn sämtliche vier Module aktiv sind. Der höhere Zustand P0 kann dagegen nur dann eintreten, wenn zwei der vier Module ungenutzt bleiben.

Wie effizient arbeitet der Bulldozer?

So energiesparend die Bulldozer-Features auch anmuten, die entscheidende Frage bleibt, wie viel davon die CPU in der Praxis umsetzen kann. Außerdem wollen wir herausfinden, wo der Effizienzpunkt des Bulldozers liegt, an dem das System bei möglichst geringer Spannung und damit möglichst geringem Stromverbrauch optimal läuft. Für diese Untersuchung kommt es sehr gelegen, dass sämtliche FX-Modelle einen freien Multiplikator besitzen, was zusammen mit den ebenfalls frei über das BIOS unseres Testsystems einstellbaren Werten für Taktfrequenz und CPU-Spannung eine feine Abstufung erlaubt. Um die effizientesten Einstellungen zu ermitteln, haben wir das Gespann aus dem Bulldozer-Spitzenmodell AMD FX-8150 und dem Test-Mainboard Asus Crosshair V Formula mit insgesamt sechs verschiedenen Setups für Taktfrequenz, CPU-Spannung und CPU-Multiplikator durch unseren Testparcours geschickt.

Enthusiasten auf der Suche nach neuem Speicher haben die Qual der Wahl. Entweder könnte man sich eine preiswerte, jedoch recht langsame Festplatte mit ausreichend großer Kapazität zulegen, andererseits lockt die schnelle SSD, die allerdings pro Gigabyte deutlich mehr kostet und zudem spürbar weniger Kapazität bietet. Wie groß der Aufpreis für die höhere Performance bei der SSD ausfällt, zeigt ein Rechenbeispiel: Selbst nach der durch die Festplattenknappheit verursachten Preisanpassung ist eine 2-TB-HDD für etwa 130 Euro erhältlich. Zum Vergleich: Für den gleichen Preis bekommt man bestenfalls eine SSD mit 120 GB. Bei der Festplatte liegen die Kosten damit bei 0,065 Euro pro GB; bei der SSD sind es ganze 1,075 Euro pro GB.

Wofür soll man sich also entscheiden? Für Kapazität oder Performance?

Das OCZ RevoDrive HybridDas OCZ RevoDrive Hybrid

Wer nur ungern auf die Vorzüge beider Produkte verzichtet, der kann sich sein Budget entsprechend aufteilen und in ein kleineres SSD-Laufwerk und eine nicht ganz so große Festplatte investieren. Der Nachteil an dieser Lösung ist, dass der Anwender den Speicherplatz aktiv verwalten und dabei entscheiden muss, welche Daten auf welches Laufwerk wandern sollen.

OCZ will mit seinem RevoDrive Hybrid eine etwas einfachere Lösung bieten und kombiniert die Kapazität einer 1-TB-Festplatte mit einem 120 GB großen RevoDrive 3, das fürs Caching der Daten zuständig ist. Zumindest auf dem Papier bekommt man so eine Speicherlösung mit der Geschwindigkeit einer SSD und der Kapazität einer Festplatte, aber zum Bruchteil des Preises einer echten Flash-Lösung dieser Größe.

Mit einem Straßenpreis von knapp unter 400 Euro für die in Deutschland erhältliche Variante mit 100 GB Flash-Speicher erinnert das RevoDrive Hybrid zwar immer noch eher an eine SSD, aber der Pro-GB-Preis fällt mit 0,40 Euro deutlich freundlicher aus. Die 120-GB-Version der Vertex 3 kostet nach wie vor ca. 1,291 Euro pro Gigabyte, das RevoDrive 3 mit 120 GB sogar fast das Doppelte.

Vertex 3 RevoDrive 3 RevoDrive Hybrid
Modell 120 GB 120 GB 1 TB + 100 GB RevoDrive 3
Max. sequentielles Lesen 535 MB/s 975 MB/s 910 MB/s
Max. sequentielles Schreiben 480 MB/s 875 MB/s 810 MB/s
Max. zufälliges Schreiben (4 KB) 80 000 IOPs 120 000 IOPs 120 000 IOPs
Straßenpreis ab 155 Euro ab 310 Euro ab ca. 384 Euro
Preis pro GB 1,291 Euro 2,575 Euro ~ 0,38 Euro

Bislang haben SSD-Caching-Lösungen bei uns einen eher gemischten Eindruck hinterlassen. Intels Smart-Response-Technology gefiel uns vor allem deshalb, weil sie gleich in den Z68-Chipsatz integriert ist und man nur eine SSD 311 auf SLC-Basis für knapp über 100 Euro braucht, um sie zu nutzen. In der Praxis sind die Performance-Verbesserungen stark situationsabhängig und entsprechen kaum dem, was man sich von einer SSD letztlich erhofft. Das gilt im Prinzip auch für Add-In-Lösungen wie Highpoints RocketHybrid. Deshalb empfehlen wir Enthusiasten auch weiterhin eine Kombination aus SSD und herkömmlicher Festplatte.

So lautete zumindest bislang unser Fazit aufgrund der bisher getesteten Caching-Lösungen. Solche Produkte werden oftmals durch eine kleine SSD oder eine langsame Festplatte eingeschränkt. OCZ ist das erste Unternehmen, das eine völlig andere Lösung entwickelt hat: eine Kombination aus Solid-State-Laufwerk und magnetischem Speicher. Dieses Produkt bietet die Geschwindigkeit eines RevoDrive 3 ohne dabei auf die Kapazität einer herkömmlichen Festplatte verzichten zu müssen – zumindest laut Datenblatt.

Die Mehrheit der Menschen lebt heutzutage in Städten, und diese zeigen schon bei einer mittleren Größe, dass das Auto als Fortbewegungsmittel nicht immer das geeignetste ist. Bis zum Ziel quält man sich von einer Ampel zur anderen, um am Ziel Ewigkeiten damit zu verbringen, einen Parkplatz zu suchen. Doch steigt man in den Bus, eine Straßen-, U- oder S-Bahn, kann der Weg doch länger werden.

Es braucht also Beschäftigung: Man nimmt sich ein Buch oder eine Zeitschrift mit, oder eine tragbare Spielkonsole, mit der man zwischen den einzelnen Haltestellen das eine oder andere Abenteuer, Autorennen oder Fußballspiel bestehen kann. Allerdings können sich zusätzliche Geräte schnell störend in der Tasche bemerkbar machen. Smartphones, die zwar ausreichend große Displays und genügend Rechenleistung besitzen, sind allerdings von der Handhabung nicht unbedingt aufs Spielen ausgelegt. Für etwas versierteres Gameplay sind die Steuerungsmöglichkeiten schnell ausgereizt.

Diese Lücke versucht das Sony Ericsson Xperia Play zu schließen. Dieses soll nicht nur ein leistungsfähiges Smartphone sein, sondern mit einer dem Controller der Sony Playstation I nachempfundenen Game-Steuerung auch eine leistungsfähige mobile Spielkonsole sein.

Sony Xperia Play: Schickes Smartphone mit Playstation-Game-ControllerSony Xperia Play: Schickes Smartphone mit Playstation-Game-Controller

Erster Eindruck

Das Sony Xperia Play fällt auf den ersten Blick auf. Das schwarzgerahmte Display ist in ein weißes, glänzendes Gehäuse eingesetzt, die beiden mächtigen Flanken sind in Chrome gefasst. Verstecken ist nicht unbedingt die Sache des Xperia Play. Dies gilt auch dann, wenn man das Smartphone in der Unordnung der eigenen Taschen sucht. Mit 175g ist das Gerät alles andere als ein Leichtgewicht. Dies ist dem Gamepad geschuldet, das sich unter dem im Querformat aufschiebenden Display verbirgt und dem Xperia seinen Beinamen Play gab. Durch seine insgesamt sehr rundliche Form und auch durch das recht hohe Gewicht liegt das Sony-Smartphone satt in der Hand. Eine wichtige Eigenschaft, die sich nicht zuletzt beim Spielen positiv bemerkbar macht.

Das bedeutet aber auch, dass das Gerät nicht nur recht gewichtig ist, sondern darüber hinaus mit recht staatlichen Ausmaßen daherkommt. Zwar ist eine Grundfläche von 119 x 62 mm nichts außergewöhnliches für ein Smartphone mit einem 4″ großen Display, eine Höhe von 16 mm ist es aber durchaus. An dieser Stelle fordert der Slider-Mechanismus seinen Tribut. Für einen dauerhaften Begleiter beansprucht das Xperia Play recht viel Platz in der Hosen- oder Jackentasche und fühlt sich hier deutlich unangenehmer an als andere Geräte mit vergleichbar großen Displays, aber einer geringeren Bauhöhe.

Ansonsten kann die Verarbeitung des Sony-Smartphone überzeugen. Hier zeigt sich auch mal, dass eine Klavierlack-Lackierung durchaus sinvoll sein kann – wenn diese weiß ist: Fingerabdrücke und selbst kleinere Kratzer stören weit weniger als bei Vertretern in schwarzem Gewand; das dürfte vermutlich beim Xperia Play der Fall mit dunklem Gehäuse der Fall sein. Auch an anderen Stellen zeigt der Hersteller, dass er sich schon eine Weile mit der Entwicklung von mobilen Devices beschäftigt und überzeugt mit netten Detaillösungen. So muss der Akku nicht entfernt, das Gerät somit nicht ausgeschaltet werden, wenn Speicher- oder SIM-Karte gewechselt werden sollen.

Doch das Smartphone bietet auch Anlass zur Kritik: So kann der Slider-Mechanismus, der das unter dem Bildschirm liegende Gamepad freigibt, nicht vollends überzeugen. An der Verarbeitung gibt es nichts auszusetzen, doch lässt sich das Display gerade zu Beginn mit nur wenig Druck nach oben bewegen. Dadurch wirkt der Mechanismus etwas klapprig.

Einen Kompromiss musste der Hersteller bei der Kopfhörerbuchse finden. Diese befindet sich normalerweise an der Oberseite des Geräts, damit dieses möglichst wenig Platz in der Hosentasche beansprucht. Beim Xperia Play würde der Kopfhörer jedoch bei der Benutzung der beiden Funktionstasten an der oberen Längsseite stören und findet sich daher an der linken Unterseite. Soll das Smartphone auch als mobiler MP3-Player genutzt werden, ist es ratsam die engen Jeans gegen Baggy-Pants zu tauschen.

Nachdem es in der Vergangenheit bei Tom’s Hardware rund um das Thema Monitor-Tests recht ruhig geworden ist, haben wir uns entschlossen, künftig wieder ausführliche Monitor-Roundups zu bringen. Basis der Vergleiche sind natürlich fundierte und aussagekräftige Labortests, die wir ihn Kooperation mit den Monitor-Experten des renommierten Internet-Portals PRAD (www.prad.de) durchführen. Für das erste „Roundup der Neuzeit“ haben wir uns die aktuell wohl beliebtesten Monitorgrößen für Office- und Multimedia-PCs ausgesucht – mit 23 bzw. 24 Zoll Bildschirmdiagonale. Das bunt gemischte Testfeld setzt sich zusammen aus drei 24-Zöllern, dem Dell Ultrasharp U2412M, dem Asus ML249H und dem BenQ EW2430. Aus dem 23-Zoll-Lager stammt der B23T-6 LED von Fujitsu. Zum Testzeitpunkt reichte die Preisspanne der vier getesteten Monitore im Internet von etwa 180 Euro bis etwa 260 Euro.

Grundsätzlich eignen sich alle Monitore im Testfeld für den Einsatz im Büro – unabhängig davon, ob die Hersteller ihre Modelle auch speziell auf diese Anforderungen abgestimmt haben. Dennoch wollten wir wissen, ob die Monitore auch für Multimedia-Aufgaben oder zum Spielen geeignet sind. Denn nicht jeder hat das Geld oder den Platz für mehrere Monitore.

Unser Augenmerk legen wir in erster Linie auf die Parameter, wie Helligkeit, Kontrast und Schwarzwert sowie die Helligkeitsverteilung und die Homogenität der Farbdarstellung, die maßgeblichen Einfluss auf die Bildqualität haben. Ebenso wichtig sind die Blickwinkelabhängigkeit des Displays sowie die Qualität der Farbwiedergabe. Gerade bei der Wiedergabe von Filmmaterial und beim Spielen spielt die Reaktionszeit eine wichtige Rolle, um Schliereneffekte zu vermeiden. Um einen aussagekräftigen Gesamteindruck eines Monitors zu gewinnen, betrachten wir natürlich auch die Verarbeitung, die Ausstattung sowie die Ergonomie der Geräte.

Sandy Bridge-E im Effizienzvergleich

Mit dem aktuellen Core i7-3960X auf Basis des 32 nm Sandy Bridge-E hat Intel abermals mehr Performance geliefert. In unserem Testartikel Intels Core i7-3960X im Test: Sandy Bridge-E und der X79-Chipsatz sind da finden sich alle technischen Infos sowie reichlich Belege dafür, dass die neue Architektur in fast jeder erdenklichen Hinsicht mit besseren Ergebnissen protzt. Neben der hohen Leistung ist die Leistungsaufnahme gesunken, was dem Prozessor wie auch der Plattform zuzuschreiben ist, denn diese basiert statt auf einem Northbridge/Southbridge-Design nur noch aus einem Chip. Für AMD bedeutet dies harte Zeiten, denn mehr Performance bei optimierten Stromverbrauch könnte Intel gegenüber dem FX-8150 noch weiter in Führung bringen.

Schnell, schneller, Sandy Bridge-E: Sockel LGA 1155, Sockel LGA 1366 und der neue Sockel 2011 – witzigerweise findet der Marktstart auch im Jahr 2011 statt.Schnell, schneller, Sandy Bridge-E: Sockel LGA 1155, Sockel LGA 1366 und der neue Sockel 2011 – witzigerweise findet der Marktstart auch im Jahr 2011 statt.

Große Zahlen

Das Geheimrezept für den Erfolg von Sandy Bridge-E ist an sich gar nicht so geheim: Es lautet einfach “mehr davon”, und es ist in dieser Form nur möglich, da die Sandy-Bridge-Architektur hohe Performance pro Megahertz und niedrigen Energiebedarf kombiniert. Das führt dazu, dass die Architektur gut skaliert, was bedeutet, dass die gleiche Basis statt mit vier nun mit sechs und künftig auch mit acht Rechenkernen arbeiten kann – letzteres zumindest im Xeon-Umfeld.

Statt vier Kerne auf dem Sockel LGA 1155 sind es bei LGA 2011 nun deren sechs. Bislang war dies beim Core i7 Gulftown schon der Fall. Statt zwei oder drei Speicherkanälen gibt’s nun gleich vier, was die DDR3-Gesamtbandbreite ordentlich wachsen lässt. Die Transistorenzahl steigt um eine auf gigantische 2,27 Milliarden. Der Chip selbst (Die) vergrößert sich von 248 auf 434 mm2, und die aggressivere Turbo Boost Version 2.0 sorgt für durchgängig mehr Takt als beim Xeon.

Ballast abgeworfen

Gleichzeitig ist Sandy Bridge-E aber ein schlankeres Produkt, denn die passende Chipsatz-Plattform besteht nur noch aus einem Baustein. Zudem ist die Architektur in der Lage, nicht genutzte Prozessorkomponenten so oft es geht in den Tiefschlaf zu schicken, um somit den Energiebedarf einzudämmen. Im Test führt das dazu, dass die Leistungsaufnahme im Standby ein neues Rekordtief erreicht, das noch kein anderes System mit satten sechs Kernen erreicht hat.

Daraus ergeben sich zwangsläufig Hoffnungen, dass Sandy Bridge-E der neue Effizienzkönig sein könnte. Erst kürzlich haben wir die Leistungsfähigkeit pro Watt, also die Energieeffizienz, des AMD FX-Prozessors mit allen heute wichtigen CPU-Architekturen verglichen. Im Artikel Performance pro Watt: Das leistet AMDs FX gehen wir darauf im Detail ein. Der heutige Artikel macht nichts anderes, konzentriert sich nun aber auf den neuen Intel-Spitzenprozessor. Details zum Core i7-3960X und zu Sandy Bridge-E finden Sie im Launch-Artikel.

6 Kerne, 32 nm, 15 MB L3-Cache und 3,6-3,9 GHz Maximaltaktraten. Ist das eine gute Basis für hohe Effizienz? Es scheint so, denn die im ersten Test gemessenen 87 W Leistungsaufnahme im Idle sind ein neuer Rekord für ein High-End-System.

Wir stellen vor: Der Tom’s Hardware PC

Keine Sorge: wir steigen nicht in den Handel mit PCs oder Komponenten ein – das überlassen wir anderen. Tom’s Hardware bleibt Ihnen als unabhängiges und kritisches Magazin selbstverständlich erhalten. In Zusammenarbeit mit Wortmann AG und deren PC-Marke Terra ist es jedoch erstmals möglich, einen Tom’s Hardware PC zu erwerben.

Das bedeutet für Sie, dass unsere Erfahrung aus unzähligen Produkttests durch unsere Redakteure in eine PC-Konfiguration geflossen ist, die wir in dieser Form wärmstens empfehlen, weil sie zeitgemäß, robust, ausbaufähig und dennoch vernünftig ist. Wir stellen Ihnen den Tom’s Hardware PC 2011 heute im Detail vor.

Zum ersten Mal erhältlich: Ein PC, zusammengestellt von der Tom's Hardware-RedaktionZum ersten Mal erhältlich: Ein PC, zusammengestellt von der Tom’s Hardware-Redaktion

Mehr Vielfalt, mehr Fragezeichen

Der Grund für den Schritt, eine Tom’s Hardware PC-Konfiguration auszuarbeiten, liegt in der für Nicht-Profis schier undurchdringlichen Vielfalt an Optionen bei den Komponenten. Schnell gehen die Meinungen hier auseinander: Viele Fachhändler setzen Ihre Marketing-Experten darauf an, möglichst große Zahlen auf die Verkaufsprospekte zu zaubern. Viele Gigahertz und Terabyte korrelieren mit dem Motto “viel hilft viel”, doch am Ende kommt selten das für den Kunden beste System heraus. Dagegen verweisen Enthusiasten und Profis naturgemäß auf bestmögliche Komponenten, was zwar nicht verkehrt, aber hin und wieder eben doch zu hoch gegriffen ist.

Einerseits gibt es Komponenten, in deren Bereich es heute wichtiger ist denn je, sich für ein solides Produkt zu entscheiden. Beispiele hierfür sind die Diskussion zwischen Flash SSD und Festplatte oder die Qual der Prozessorwahl: vier Kerne oder gleich mehr? Reicht ein Modell mit Einstiegstaktfrequenz? Muss es wirklich eine SSD sein? In vielen Fällen kann man heute zwar nur selten noch den so genannten Griff ins Klo tätigen, da Performance erfreulicherweise heute nur noch bei konkreten Systemanforderungen Mangelware ist. Aber man kann sehr wohl Performance verschenken oder schlicht zu viel Geld ausgeben.

Klare Antworten

Am Ende verfügen die meisten Käufer inklusive des Autors über ein begrenztes Budget, das bestmöglich eingesetzt werden soll. Und genau hier hat die Tom’s Hardware Redaktion angesetzt: Wir haben die Hardware-Tests der letzten Monate durchforstet und dabei klar definiert, wo bei einem modernen System mit Qualitäten für “Otto Normal” und Gelegenheitsspieler die Schwerpunkte gelegt werden müssen: Das sind ein solider Quad-Core-Prozessor, 8 GB RAM mit Erweiterungsoption, eine Flash SSD für die Windows-7-Installation plus gleichzeitiger Festplatte als Datenspeicher, eine Spiele-taugliche Grafikkarte sowie zeitgemäße Komponenten in puncto Motherboard, Netzteil, Gehäuse und Kühler.

Damit steht auch fest: Unser Tom’s Hardware PC ist für Einsteiger überdimensioniert und für Enthusiasten oder Gamer im Detail nicht ausreichend. Er deckt aber die Anforderungen der überwiegenden Mehrzahl technisch interessierter Anwender ab – und darauf wollten wir hinaus.

Terra PC-GAMER 6200 “Tom’s Hardware-Edition”

Die Beschreibung der Komponenten folgt auf den folgenden Seiten. Unter der Bezeichnung Terra PC-GAMER 6200 “Tom’s Hardware-Edition” ist das System ab sofort auf der Website von Wortmann AG gelistet und ab nächster Woche, also Ende November, über die Wortmann-Fachhändler zu beziehen. Sie können das System über das vergleichsweise dichte Netzwerk an Fachhändlern bestellen und erhalten dort auch Service und Support. Wahrscheinlich ist einer davon auch nicht weit weg von Ihnen; ansonsten besteht dir Möglichkeit, über die Händler zu bestellen und den Versandweg zu wählen.

Das Händlernetzwerk ist für uns ein wichtiges Kriterium für die Auswahl von Wortmann AG als Partner für unsere erste PC-Edition, denn im unwahrscheinlichen Fall technischer Schwierigkeiten können sich Kunden direkt an einen Fachhändler wenden, der dann im besten Fall direkt um die Ecke ist. Damit stehen echte Ansprechpartner zur Verfügung, was zur Lösung von Problemen erfahrungsgemäß deutlich besser ist als lediglich eine Hotline. Zudem kann der Versandweg entfallen wenn Sie sich dafür entscheiden, den PC im Laden abzuholen. 

Tastatur und Maus sind dabei – das Display müssen Sie selbst besorgen.Tastatur und Maus sind dabei – das Display müssen Sie selbst besorgen.

Last but not least: Das komplette Tom’s Hardware-System mit Tastatur und Maus, Windows 7 Home Premium, Office Starter und den auf den folgenden Seiten vorgestellten Ingredienzien kostet 1029 Euro inklusive Mehrwertsteuer (und exklusive Display).

Auf Nummer Sicher: Backup mit Blu-Ray

Als beschreibbare CDs ab 1992 aufwärts auf dem Markt erschienen, boten sie mit anfangs 650 MB und später 700 MB Kapazität ein scheinbar unerschöpfliches Speichervolumen, insbesondere weil damalige Festplatten kaum über die 150-MB-Schwelle hinauskamen. Ging es um Backups von Anwendungssoftware, Spielen und Dokumenten, bot eine einzige CD-R und seit 1996 auch die CD-RW folglich mehr als ausreichend Platz für allerlei Daten. Wer es darauf anlegte, die Kapazität der Medien restlos auszunutzen, konnte das beispielsweise nur mit 1:1-Sicherungskopien von Audio-CDs hinbekommen, doch angesichts der damaligen Rohlingspreise war man mit dem Original in vielen Fällen schlichtweg günstiger bedient. Im Jahr 1993 sorgte passenderweise ein Spiel für steigende Verkäufe von CD-Laufwerken, dass großzügig von der Speicherkapazität der CD Gebrauch machte: Star Wars: Rebel Assault erschien ausschließlich auf CD statt Disketten und kombinierte für damalige Verhältnisse spektakuläre, weil gerenderte Zwischensequenzen mit Realfilm-Sequenzen.

Eine ähnliche Entwicklung setzte ab 1997 mit dem CD-R-Nachfolger DVD-R ein, nur eine Nummer größer und mit leicht veränderten Vorzeichen. Gegenüber den 700 MB Kapazität der CD, die sich mit Tricks auf bis zu 900 MB ausbauen ließ, erhöhte sich der Speicherplatz bei der beschreibbaren DVD zunächst auf 3,65 GB und wenig später auf nominell 4,7 GB (binär 4,38 GB). Lässt man die anfänglichen Formatstreitigkeiten um DVD-R und ihren Konkurrenten DVD+R samt ihrer wiederbeschreibbaren Varianten beiseite, war auch hier ein Einsatzzweck bald gefunden: Aufgrund stetig sinkender Rohlingpreise avancierte die DVD schnell zum beliebten Backupmedium, wobei sich hier insbesondere die DVD-RAM aufgrund ihrer speziellen Sektorierung und der damit verbundenen höheren Datensicherung gegenüber Standard-DVDs anbot. Beschreibbare DVDs erfreuen sich bis heute großer Beliebtheit, was Backups in weiterem Sinne angeht, zum Beispiel bei Filmfans, die Video-DVDs preiswert sichern wollen.

Während die optischen Speichermedien zu CD-Zeiten ungleich mehr Speicherplatz als Festplatten boten, hat sich dieses Bild inzwischen komplett gedreht. Den Kapazitätsvergleich mit aktuellen 3-TB-Boliden verliert die beschreibbare DVD auch in ihrer doppellagigen Version DVD-R9 und DVD+R9 haushoch, ganz zu schweigen von der CD-R und der CD-RW. Backups landen dementsprechend in vielen Fällen nicht mehr auf den optischen Medien, sondern gleich auf Festplatten, da letztere nicht nur wesentlich mehr Speicherplatz bieten, sondern im Verhältnis auch ungleich preiswerter sind. Auch die geringere Übertragungsgeschwindigkeit der CD und DVD gilt es zu bedenken: Selbst die schnellsten DVD-Brenner mit 20x-Schreibtempo (Vielfaches von 1352,5 KB/s) kommen maximal auf etwa 26 MB/s und verlieren damit den Tempovergleich mit einer USB-2.0-Festplatte deutlich. Zudem tritt die maximale Übertragungsrate der CD oder DVD nur in den äußersten Bereichen des Datenträgers auf und ist bedingt durch den spiralförmigen Aufbau der Datenspur im Mittel daher wesentlich niedriger.

Komplett abschreiben sollte man die optischen Speichermedien jedoch ganz und gar nicht, denn wir haben die Rechnung bisher ohne die Blu-ray Disc gemacht, die einige Argumente zugunsten von Backups in die Waagschale wirft und damit dem Schneller, Besser und Günstiger der Festplattenfraktion einiges entgegenzusetzen hat. Wie sich im Folgenden zeigt, eignen sich Blu-ray-Brenner auch in Zeiten von Terabyte-Festplatten und Übertragungsgeschwindigkeiten jenseits der 100 MB/s bestens dafür, um Daten dauerhaft und zuverlässig zu speichern. Festplatten, SSDs und optische Medien lassen sich ohnehin nur bedingt miteinander vergleichen lassen, denn sie bedienen sehr unterschiedliche Einsatzgebiete.

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen