Monat: Juli 2009

Toshiba Tecra S10: Solides Arbeitstier

Vor einem Jahr hatten wir bereits das Toshiba Tecra A9 im Test. So richtig umgehauen hatte es uns damals nicht. Es zeigte zwar in allen Bereichen für damalige Verhältnisse brauchbare Performance, glänzte aber auch in keiner Disziplin. Dafür war es enorm robust gebaut, was sich aber auch auf sein Gewicht auswirkte.

Design

Im Business-Segment ist man vorsichtig – man könnte auch “konservativ” sagen. Die Geräte sollen seriös und gediegen wirken, nicht verspielt. So besinnt man sich auf klare Linien und pragmatische Lösungen. Beim Tecra S10 hat Toshiba dann auch nicht das Rad neu erfunden sondern das Styling der 9er-Generation fast komplett übernommen. Das ist eher Konvention als Sünde – schließlich macht IBM (und nun Lenovo) dasselbe seit Jahren mit den Thinkpads. Das Gerät wirkt massiv, fast wuchtig, vermittelt aber schon visuell den Anspruch der hohen Solidität. Schöner Nebeneffekt: Das Gehäusevolumen kommt letztlich auch den Komponenten und der Kühlung zu Gute.

Das S10 versprüht einen eher nüchternen, fast schon industriellen Charme mit seinen Ecken und gerundeten Kanten. An seiner Front sind Status-LEDs eingelassen. Auerdem finden sich hier die Audio-Buchsen sowie das (inzwischen selten gewordene) Rädchen zur Lautstärkeregelung. An der rechten Gehäuseseite sitzt ein unapologetisch großer Lüfterauslass, der von der seriellen Schnittstelle sowie Erweiterungsschächten und -Ports flankiert wird. Rechts geht es ebenso betriebsams und geordnet zu: Hier sitzen das optische Laufwerk und drei USB-Ports. Hinten trifft man schließlich auf den VGA-Port, den LAN-Anschluss und den Modem-Port. Alles  schön geordnet und voll auf praktischen Nutzen ausgerichtet. Business, eben.

Die Bereitstellung von Speicherplatz im Heimnetzwerk war bis vor ein paar Jahren noch ein aufwändiges Unterfangen. Computer-Heimwerker legten selbst Hand an und bauten beispielsweise aus nicht mehr benötigter, alter Hardware einen kleinen Server mit ausreichend Speicherplatz. Als Betriebssystem kam oftmals Linux zum Einsatz. Damit auch Windows-Computer über das Netzwerk auf den Eigenbau-Server zugreifen konnten, griff man zur Software-Suite Samba, die das Windows eigene Server-Message-Block-Protokoll (SMB) auch unter Linux zur Verfügung stellt. Diese Zeiten sind vorbei: Einfache NAS-Server und einen Satz handelsüblicher Festplatten genügen für die perfekte Storage-Box zuhause oder im kleinen Unternehmen.


NAS-Geräte für Endanwender

Hersteller von Storage-Lösungen haben reagiert und bieten seit geraumer Zeit einfach zu konfigurierende Speicherboxen an. Diese NAS-Geräte (Network Attached Storage) erfreuen sich zunehmender Beliebtheit, denn sie stellen für Endanwender die mitunter einfachste Möglichkeit dar, Speicherplatz im Netzwerk bereitzustellen. Auch bei diesen Geräten kommt überwiegend das Betriebssystem Linux zum Einsatz. Die Bedienung erfolgt allerdings nicht mehr über kryptische Befehle, die an einer Konsole eigegeben werden müssen. Statt dessen erfolgt die Einrichtung und Konfiguration komfortabel über eine Web-Oberfläche. Geräte dieser Art gibt es von zahlreichen Herstellern wie Intel, LaCie, Promise, QNAP, Synology, Thecus, Western Digital und anderen.

Einfach, komfortabel und hoher Funktionsumfang

Auch der Funktionsumfang aktueller NAS-Geräte geht weit über die bloße Bereitstellung von Daten im Netzwerk hinaus. So gehören die Implementierung von Druck- und Webserver, DLNA- und iTunes-Server sowie der Zugriff auf Dateien über die Web-Oberfläche zum Standardrepertoire aktueller NAS-Geräte. Möglich ist dies aufgrund der zugrunde liegenden Linux-Systeme, da die notwendige Funktionalität vergleichsweise einfach hinzugefügt werden kann. Lediglich seriennahe Tests und Validierung bremsen die Einführung neuer Features in der Praxis aus – man will ja, dass alles reibungslos funktioniert.

Festplattenwahl – Performance oder Effizienz?

Wenn auch der Funktionsumfang bei NAS-Geräten herstellerübergreifend ähnlich ist: bei der Ausstattung mit Festplatten gehen die Anbieter unterschiedliche Wege. Einerseits werden Netzwerkspeichergeräte bereits aber Werk mit Festplatten ausgestatten und können nach dem Kauf sofort in Betrieb genommen werden. Andererseits sind auch NAS-Geräte verfügbar, die dem BYOD-Prinzip folgen (Build Your Own Device).

Bei letzterem haben Käufer selbst die Wahl, mit welchen Festplatten der Netzwerkspeicher betrieben wird. Bei diesen Geräten stellt sich regelmäßig die Frage, welche Eigenschaften die verwendeten Festplatten neben der Kapazität haben sollen. Hier kann beim Betrieb eines NAS-Geräts generell gelten, dass die Effizienz einer Festplatte höher gewichtet werden sollte als deren Performance, da meist das NAS-Gerät selbst eher einen Flaschenhals darstellt als die verwendeten Festplatten. Daher haben wir uns gefragt, wie genau sich die Unterschiede beim Betrieb eines NAS-Geräts ausdrücken, wenn dieses mit Strom sparenden Festplatten anstatt mit schnell drehenden Laufwerken bestückt wird. Samsung stellte dafür die notwendigen Laufwerke zur Verfügung: Ein Satz aktueller Spinpoint F2 EcoGreen mit 5.400 U/Min und 1 TB sowie Modelle aus der T166-Serie mit 7.200 U/Min und jeweils 320 GB Speicherplatz. Ein NAS-Server mit vier Laufwerksschächten von Synology kam exemplarisch dabei zum Einsatz.

Mehr zum Thema NAS-Geräte:

Turbo-Grafikkarten leise und kühl getunt

Die DirectX-10-Ära neigt sich dem Ende zu, Windows 7 mit DirectX 11 ist fertig und wird demnächst ausgeliefert. Im 3D-Bereich wird noch mal richtig Hand angelegt, die Karten aufgemotzt und die Kühlungen getunt. Vier Testkarten von Sapphire, Gainward, Inno 3D und Sparkle lassen den Puls schneller schlagen. Es ist alles geboten, von übertakteter Power bis zum leisen Dreifachlüfter (Arctic Cooling) oder Verdampfungs-Kühlsystem (Vapor-X).

Doppelchipkarte GTX 295 auf einer Platine.Doppelchipkarte GTX 295 auf einer Platine.

Eine der schönsten Innovationen liefert Inno 3D, die die zwei Grafikchips der GTX 295 auf eine Platine packen und das Ding auch noch gut gekühlt und relativ leise bekommen. Üblich sind sonst zwei einzelne Platinen, die als Sandwich aufeinander geschraubt, eher laut und heiß sind oder als wassergekühlte Variante gleich ein paar Euro mehr kostet.

Sparkle, Gainward und Sapphire gehen ebenfalls vom Referenzkühler weg und liefern deutlich leisere Konzepte ab. Wie viel Potential in den neuen Kühlern und Lüftern steckt, wird gleich mit zusätzlicher Taktrate gezeigt, die jeder Hersteller schon in das 3D-Bios der Karten einspeist. Damit gibt es mehr Power ohne Garantieverlust und alles unabhängig von der verwendeten Treiberversion.

Der Begriff „Übertakten“ (oder Overclocking) bezeichnet verschiedene Methoden, um PC-Komponenten schneller laufen zu lassen,  als ursprünglich vom Hersteller vorgesehen. Lange Zeit galt dies als Domäne der absoluten Bastel-Freaks und der Lötkolben-Fraktion. Heute wird Übertakten im Allgemeinen als legitime und manchmal auch als einzige Möglichkeit angesehen, das Optimum aus dem eigenen System herauszuholen. Da sich Grafikkarten und Arbeitsspeicher in einem flotten Tempo weiterentwickeln, wird die CPU nach und nach zum zweitgrößten Flaschenhals in vielen High-End-Systemen.

Wenn also selbst die Enthusiasten mit der topaktuellen Hardware sich schon der Ehre halber dazu verpflichtet fühlen, ihr System zu übertakten, um höhere Benchmarkwerte zu bekommen, müssen die vergleichsweise „lahmen“ Mittelklassekomponenten ihren weniger gut betuchten Besitzern wohl Tränen der Verzweiflung in die Augen treiben. Da sich die meisten Käufer schlicht die beste und schnellste Hardware nicht leisten können, entstammt der Großteil der Overclocker dem preiswerteren Mainstream-Segment, das die Mittelklasse abdeckt.

Damit haben wir auch schon die zwei Gruppen beschrieben, die aus einer empfundenen Notwendigkeit heraus übertakten: Diejenigen, die mehr Leistung benötigen, als der Markt ansonsten hergibt, und die, die mehr Leistung brauchen, als sie bezahlen können.

Bei Tom’s Hardware haben wir oft genug Gelegenheit, die neuesten High-End-Komponenten  zu testen und zu übertakten. Heute wollen wir uns aber auf nur vier Prozessoren konzentrieren, die für die große Mehrheit unserer Leser erschwinglich sein sollten: AMDs Phenom II X2 und X4, Intels Pentium Dual-Core sowie ein Core 2 Quad der Einstiegsklasse. Wir nehmen folgende Kandidaten in den Parcour:

  • Phenom II X2 550
  • AMD Phenom II X4 955
  • Intel Pentium E5200
  • Intel Core 2 Quad Q8200

Risikominimierung

Einerseits wäre es mehr als fahrlässig, an dieser Stelle nicht darauf hinzuweisen, dass Übertakten auch eine hervorragende Möglichkeit ist, Datenverlust zu provozieren. Andererseits ist es aber auch so, dass viele der Redakteure bei Tom’s Hardware bei ihren Arbeitsrechnern ein wenig an der Taktschraube gedreht haben. Wichtig ist auf jeden Fall, dass man seine Daten regelmäßig sichert – egal ob das System übertaktet ist oder mit Standard-Einstellungen läuft.

Zwei Faktoren sind beim Overclocking wichtig: Stabilität und Langlebigkeit der Komponenten. Doch will man das Erste erzielen, setzt man womöglich das Zweite aufs Spiel. Früher oder später gibt jede Komponente den Geist auf, aber sie außerhalb ihrer Spezifikation zu betreiben ist einer der schnellsten Wege, ihre Lebensdauer zu verkürzen. In der Elektronik ist der größte Faktor bei der Alterung von Komponenten die Elektromigration. Dieses Phänomen beschreibt einen Vorgang, bei dem durch einen elektrischen Strom Ionen langsam von einer Struktur zu einer benachbarten Struktur transportiert werden. Dazu tragen Faktoren wie erhöhte Hitze und Spannung bei, wobei die Grenzwerte sich bei verschiedenen Materialien, Fertigungstechniken und unterschiedlich hoch angesetzter Lebensdauer unterscheiden. Zu hohe Spannungen können den Leiterbahnen in Prozessor und Mainboard also schaden.

Andererseits verbessert eine erhöhte Spannung auch die Signalübertragung zwischen den Komponenten und verringert gleichzeitig Störungen, die durch erhöhte Taktraten auftreten können, was wiederum den Übertaktungsspielraum erhöht. Bei den Stabilitätstests werden wir bei jedem unserer vier Übertaktungskandidaten darauf eingehen, welche Spannung wir jeweils gewählt haben, welche Temperatur wir als vertretbaren Grenzwert ansehen und wie sich die Kombination auf die erwartete Lebensdauer auswirkt.

Anfang des Jahres kam mit der Caviar Green von Western Digital das erste Laufwerk mit 2 TB Speicherkapazität auf den Markt. Das Laufwerk wurde überarbeitet, neu aufgelegt und ist jetzt mit bis zu 2 TB ebenfalls als RAID-Edition (RE4) für Anwendungen im Unternehmensbereich erhältlich. Samsung hat uns seine neue Version der Spinpoint F2 EcoGreen mit 1 TB zur Verfügung gestellt und auch Seagate hat sich mit der 2 TB-Barracuda LP, einer Low-Power-Version, ebenfalls nicht lumpen lassen – mit diesem Modell strebt das Unternehmen eine bessere Performance als die der Öko-Modelle seiner Kontrahenten an – und will dabei gleichermaßen mit Effizienz glänzen. Abgerundet wird unser Testfeld durch die Deskstar E7K1000.B von Hitachi, die sich nicht ausdrücklich Energiesparen auf die Fahne geschrieben hat. Auf den Dauerbetrieb ausgelegt tritt sie gegen das RE4-Laufwerk von WD an.

Kürzere Garantiezeiten

Western Digital vermarktet die neuen RE4-Laufwerke als Enterprise-Storage und bietet darauf anders als bei Desktop-Festplatten fünf Jahre Garantie. WD ist in dieser Hinsicht allerdings eher eine Ausnahme: Seagate, die alle Consumerprodukte zuvor mit einer Garantie von fünf Jahren angeboten hatten, sind vor wenigen Monaten still und leise wieder auf die ursprünglichen drei Jahre zurückgegangen. Samsung bietet für seine Spinpoint F2EG den gleichen Garantierahmen. Allerdings gibt es eine Ausnahme: Die Hitachi Deskstar E7K1000 wird tatsächlich mit einer 5-Jahres-Garantie ausgeliefert. Klar ist, dass der Wettbewerb auf dem Festplatten-Markt so hart ist wie nie zuvor; allerdings halten wir eine längere Garantiedauer für das beste Mittel, um beim Kunden Vertrauen in die eigenen Laufwerke zu wecken.

Seagate mit 5.900 U/Min

Die meisten Laufwerkshersteller versuchen ihre Energiespar-Ziele durch die Entwicklung neuer Festplatten bei gleichzeitiger Rückbesinnung auf bereits ausgestorbene Umdrehungsgeschwindigkeiten aus dem Bereich der Desktop-Laufwerke zu erreichen: WD und Samsung haben auf ihren Öko-Laufwerken erneut Geschwindigkeiten von 5.400 U/Min eingeführt. Hitachi zögert mit Ausnahme der Deskstar P7K500 noch bei der Einführung von Low-Power-Laufwerken. Diese Festplatte dreht mit 7.200 U/Min, erreicht aber aufgrund des Single-Platter-Layouts eine verhältnismäßig niedrige Leistungsaufnahme.

Vor kurzem hat Seagate seine eigene Interpretation eines Low-Power Desktop-Laufwerks vorgestellt: Die Barracuda LP (Low-Power) dreht ebenfalls mit verringerter Umdrehungsgeschwindigkeit. Allerdings hat sich Seagate für ungewöhnliche 5.900 U/Min entschieden, die vermeintlich beste Kombination aus hoher Performance, hoher Kapazität und niedriger Leistungsaufnahme liefern.

MSI GT627: Spiel Mobil

Im Netbook-Bereich feiert MSI derzeit mit seiner Wind-Serie durchaus Erfolge. Der taiwanische Hersteller, der wohl am ehesten für seine Grafikkarten und Mainboards bekannt ist, hat darüber hinaus auch eine sehr breite Palette an Notebooks zu bieten. Ob Business, Home Office oder Gaming – MSI möchte jedem Käufer ein Modell bieten können. Aus dem letzten Bereich bot man uns nun mit dem GT627 ein Gerät an, dass sich auf Knopfdruck um 15 oder 20 Prozent übertakten lässt, mit der Eco-Funktion aber auch auf sparsam getrimmt werden kann.

Design

Schick und simpel. Rot steht bei den Herstellern offenbar für 'Gaming'.Schick und simpel. Rot steht bei den Herstellern offenbar für ‘Gaming’.Rot ist bekanntlich eine Signalfarbe. Offenbar haben sich die Notebook-Hersteller inzwischen darauf verständigt, dass sie bei mobilen Geräten auch Gaming-Fähigkeiten signalisieren soll. Jedenfalls umläuft das ansonsten schwarze Gehäuse ein rotes Band, das an der Rückseite ein wenig breiter wird. Im stabilen Aluminium-Deckel sitzt ein chromfarbenes MSI-Logo.

Die Handballenauflage des Innenbereichs greift die gebürstete Alu-Optik wieder auf, auch wenn es sich hier um Plastik handelt. Dennoch wirkt das schick. Die schwarze Tastatur zieren weiße Tasten, wobei die typischen FPS-Steuertasten W,A,S und D zusätzlich einen weißen Pfeil in einem roten Feld tragen. Auf der rechten Seite hat MSI sogar einen vollständigen Ziffernblock untergebracht.

Mit Turbo wird's schneller, mit Eco sparsamer.Mit Turbo wird’s schneller, mit Eco sparsamer.Über der Tastatur ist ein Feld mit kapazitiven Feldern für die Steuerung des Media-Players auf der linken Seite und Funktionen wie Webcam, WLAN etc. auf der rechten. Sind sie aktiviert, leuchten sie blau. Mittig angeordnet befinden sich der große Turbo-Button, mit dem das System (je nach BIOS-Einstellung) um 15 oder 20 Prozent übertaktet werden kann, sowie der Eco-Button, der verschiedene Stromsparmodi bereitstellt. Die Anordnung wirkt praktisch und durch die in das Schwarze Plastik eingesprenkelten grau-silbernen Punkte schick, gleichzeitig aber auch verspielt.

Durchgespielt: Anno 1404

Märchen beginnen eigentlich immer gleich. Ob sich jedoch im Fall von Anno 1404 die Geschichte wiederholt, wollen wir mit unserem aktuellen Spieletest ergründen. Wir haben diesen Test bewusst nicht direkt nach dem Erscheinen des Spiels veröffentlicht, sondern zunächst selbst erst einmal intensiv getestet und insbesondere das technische Umfeld analysiert. Einige der anfangs aufgetretenen Probleme konnten mittlerweile von den Beteiligten behoben werden, bei anderen steht eine Lösung allerdings noch aus.

Zunächst steht der Anwender allerdings vor einer wichtigen Entscheidung: normales Spiel (ca. 40 €) oder limitierte Collectors Edition (ca. 60 €)? Während wir beim Test des Spiels „Die Sims 3“ noch dankend abgelehnt haben, weil der kleine USB-Stick und die restlichen Dreingaben den Aufpreis kaum gerechtfertigt hätten, wurden wir diesmal wirklich positiv überrascht. Neben der Schatulle in Schatzkisten-Optik, die erfreulicherweise komplett ohne Kunststoffe auskommt, ist es vor allem die Füllung, die einen Liebhaber zur Mehrausgabe von ca. 20 € durchaus bewegen kann. Ein funktionierender schöner Kompass in einer gut verarbeiteten Holzschachtel, eine großes Panoramaposter, ein sauber gebundenes Artbook, eine Bonus-DVD mit vielen interessanten Inhalten (wie z.B. das die Entstehung des Spiels, Soundtracks und Renderbilder) und ein Beutelchen mit Mandelsamen nebst Pflanzanleitung sind sicher ein fairer Gegenwert.

Um nicht wie im Märchen den 1001. austauschbaren Artikel zu diesem Spiel zu veröffentlichen, werden wir in den nachfolgenden Abschnitten bewusst etwas weniger auf das eigentliche Gameplay und die optische Gestaltung des Spiels eingehen, sondern das Hauptaugenmerk wieder auf das richten, was die Leser unserer Seite von uns am ehesten erwarten: einen Blick auf das technische Umfeld und natürlich Tests.

Speicher-Sticks sind extrem vielseitig. Immerhin sind diese Produkte mittlerweile groß genug, dass man alle persönlichen Daten auf einem einzelnen, ultra-tragbaren Gerät speichern kann. Hinzu kommt, dass es derartige Produkte in zahlreichen verschiedenen Variationen gibt: Von wasserbeständigen Designs, über widerstandsfähige Gehäuse bis hin zu extrem kompakten Abmessungen. Genau das macht derartige Speicher-Sticks noch attraktiver als je zuvor. Dieser Tage erreichten Produkte mit Kapazitäten bis 128 GB und eSATA statt USB 2.0 als Interface die nächste Evolutionsstufe.

Geschwindigkeit vs. Kapazität

eSATA scheint für ein tragbares Speichergerät wie einen Speicher-Stick auf den ersten Blick eher übertrieben. Sollten Sie allerdings zahlreiche Gigabytes an Daten auf Ihren großen USB 2.0 Speicher-Stick verfrachten wollen, so führt der maximale Durchsatz von USB 2.0 mit 35 MB/s zu einer langen Bearbeitungszeit. Der effektive Durchsatz liegt meist weit darunter und die Schreib-Performance ist außerdem meist niedriger als die Lesegeschwindigkeit. Die Tatsache, dass Laufwerke mit hoher Kapazität von 32 oder 64 GB normalerweise nicht sonderlich schnell sind macht die Sache noch schlimmer.

Warten auf USB 3.0

Bedenkt man, wie lange es dauert, eine größere Kapazität zu füllen (für 64 GB bei einem High-Speed USB 2.0-Laufwerk sind 30 Minuten in einer idealen Umgebung ein guter Wert), macht es definitiv Sinn, High-Performance-Laufwerke mit einem schnelleren Interface wie z.B. USB 3.0 auszustatten, das 2010 in der nächsten Generation von Plattformen auf den Markt kommen soll. Die ersten Controller gibt es bereits in geringen Stückzahlen, allerdings dauert es noch bis zum nächsten Jahr, bis USB 3.0 seinen Durchbruch erleben wird.

Bis dahin dürfte die eSATA-Option durchaus in Frage kommen. Wir haben uns drei Speicher-Sticks von Maxell, OCZ und Silicon Power angesehen, die mit eSATA-Interface ausgestattet sind. Zudem haben wir uns dafür entschieden, das erste USB 2.0-Laufwerk von Kingston mit 128 GB zu testen.

Vor einigen Monaten hat uns die Agentur A&R Edelman, welche Samsung in den USA vertritt, über ein YouTube-Video informiert, welches 24 Samsung PB22-J Flash SSDs unterhaltsam in einem RAID-System in Aktion setzt. Ziel der Aktion: Maximale Storage-Performance. Die Macher haben hervorragende Arbeit geleistet und mit einer Adaptec Series 5 RAID-Karte sowie einem Areca 1680ix-Controller auf einem Intel Dual CPU Skulltrail-System etwas mehr als 2 GB/s aus den Flash SSDs herausgeholt. Klar ist: das kann man noch besser machen.

Wozu so viel Storage-Performance?

Das gesamte Projekt macht Sinn, wenn Sie das ganze als Versuchsballon betrachten und als längerfristigen Ausblick darauf verstehen, welches Potential in zukünftigen SSD-Produkten stecken kann. Das Werbe-Video von Samsung verdeutlicht auf nette Weise, welchen Einfluss ein extrem schnelles SSD-Array haben kann: Anwendungen werden in einem Bruchteil der bisher erforderlichen Zeit geladen und sämtliche Storage-bezogene Performance-Flaschenhälse sind praktisch nicht mehr vorhanden. Allerdings ist weiterhin klar, dass die Verwendung von 24 oder 16 Laufwerken, wie wir das gemacht haben, für einen Desktop-Rechner unpraktisch ist.

Auswahl der Laufwerke

Bei Servern sieht das Umfelt anders aus, so dass Systeme mit einer Vielzahl an Laufwerken tatsächlich oft notwendig sind: Immerhin ist hier ein Maximum an I/O-Operationen pro Sekunde für unternehmenskritische Anwendungen unerlässlich. Wir haben uns entschieden, nicht nur eine große Anzahl an Flash-SSDs einzusetzen, sondern wollten zudem die beste Flash-SSD verwenden, um die Durchsatzwerte von Samsung zu übertreffen und zudem entsprechend hohe I/O-Performance zu bieten.

Unsere Wahl fiel auf das X25-E Flash-SSD von Intel, das auf dem teureren SLC Flash-Speicher (Single Level Cell) basiert. Anders als beim Multi Level Cell (MLC) Flash von Samsung bietet SLC kurze Latenzen auch beim Schreiben und hohen Durchsatz sowohl für Lese- als auch fur Schreibvorgänge. Ein Nachteil bleibt allerdings: Während die PB22-J von Samsung eine Kapazität von üppigen 256 GB bietet, ist für die professionellen X25-E Flash-SSDs von Intel derzeit bei 64 GB noch Schluss. Der Unterschied hinsichtlich der Kapazität spielt bei unserem Kampf um bessere Performance keine Rolle, da gerade einmal 16 Intel Flash-SSDs ausgereicht haben, um die 24 Laufwerke aus dem Samsung-Video zu schlagen.

Los geht‘s!

Intel fand schnell Gefallen an unserer geplanten Antwort an Samsung und stellte uns für diesen Artikel sechzehn X25-E Flash-Laufwerke mit 64 GB zur Verfügung. In der Zwischenzeit hatten wir bei Adaptec zwecks Bereitstellung von zwei 5805 PCI Express RAID-Karten angefragt, da wir uns für ein Nested RAID-0-Array bestehend aus zwei RAID 0 Hardware RAID-Arrays entschieden hatten. Die beiden Hardware-RAIDs auf Basis der Adaptec-Controller boten die Basis für ein Software-RAID unter Windows.

Auch wenn man sich nur oberflächlich mit dem Thema GPGPU beschäftigt, stellen sich einem schnell einige Fragen – umso mehr jetzt, wo ATIs Stream neu aufgelegt worden ist. Einige Mitglieder von AMDs ATI-Team waren so freundlich, im Rahmen unseres Artikels zu zu ATI Stream ein paar unserer Fragen detailliert und mit viel Geduld zu beantworten. Die Highlights haben wir auf den folgenden Seiten zusammengestellt.

Tom’s Hardware: Stream bzw. CTM, wie es damals noch hieß, wurde bereits im November 2006 vorgestellt. Dennoch hat es bis zum Dezember 2008 gedauert, bis sich diese Technologie im Catalyst-Treiber wiederfand. Der Catalyst 9.5 Hotfix ist sogar erst im May 2009 erschienen. Das ist ein recht langer Zeitraum, um eine neue Technik in den Markt zu bringen.

AMD: Zuerst einmal möchte ich versuchen, die Unterschiede zwischen den verschieden Komponenten zu klären und zu präzisieren.

ATI Stream bezeichnet das GPGPU-Framework, bzw. die Umgebung, und zwar sowohl für die Hardware als auch die Software. Das beinhaltet auch Anwendungsbeschleunigung außerhalb der normalen 3D-Beschleunigung oder der Hardware-Unterstützung bei der Video-Wiedergabe

ATI Stream besteht aus zwei Komponenten: der Entwicklungsumgebung, zu der auch eine Hochsprache namens Brook+ gehört, und eine Laufzeitkomponente, der sogenannte Compute Abstraction Layer (CAL). Im Dezember 2008 integrierten wir den CAL in den Catalyst-Treiber. Davor gab es zwei verschiedene Versionen, von der eine bereits den CAL mitbrachte, während die andere nur die regulären Catalyst-Grafiktreiber beinhaltete. Bis Ende 2008 handelte es sich bei den meisten ATI Stream Anwendungen um kommerzielle Programme wie High Performance Computing (HPC), Öl- und Gasforschung, akademische Anwendungen und Videokonferenzen auf Unternehmensebene. Sie benötigten keine regelmäßigen Treiberupdates, weil sie in sehr stabilen Umgebungen zum Einsatz kamen, also bezogen sowohl auf die Hardware (FireStream) als auch die Software.

Die Treiber wurden vereinheitlicht, um auch Privatanwendern zu ermöglichen, Stream auf regulären Radeon-Grafikkarten zu nutzen. Wie man sehen kann, haben wir also seit 2006 einen sehr natürlichen Übergang vom HPC-Segment hin zu Mainstream-Anwendungen geschafft. Außerdem funktionieren ATIs Stream-Treiber auch praktisch problemlos mit diesen kommerziellen Anwendungen. GPGPU bringt ein völlig neues Programmiermodell mit, und das erfordert nicht nur eine neue Treiberinfrastruktur sondern bedeutet auch, dass sich Softwarefirmen und Entwickler möglichst schell dieses neue Modell aneignen, um mit dem Wachstum und den Erfordernissen  des Markts mitzuhalten

Wir erwarten einen ebenso natürlichen Übergang hin zu OpenCL und DirectX 11 mit seinen Compute Shaders, und zwar im Zeitraum ab Ende 2009 bis 2010. Denn dann werden Entwicklern und Software-Firmen APIs und Programmiersprachen zur Verfügung stehen, die nicht länger proprietär sind, was den Entwicklungsaufwand reduziert und die Entwicklung preiswerter macht.

Was die Zeit vom letzten Dezember bis Mai 2009 anbelangt: Der Grund, warum es so lange dauerte, ein Stream-Update herauszubringen, ist der, dass es nicht nur darum ging, eine einzelne Anwendung (den ATI Video Converter) zu überarbeiten. Unsere Software-Teams haben ein komplett neues Transcoding-Framework geschaffen. Dabei kooperierten verschiedene Teams, die in Toronto und im Silicon Valley saßen. Gleichzeitig arbeiteten wir auch eng mit unserem Partner Cyberlink zusammen. Parallel mussten wir natürlich die Stabilität unserer Treiber gewährleisten – und das war keine kleine Aufgabe, wenn man bedenkt, wie große Auswirkungen selbst kleine Änderung auf die Stabilität haben können.

  • 1
  • 2

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen