Monat: Dezember 2008

 

Ganz Business - das Latitude E6400 gibt sich dezent und seriös.Ganz Business – das Latitude E6400 gibt sich dezent und seriös.Kurz nachdem Intel seine aktuelle Montevina Chipsatzplattform für den Mobilbereich vorgestellt hatte, zeigte Dell seine neue Latitude Reihe und versprach Laufzeiten von bis zu 19 Stunden. Für Businesskunden ist das natürlich neben der Verarbeitung das Argument schlechthin. Nichts ist peinlicher, als wenn mitten in der Präsentation beim Kunden der Akku gewechselt werden muss oder, noch schlimmer, der Saft ganz ausgeht.

Laufzeit und Gewicht

Der große 84-Wh-Akku wird unter das Notebookgeschnallt.Der große 84-Wh-Akku wird unter das Notebookgeschnallt.Dell betont, dass das Latitude E6400 trotz seiner langen Ausdauer auch noch tragbar bleiben soll. Die Aussage ist allerdings mal wieder ein klassisches “Ja, aber” Szenario, denn die wirklich hervorragenden Laufzeiten erreicht man nur zusammen mit dem optionalen 84-Wh-Zusatzakku. Schnallt man diesen aber unter, kommt man schon ohne Netzteil auf über drei Kilo. Lässt man den zusätzlichen Energiespeicher daheim, speckt das Latitude auf etwa 2, 3 kg ab, und die Laufzeiten bewegen sich im konventionellen, wenn auch guten Rahmen. Netzteil und Stromkabel bringen nochmal etwa 375 g auf die Waage.

Akkulaufzeit (in Minuten)
Szenario Standardakku Standardakku +
Zusatzakku
Battery Eater Reader* 279 681
Battery Eater Recharge 98 221
DVD Wiedergabe* 156 390
Volllast (Prime 95) 77 192

*Display gedimmt auf 100 cd/m²

Design& Verarbeitung

Willkommen am Arbeitsplatz - das Latitude präsentiert sich schnörkellos und aufgeräumt.Willkommen am Arbeitsplatz – das Latitude präsentiert sich schnörkellos und aufgeräumt.Dass Dell mit dem Latitude E6400 auf die Businessklasse abgesehen hat, zeigt sich bereits im Design überdeutlich. Anleihen beim Thinkpad sind unübersehbar, Schwarz in Schwarz und kantig kommt es daher, ganz auf Funktion getrimmt. Den dünnen metallenen Deckel ziert nur das Firmenlogo von Dell. Auch im Innern setzen sich die Ähnlichkeiten mit dem Vorbild Thinkpad fort : Zusätzlich zum Trackpad gibt es einen Trackpoint mit drei zusätzliche Trackpadtasten. Bei allen Ähnlichkeiten wahrt das Dell dennoch ein eigenes Aussehen und wirkt dem Business Segment angemessen elegant. Schnallt man den Zusatzakku unter, sieht das Latitude aber irgendwie aufgebockt aus. Edel: Das metallene Deckel-Inlay wirkt hochwertig.Edel: Das metallene Deckel-Inlay wirkt hochwertig.Auch bei der Verarbeitung bewegt sich das Dell auf Business-Niveau. Das Chassis ist extrem verwindungssteif, und nichts klappert oder verbiegt sich. Obwohl der Deckel dünn ist, schützt die metallene Oberfläche gut vor Beschädigungen oder zu starkem durchbiegen. Das wechselbare optische Laufwerk ist gut verankert. Der Zusatzakku könnte aber fester sitzen.

Tastatur und Trackpad

Die Beleuchtung der Tastatur lässt sich auch dimmen oder ganz ausschalten. Die Beleuchtung der Tastatur lässt sich auch dimmen oder ganz ausschalten. Die Tastatur ist angenehm, der Hub ist kurz und der Anschlag knackig und nicht zu hart. Die Tastenbeleuchtung sorgt dafür, dass man auch in dunklen Umgebungen problemlos schreiben kann. Empfindliche Ohren werden aber ein leises Morsecode-ähnliches Fiepen heraushören, dass wohl von der Regelelektronik verursacht wird.

Sowohl Tastenabstand als auch das Layout orientieren sich am Standard. Das Trackpad ist ebenfalls ein sehr gutes Arbeitsgerät : präzise, nicht überempfindlich und mit vertikaler und horizontaler Scrollfunktion. Die Tasten sind etwas weich ausgelegt, lösen aber nicht vorschnell aus. Der zusätzliche Trackpoint ist zwischen den Tasten G und H eingelassen und stört nicht, da er nicht hervorsteht. Auch er ist flink und ebenfalls genau. Seine drei Tasten sind ein wenig härter abgestimmt, wobei die dritte die Scollfunktionen in alle Richtungen bereitstellt.

Derzeit bestimmen vor allem negative Schlagzeilen das Geschehen. Finanzkrise, kriselnder PKW-Markt, Rezessionsgefahr weltweit und die drohenden Auswirkungen der Überschuldung privater Haushalte in den USA drücken vielerorts auf die Stimmung. Auch das IT-Business bleibt davon nicht verschont. Schwergewichte wie Intel haben ihre Erwartungen signifikant nach unten korrigiert.

Aber nicht allen geht es tatsächlich schlecht. Vor allem die großen Festplatten-Hersteller sehen die teils düsteren Aussichten als Chance. Seagate ging gar zum Angriff über und lud Journalisten zu einem Roundtable nach München ein. Vor Ort war nicht etwa nur das deutsche Personal, sondern ein gewichtiger Teil der Geschäftsführung inklusive CEO, CFO und der Marketing-Verantwortliche des Unternehmens. Die Nachricht: Seagate sei bestens aufgestellt.

Finanzkrise zeigt Auswirkungen

Der Seagate-CEO Bill Watkins nimmt Stellung: Trotz Schlafentzug nach der US-Präsidentschaftswahl.Der Seagate-CEO Bill Watkins nimmt Stellung: Trotz Schlafentzug nach der US-Präsidentschaftswahl.

Am Vorabend des Roundtables kamen die drei Schlüsselpersonen Bill Watkins (CEO), Patrick O’Malley (CFO) und Pat King (Senior Vice President Global Marketing) vermutlich nicht zu sonderlich viel Schlaf, da die Herren die Wahlergebnisse der US-Wahlen verfolgten. Dennoch war die Stimmung gelöst. Anfangs kam man auf die Finanzkrise zu sprechen. Seagate sieht sich hier allen Nachrichten zum Trotz in einer guten Position, da man der Ansicht ist, in Marktbereichen zu agieren, in denen die Menschen unabhängig von der wirtschaftlichen Situation Seagate-Produkte kaufen. Als Beispiel wurden externe Festplatten genannt, denn der Speicherplatzbedarf steigt vor allem bei Endanwendern ungebremst. Wer ist schon bereit, vermeintlich wichtige Daten zu löschen, wenn man heute Storage-Produkte zum kleinen Preis erhält? Eine wahre Aussage, die von nach wie vor steigenden Absatzmengen bei Festplatten aller Segmente bestätigt wird.

Anscheinend verschieben viele Banken bereits einige IT-Projekte – über die Gründe darf spekuliert werden, jedoch ist die teils schwierige Cash-Flow-Situation sicherlich zumindest beteiligt. Seagate geht davon aus, dass auch weitere Branchen geplante Investitionen herauszögern – es werde nur wenige Unternehmen geben, die spurlos durch die aktuelle Krise gehen können. Sicher ist allerdings auch, dass eine Anpassung der IT-Resourcen letztlich schon aus technischen Gründen früher oder später stattfinden muss.

Allerdings geht Seagate auch davon aus, dass die Krisensituation doch eine direkte Auswirkung auf den Festplattenmarkt hat: Aufgrund der Marktanteilsituation, bei der sich derzeit die drei größten Wettbewerber Hitachi, Seagate und Western Digital etwa 80% des Marktes teilen und die anderen drei die restlichen 20% unter sich aufteilen, könnte es zu einer Konsolidierung kommen.
Gerüchte über den Verkauf der Festplattensparte bei Fujitsu kursieren bereits seit einer Weile.

Mittlerweile gehören Fernseher mit voller HD-Auflösung zum guten Ton. Wer zukunftssicher investieren will, der setzt bei Neuanschaffung auf ein TV-Gerät mit 1920×1080 Bildpunkten. Dabei haben seit der Funkausstellung in Berlin diesen Jahres die Preise für Fernseher mit großer Diagonale deutlich nachgegeben. So ist zum Beispiel der Samsung LE46A676 mit 46 Zoll (117 cm) für knapp 1500 Euro zu haben – ausgehend vom Straßenpreis einiger Händler. Selbst ein Gerät mit 52 Zoll großer Diagonale (132 cm), wie in unserem Vergleich der Sony KDL52W4000, kosten derzeit unter 1600 Euro. Der teuerste Kandidat im Testumfeld ist der Philips 47PFL9603H – für ihn werden knapp 1900 Euro aufgerufen. Das günstigste Angebot kommt von JVC mit dem LT46DS9, ein 46-Zoll-Gerät für knapp 1300 Euro.

Um es auf den Punkt zu bringen: Heute kosten Fernseher mit 46-Zoll-Diagonale weniger als ein 32-Zoll-Gerät noch vor sechs Monaten. 

Und wie schaut es bei der Display-Technologie aus? Es dürfte niemandem entgangen sein, dass sich im Kampf Plasma versus LCD das Zünglein an der Waage in Richtung der letzteren Technologie bewegt. Denn es wird zunehmend schwierig, passable Plasmafernseher zu bekommen, vor allem seit man nicht mehr auf Pioneer zählen kann. Glücklicherweise leisten Panasonic und LG noch Widerstand. Was muss man also daraus schließen? Zunächst einmal kann man sagen, dass es allen Herstellern gelungen ist, bei den LCD-Panels der letzten Generation eine erhebliche Kostensenkung durch Massenproduktion zu erreichen. Und dann kann man auch nicht umhin zu vermuten, dass sich hinter all dem eine veritable Vendetta gegen die Plasmafernseher verbirgt, was uns Verbrauchern eher schadet als nützt.

Und dabei können einen die Merkmale dieser brandneuen Monitore doch wirklich ins Schwärmen bringen. Besonders bei Kontrast und Schwarzwert sind tatsächlich erhebliche Verbesserungen zu verzeichnen. Auch die Blickwinkel sind insgesamt erweitert worden. Dafür liegt der Trend jetzt beim Hochglanzpanel. Und der kürzlich durchgeführte Test des allerneuesten Samsung LE40A856 zeigt, dass bei diesem Trend so bald wohl auch kein Ende in Sicht ist. Wir von der Redaktion sind da ehrlich gesagt nicht so begeistert. Im täglichen Gebrauch muss man bei diesen Panels ständig mit Reflexionen rechnen. Und was bei einem 32-Zoll-Gerät einfach nur lästig ist, wird bei den extremen Diagonalen schlicht zur Katastrophe. Der Spiegeleffekt ist wirklich sehr ausgeprägt. Natürlich ist es hübsch, wenn das Panel so schön glänzt, wenn der Fernseher ausgeschaltet ist. Damit verdient man sich garantiert den Neid der Nachbarn und Freunde, als wäre ein 52-Zoll-Fernseher noch nicht genug Grund zum Staunen. Ebenso richtig ist es, dass die Hochglanzpanel ganz eindeutig die Verkäufe ankurbeln, und da sind wir dann auch zweifelsohne beim eigentlichen Argument. Im Geschäft zieht so ein Hochglanzpanel ganz einfach eher die Blicke auf sich als die Mattversion.

In beiden Fällen jedoch kauft man einen Fernseher aus den falschen Gründen. Und letztendlich macht sich das in der Bildqualität bemerkbar. Leider geht der Trend bei den besten LCD-Fernsehern also momentan zum Hochglanz. Wie der Zufall es will, sind diejenigen, die sich bei ihrer Verkaufsstrategie auf so zweifelhafte Argumente stützen, auch die Experten der Bildbearbeitung. Natürlich kann man einwenden, dass das bei den Plasmafernsehern nicht anders ist, und das stimmt in gewisser Weise auch. Wer jedoch einen Plasmafernseher kauft, weiß meistens genau, was er tut. Man weiß, dass der DVB-T-Empfang schlecht ist. Man weiß, dass die Skalierung eines Fußballspiels nicht gerade ein Vergnügen ist. Und man ist sich daher sehr wohl bewusst, dass der Plasmafernseher ausschließlich für Heimkino-Anwendungen reserviert sein sollte, und genau da liegt ja auch seine Stärke. Bei LCD-Modellen erwartet man ein Mindestmaß an Vielseitigkeit und in der Regel wird man sich für Sportsendungen auch nicht in einen abgedunkelten Raum setzen. Lange Rede, kurzer Sinn : Kaufen Sie nicht einfach irgendetwas. Und wenn Sie ein besonders helles Wohnzimmer haben, überlegen Sie sich zweimal, was Sie tun.

Vorhang auf für unseren Vergleichstest von vier interessanten Geräten mit Diagonalen zwischen 46 Zoll und 52 Zoll.

GeForce GTX 295: Erste Benchmarks

Niemand ist gern nur Zweiter, besonders nicht Nvidia. Als das Unternehmen seine Grafikkarten GeForce GTX 260 und 280 auf den Markt brachte, kochte AMD mit seiner Radeon HD 3870. Erwartungsgemäß bauten die GT200-basierten Gamer Cards Nvidias Führung weiter aus. Niemand hätte damit gerechnet, dass AMD mit seinen Karten Radeon HD 4850 und 4870 zurückkehren und dem massiven, monolithischen Chip die Show stehlen würde – keine der beiden Karten ist übrigens schneller als Nvidias Aushängeschild.

Nachdem AMD bereits seine Vorliebe für kleinere, skalierbare Grafikprozessoren bewiesen hatte, dauerte es nicht lange bis zur Markteinführung der Radeon HD 4870 X2 – einer einzelnen Karte mit zwei RV770-Chips, 2 GB GDDR5-Speicher und einer PCI-Express-Brücke zur Kommunikation. Plötzlich waren die Rollen vertauscht und AMD hatte die schnellste Einzelkarte auf dem Markt. Doch damit nicht genug – sechs Monate später nimmt eine ganze Reihe von Ablegerkarten den Kampf mit Nvidias ehemals unerreichbarem Produkt auf.

Ab hier wird es dann immer komplizierter, und Hardcore-Spieler können Tausende Euro auf der Suche nach der besten Grafikleistung ausgeben. Eine 4870 X2 mit einer Nvidia-Lösung übertreffen? Kein Problem – man kauft einfach einige GeForce GTX 280. Wie schlägt man das nun mit einer AMD-Lösung? Man kauft eine weitere 4870 X2 für Vierfach-CrossFireX. Es soll noch schneller sein? Einfach eine dritte GTX 280 hinzufügen! Dafür sind dann allerdings schon ein teures Motherboard und eine leistungsstarke CPU nötig, die mit einer derartigen Grafik-Leistung Schritt halten können. Der reine Wahnsinn! Wohin soll das noch führen?

Vielleicht sollte man am Merkmal Einzelkarte ansetzen, um einen einstweiligen Sieger zu ermitteln. Man muss sich bewusst sein, dass bis hin zu Vierfach-CrossFire und Vierfach-SLI die Möglichkeiten unbegrenzt sind, mehr Geld zu investieren, mehr Strom zu verbrauchen und sich 10 oder sogar 20 Prozent mehr Leistung zu gönnen.

Vorsätze für 2009: Nvidia will seine Krone zurück

Im Jahr 2008 hatte Nvidia den Radeons nicht wirklich viel entgegenzusetzen, außer dem Versuch, AMDs 1 GB 4870 mit dem Update der GeForce GTX 260 Konkurrenz zu machen. Nach Angaben des Unternehmens werden in Zukunft alle GTX 260 die 216-Shader-Prozessorkonfiguration anwenden. Die 192-SP-Karte wird nach und nach ausverkauft und vom Markt verschwinden. Aufgrund des ähnlichen Preises geht Nvidia davon aus, dass der neue GTX 260-Standard ausreicht, die Faszination der AMD-Serie zu durchbrechen.

Was aber viel relevanter für das heutige Thema ist: Nvidia will seine Führungsposition in der Einzelkarten-Leistung zurückerobern und hat einen erheblichen Aufwand betrieben, um dieses Ziel zu erreichen. Deshalb folgt hier eine Vorschau auf die Hardware, die Nvidia auf der CES Anfang Januar veröffentlichen will. Die GeForce GTX 295 ist Nvidias Antwort auf die Radeon HD 4870 X2 von AMD und weist eine ähnliche Bauweise wie die GeForce 9800 GX2 auf.

Die einen schelten sie als affektierte Schönlings-Computer mit Betriebssystem für Dummys zu einem überhöhten Preis, andere lieben sie als stylische, stabile und produktive Rechner mit individuellem Flair. Wenige Marken polarisieren so stark wie Apple. Unstrittig ist aber, dass Apple beim Design immer wieder ein Vorreiter ist und sich nicht wenige Firmen von Apples Produkten „inspirieren“ lassen.

Seit Apple auf Intel-Technik setzt, lässt sich ganz offiziell auch Windows in den Geschmacksrichtungen XP und Vista installieren. So kann man die MacBooks nun mit anderen x86-Notebooks vergleichen. Genauso spannend ist aber auch der direkte Vergleich identischer Hardware unter den verschiedenen Betriebssystemen. Wo erreicht man beispielsweise die beste Batterielaufzeit?

Im Oktober stellte Apple seine aktuelle Notebookreihe vor. Teils handelt es sich um Neuentwicklungen, teils wurden bestehende Modelle überarbeitet. Grund genug, sich Apples tragbare Rechner genauer anzuschauen – und Äpfel mit Äpfeln zu vergleichen. Im Mittelpunkt stehen hier das neue 13-Zoll MacBook, das ebenfalls neue MacBook Pro 15 sowie das leicht überarbeitete MacBook Pro 17. Das MacBook Air hat ebenfalls eine Revision erfahren und ein neues Innenleben bekommen, folgt aber als Quicklook erst später.

Eine Frage der Größe - sollen es 13, 15 ...Eine Frage der Größe – sollen es 13, 15 … ...oder gar 17 Zoll sein? …oder gar 17 Zoll sein?

Die Leistungsaufnahme aktueller Grafikkarten ist extrem angestiegen, die Toppmodelle fordern zwischen 110 und 270 Watt vom Netzteil an. Wenn man nüchtern rechnet und sich die restlichen Komponenten anschaut, benötigt eine starke Grafikkarte unter Volllast mindestens genauso viel Power, wie der Rest des PC-Systems. Steht ein Upgrade zur Doppelchipkarte oder der Ausbau mit zwei Grafikkarten zu SLI oder Crossfire an, dann bestimmen die 3D-Chips, wie viel Watt das nächste Netzteil braucht.

Starke Grafikkarten bestimmen die PC-Stromversorgung.

Eine stabile Stromversorgung ist jedenfalls wichtig, wenn man unter Volllast Abstürze des Betriebssystems (Blue Screens) vermeiden will. Wer zu wenig Saft hat, dem geht der PC aus oder das Netzteil überhitzt und es verabschiedet sich im schlimmsten Fall mit einem lauten Knall. Umfangreiche Tabellen werden die wichtigsten Fragen klären: Wie viel Watt braucht das Netzteil, liefert es genug Ampere und welche Stecker oder Adapter sind für die Stromversorgung nötig.

Natürlich wird auch der Kostenfaktor betrachtet, der bei den heutigen Strompreisen nicht zu unterschätzen ist, wenn man mal die Leistungsaufnahme auf ein ganzes Jahr überschlägt. Wer sich mit ultimativer 3D-Leistung nicht anfreunden kann und eine sparsame Grafikkarte für seinen HTPC sucht, kann bei ATI und Nvidia zwischen vier Chipgenerationen vergleichen.

Sparklasse: AMD Phenom mit zwei Kernen

Der zweitgrößte Chiphersteller der Welt präsentiert heute drei neue Dual-Core-Versionen des Phenom. Schon vor einiger Zeit hatte man von den insgesamt vier Kernen eine CPU-Einheit deaktiviert und sie als Phenom X3 präsentiert. Nun folgt die Abschaltung von zwei Recheneinheiten. Das Besondere dabei: Der Prozessor erhält nicht den Namen “Phenom”, sondern aufgrund der im Vergleich geringeren Rechenleistung die klassische Bezeichnung »Athlon X2«. Er ist günstiger als der Athlon 64 X2 6400+ und sollte sich in der Performance durchsetzen können. Die Prozessoren sind somit das optimale Upgrade für ältere oder preisgünstige Systeme zu Weihnachten. Gleichzeitig wird der altbekannte Athlon 64 X2 mit der Hammer-Microarchitektur endgültig abgelöst.

Die drei neuen Prozessoren wurden Athlon X2 7750 Black Edition, Athlon X2 7550 und Athlon X2 7450 getauft. Da die Athlon X2 der 7000er-Serie gegenüber dem Phenom X4 aus nur zwei Kernen bestehen und somit eine geringere Verlustleistung besitzen, konnte AMD die Taktrate um 100 MHz auf 2,70 GHz steigern.

Der Athlon X2 7750 wird als Black Edition herausgebracht und richtet sich damit an Enthusiasten: Der Prozessor verfügt über einen offenen Multiplikator und kann so leicht übertaktet werden. Bei den kleineren Modellen 7550 und 7540 ist der Multiplikator nur nach unten frei wählbar.

Die technischen Daten entsprechen den Phenom-Prozessoren mit dem B3-Stepping: Die beiden CPU-Kerne verfügen über jeweils 512 KB L2-Cache und können gemeinsam auf den 2 MB großen L3-Cache zugreifen. Die »50« am Ende der Modellbezeichnung weist darauf hin, dass die Prozessoren keinen TLB-Bug beinhalten. Die Core ist nun unter dem Namen »Kuma« bekannt und wird weiterhin in 65 nm Prozesstechnik gefertigt.

Durch den aktuellen Technologiestand auf Basis des Phenom-Prozessors ist dies die einzige Athlon-Serie, welche über den SSE4A-Befehlssatz verfügt. Dadurch gewinnt die CPU bei Videoanwendungen sehr stark an Performance.

Per Remote über das Internet auf den Rechner zu Hause zugreifen ist kein Problem – doch wenn dieser ständig läuft, benötigt er viel Energie. Die Lösung: Den Rechner einfach über das Internet einschalten, wenn er gebraucht wird. Hinterher schaltet man ihn einfach wieder ab.

Doch wie? Das Einschalten mit Hilfe von Wake-On-LAN funktioniert nur in Ausnahmefällen, wenn ein Router eingesetzt wird. Doch unsere Bauanleitung bietet eine Lösung des Problems, die immer funktioniert: Nur 20 Euro kostet der Bausatz der Firma Pollin, mit welchem der Anwender den PC einschalten kann. Knapp eine Stunde dauert der Aufbau der Schaltung, dann kann es losgehen. Wir haben es getestet und zeigen, worauf beim Zusammenbau des Kits zu achten ist, das auch ungeübte Bastler problemlos aufbauen können.

Es ist kein spezielles Werkzeug notwendig: Seitenschneider und Flachzange sollten in jedem Haushalt zu finden sein. Wer keine teure Lötstation sein Eigen nennt, kann auch auf den günstigen Lötkolben samt Lötzinn aus dem Baumarkt zurückgreifen. Hilfreich sind eine Entlötpumpe, eine Abisolierzange und eine Arbeitsunterlage – notfalls tuts auch die Zeitung vom Vortag.

Für den Aufbau ist kein spezielles Vorwissen nötig, die beiliegende Bauanleitung ist sehr leicht verständlich. Es werden keine SMD-Bauteile verwendet, dadurch eignet sich die Schaltung auch für Lötanfänger. In diesem Artikel zeigen wir den Aufbau Schritt für Schritt und geben einige Tipps. Für Experten haben wir am Ende des Artikels eine Beschreibung der Komponenten zusammengestellt.

Viele Games lassen sich in ihrem Urzustand sehr gut spielen, haben es die Entwickler gut gemeint, kann man Welt, Grafik und Ausrüstung einfach modifizieren. Dadurch lassen sich Designschwächen, fehlerhafte Spielbalance oder nervige Einschränkungen schnell von der Fangemeinde ausmerzen. Gut gemachte Modifikationen heben sogar den Spielspaß so weit an, dass man ein Game gerne noch mal durchspielt, bevor es endgültig von der Festplatte verschwindet.

Mit hoch auflösenden Texturen wird die Umgebung noch schöner.Mit hoch auflösenden Texturen wird die Umgebung noch schöner.

Gerade bei der Grafik wird vom Hersteller oft auf Mittelmaß reduziert, damit man eine breite Masse vernünftig unterstützt. Hier setzen Profis und Amateure an, sie modifizieren Texturen und Umgebung, damit auch die stärkeren PC-Systeme etwas zu arbeiten bekommen. Belohnt wird der 3D-Mehraufwand durch bessere Optik bei Felsen, dichtem Sternenhimmel und blendender Sonne. Während man nun auf die offizielle Erweiterung oder den zweiten Teil wartet, wird das Spiel schön frisch gehalten und sieht auch mit der nächsten 3D-Hardware noch gut aus.

Fallout 3 profitiert durch Oblivion, die Fangemeinde kennt sich mit der 3D-Engine aus und sinnvolle Modifikationen waren schnell verfügbar. Tom’s Hardware stellt zehn der besten Zusätze vor und gibt eine genaue Anleitung, wie man die Verbesserungen in das Spiel integriert. Einige Modifikationen hat Fallout 3 dringend nötig, Bethesda Softworks beschränkt das Tragegewicht, sperrt den Charakterlevel bei 20, beendet nach der letzten Mission das Spiel und zeigt eine Grafikqualität auf mittlerem Niveau. Sind Sie durch diese Einschränkungen angenervt, dann zeigen wir Ihnen die hilfreichsten Modifikationen der Fangemeinde, die diese umgehen und das offizielle Spiel noch reizvoller machen.

Übersicht: Die besten Overclocking-Tools

Veteran Asus P2B: Damals noch Ocing mit Jumper und BIOS-SettingsVeteran Asus P2B: Damals noch Ocing mit Jumper und BIOS-Settings

Übertaktung ist schon seit langem bekannt, aber sie entwickelt sich kontinuierlich weiter. Während man noch vor wenigen Jahren Jumper auf dem Mainboard austauschen musste, um Zugang zu einigen wenigen vordefinierten FSB-Frequenzen (Front Side Bus) zu erhalten, können heutige Mainboards hunderte von Frequenzen aus dem BIOS-Setup-Programm generieren, ohne die Taktraten anderer Komponenten zu verändern. Inzwischen ist dazu noch nicht einmal mehr das BIOS-Setup notwendig: Es gibt Software, die es ermöglicht, die Übertaktung aus dem eigentlichen Betriebssystem heraus vorzunehmen.

Zahlreiche Software

Auf den folgenden Seiten werden die wichtigsten Overclocking-Anwendungen vorgestellt, welche die Übertaktung des Prozessors sowie der Grafikkarte ermöglichen. Einige davon können sogar Speicherfrequenz und -timing verändern. Selbstverständlich ist der Einsatz einer derartigen Software mit Risiken verbunden. Bewegt man sich aber in vernünftigen Grenzen, besteht keine große Gefahr, dass die Hardware beschädigt wird.

  • 1
  • 2

Privacy Policy Settings

Google Analytics Wir sammeln anonymisierte Daten darüber, welche Beiträge und News gelesen werden. Wir ermitteln dabei auch die Zeit - ebenfalls anonymisiert - wie lange ein Beitrag gelesen wurde. Dadurch können wir einfacher Themen anbieten, die Sie interessieren.
This website stores some user agent data. These data are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to opt-out of any future tracking, a cookie will be set up in your browser to remember this choice for one year. I Agree, Deny
528 Verbiete Google Analytics, mich zu verfolgen