Speerspitze

Ihre extrem hohe 3D-Performance macht die GeForce GTX 580 attraktiv für Spieler, bei denen das Portemonnaie eher locker sitzt.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen
Lesezeit: 8 Min.
Inhaltsverzeichnis

Nvidia konnte AMD bereits mit der im April diesen Jahres vorgestellten GeForce GTX 480 den Titel für die schnellste Single-GPU-Grafikkarte entreißen. Doch zu einem hohen Preis: Leistungsaufnahme und Geräuschentwicklung der nach langer Verzögerung erschienenen DirectX-11-Karte waren selbst für viele hartgesottene Spiele-Freaks unerträglich.

Sieben Monate später gestand Nvidia bei einer Präsentation in München die Probleme der GeForce GTX 480 ein. Man habe aus den Fehlern gelernt und den GF100-Grafikchip komplett überarbeitet. Das Ergebnis: Die GeForce GTX 480 geht in Rente und wird durch die GTX 580 ersetzt. Schneller, sparsamer, leiser und kühler soll sie sein.

512 Shader-Rechenkerne und 64 Textureinheiten bringt der GF110-Grafikchip mit.

Nvidia nennt ihren High-End-Grafikchip GF110, der wie sein Vorgänger aufgebaut ist, aber über die für das Design maximale Anzahl von Funktionseinheiten verfügt. Insgesamt 512 Shader-Rechenkerne verteilen sich auf 16 Streaming-Multiprozessoren, an denen jeweils eine Tessellation-Engine und 4 Textureinheiten sitzen. Im Unterschied zum Vorgänger verarbeitet der GF110 nun auch FP16-Texturen, die in einigen Spielen zum Beispiel bei HDR-Lichteffekten eingesetzt werden, in einem einzigen Taktzyklus. Auch die Z-Culling-Engine wurde überarbeitet und verwirft aus der jeweiligen Perspektive unsichtbare Pixel dank neuer Formate nun effizienter. 48 Rasterendstufen sorgen für eine hohe Kantenglättungsleistung.

Der aus rund 3 Milliarden Transistoren bestehende, von TSMC gefertigte 40-Nanometer-Grafikchip läuft mit 772 MHz rund 10 Prozent schneller als der einer GeForce GTX 480, die Shader-Rechenkerne mit 1544 MHz. Insgesamt 1536 MByte GDDR5-Speicher (2004 MHz) sind über 384 Datenleitungen angebunden, was zu einer Datentransferrate von 192,4 GByte/s führt – Rekord bei Single-GPU-Grafikkarten. Das reicht auch in den anspruchsvollsten Spielen für sehr hohe Auflösungen in Verbindung mit Kantenglättung und anisotropem Texturfilter.

Die Video-Engine VP4 entspricht weiterhin der des GF100: Sie dekodiert etwa hochaufgelöstes Material in den Formaten MPEG-4 ASP, MPEG-2, H.264 und VC1 und ist fit für die Wiedergabe von stereoskopischen Blu-ray-Filmen. Leider hat Nvidia nicht die verbesserte Videoeinheit des GF104-Grafikchips integriert, die auch DTS-HD Master Audio und Dolby True HD als Bitstream ausgeben kann. Die GeForce GTX 580 hilft via CUDA auch beim Umwandeln von Videomaterial, sofern man spezielle Software wie Media Espresso einsetzt. Das lastete in unseren Tests aber maximal 240 Kerne aus. Und das Nvidia-exklusive Transkodierprogramm Badaboom kann mit DirectX-11-Chips noch immer nichts anfangen.

Doch für viele Spieler zählt beim Kauf einer teuren High-End-Grafikkarte nur die reine 3D-Performance. Und hier hat Nvidia mit der GeForce GTX 580 die Latte für AMDs Mitte Dezember erwartete HD-6900-Konkurrenzkarten hoch gelegt: zwischen 15 und 20 Prozent schneller als die GeForce GTX 480 ist sie durchschnittlich in aktuellen 3D-Spielen und kommt teilweise sogar der derzeit schnellsten Dual-GPU-Grafikkarte – AMDs Radeon HD 5970 – gefährlich nahe. Die GeForce GTX 580 reicht also auch zum Spielen auf großen 30-Zoll-Bildschirmen mit 2560 x 1600 Bildpunkten und maximaler Detailstufe aus.

Nvidia zeigt mit der neuen Technologiedemo Aliens vs. Triangles, wie sich ein Charaktermodell durch Tessellation dynamisch verändern lässt. Mögliche Einsatzgebiete sind etwa Online-Rollenspiele.

(Bild: Nvidia)

Einige Titel profitieren stark von der verbesserten FP16-Leistung, etwa das auf HDR-Effekte setzende Rennspiel Colin McRae Dirt 2. Dann sind auch Performance-Gewinne von über 20 Prozent drin: So schafft die GeForce GTX 580 bei 2560 x 1600 Pixeln mit vierfacher Kantenglättung und sechzehnfachem anisotropen Filter butterweiche 69 Bilder/s (fps), eine GTX 480 kommt auf 54 fps (Radeon HD 5870: 50 fps). Metro 2033 – einer der anspruchsvollsten First-Person-Shooter – ist mit der neuen Karte in gleicher Auflösung und sehr hoher DirectX-11-Detailstufe spielbar, mit der GTX 480 oder AMDs Radeon HD 5870 ruckelte es an zu vielen Stellen. Crysis lässt sich mit einer GeForce GTX 580 in Full-HD-Auflösung und sehr hoher Detailstufe bei zweifacher Kantenglättung mit 46 fps flüssig genießen. Im 3DMark Vantage erreicht die GeForce GTX 580 in der Extreme-Voreinstellung rund 13 000 Punkte, AMDs Radeon HD 5870 zirka 9000 und die Dual-GPU-Variante HD 5970 knapp 14 000. Beim Tessellation-Benchmark Unigine Heaven schlägt die GTX 580 (48 fps) sogar die Radeon HD 5970 (45 fps).

Mit Hilfe des Tools MSI Afterburner ließ sich der Grafikchip unseres Testexemplars um 6 Prozent, der Speicher um knapp 10 Prozent übertakten. Damit war die GeForce GTX 580 in Metro 2033 und Crysis bei 2560 x 1600 Bildpunkten so schnell wie AMDs Radeon HD 5970 und erreichte spielbare 30 fps im Mittel.

Nvidia behauptet, dass die Leistungsaufnahme im Vergleich zur GeForce GTX 480 gesunken sei. Dies konnten wir mit unseren Messungen teilweise nachvollziehen: Im Leerlauf arbeitet der Grafikchip mit reduzierten Taktfrequenzen und verminderter Spannung (0,962 V). Die GeForceGTX 580 gibt sich dann mit 32 Watt Leistungsaufnahme bescheidener als die GTX 480 (43 Watt) und liegt auch unter der ähnlich schnellen AMD Radeon HD 5970 (45 Watt). Der Lüfter hält den Grafikchip bei kühlen 48 °C und ist bei 0,3 Sone kaum hörbar. Im Zweischirmbetrieb steigt die Leerlauf-Leistungsaufnahme nur um 2 Watt an, sofern die Bildwiederholraten und Auflösungen identisch sind, ansonsten wandelt die GeForce GTX 580 satte 93 Watt in Wärme um. Im Referenzdesign besitzt die GeForce GTX 580 zwei Dual-Link-DVI-Buchsen für Auflösungen bis zu 2560 x 1600 Bildpunkte und einen Mini-HDMI-Ausgang (1920 x 1200).

Beim Zocken verheizt die GTX 580 durchschnittlich 181 Watt (1,4 Sone) mit kurzzeitigen Spitzen von 297 Watt, die GeForce GTX 480 kam auf 207 Watt im Mittel und Spitzen von 302 Watt. Beide Grafikkarten besitzen je einen sechs- und achtpoligen Stromanschluss. AMDs Radeon HD 5870 ist beim Spielen mit 120 Watt deutlich sparsamer. Im Furmark-Belastungstest zieht die GeForce GTX 580 durchschnittlich 274 Watt aus dem Netzteil und damit 10 Watt mehr als ihre Vorgängerin – sofern man eine ältere Furmark-Version als 1.8 verwendet.

Im aktuellen Furmark drosselt Nvidia den Grafikchip, um ihn nach eigenen Angaben vor zu hoher Last zu schützen. Zukünftige Treiber sollen auch ältere Furmark-Versionen erkennen. Die Grafik-Hardware auch bei sehr anspruchsvollen Spielen zu drosseln ist zunächst nicht geplant, wie man in einer E-Mail mitteilte: „So far we have not seen any real world games that are affected by power monitoring or need power throttling to stay within spec.“ Dank des verbesserten Referenzkühlers, der mit Hilfe von Vapor-Chamber-Technik für eine effiziente Wärmeabfuhr sorgt, kletterte die Grafikchip-Temperatur nicht über 90 °C. Durch das Kühlsystem belegt die 27 Zentimeter lange Karte zwei Gehäusesteckplätze.

Die GeForce GTX 580 wird laut Nvidia bis zur Vorstellung der Kepler-Grafikprozessoren die schnellste Single-GPU-Grafikkarte aus der GeForce-Serie bleiben. Kepler wird im 28-Nanometer-Verfahren gefertigt und daher frühestens in der zweiten Hälfte des kommenden Jahres erwartet. Nvidias GeForce GTX 580 ersetzt die GTX 480 und bringt genügend Leistung mit, um anspruchsvolle DirectX-11-Spiele in extrem hohen Auflösungen flüssig zu genießen. Wie bei GeForce-Grafikkarten üblich beschleunigt sie in einigen Spielen spezielle Physik-Effekte (PhysX), bringt einen guten Stereoskopie-Treiber mit und unterstützt neben DirectX 11 eine Vielzahl von weiteren Programmierschnittstellen.

Zwar hat Nvidia die Leckströme der Transistoren und damit die Leistungsaufnahme nun besser im Griff, jedoch ist sie unter Volllast noch immer zu hoch. Die GeForce GTX 580 kostet 480 Euro und damit satte 100 Euro mehr als das Vorgängermodell. Doch spätestens Mitte Dezember dürften die Preise sinken: Dann will AMD mit den Radeon HD 6950 und HD 6970 für Konkurrenz sorgen. (mfi)