AMD Radeon RX 6700 XT: Bei Krypto-Mining zweite Wahl

Ein schmales Speicher-Interface und eingeschränkte Optimierungsfunktionen bremsen die Radeon RX 6700 XT beim Ethereum-Mining.

In Pocket speichern vorlesen Druckansicht 82 Kommentare lesen

(Bild: AMD)

Lesezeit: 3 Min.

AMD hat mit der Radeon RX 6700 XT die erste Grafikkarte vorgestellt, die mit dem RDNA2-Grafikchip Navi 22 erscheint. Während die Radeon RX 6700 XT ein attraktives Modell für 1440p-Gaming darstellt, ist sie für das Schürfen von Kryptowährungen nicht die beste Wahl. Aufgrund der allgemein schlechten Verfügbarkeit möglicher Alternativen dürfte jedoch auch sie in Mining-Farmen zum Einsatz kommen.

Der Ethash-Algorithmus von Ethereum – die zurzeit lukrativste Kryptowährung fürs Mining mit Grafikkarten – ist stets speicherlimitiert. Der sich konstant vergrößernde DAG (directed acyclic graph) braucht inzwischen schon knapp über 4 GByte und je schneller die GPU auf den DAG im Grafikspeicher zugreifen kann, desto mehr Hashes kann sie pro Sekunde berechnen. Die Shader-Rechenleistung ist hingegen zweitrangig.

AMD verbaut in den RDNA2-Grafikchips vergleichsweise schmale Speicher-Interfaces, gestützt von großen, internen Zwischenpuffern – die Radeon RX 6700 XT etwa nutzt 12 GByte GDDR6 an 192 Datenleitungen und 96 MByte Last-Level-Cache. Dieser sogenannte Infinity Cache fängt in 3D-Spielen Speicherzugriffe ab, um die Bildrate zu erhöhen, was beim Ethereum-Mining aufgrund der wahlfreien Zugriffe auf das riesige DAG-File weniger effektiv funktioniert. Folglich sinkt die Hashrate und damit die Effizienz beim Schürfen.

Schon die Radeon-Grafikkarten RX 6900 XT, RX 6800 XT und RX 6800 sind verglichen mit Nvidias RTX-3000-Konkurrenz recht langsam: AMDs "Big Navi" schafft beim Ethereum-Mining rund 63 Megahashes pro Sekunde (MH/s), Nvidias Topmodell GeForce RTX 3090 hingegen mehr als 120.

Ein ähnliches Bild zeigt sich bei der Radeon RX 6700 XT: Ohne großen Optimierungsaufwand haben wir gut 46 MH/s gemessen. Die GDDR6-Taktfrequenz haben wir dabei um 100 MHz erhöht und die GPU zur Reduzierung der Leistungsaufnahme auf rund 1100 MHz untertaktet, ohne dass die Hashrate sank. AMDs Treiber limitiert dabei den Effizienzgewinn, da sich die GPU-Spannung unseres Musters manuell minimal auf 912 Millivolt verstellen lässt. Per automatischer Absenkung durch den verringerten GPU-Takt kommt man immerhin auf 887 Millivolt.

Der AMD-Grafiktreiber berechnet dabei eine GPU-Leistungsaufnahme von knapp 120 Watt – hinzukommen Speicher und Wandlerverluste mit erfahrungsgemäß 20 bis 30 Watt. Die GDDR6-Temperatur klettert laut Treiber auf bis zu 103 Grad Celsius, also knapp unter die Grenze von 110 °C, ab der das SDRAM seine Taktfrequenz reduziert.

Die Radeon RX 6700 XT schafft beim Ethereum-Mining rund 46 MH/s. Der Treiber limitiert allerdings das Undervolting.

(Bild: Carsten Spille / c't)

Dagegen steht Nvidias GeForce RTX 3060, ebenfalls mit 192-Bit-Interface und 12 GByte GDDR6-Speicher, die optimiert rund 45 MH/s bei einem Realverbrauch von etwas mehr als 100 Watt schafft. Dabei kostet das (kaum verfügbare) GeForce-Modell auf dem Papier 330 statt 480 Euro.

Sobald sich die generelle Verfügbarkeit von Grafikkarten bessert, dürften Miner RTX-3000-Modelle präferieren. Aktuell spielt der Effizienzunterschied jedoch kaum eine Rolle, da Miner so ziemlich alles wegkaufen, was sie in die Finger bekommen. Selbst teure Notebooks werden zum Schürfen von Kryptowährungen eingesetzt.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Preisvergleich (heise Preisvergleich) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (heise Preisvergleich) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(mma)