CES

AMD Instinct MI300: AMD zeigt KI-Beschleuniger mit 146 Milliarden Transistoren

Der Kombiprozessor AMD Instinct MI300 vereint 24 CPU-Kerne, CDNA3-GPU und 128 GByte HBM-Speicher in einem Paket und soll besonders zur KI-Beschleunigung taugen.

In Pocket speichern vorlesen Druckansicht 23 Kommentare lesen

Links AMD Chefin Lisa Su, rechts AMDs Server-APU Instinct MI300.

Lesezeit: 2 Min.

Während der AMD-Keynote auf der CES 2023 konnte CEO Dr. Lisa Su mal wieder ein paar neue Chips in die Höhe halten. Neben dem Ryzen 7000 für Notebooks und den Ryzen 7000X3D für Spieler war diesmal auch ein besonders großer Kombichip dabei. Der insbesondere für KI-Berechnungen gedachte Instinct MI300 vereint nicht nur CPU und GPU auf einem Träger, sondern findet auch noch Platz für üppige 128 GByte HBM-RAM. AMD stapelt zudem die Rechenkerne auf eine Lage an Cache-Speicher, ähnlich wie bei den X3D-Modellen. Macht insgesamt gigantische 146 Milliarden Transistoren.

Vorgestellt hat AMD den für High-Performance-Computing (HPC) gedachten Chip bereits vor einem halben Jahr. Allerdings gab es damals nur ein Renderbild zu sehen und das vage Erscheinungsjahr 2023. Den Termin hat AMD nun immerhin auf das zweite Halbjahr konkretisiert und einen ersten physischen Chip in die Kamera gehalten. Derzeit befindet sich der Beschleuniger in der Erprobung in den den AMD-Laboren, über konkrete Taktraten, Cachegrößen und dergleichen gibt es noch keine Informationen. Immerhin gibt AMD an, dass die einzelnen Chiplets in 5 und 6 Nanometer Strukturbreite gefertigt werden, wobei die Cache-Bausteine vermutlich in der größeren Breite kommen.

Ein paar Eckdaten verrät AMD, finale Spezifikationen und konkrete Leistungsdaten bleiben aber bisher vage.

Bis zu achtmal schneller soll der MI300 im Vergleich zum Vorgänger MI250(X) KI-Berechnungen durchführen können und zudem die fünffache Performance pro Watt erreichen. Dafür kommt, neben 24 CPU-Kernen auf Basis von Zen 4, auch die neue CDNA3-Architektur bei der GPU zum Einsatz. Die CDNA-GPUs sind voll auf Compute-Aufgaben optimiert und taugen nicht für 3D-Grafik-Berechnung. Welche konkreten Verbesserungen CDNA3 noch bringt, außer der wahrscheinlichen Verwandtschaft zu RDNA3, bleibt vorerst im Dunkeln.

Die 128 GByte HBM3-Speicher teilen sich diesmal CPU und GPU, was deutliche Vorteile für die Compute-Leistung bringen sollte – je nach Szenario und Menge an Trainingsdaten. Dank der nun integrierten CPU sollte der Beschleuniger ohne weiteren Epyc-Prozessor als Unterstützung direkt lauffähig sein, also eine APU darstellen. Wie es um die Mainboard-Fassung und Kompatibilität zu älteren Systemen steht, müssen die nächsten Monate zeigen.

(asp)