AMD will Server-Hardware bis 2025 um den Faktor 30 effizienter machen
Die Kombination aus Epyc-CPUs, Instinct-GPUs und womöglich eigenständigen KI-Karten soll die Rechenleistung pro Watt bei AMD künftig signifikant steigern.

(Bild: c't)
AMD kündigt eine Effizienzinitiative für Hardware in Rechenzentren an: Eigene Prozessoren und Beschleunigerkarten sollen im Verbund bis 2025 um den Faktor 30 effizienter rechnen als noch im Jahr 2020 – bei leicht steigender Leistungsaufnahme stellt AMD eine deutlich höhere Rechenleistung in Aussicht. Mit dem Vorhaben will AMD die Konkurrenz um das 2,5-Fache abhängen, deren 5-Jahreszuwachs in Sachen Effizienz prognostiziert nur beim Faktor 12 liegen soll.
Die AnkĂĽndigung erinnert an AMDs 25x20-Initiative aus dem Jahr 2014: Damals versprach das Unternehmen, Kombiprozessoren, im Firmensprech APUs genannt, bis 2020 um den Faktor 25 effizienter zu machen. Gemeint war die Kombination aus CPU-Kernen und integrierter Grafikeinheit. Im Falle von Servern sind nun nicht nur rein Eypc-Prozessoren gemeint, sondern auch Beschleunigerkarten.
2020 als Ausgangsbasis
Bei der eigenen Prognose vergleicht AMD die Erwartungen an ein künftiges System bestehend aus einem (Epyc-)Prozessor und vier GPU-Beschleunigern im klassischen Compute-Benchmark Linpack (FP64) und beim KI-Training (etwa FP16 und Bfloat16). Als Referenz dient ein nicht näher beschriebenes System von 2020, ebenfalls mit einer CPU und vier GPUs. In dem Jahr war AMDs Epyc-Baureihe 7002 (Rome) mit Zen-2-Architektur aktuell, zudem stellte die Firma Ende 2020 den ersten CDNA-Beschleuniger mit Compute-Fokus, die Instinct MI100, vor.
(Bild: AMD)
Die CDNA-Architektur ist auf hohe Compute-Leistung getrimmt. GerĂĽchten zufolge setzt AMD kĂĽnftig auf Modelle mit mehreren GPUs und viel HBM2e-RAM, um die Leistung weiter hochzuskalieren. Im Falle von Epyc sollten bis 2025 Prozessoren mit Zen-5- oder gar Zen-6-Architektur den Markt erreichen.
Abseits der Standardkost hat AMD exotischere Eisen für Rechenzentren im Feuer: Schon vor Jahren beschrieb die Firma, wie Exascale-Kombiprozessoren mit CPU- und GPU-Chiplets sowie aufgestapeltem HBM-Speicher aussehen könnten.
KI-Chips von Xilinx
Zudem steht die Übernahme des FPGA-Riesen Xilinx durch AMD an, der die Beschleunigerklasse Adaptive Compute Acceleration Platform (ACAP) fürs KI-Training anbietet. In der Präsentation zum neuen Effizienzversprechen deutete AMD an, künftig Beschleunigerkarten speziell fürs KI-Training verkaufen zu wollen.
(Bild: AMD)
Die Konkurrenz steht allerdings nicht still. Intel bringt mit Ponte Vecchio den ersten eigenen GPU-Beschleuniger in Form eines riesigen Multi-Chip-Moduls an. Nvidia schickt sich an, ARM aufzukaufen, um außer Beschleunigerkarten auch eigene Server-CPUs anbieten zu können.
(mma)