zurück zum Artikel

Nvidia bringt künftig jedes Jahr neue GPU-Architekturen

Mark Mantel

Nvidias Server-GPU L40.

(Bild: Nvidia)

Die KI-Milliarden machen sich bei Nvidia bemerkbar. Ab 2024 kommen jedes Jahr GPUs mit neuer Architektur. Spieler könnten profitieren.

Nvidia will künftig doppelt so viele GPU-Rechenbeschleuniger vorstellen wie bisher. Die Topmodelle sollen nicht mehr mit einem Abstand von zwei Jahren, sondern jährlich erscheinen. Auch Gaming-Grafikkarten könnten von den verkürzten Zyklen profitieren.

Seit der Volta-Generation hat Nvidia die Entwicklung zwischen Gaming-Grafikkarten und GPU-Beschleunigern für Server aufgeteilt: 2018 erschien die serverexklusive V100 [1], 2020 folgte die A100 [2] und 2022 die H100 [3].

Im Rahmen einer Investorenpräsentation hat Nvidia kürzlich eine GPU-Roadmap veröffentlich [4]t, die den neuen Jahresrhythmus zeigt. Nächstes Jahr erscheint demnach die Blackwell-Generation, angeführt von der B100. Ab 2025 beginnt dann die Umstellung mit zusätzlichen GPU-Architekturen. Nvidia nennt das Topmodell "X100", vermutlich ein Platzhalter-Präfix.

Nvidias GPU-Roadmap für Rechenbeschleuniger. A100 und H100 sind mit jeweils einem Jahr Verzögerung eingetragen – vermutlich, weil die Firma ab da größere Mengen verschicken konnte.

(Bild: Nvidia)

Zusätzlich will Nvidia mit der B40 und "X40" neue Grafikkarten für Enterprise-Kunden und das Ausführen fertig trainiert KI-Algorithmen (Inferencing) bringen. Bisherige Ableger dieser Klasse verwenden GPUs, die Nvidia auch bei seinen GeForce-Topmodellen einsetzt. So teilen sich etwa die neue L40S [5] und die GeForce RTX 4090 [6] die AD102-GPU und die A40 sowie GeForce RTX 3090 (Ti) die GA102-GPU.

Diese Varianten verwenden bisher GDDR- statt HBM-RAM, zudem sind sie noch auf 3D-Bildberechnungen ausgelegt. Sollte Nvidia die Aufteilung beibehalten, könnten künftig auch häufiger neue GeForce-Topmodelle erscheinen.

Zusätzlich zu B100 und "X100" gibt es die üblichen Ableger wie GB200 und "GX200", die einen Rechenbeschleuniger mit einem selbst entwickelten ARM-Prozessor kombinieren. Die NVL-Versionen mit besonders viel Speicherkapazität [7] bewirbt Nvidia als Flaggschiffe fürs Training von neuronalen Netzen.

Eine H100-Neuauflage, H200 genannt, überbrückt die Wartezeit bis Blackwell. Sie verwendet wahrscheinlich wie das angekündigte GH200-Board HBM3e- statt HBM3-RAM [8], mit höherer Übertragungsrate und größerer Kapazität.

Parallel beschleunigt die Firma seine Interconnects und Switches, die mehrere Server-Blades miteinander verbinden: 2024 verdoppelt sich die Übertragungsrate auf 800 Gbit/s, 2025 sollen sie 1,6 Tbit/s schaffen.

Das Geld für die gestrafften Zyklen kommt primär von den A100- und H100-Verkäufen. Firmen reißen Nvidia die GPU-Beschleuniger fürs KI-Training förmlich aus der Hand. Nvidias Quartalsumsatz mit diesen GPUs ist zuletzt auf mehr als 10 Milliarden US-Dollar geschossen und soll noch weiter steigen – einzig limitiert durch die Fertigungs- und Packaging-Kapazitäten des Chipauftragsfertigers TSMC.

(mma [9])


URL dieses Artikels:
https://www.heise.de/-9332599

Links in diesem Artikel:
[1] https://www.heise.de/news/GTC-2017-Nvidia-stellt-Riesen-GPU-Volta-mit-5120-Kernen-und-16-GByte-HBM2-vor-3710317.html
[2] https://www.heise.de/news/Nvidia-Ampere-A100-Volle-Grafikfunktion-und-CPU-unabhaengig-4726187.html
[3] https://www.heise.de/news/Nvidia-Hopper-Naechste-GPU-Generation-mit-80-GByte-HBM3-Speicher-und-3-TByte-s-6598382.html
[4] https://s201.q4cdn.com/141608511/files/doc_presentations/2023/Oct/NVIDIA-Oct-2023-Investor-Presentation.pdf
[5] https://www.heise.de/news/OVHcloud-erweitert-sein-Angebot-von-Nvidia-GPUs-9320020.html
[6] https://www.heise.de/tests/Asus-TUF-Gaming-GeForce-RTX-4090-24GB-OC-im-Test-7328336.html
[7] https://www.heise.de/news/H100-NVL-Nvidias-neue-schnellste-GPU-soll-ChatGPT-Co-voranbringen-7597041.html
[8] https://www.heise.de/news/Nvidia-GH200-Grade-Hopper-bekommt-ein-HBM3e-Upgrade-9242268.html
[9] mailto:mma@heise.de