Microsoft kauft die meisten Nvidia-Beschleuniger

Fast eine halbe Million Hopper-GPUs gingen 2024 an Microsoft. Auch chinesische Firmen sind vorn dabei.

In Pocket speichern vorlesen Druckansicht 17 Kommentare lesen
Nvidias KI-Beschleuniger H100

Nvidias KI-Beschleuniger H100.

(Bild: Nvidia)

Lesezeit: 2 Min.

Microsoft ist Nvidias mit Abstand größter Kunde von KI-Beschleunigern. 485.000 Hopper-GPUs, also H100 und H200, hat die Firma laut einer Schätzung des Marktbeobachters Omdia im Jahr 2024 gekauft. Unklar ist, wie viele der Chips Microsoft selbst einsetzt und wie viele für den Partner OpenAI gedacht sind. Die Omdia-Zahlen gibt Financial Times wieder.

Rechnet man mit einem Preis von 30.000 US-Dollar pro GPU, wären das fast 15 Milliarden US-Dollar. Nvidias Jahresgewinn mit Serverprodukten wird dieses Jahr voraussichtlich die 100 Milliarden US-Dollar überschreiten, darin inkludiert unter anderem aber auch ARM-Prozessoren, Netzwerkkarten und Interconnect-Technik.

Die größten Kunden von Nvidias Hopper-GPUs. Microsoft ist mit Abstand vorn.

(Bild: Financial Times)

Auf Platz 2 und 3 der größten Hopper-Abnehmer folgen bereits abgeschlagen die chinesischen Firmen Bytedance und Tencent mit jeweils rund 230.000 Hopper-GPUs. Sie kaufen die abgespeckten Versionen H800 und H20 aufgrund der US-Exportbeschränkungen. Erstere kam zunächst mit einem verlangsamten Nvlink-Interconnect; die H20 schob Nvidia aufgrund aktualisierter Exportbeschränkungen mit halbierter Rechenleistung nach.

Bytedance verwendet seine KI-Rechenzentren etwa für KI-Algorithmen in Tiktok. Zu Tencent gehören unzählige chinesische und internationale Firmen. Unter anderem betreibt Tencent WeChat in China, das KI-Agenten integriert.

Meta soll 224.000 Hopper-GPUs gekauft haben, daneben aber auch 173.000 Instinct MI300 als offenbar größter AMD-Kunde. Microsoft kommt laut Schätzung auf 96.000 Instinct MI300. xAI, Amazon und Google schließen die Top 5 der größten Nvidia-Hopper-Kunden ab, mit jeweils 150.000 bis 200.000 Exemplaren.

Amazon, Google und Meta sind beim Einsatz eigener KI-Beschleuniger am weitesten. Google und Meta sollen jeweils rund 1,5 Millionen eigene Chips in Betrieb genommen haben; Google nennt sie Tensor Processing Units (TPU), Meta Training and Inference Accelerator (MTIA). Amazon kommt auf 1,3 Millionen Trainium und Inferentia getaufte Chips. Microsoft ist mit 200.000 eigenen Maia-Beschleunigern abgeschlagen.

Die selbst entwickelten Typen sind allesamt pro Chip langsamer als Nvidias Hopper-GPUs. Aktuell fährt Nvidia die Produktion der neuen Generation Blackwell hoch, die noch mal deutlich schneller, aber auch teurer ist.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Preisvergleich (heise Preisvergleich) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (heise Preisvergleich) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(mma)