c't 17/2024
S. 32
Aktuell
Prozessoren

Bit-Rauschen

Rechenzentren mit Millionen GPUs und Software-Firma AMD

Im Rennen um die erhofften KI-Billionen nehmen Rechenzentren bald absurde Ausmaße an, Firmen wie AMD richten sich komplett neu aus und Elon Musk kriegt Torschlusspanik.

Von Carsten Spille

Der KI-Boom findet derzeit noch hauptsächlich in der Cloud und damit in den Rechenzentren dieser Welt statt. Zumindest wird dort das große Geld in der Hoffnung hineingepumpt, es später einmal vielfach zurück zu erwirtschaften. Der „AI PC“ für zu Hause steht dagegen erst in den Startlöchern (siehe Seite 14 und 58). Rechenzentren schießen deshalb nicht nur wie Pilze aus dem Boden, sondern beherbergen auch immer mehr KI-Beschleuniger. Nvidia und AMD bringen gerade Rechenzentren ins Gespräch, die aus einer Million und mehr Beschleunigern bestehen und damit um mehr als Faktor 20 größer sind als derzeitige Supercomputer-Installationen. Dass damit auch der Energiebedarf durch die Decke geht, liegt auf der Hand. Die Verträge mit Stromlieferanten, bei denen die KI-Firmen Großkontingente aus Wind- und Solarparks und quasi komplette (Kern)Kraftwerke einkaufen, hängt man allerdings nicht an die große Glocke. Geschweige denn, dass selbst damit die im Rahmen des branchenweiten Greenwashings angestrebte CO2-Neutralität auf absehbare Zeit nicht zu erreichen ist.

Passende Netzwerkhardware für das Millionen-GPU-Rechenzentrum hat Nvidia mit dem Switch Spectrum-X1600 der Tochter Mellanox für 2026 immerhin schon mal auf dem Plan, wie die Firma auf der Computex ankündigte., Bild: Nvidia
Passende Netzwerkhardware für das Millionen-GPU-Rechenzentrum hat Nvidia mit dem Switch Spectrum-X1600 der Tochter Mellanox für 2026 immerhin schon mal auf dem Plan, wie die Firma auf der Computex ankündigte.
Bild: Nvidia

AMD wird zur Software-Company

Aber dank dem Lockruf des Mammons ist KI derzeit kaum zu stoppen. Auch AMD hat sich zu Herzen genommen, was c’t schon seit geraumer Zeit schreibt: Im IT-Entwicklungsland KI ist tolle Hardware nur die halbe Miete. Ohne passende Software wie Frameworks, Bibliotheken und optimierte Modelle bleibt man als Hersteller auf ihr sitzen oder ist euphemistisch ausgedrückt die einzige Firma ohne Lieferzeiten. Um das zu vermeiden, setzt AMD seine Einkaufstour unter KI-Startups fort.

Nachdem der (Noch-)Chiphersteller- im August 2023 bereits das französische Unternehmen Mipsology mit seiner Zebra AI, einer Engine, die KI-Modelle zum Inferencing auf FPGAs optimiert und im Oktober Nod.ai mit der Machine-Learning-Distribution SHARK übernommen hat, folgt mit dem finnischen Silo AI für 625 Millionen US-Dollar in bar nun der neueste Streich. Silo AI ist einer der wichtigsten Entwickler, die den finnischen Supercomputer Lumi nutzen, in dem wiederum AMDs Instinct MI250X-Beschleuniger rechnen. Inzwischen hat AMD auch offiziell einen Strategiewechsel eingeleitet und will nun Software stärker priorisieren, nachdem sie das Hardware-Game durchgespielt hat.

Musk will seine KI selbst trainieren

Und noch einmal KI: Das Startup xAI von – wie sollte es angesichts des Namens anders sein – Paypal-/Tesla-/SpaceX-Milliardär und Twitter-Rechtslenker Elon Musk will sein KI-Rechenzentrum jetzt selbst bauen. Den geplanten 10 Milliarden US-Dollar schweren Deal mit Oracle Cloud, deren 24.000 Nvidia-H100-Beschleuniger die xAI-Chatbots Grok und Grok 2 trainierten, will Musk nicht weiter verfolgen, sondern lieber selbst am Steuer sitzen.

Wie gewohnt per Xeet kündigte er an, die xAI werde einen KI-Cluster mit 100.000 H100 in Rekordzeit selbst bauen. Das System soll noch im Juli mit dem Training beginnen und das mit Abstand leistungsfähigste seiner Art sein, wenn es komplettiert ist. Dem Aktienkurs von Oracle versetzte die Nachricht jedenfalls schon mal einen 3-Prozent-Dämpfer, der blieb mit 34 Prozent fürs laufende Jahr aber weiter satt im Plus. (csp@ct.de)

Kommentieren