Nvidia und AMD träumen von Gigawatt-Rechenzentren

Riesige Rechenzentren sollen in ein paar Jahren mehr als eine Million GPU-Beschleuniger nutzen. Die nötige Infrastruktur wäre immens.

In Pocket speichern vorlesen Druckansicht 62 Kommentare lesen
Nvidias Chef Jensen Huang zeigt auf der Computex das Renderbild eines Supercomputers

Nvidia konzentriert sich immer mehr auf riesige Rechenzentren. Die Hardware dafür liefert die Firma am liebsten selbst, komplett aus eigener Hand.

(Bild: Nvidia)

Lesezeit: 4 Min.

Nvidias Chef Jensen Huang hat auf der IT-Messe Computex offensichtlich nicht gescherzt: Schon in wenigen Jahren könnten die ersten Rechenzentren in Betrieb gehen, die eine Million Rechenbeschleuniger und mehr verwenden. Solche Supercomputer wären um ein Vielfaches schneller als heutige Systeme, die maximal 30.000 bis 50.000 Beschleuniger einsetzen. Der aktuell schnellste Supercomputer in der Top500-Liste, Frontier mit AMD-Hardware, etwa schafft 1,2 Exaflops mit knapp 40.000 Instinct-Karten.

Huang hat während seiner Computex-Keynote eine Roadmap gezeigt, die einen geeigneten Unterbau für solch gewaltige Rechenzentren für das Jahr 2026 vorsieht. Das Ganze heißt Spectrum-X1600, angelehnt an die vorgesehenen Netzwerkprozessoren mit einem Datendurchsatz von 1600 Gbit/s.

Schon ab 2026 soll die Grundlage für Rechenzentren stehen, die Millionen von Beschleunigern verwenden könnten.

(Bild: Nvidia)

Natürlich geht es dabei um den Hype von Künstlicher Intelligenz (KI). Huang sagte dazu:

"Die Tage von Rechenzentren mit Millionen von GPUs kommen, und der Grund dafür ist sehr einfach. Natürlich wollen wir viel größere Modelle trainieren, aber in Zukunft wird wahrscheinlich bei fast jeder Interaktion, die man mit dem Internet oder einem Computer hat, irgendwo in der Cloud eine generative KI laufen. Und diese generative KI arbeitet mit Ihnen, interagiert mit Ihnen, generiert Videos oder Bilder oder Text – oder vielleicht einen digitalen Menschen. Sie interagieren also fast die ganze Zeit mit Ihrem Computer. Und es gibt immer eine generative KI, die damit verbunden ist."

Schon heute produziert Nvidia mehr als eine Million Rechenbeschleuniger pro Quartal, vornehmlich H100- und H200-Modelle aus der Hopper-Generation. Der Chipauftragsfertiger TSMC baut seine Produktionskapazitäten kontinuierlich aus – der Flaschenhals liegt beim sogenannten Advanced Packaging, also beim Zusammenfügen aller Chips auf einem Träger. Gerüchten zufolge könnte Nvidia künftig auch Packaging-Kapazität von Intels Auftragsfertigungssparte Intel Foundry in Anspruch nehmen.

Auch AMD will in solchen Größenordnungen wachsen, verkauft heutzutage aber wesentlich weniger Beschleuniger als Nvidia. Im Gespräch mit Next Platform gab AMDs Leiter der Serversparte, Forrest Norrod, zu verstehen, dass es bereits einen konkreten Kunden für ein riesiges Rechenzentrum geben könnte. Das System soll bei einer Größenordnung von 1,2 Millionen Instinct-Beschleunigern liegen.

"Das Ausmaß dessen, was hier in Erwägung gezogen wird, ist überwältigend. Wird das alles Wirklichkeit werden? Ich weiß es nicht. Aber es gibt öffentliche Berichte von sehr nüchternen Leuten, die darüber nachdenken, Dutzende Milliarden Dollar oder sogar hundert Milliarden Dollar für Trainings-Cluster auszugeben", sagte Norrod.

Die Skalierung von Rechenzentren erzeugt maßgeblich drei Probleme: die elektrische Leistungsaufnahme, daraus resultierend die Kühlung, und die Verschaltung aller Komponenten.

Für die Energieversorgung schließen Betreiber von Rechenzentren immer größere Verträge mit Stromanbietern ab. Teilweise werden ganze Kraftwerke direkt nebenan gebaut; beim aktuellen KI-Hype gibt es allerdings auch schon erste Engpässe. Bisherige Supercomputer beanspruchen typischerweise bis zu 30 Megawatt. Skaliert man sie derart hoch, wie es sich Nvidia und AMD erträumen, lägen wir auf einem Niveau von mehr als einem Gigawatt.

Zulieferer rüsten derweil ihre Kühlsysteme auf. Rittal stellte kürzlich eins vor, das 100.000 Watt pro Serverschrank (Rack) abführen kann.

Nvidia geht die Verschaltung unzähliger Racks mit eigenen Switches und Netzwerkprozessoren an. Dazu hat die Firma 2020 den Netzwerkspezialisten Mellanox übernommen. Huang bewirbt die Infrastrukturprodukte als genauso wichtig für Rechenzentren wie die Beschleuniger. Aktuell setzt Nvidia alles daran, immer mehr Komplettprodukte aus eigener Hand zu verkaufen.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Preisvergleich (heise Preisvergleich) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (heise Preisvergleich) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(mma)