Nvidia will sich in der europäischen KI-Welt verankern

In Europa entstehen sechs Forschungszentren mit Nvidia. Zudem will die Firma eine "Industrial AI Cloud" für hiesige Firmen bauen.

vorlesen Druckansicht 2 Kommentare lesen
Nvidia-Server vor schwarzem Hintergrund

Nvidias DGX Superpod mit B200-GPUs, den unter anderem DeepL einsetzen will.

(Bild: Nvidia)

Lesezeit: 2 Min.
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Nvidia will sich bei europäischen KI-Projekten unabdinglich machen. Dazu kündigt die Firma im Rahmen der Hausmesse GTC Paris zahlreiche Kooperationen an. In Europa entstehen insgesamt sechs sogenannte Nvidia AI Technology Centers zur Forschung – je eins in Deutschland, Schweden, Finnland, Italien, Spanien und Großbritannien.

In Deutschland kooperiert Nvidia mit dem Konsortium BayernKI, zu dem das Zentrum für Nationales Hochleistungsrechnen Erlangen (NHR@FAU) und das Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften (LRZ) gehören. Der "Bavaria AI Hub" soll an Medizin, Stable-Diffusion-Modellen und Robotern forschen.

Zum Umfang dieser Technologiezentren äußert sich Nvidia nicht. Üblicherweise stellt Nvidia Zugang zu Hard- und Software, um Universitäten die Forschung zu erleichtern. Bei Firmen, die Zugang wollen, hält Nvidia dagegen in der Regel die Hände auf.

Für solche will Nvidia "die erste Industrial AI Cloud" aufbauen. Als Standort hat der Hersteller Deutschland auserkoren, nennt aber noch keine konkrete Region. Im Vergleich zu Hyperscalern und den schnellsten Supercomputern soll das angedachte System recht kompakt ausfallen: In der Ankündigung ist von 10.000 Blackwell-GPUs die Rede.

Zum Einsatz kommen die schnellsten aktuellen KI-Beschleuniger von Nvidia, die B200, aber auch die langsameren RTX Pro 6000. Letztere ist eng mit der GeForce RTX 5090 verwandt und nutzt GDDR7-Speicher anstelle des superschnellen High-Bandwidth Memory (HBM3e). Die Verteilung zwischen den zwei GPU-Typen lässt Nvidia offen.

Zum Vergleich: Der schnellste deutsche Supercomputer Jupiter Booster bekommt 24.000 KI-Beschleuniger, allerdings aus der letzten Generation Hopper (H100).

Videos by heise

Die Industrial AI Cloud ist etwa zur Entwicklung von Produktdesigns, für Simulationen und sogenannte digitale Zwillinge gedacht. In solchen Zwillingen wird eine Fabrik digital kopiert, um gegebenenfalls Abläufe zu optimieren. Mercedes-Benz etwa will so die Ausfallzeiten in den eigenen Werken reduzieren. Mit im Boot sitzen die Software-Entwickler Ansys, Cadence und Siemens.

Nvidia geht zudem auf Investitionen europäischer KI-Entwickler ein, die weitere Hardware kaufen wollen. Allen voran steht DeepL aus Köln, das einen sogenannten DGX Superpod in Betrieb nimmt. In ihm stecken 288 Grace-Prozessoren und 576 B200-Beschleuniger, fertig von Nvidia verkabelt. DeepL entwickelt das gleichnamige Übersetzungs-Tool.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Preisvergleich (heise Preisvergleich) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (heise Preisvergleich) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(mma)