Nvidia GTC: Erste Hersteller bauen neuen GPU-Beschleuniger H100 "Hopper" ein

Supermicro und Asus kündigen Server mit Nvidia-Rechenbeschleunigern vom Typ H100 "Hopper" an und versprechen große Performance-Sprünge.

In Pocket speichern vorlesen Druckansicht

(Bild: Gorodenkoff/Shutterstock.com)

Lesezeit: 3 Min.

Im Rahmen der Nvidia-Konferenz GTC haben mit Supermicro und Asus zwei Serverhersteller neue Produkte vorgestellt, die als Herzstück jeweils auf Nvidias neue H100 Tensor Core GPUs setzen. Beide Firmen zielen damit auf den KI-Markt. Verfügbar sind die neuen GPU-Server aber noch nicht, zudem fehlen bislang Benchmarks, Preise und Liefertermine.

Supermicro hat insgesamt 20 neue Konfigurationsoptionen angekündigt, mit denen der US-Hersteller sein Nvidia-zertifiziertes Server-Portfolio erweitert. Die neuen Server sind laut Supermicro für die H100 Tensor Core GPU optimiert, die Nvidia im Frühjahr angekündigt und dessen Architektur auf den Namen Hopper getauft hat.

Supermicro kündigt ein breites Spektrum unterschiedlicher Rack-Einschübe mit Bauhöhen von 1HE bis 8HE an. Darunter sind Ausführungen sowohl für Nvidias SXM-Versionen der H100 als auch für die PCIe-Variante. Letztere werden zudem mit Nvidia AI Enterprise ausgeliefert, einer cloud-nativen Software-Suite für KI-Anwendungen.

Supermicro erweitert sein Portfolio und baut H100-GPUs ein.

(Bild: Supermicro)

Supermicro CEO Charles Liang verspricht vollmundig, die Kundschaft könne "bei bestimmten KI-Anwendungen" eine bis zu 30-fache Leistungssteigerung bei KI-Inferencing im Vergleich zu früheren GPU-Beschleunigergenerationen erwarten. Zudem senke ein innovatives Luftstromdesign der neuen GPU-Server die Lüftergeschwindigkeiten und damit Stromverbrauch, Geräuschpegel und Gesamtbetriebskosten. Allerdings dürften diese Einsparungen den Mehrverbrauch an Energie von Hopper-GPUs – 75 Prozent im Vergleich zum Vorgänger Ampere – nicht auffangen.

Die Auslieferung der neuen Server-Generation habe im Rahmen eines Early-Access-Programms bereits begonnen, zur allgemeinen Verfügbarkeit schweigt die Herstellerseite hingegen noch, gleiches gilt auch für die Preise.

Asus konzentriert sich bei der Konferenz zwar hauptsächlich auf das Vermarkten von KI-Success-Stories wie "mehreren bahnbrechenden Rekorden" bei KI-Benchmarks. Dennoch kündigte auch dieser Hersteller in einer Pressemitteilung an, künftig die H100 Tensor Core GPUs samt softwareseitiger Unterstützung durch Nvidia AI Enterprise einbauen zu wollen.

Zu technischen Details gibt sich ASUS aber noch verschlossener als Konkurrent Supermicro und verspricht lediglich "nie dagewesene Leistung, Skalierbarkeit und Sicherheit für jedes Rechenzentrum". Verfügbar sollen die neuen Asus-Server noch vor dem Jahresende sein, auch wenn bislang weder technische Daten noch Preise bekannt sind.

Im Mai dieses Jahres sprach Nvidia noch von einer Verfügbarkeit seiner H100-GPUs bei Drittherstellern Anfang 2023.

Außerdem habe man seit Ankündigung der Grace-CPU eng mit Nvidia gearbeitet, um auch um den neuen ARM-Prozessor des Herstellers in eigenen Servern anbieten zu können. Details dazu will Asus aber erst im kommenden Jahr verraten.

(jvo)