Amazon setzt in der Cloud auf Nvidias neue Superchips und neue eigene ARM-Chips

Neben Nvidias "Grace Hopper" wird AWS auch die weiterentwickelten 'Graviton4' für die Cloud und 'Trainium2' für Workloads Künstlicher Intelligenz verwenden.

In Pocket speichern vorlesen Druckansicht
Blick in den Gang eines Rechenzentrums

(Bild: Gorodenkoff/Shutterstock.com)

Lesezeit: 3 Min.
Von
  • Frank Schräer
Inhaltsverzeichnis

Amazon Web Services (AWS), die Cloud-Sparte des Konzerns, hat die nächste Generation seiner selbst entwickelten ARM-Prozessoren vorgestellt. 'Graviton4' für herkömmliche Cloud-Workloads und 'Trainium2' für das Training von Foundation Models Künstlicher Intelligenz versprechen mehr Leistung und Effizienz, etwa bei maschinellem Lernen. Parallel wird AWS aber auch weiterhin Cloud-Dienste auf Nvidia-Basis anbieten.

Auf der eigenen Veranstaltung "AWS re:Invent" verkündeten AWS und Nvidia, dass der Cloud-Provider im Rahmen einer Ausweitung der bisherigen Zusammenarbeit künftig auf DGX GH200 Rechenbeschleuniger für große KI-Modelle setzen wird. Bei AWS werden diese erstmals als sogenannte GH200-NVL32 (Grace Hopper) in Clustern von bis 32 dieser Superchips verwendet, wie AWS erklärt.

AWS und Nvidia planen zudem einen KI-Supercomputer aus 16.384 GH200, der eine FP8-Performance von 65 ExaFLOPS bei KI-Workloads erreichen könne. Das "Project Ceiba" genannte System wäre damit nach AWS-Angaben der schnellste auf GPUs basierende KI-Supercomputer der Welt. AWS wird dabei Nvidias KI-Software einsetzen, die die Entwicklung eigener KI-Modelle, etwa für die Entdeckung neuer Arzneimittel, beschleunigen soll.

Gleichzeitig will sich AWS aber nicht allein auf Nvidia verlassen und hat seine eigenen Serverchips weiterentwickelt. Seit der Einführung von Amazons hauseigenem ARM64-Prozessor Graviton für die AWS-Cloud 2018 verzeichnet der Konzern offenbar eine gesunde Nachfrage. AWS hat laut eigenen Angaben bislang mehr als zwei Millionen Graviton-Chips eingesetzt, die von über 50.000 Kunden genutzt werden.

"Graviton4 ist die vierte Generation, die wir in nur fünf Jahren ausgeliefert haben, und der leistungsstärkste und energieeffizienteste Chip, den wir je für ein breites Spektrum an Arbeitslasten gebaut haben", erklärte David Brown, Vizepräsident für Computing und Netzwerke bei AWS.

Im Vergleich zu Amazons aus sieben Einzelchips bestehendem Graviton3-Prozessor mit 64 Kernen soll der Graviton4 eine 30 Prozent höhere Computing-Leistung, eine 50 Prozent höhere Kerndichte und eine 75 Prozent größere Speicherbandbreite bieten. Das dürfte zum Großteil auf die gesteigerte Anzahl der Kerne und einen Ausbau der Speicherkanäle zurückzuführen sein, denn laut The Next Platform verfügt der Graviton4 über 96 statt 64 Kerne und zwölf statt acht DDR5-Kanäle, die zudem höhere Speicherübertragungsraten unterstützen – DDR5-5600 statt DDR5-4800. Aber auch die Nutzung von ARMs "Neoverse V2" Kernen im Graviton4 sollte zu einer höheren Performance beitragen, basiert Graviton3 doch noch auf Neoverse V1.

Neben Graviton4 hat AWS seinen Trainium2 KI-Beschleuniger eingeführt. Dieser Chip soll bis zu vierfach schnelleres Training von KI-Modellen als die erste Generation ermöglichen. Trainium2 wird in Clustern ab 16 Chips eingesetzt, was sich auf bis zu 100.000 Chips erweitern lässt. Damit wird das Training von Foundation- und großen Sprachmodellen (LLM) wie etwa für Chatbots deutlich beschleunigt – bei einer nahezu verdoppelten Energieeffizienz, so AWS. Zudem wurde die Speicherkapazität des Trainium2 mehr als verdreifacht, was auf 96 GByte RAM hindeutet.

(fds)