re:Invent 2025: AWS zündet nächste Stufe bei Custom Silicon und KI-Hardware
Bei der re:Invent-Konferenz präsentiert AWS eine Parade an neuer Hardware und gibt einen Ausblick auf die kommenden Graviton5-Prozessoren.
(Bild: Jens Söldner/heise Medien)
- Jens Söldner
Auf der diesjährigen re:Invent in Las Vegas hat Amazon Web Services (AWS) seine Infrastruktur-Muskeln spielen lassen und eine massive Erneuerung seines Hardware-Portfolios angekündigt. Der rote Faden der Hardware-Keynotes war eindeutig: Spezialisierung. Statt „One-Size-Fits-All“ setzt AWS zunehmend auf maßgeschneiderte Chips für spezifische Aufgaben – von der hauseigenen KI-Entwicklung über Hochfrequenz-Computing bis hin zu spezialisierten Apple-Umgebungen.
Den Anfang machen die Eigenentwicklungen aus den Annapurna Labs, die mittlerweile das Rückgrat der AWS-Effizienzstrategie bilden. Mit den neuen EC2-M9g-Instanzen gibt AWS einen ersten Ausblick auf die Leistungsfähigkeit seiner Graviton5-Prozessoren. Diese General-Purpose-Instanzen, die aktuell als Preview verfügbar sind, versprechen einen signifikanten Leistungssprung von bis zu 25 Prozent gegenüber der erst kürzlich etablierten Graviton4-Generation.
AWS hat die Packdichte massiv erhöht und bringt nun bis zu 192 physische Kerne auf einem einzigen Sockel unter, flankiert von einem verfünffachten L3-Cache. Für Kunden bedeutet dies nicht nur mehr Rechenpower, sondern durch die gesteigerte Energieeffizienz auch potenziell niedrigere Betriebskosten.
Ultraserver mit Trainium3-Architektur
Doch während Graviton die Brot-und-Butter-Workloads abdeckt, zielt AWS mit der Trainium3-Architektur direkt auf den boomenden Markt für das Training generativer KI. Die als allgemein verfügbaren EC2 Trn3 UltraServers markieren einen technologischen Meilenstein, da die Chips erstmals im 3-Nanometer-Verfahren gefertigt werden. AWS hat hier nicht gekleckert, sondern geklotzt: Ein einzelner UltraServer bündelt die Rechenkraft von bis zu 144 Trainium3-Chips. Im direkten Vergleich zum Vorgänger Trn2 steigt die Leistung um das 4,4-Fache, was diese Systeme zur bevorzugten Wahl für das Training riesiger Large Language Models (LLMs) machen soll.
Natürlich kommt AWS im KI-Bereich weiterhin nicht an Marktführer NVIDIA vorbei. Die Partnerschaft wurde mit der sofortigen Verfügbarkeit der EC2 P6e-GB300 UltraServers bekräftigt. Diese basieren auf NVIDIAs GB300-NVL72-Plattform (Blackwell-Architektur) und sind speziell für die Inferenz – also die Ausführung – von KI-Modellen optimiert. Mit der anderthalbfachen Menge an GPU-Speicher und FP4-Rechenleistung im Vergleich zu den GB200-Vorgängern adressieren diese Server das Problem, Billionen-Parameter-Modelle in Echtzeit und kosteneffizient zu betreiben.
Abseits der KI-Beschleuniger gab es auch wichtige Updates für die klassische x86-Architektur, wobei insbesondere AMDs EPYC-Prozessoren der 5. Generation ("Turin") eine prominente Rolle einnehmen. Für rechenintensive Standardaufgaben stehen ab sofort die EC2 C8a-Instanzen bereit, die rund 30 Prozent mehr Leistung als die C7a-Reihe liefern.
Rechenpower für die Nische
Spannender für Nischenanwendungen sind jedoch die neuen M8azn-Instanzen (Preview). Diese sind auf maximale Geschwindigkeit getrimmt und erreichen mit bis zu 5 GHz die aktuell höchste Taktfrequenz in der Cloud. Jede vCPU in einer M8a- oder M8azn-Instanz entspricht einem physischen CPU-Kern. AWS verzichtet hier bewusst auf Simultaneous Multithreading (SMT), um extrem niedrige und konstante Latenzen zu garantieren – ein kritisches Feature für High-Frequency-Trading oder Multiplayer-Gaming-Server. Ergänzt wird das AMD-Portfolio durch die neuen X8aedz-Instanzen, die hohe Taktraten mit enormem Arbeitsspeicher kombinieren und damit speziell auf speicherintensive Electronic Design Automation (EDA) oder den Betrieb großer relationaler Datenbanken abzielen.
Auch Intel bleibt ein wichtiger Partner, insbesondere für speicherhungrige Enterprise-Anwendungen. Die in der Preview vorgestellten EC2 X8i-Instanzen nutzen Intel Xeon 6 Prozessoren und richten sich primär an Betreiber von In-Memory-Datenbanken wie SAP HANA. Sie bieten im Vergleich zur X2i-Generation 50 Prozent mehr Speicherkapazität und eine deutlich aufgebohrte Bandbreite, um Datenflaschenhälse zu minimieren.
Videos by heise
Den Abschluss der Hardware-Parade bildet ein Angebot für das Apple-Ökosystem. Mit den EC2 M4 Max Mac-Instanzen (Preview) integriert AWS die Leistung der aktuellen Mac-Studio-Hardware in die Cloud. Entwickler profitieren hier von der M4 Max Architektur, die gegenüber den Pro-Modellen die doppelte Anzahl an GPU-Kernen und mehr als das Zweieinhalbfache an Unified Memory bietet, was Build-Zeiten für komplexe iOS- und macOS-Apps drastisch verkürzen dürfte.
(axk)