Amazon mit neuem KI-Beschleuniger und kĂĽnftig mit Nvidia-Technologie
AWS stellt mit Trainium3 einen viermal schnelleren und energieeffizienteren Chip vor. Ab der nächsten Chip-Generation kommt Nvidias NVLink Fusion zum Einsatz.
(Bild: JHVEPhoto/Shutterstock.com)
Die Amazon-Tochter Amazon Web Services (AWS) hat am Dienstag im Rahmen seiner Cloud-Computing-Konferenz AWS re:Invent 2025 in Las Vegas eine neue Version seines Trainingschips für künstliche Intelligenz (KI) namens Trainium3 vorgestellt – nur gut ein Jahr nach der Einführung des Vorgängermodells. Der neue hochmoderne 3-Nanometer-Chip wurde kürzlich bereits in einigen Rechenzentren installiert und ist ab sofort für Kunden verfügbar. Das erklärte der Vizepräsident für AWS-Rechen- und Maschinelles Lernen-Dienste, Dave Brown, in einem Interview mit der Nachrichtenagentur Bloomberg. „Anfang nächsten Jahres werden wir sehr, sehr schnell mit der Skalierung beginnen“, sagte er.
Die Chip-Entwicklung gilt als Schlüsselfaktor von Amazons KI-Strategie. Die Cloud-Sparte AWS gehört zu den größten Anbietern von gemieteter Rechenleistung und Datenspeicher und treibt das Wachstum von Amazon. Bei der Entwicklung von KI-Tools steht der US-Konzern aber im Schatten von Google und Microsoft, das an ChatGPT-Hersteller OpenAI beteiligt ist.
Mehr Rechenleistung, weniger Energieverbrauch
Mit seinen Trainium-Chips hofft Amazon, eine kostengünstige Alternative zur Konkurrenz anbieten zu können, so Brown gegenüber der Nachrichtenagentur Reuters. „Wir müssen ihnen beweisen, dass wir ein Produkt haben, das ihnen die Leistung bietet, die sie benötigen, und einen angemessenen Preis erzielen, damit sie diesen Preis-Leistungs-Vorteil erhalten“, so Brown. Nach Angaben des Unternehmens sind die Trainium-Prozessoren in der Lage, die intensiven Berechnungen hinter KI-Modellen kostengünstiger und effizienter durchzuführen als beispielsweise die Grafikprozessoren von Marktführer Nvidia.
Videos by heise
Im harten KI-Wettbewerb versucht AWS, energieeffizientere Systeme zu entwickeln. Die neuen AWS-Server auf Basis des Trainium3-Chips, Trainium3 UltraServer, enthalten laut Brown jeweils 144 Chips und verfügen über mehr als die vierfache Rechenleistung der vorherigen KI-Generation von AWS. Das macht die neuen Server mehr als viermal schneller; und sie verfügen über viermal mehr Speicher. Und vielleicht noch wichtiger angesichts des immensen Energiebedarfs von KI-Rechenzentren: Die Chips und Systeme verbrauchen laut AWS 40 Prozent weniger Strom als die Vorgängergeneration.
Nvidia-Technologie in neuer Chip-Genenration
In dem Bemühen, große KI-Kunden für die Nutzung seiner Dienste zu gewinnen, gab AWS ebenfalls am Dienstag bekannt, dass ab der bereits in der Entwicklung befindlichen vierten Generation seines KI-Beschleunigers Trainium die Nvidia-Technologie „NVLink Fusion” zum Einsatz kommen wird. Die NVLink-Technologie schafft schnelle Verbindungen zwischen verschiedenen Arten von Chips und gilt laut Reuters als eine der „Kronjuwelen von Nvidia“. Chiphersteller wie Intel oder Qualcomm nutzen demnach die Hochgeschwindigkeits-Chip-Verbindungstechnologie von Nividia bereits.
NVLink soll dem Trainium4-Chip einen weiteren großen Leistungssprung bringen und AWS dabei helfen, größere KI-Server zu bauen, die sich schneller erkennen und miteinander kommunizieren können. Beim Training großer KI-Modelle, bei denen Tausende Einheiten miteinander verbunden werden müssen, ist dies ein entscheidender Faktor. Die mit Trainium4 betriebenen Systeme könnten es laut dem Tech-Portal TechCrunch einfacher machen, große KI-Anwendungen, die für Nvidia-Grafikprozessoren entwickelt wurden, für die Cloud von Amazon zu gewinnen.
Darüber hinaus stellte Amazon am Dienstag neue Versionen seines KI-Modells Nova vor. Gegenüber Konkurrenten wie ChatGPT von OpenAI, Claude von Anthropic oder Gemini von Google hat Nova bislang nur einen geringen Marktanteil. Das soll sich mit den neuen Versionen ändern. Zu den neuen Nova 2-Produkten gehört eine Variante namens Omni, die in der Lage ist, auf Text-, Bild-, Sprach- oder Videoeingaben sowohl mit Text als auch mit Bildern zu reagieren. Ein weiteres Modell namens Sonic kann auf Sprachbefehle per Sprachausgabe antworten, in einer Art und Weise, die AWS-CEO Matt Garman laut Reuters als „menschenähnlich“ bezeichnete.
(akn)