Amazon: Kostenlose Rechenleistung für KI-Forscher

KI-Entwickler, die Amazons Trainium-Chips statt Nvidia-Chips für ihre KI-Modelle nutzen, erhalten freien Zugang zu den Cloud-Rechenzentren des Konzerns.

In Pocket speichern vorlesen Druckansicht
Young,Female,Teacher,Giving,A,Data,Science,Presentation,In,A

(Bild: Gorodenkoff/ Shutterstock.com)

Lesezeit: 2 Min.
Von
  • Andreas Knobloch

Amazons Cloud Computing-Sparte Amazon Web Services (AWS) wird Forschern, die ihre maßgeschneiderten Chips für künstliche Intelligenz (KI) nutzen wollen, kostenlose Rechenleistung anbieten. Das berichtete am Dienstag die Nachrichtenagentur Reuters. Gemeinhin wird der Schritt als Kampfansage an Marktführer Nvidia und andere Konkurrenten verstanden.

Dem Reuters-Bericht zufolge wird AWS Forschern, die Amazons eigene Trainium-Chips für das Training ihrer KI-Modelle nutzen wollen, Gutschriften im Gesamtwert von 110 Millionen US-Dollar für die Nutzung seiner Cloud-Rechenzentren anbieten. Das Unternehmen plant demnach, 40.000 Trainium-Chips der ersten Generation für das Programm zur Verfügung zu stellen, an dem Forscher der Carnegie Mellon University in Pittsburgh und der University of California in Berkeley teilnehmen.

AWS hofft, mit dieser Strategie die Aufmerksamkeit für seine eigenen KI-Chips zu erregen, sagte Gadi Hutt, der bei AWS die Geschäftsentwicklung für KI-Chips leitet. Mit dem Programm soll wohl zudem Boden gegenüber den Chips von Nvidia, aber auch Advanced Micro Devices (AMD) oder Alphabets Cloud-Abteilung gut gemacht werden.

Zum Programmieren von Nvidias Chips verwenden die meisten KI-Entwickler laut Reuters CUDA, Nvidias Flaggschiff-Software, anstatt den Chip direkt zu programmieren. AWS plant stattdessen, die sogenannte Befehlssatzarchitektur für den grundlegendsten Teil seines Chips zu veröffentlichen, sodass Kunden den Chip direkt programmieren können. Laut Hutt soll dieser Ansatz vor allem Großkunden anlocken, die kleine Änderungen vornehmen möchten. "Denken Sie an Leute, die eine Infrastruktur nutzen und Hunderte Millionen US-Dollar, wenn nicht mehr, in gemietete Rechenleistung investieren", erklärte Hutt. "Sie würden jede Gelegenheit nutzen, um die Leistung zu steigern und die Kosten zu senken."

Ferner plant Amazon einen erneuten Milliarden-Deal mit dem KI-Start-up Anthropic – und versucht auch dort, Nvidia auszustechen. Im September 2023 vereinbarte Amazon mit Anthropic eine Kooperation und kündigte damals an, dafür bis zu vier Milliarden US-Dollar investieren zu wollen. Die Vereinbarung beinhaltet, dass AWS zum primären Cloud-Anbieter für Anthropic wird.

Bedingung für die zweite Milliarden-Investition ist Berichten zufolge, dass Anthropic für das Training seiner KI-Modelle verstärkt Amazons Trainium-Chips statt der bisher bevorzugten Nvidia-Chips nutzt. Mit der Angelegenheit vertrauten Personen zufolge soll die Höhe der Investition direkt davon abhängen, wie viele Amazon-Chips Anthropic bereit ist einzusetzen.

(akn)