Abkehr von Nvidia: Microsoft testet angeblich eigene KI-Chips

Schon 2019 soll Microsoft die Entwicklung eigener Prozessoren zum Training von Large Language Models begonnen haben.

In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen

(Bild: cherezoff / Shutterstock.com)

Lesezeit: 2 Min.

Microsoft will sich offenbar von Zulieferern wie Nvidia unabhängiger machen. Schon 2019 soll die Firma die Entwicklung von KI-Chips begonnen haben, die sich zum Training von Large Language Models (LLMs) eignen.

Mittlerweile sollen erste Vorserienmuster zur Verfügung stehen, die sowohl von Leute bei Microsoft als auch beim Partner OpenAI getestet werden. Das berichtet die Webseite The Information unter Berufung von Quellen, die an der Entwicklung beteiligt sein sollen. Demnach produziert der Chipauftragsfertiger TSMC die Chips in einem modernen Prozess mit 5-Nanometer-Strukturen.

Eine Eigenentwicklung hätte zwei Vorteile: Microsoft kann die Chips auf die eigenen Bedürfnisse maßschneidern und potenziell Geld sparen. Sind die Chips erst einmal entworfen, kann Microsoft sie zu den Produktionskosten einkaufen – Mittelsmänner wie Nvidia, die mitverdienen wollen, fallen weg.

Gerade in Zeiten des Hypes rund um künstliche Intelligenz erscheint eine Eigenentwicklung bei Branchenriesen wie Microsoft logisch. Die Firma arbeitet eng mit OpenAI zusammen, um etwa ChatGPT in die eigene Bing-Plattform zu integrieren.

Andere Cloud-Firmen entwickeln ebenfalls schon eigene (ARM-)Prozessoren, etwa Amazon die Graviton-Serie für AWS. Google will eigene CPUs angeblich ab 2025 in den Rechenzentren einsetzen.

Unklar ist derweil die anvisierte Größenordnung bei Microsoft. Sollten sich die Chips bewähren, sollen sie mindestens intern für das Trainieren von LLMs eingesetzt werden. Darüber hinaus könnte Microsoft Azure-Instanzen mit den eigenen KI-Chips vermieten.

Bisher bietet Microsoft Machine-Learning-Instanzen mit Intel-Prozessoren und Nvidia-GPUs wie der A100 an. Gerade die Nvidia-Varianten sind allerdings teuer: Ohne Rabatte kostet der Zugriff auf acht A100-GPUs und die zugehörige Infrastruktur rund 20.000 US-Dollar pro Monat.

Update

Korrektur: Inferencing bedeutet die Anwendung von KI-Anwendungen und nicht das Training.

Microsoft hat offenbar einen Fehler bei den Stundenpreisen für die Azure-Cloud. Angabe daher zum Monatspreis geändert.

(mma)