Apple und OpenAI sollen TSMCs erste A16-Kunden werden

OpenAI macht offenbar Ernst bei der Entwicklung eigener KI-Chips. Die Firma soll zu den Erstkunden kommender TSMC-Fertigungstechnik gehören.

In Pocket speichern vorlesen Druckansicht 9 Kommentare lesen

(Bild: HomeArt/Shutterstock.com)

Lesezeit: 2 Min.

OpenAI will angeblich in zwei Schritten konkurrenzfähige Chips zum Training von KI-Algorithmen entwerfen, um seinen Hunger nach Rechenleistung zu stillen und sich aus der Abhängigkeit von Nvidia loszulösen. Im ersten Schritt sollen 3-Nanometer-Beschleuniger beim Chipauftragsfertiger TSMC vom Band laufen. In einem zweiten Schritt wechselt OpenAI Berichten zufolge auf TSMCs übernächste Prozessgeneration A16 (früher als 1,6 nm bezeichnet).

Das will die taiwanische United Daily News (UDN) von firmennahen Quellen erfahren haben. Demnach hat sich OpenAI bereits entsprechende Fertigungskapazitäten von TSMC gesichert – die Firma hinter ChatGPT wäre damit neben Apple der erste Abnehmer von A16-Wafern.

Der A16-Prozess kombiniert die sogenannten Nanosheet-Transistoren der N2-Generation mit einer neuartigen rückseitigen Stromversorgung, die die elektrischen Eigenschaften erheblich verbessern soll. TSMC will die A16-Chips ab der zweiten Jahreshälfte 2026 in Serie produzieren – zu dem Zeitpunkt hätte OpenAI dann modernste KI-Beschleuniger.

Von dem Plan, zusammen mit TSMC eigene Halbleiterwerke nur für KI-Chips zu bauen, soll OpenAI-Chef Sam Altmann wieder abgerückt sein. Stattdessen nutzt die Firma wahrscheinlich die bestehenden Produktionskapazitäten des weltweit größten Chipauftragsfertigers.

Bei der Chipentwicklung sollen derweil die beiden US-Unternehmen Broadcom und Marvell aushelfen. Beide haben viel Erfahrung bei der Entwicklung und pflegen bereits Beziehungen zu TSMC. Sie führen auch Custom-Programme, um gemeinsam mit Partnern angepasste Chips nach deren Bedürfnissen zu entwerfen. Angeblich plant OpenAI schon seit 2022, sich von Nvidia abzunabeln.

Insbesondere Broadcom hebt seine Speicherintegration und Vernetzungsfähigkeiten hervor – wichtig für KI-Beschleuniger, die große KI-Modelle trainieren. Marvell betont unter anderem seine Multi-Chip-Expertise, um aus mehreren Chiplets besonders schnelle Beschleuniger zu entwerfen. Die Rechenwerke von KI-Chips sind viel simpler aufgebaut als moderne CPUs oder GPUs: Sie multiplizieren haufenweise Matrizen und addieren sie auf (Multiply-Accumulate, MAC). Vor allem das Drumherum ist wichtig, etwa Caches und die Anbindung untereinander.

(mma)