GPT-5.3 bringt schnelles Coding-Modell von OpenAI
OpenAI bringt mit GPT-5.3-Codex-Spark ein schnelles, aber ungenaues Coding-Modell raus. Es läuft auf einem eigenen Cerebras-Chip.
(Bild: Peshkova / Shutterstock.com)
Ein erstes Modell fürs Coden in Echtzeit, so beschreibt OpenAI das neu herausgebrachte GPT-5.3-Codex-Spark. Es ist eine Research-Preview und setzt erstmals auf einem Cerebras-Chip auf.
Codex-Spark soll besonders schnell sein – konkret 1000 Tokens in der Sekunde liefern können. Doch auch OpenAI schreibt in einem Blogbeitrag, dass das auf Kosten der Qualität gehen kann – das zeigt zumindest der Terminal-Bench 2.0, der auf die Genauigkeit abzielt. Dennoch soll dank der Schnelligkeit eine neue, andere interaktive Arbeit mit dem Modell möglich sein. Codex-Spark lässt sich beispielsweise auch in Echtzeit unterbrechen oder umlenken, heißt es. Es gibt aber etwa keine automatische Vorschau. Verarbeitet wird grundsätzlich nur Text, das Modell hat ein 128K-Kontextfenster.
Im Januar hatte OpenAI die Partnerschaft mit dem kalifornischen Chipdesigner Cerebras bekannt gegeben. Die haben seither verstärkt an einem Chip gearbeitet, der auf Inferenz ausgelegt ist, also besonders schnell KI-Algorithmen auszuführen. Bisher hatte OpenAI auf KI-Beschleuniger von Nvidia gesetzt. So richtig ausgereift klingt Codex-Spark allerdings noch nicht. Im Blogbeitrag steht, man wolle das Modell für frühe Experimente freigeben, während man unter anderem noch an der Endnutzer-Erfahrung arbeite. Zunächst gibt es auch spezielle Rate-Limits, dazu gehört, dass die Nutzung bei vielen Zugriffen auch grundlegend eingeschränkt werden kann. Zugriff haben ChatGPT-Pro-Nutzer mit Codex-App, der CLI und der VS-Code-Erweiterung.
Videos by heise
OpenAI kündigt auch bereits an, dass Codex-Spark das erste Modell einer neuen „ultraschnellen Modell-Familie“ sein soll. Multimodalität und weitere Fähigkeiten sollen entsprechend folgen.
Erst vor wenigen Tagen hat OpenAI mit GPT-Codex-5.3 ein neues Modell mit Coding-Fähigkeiten veröffentlicht. Auch dieses soll vor allem schneller sein, als der Vorgänger. Hier geht es aber mitnichten um Echtzeit sondern um minutenlange Denkprozesse zur Aufgabenerfüllung. Zudem gibt es mit der Codex-App eine Kommandozentrale für KI-Workflows.
Sam Altman witzelt bei X, dass ihm das neue, schnelle Modell Freude bereiten würde. Dabei bezieht er sich mit dem englischen Satz „It sparks joy for me“ auf die 2010er Fernsehsendung, in der Marie Kondo Menschen beim Ausmisten geholfen hat. Die Aufräum- und Minimalismusexpertin fragte bei jedem Teil, ob es dem Besitzer Freude bereite – nur dann durfte man es behalten. Kondo allerdings ihren eigenen Spark-Stil längst über Bord geworfen und lässt eigenen Aussagen zufolge lieber ein bisschen Chaos zu.
(emw)