GPT-5.4 mini und nano – schneller, besser, wie immer

OpenAI bringt zwei neue Modelle auf den Markt. GPT-5.4 mini und nano sollen besonders effizient und schnell sein.

vorlesen Druckansicht 5 Kommentare lesen
Das Logo von OpenAI an einer Glasfassade

(Bild: Novikov Aleksey/Shutterstock.com)

Lesezeit: 2 Min.
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Neue Woche, neues Modell. Dieses Mal grüßt das Murmeltier von OpenAI. Die bringen zwei neue Modelle auf den Markt, die, wie eigentlich immer alle neuen Modelle, effizienter und leistungsfähiger als die Vorgänger sein sollen. GPT-5.4 nano und mini sollen zudem besonders schnell sein.

Die Fähigkeiten der kleinen Modelle reichen laut OpenAI fast an die Stärken des großen Vorgängers heran – das ist GPT-5.4. Im Vergleich zu GPT-5 mini soll die neue Version besser im Coding sein, im Reasoning, im multimodalen Verständnis und bei der Tool-Nutzung. „Es erreicht zudem bei mehreren Evaluierungen, darunter SWE-Bench Pro und OSWorld-Verified, eine Leistung, die nahezu an das größere GPT‑5.4‑Modell heranreicht“, schreibt OpenAI. SWE-Bench Pro misst die Coding-Fähigkeiten, OSWorld testet die agentischen Fähigkeiten. Weitere Benchmark-Ergebnisse führt OpenAI im Blogbeitrag auf.

Im Vordergrund steht aber die Latenz der neuen Modelle – das heißt, die Schnelligkeit, mit der Aufgaben erledigt werden. Dabei ist GPT-5.4 nano das kleinste und schnellste Modell, was dazu auch am kostengünstigsten ist. OpenAI empfiehlt es für Aufgaben wie die Klassifizierung, Datenextraktion und Sub-Agenten.

GPT-5.4 mini soll „besonders effektiv in Coding-Workflows, die von schnellen Iterationen profitieren“ sein. Auch hier gilt: schnell und kostengünstig. Es soll zudem durchweg in Benchmarks besser abschneiden als GPT-5 mini.

OpenAI schlägt vor, man könne künftig die große Version GPT-5.4 nutzen, um zu planen oder zur finalen Beurteilung. GPT-5.4 mini könnte die Aufgabe von Subagenten übernehmen, die einzelne Teilaufgaben übernehmen. Solche Subagenten laufen über OpenAIs Codingplattform Codex.

Videos by heise

GPT-5.4 mini ist ab sofort via API, Codex und in ChatGPT verfügbar. Bei einem Kontextfenster von 400.000 Tokens kostet die Nutzung in Codex 0,75 US-Dollar pro einer Million Eingabetokens und 4,50 US-Dollar pro einer Million Ausgabetokens. Bei ChatGPT ist GPT-5.4 mini über „Thinking“ kostenlos, jedoch limitiert.

GPT-5.4 nano ist nur via API verfĂĽgbar und kostet 0,20 US-Dollar pro einer Million Eingabetokens und 1,25 US-Dollar pro einer Million Ausgabetokens.

(emw)