Google bringt "denkende" Gemini-Version heraus

Gemini 2.0 Flash Thinking Experimental – mit diesem sperrigen Namen kommt Googles neue Version eines denkenden KI-Modells daher.

vorlesen Druckansicht 125 Kommentare lesen
Ein Kopf bildet sich aus kleinen Teilchen.

(Bild: Shutterstock/Alexander Supertramp)

Lesezeit: 2 Min.
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Googles neues KI-Model aus der Gemini-Familie kann denken. Zumindest soll es das so weit können, wie KI-Anbieter derzeit den Begriff "Reasoning" auslegen. Der Denkmodus ist in Gemini 2.0 Flash integriert, auf Deutsch nennt sich das Modell dann "Gemini 2.0 Flash-Denken". Es ist allerdings zunächst nur als Experiment verfügbar. Menschen mit Zugang zu Google AI Studio oder direkter API-Anbindung können den Denkmodus testen.

Denken oder Reasoning bedeutet bei KI-Modellen derzeit, dass sie eine Art Antwortfindungsprozess durchlaufen. Antworten werden dabei noch vor der Ausgabe zurück an das Modell gespielt, das diese überprüft. Dies kann mehrfach geschehen. Dadurch sollen die Antworten merklich besser und vor allem richtiger werden. Der Abgleich mehrerer Antworten kann dem Modell helfen, Halluzinationen zu entdecken und so zu umgehen.

Gemini zeigt Nutzenden auf Wunsch die Wege des Denkprozesses sogar an. Sie werden als Thoughts/Gedanken im Antwortfenster angeboten, allerdings mit dem Hinweis, dass es sich um experimentelle Gedanken handle. Für den Denkmodus gibt es einige Einschränkungen im Vergleich zu den bisher veröffentlichten Gemini-Versionen. Das Eingabelimit liegt bei 32.000 Tokens, die Ausgabe bei 8000 Tokens. Man kann zwar Text und Bilder eingeben, die Ausgabe beschränkt sich jedoch auf Text. Weitere Dienste können nicht mit dem Denkmodus verknüpft werden – etwa die Suche oder Codeausführung, schreibt Google im Blogbeitrag.

An der neuen Modell-Version hat offenbar maßgeblich Noam Shazeer mitgearbeitet, er postete bei X mehrere Beiträge. Der ehemalige Google-Mitarbeiter war auch mitverantwortlich für das viel beachtete Transformer-Papier, in dem die Grundlagen heutiger Large Language Models festgehalten sind. Shazeer hatte sich mit character ai selbständig gemacht, das Start-up ging dann jedoch einen Deal mit Google ein, der die leitenden Forscher wieder zurück zu Google holte und für die Modelle ein Lizenzmodell vorsah.

(emw)