OpenAI zeigt Omnimodel: Keine Suche, kein GPT-5, aber GPT-4o für ChatGPT
OpenAI hat spontan ein Live-Event angekündigt, bei dem sie GPT-4o vorgestellt haben, ein neues Omnimodel für ChatGPT.
GPT-4o ist ein Omnimodel für Künstliche Intelligenz, wie OpenAI es bezeichnet. Es vereint auf "native Art Audio, Text und Vision". Verfügbar soll GPT-4o künftig in ChatGPT und über die API sein – für alle Menschen, erklärt Mira Murati, CTO von OpenAI, auf der Bühne, die laut eigenen Aussagen direkt aus dem OpenAI-Büro gestreamt wird. Dass es ein Omnimodell sei, also nicht mehrere verschiedene Modelle miteinander kommunizieren müssten, sei im Hinblick auf Latenz und Kosteneffizienz enorm wichtig.
Mit GPT-4o kann man das Smartphone als Kamera nutzen und dabei Fragen stellen, ganz wie bei einem wirklich hilfreichen Assistenten. Man kann auf einem Papier eine einfache Matherechnung vollziehen und ChatGPT fragen, ob das richtig ist, oder einen Code in die Kamera halten und sich mit dem Assistenten darüber unterhalten, was dieser tut und ob er sinnvoll ist. Auch Emotionen in Live-Selfies soll GPT-4o erkennen. Auf den Witz, dass der sprechende Chatbot sagt, er sehe nur einen Tisch, folgt Lachen, das ein wenig klingt wie bei 90er-Jahre Sitcoms.
Auch die Desktop-Anwendung soll erneuert werden. Das sei nötig, weil immer mehr Funktionen hinzugekommen seien, die Bedienung aber natürlich bleiben solle, so Murati. Die einzige Änderung, die sie zeigt, ist aber zunächst nur, dass man die Leiste auf der linken Seite ausblenden kann.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Laut OpenAI werden die Text- und Bildfunktionen des neuen Modells ab sofort eingeführt. Es steht kostenlos zur Verfügung, Nutzer von ChatGPT Plus können allerdings fünfmal mehr Nachrichten pro Tag mit GPT-4o verarbeiten. In den kommenden Wochen will OpenAI auch den vorgestellten Sprachmodus von GPT-4o als Alpha-Version in der Plus-Version verfügbar machen.
Entwickler können über die API auf GPT-4o als Text- und Bildmodell zugreifen. GPT-4o soll doppelt so schnell sein, die Hälfte kosten und ein 5-fach höheres Rate-Limit im Vergleich zu GPT-4 Turbo haben.
Neu sind auch provisorische Chats. Diese werden nicht im Verlauf angezeigt und nicht für das Training der KI-Modelle verwendet. OpenAI bewahrt sie dennoch aus Sicherheitsgründen 30 Tage lang auf.
Google I/O im Blick
Es ist klar, dass Google auf der I/O in diesem Jahr wieder reichlich KI-News bringen wird. Die hauseigene Messe findet am Dienstag, dem 14. Mai 2024, statt. Ausgerechnet am Wochenende davor poltert OpenAI damit raus, noch am Montag Neuigkeiten vorstellen zu wollen. In dem Beitrag bei X hieß es zunächst lediglich, dass es keine News zu GPT-5 oder einer eigenen KI-Suche geben werde. Und auch Sam Altman hatte die Werbetrommel für das Live-Event bei X gerührt. Sie hätten hart gearbeitet, schreibt er dort. Und dass es sich anfühle "wie Magie".
Wenn man am Montagnachmittag versucht hat, die reguläre Webseite von OpenAI aufzurufen, wurde auf eine Seite zum Spring-Update geleitet. Dort gab es vor dem Start ein eingebundenes YouTube-Video zu sehen, in dem Informationen zum Termin umherflogen.
OpenAIs Präsentation eingebunden, Details ergänzt.
(emw)