ChatGPT: Wie es mit der Text-KI weitergeht und wie viel sie künftig kostet

OpenAI-Gründer Sam Altman würde sich weniger Hype um ChatGPT wünschen. Jetzt tauchen Preise für einen Pro-Tarif auf und Altman warnt vor zu hohen Erwartungen.

In Pocket speichern vorlesen Druckansicht 219 Kommentare lesen
GPT-4 auf einem digitalen Schild

(Bild: Urban Images/Shutterstock.com)

Lesezeit: 3 Min.
Inhaltsverzeichnis

Wenn es nach OpenAI-Gründer Sam Altman geht, dürfte der Hype um die Text-KI ChatGPT gerne etwas abflauen. In einem Interview erklärte der Start-up-Unternehmer, dass er fürchte, dass viele im Netz überzogene Erwartungen zur nahen Zukunft der künstlichen Intelligenz haben. Die gute Stimmung dürfte bei einigen aber vermutlich schon schwinden, wenn sie den durchgesickeren Preis für den Pro-Tarif von ChatGPT sehen.

In Tweets tauchten in den vergangenen Tagen Bildschirmfotos auf, die eine Auswahlmaske auf der ChatGPT-Seite zeigen, auf der ein Professional-Tarif der Text-KI bestellbar ist. Der monatliche Preis soll demnach 42 US-Dollar betragen. Dafür verspricht OpenAI jederzeit Zugriff auf das System, auch wenn es – was aktuell oft vorkommt – gerade einmal aufgrund vieler Anfragen überlastet ist. Zahlende Kunden sollen zudem von schnelleren Antworten profitieren und bekämen neue Funktionen früher.

Dass ChatGPT künftig auch eine kostenpflichtige Version anbieten möchte, ist kein Geheimnis, sondern wurde von den Chefs des Unternehmens schon mehrfach in Aussicht gestellt. Bislang war aber unklar, zu welchem Preis dieses Angebot eingeführt werden soll. Da bislang nur einzelne das Angebot gesehen haben, ist auch noch unklar, ob es bei dem Preis wirklich bleibt. Eine offizielle Mitteilung gibt es bislang nicht.

Fest steht, dass OpenAI eine Menge Kosten durch den Hype entstehen. Altman sprach auf Twitter von einem einstelligen Centbetrag pro Chat, der ChatGPT im Betrieb entsteht. Experten rechneten dies angesichts aktueller Nutzerzahlen auf einen Millionenbetrag pro Monat hoch, der zumindest dadurch geschmälert werden sollte, dass Microsoft als Betreiber der Azure-Cloud eine Partnerschaft mit OpenAI eingegangen ist. Gleichwohl ließ Altman kürzlich durchblicken, dass auch die kostenfreie Nutzung irgendwann zugunsten eines Bezahltarifs weichen könnte.

In einem Interview mit StrictlyVC, das auf YouTube abrufbar ist, zeigt sich der Gründer etwas irritiert über das Ausmaß der Gerüchte und Spekulationen über die weitere Entwicklung. Die Menschen bettelten geradezu darum, enttäuscht zu werden, befürchtet er mit Blick auf die geplante Einführung von GPT-4. Schon jetzt nutzt ChatGPT nicht GPT-3, sondern den Zwischenschritt GPT-3.5. Kursierende Zahlen über massive Unterschiede, etwa zu den Parametern, und wie sich das auf ChatGPT auswirke, bezeichnete er als Unfug. Aktuell sei auch noch offen, wann die Umstellung auf GPT-4 erfolgt.

Altman warnt auch davor, generell zu viel in KI-Lösungen wie ChatGPT hineinzuprojizieren. In dem Gespräch geht es auch um Zukunftsvisionen einer Artificial General Intelligence (AGI), also einer KI, die aus ihrer Programmierung ausbricht und jede intellektuelle Aufgabe verstehen und lernen kann. Altman rät hier unbedingt dazu, dass die Gesellschaft so einer AGI dennoch Grenzen setzen sollte.

ChatGPT hingegen entlarve sich immer noch nach oftmaliger Nutzung. "Diese Art von Technik ist beeindruckend in Demos, aber sie ist nicht robust", sagt er. Er selbst nutze ChatGPT gerne, um sich von der KI Zusammenfassung sehr langer Mails oder Übersetzungen erstellen zu lassen. Mit Blick auf den Einsatz in Schulen ist Altman der Ansicht, dass generierter Text einfach etwas sei, an das sich das Bildungssystem gewöhnen und es gewinnbringend einsetzen müsse, so wie seinerzeit bei Einführung des Taschenrechners im Mathematikunterricht.

Siehe auch:

(mki)