Ein Jahr ChatGPT: Nicht mehr wegzudenken, aber auch nicht nur gut

Seite 2: Alle wollen ChatGPT nutzen, keiner weiß wozu

Inhaltsverzeichnis

Mittels API können auch andere Anbieter ChatGPT in ihre Dienste integrieren. Als eines der ersten Unternehmen nutzte das beispielsweise Snapchat, um eine Chat-KI in die Plattform zu integrieren. Meta zog mit eigenen KI-Personas erst Monate später nach.

Man zahlt für die Integration von ChatGPT pro Token, das sind quasi Wortschnipsel, also jene Teile, die am wahrscheinlichsten aufeinanderfolgen. Billig ist das nicht, aber cool: Wenn man am Puls der Zeit sein möchte, braucht man schon einen eigenen Chatbot. Und mit Glück wird es auch gar nicht so teuer. Denn es zeigt sich, die Menschen wissen gar nicht recht, was sie ChatGPT und seine Brüder und Schwestern fragen sollen.

So gehen auch die Nutzungszahlen von ChatGPT deutlich zurück. Den Knick erklärte man zunächst mit dem Sommer und den Ferien. Mancher meinte, die Schüler nutzten alle ChatGPT, um ihre Hausaufgaben und Referate zu machen. Sicherlich kann der Chatbot dabei helfen, mit dem Herbst ging es jedoch nicht gleichermaßen wieder bergauf mit den Nutzungszahlen. Der Bildungsbereich steht dennoch vor der Herausforderung, wie mit ChatGPT-Hausaufgaben umzugehen ist.

Microsoft ist nicht nur OpenAI-Großinvestor und Anteilseigner, Microsoft ist auch bester Kunde, wenn es um die Produkte geht. Sie haben den Copilot entwickelt, eine Art viel besseren Karl Klammer, ein KI-Assistent, der unliebsame Mails und Stellenausschreibungen schreiben, Excel die gewünschten Werte entlocken und bei Github auch beim Programmieren helfen kann – dort gibt es den Copilot schon länger.

KI, und insbesondere die Möglichkeit, dem Computer etwas in natürlicher Sprache sagen zu können, werde laut Nadella unseren Umgang mit dem Computer so ändern, wie das einst die Maus tat. Microsoft bezeichnet sich selbst inzwischen als "das Copilot-Unternehmen".

Auch OpenAI ist allerdings nicht angetreten, um mit ChatGPT einen guten Chatbot auf den Markt zu bringen und sonst nichts. Sie versuchen, einen Kosmos um den eigenen Dienst aufzubauen. Erst kamen die Plug-ins, darunter der Zugang zum Internet. Es folgten andere Unternehmen, die ihre Anwendungen für ChatGPT bereitstellten – mit OpenTable kann man seither Tische in Restaurants buchen, Wolfram Alpha hilft beim Rechnen.

Zuletzt hat OpenAI "GPTs" vorgestellt, das sind Varianten des Chatbots, die zusätzliche Aufgaben übernehmen sollen. Zum Start gibt es offizielle GPTs von OpenAI, in der Folge soll aber jeder und jedes Unternehmen einen GPT selbst entwickeln und anbieten können. Dafür bietet OpenAI eine Plattform, die an die gängigen App-Stores erinnert. Was die GPTs jeweils können, ist abhängig vom Anbieter; vorstellbar ist jedoch, dass Nutzer irgendwann ein GPT vom Lieblingsverein haben, ein GPT für die To-Do-Listen, ein GPT zur Reiseplanung und so weiter und so fort. Nach den ersten zaghaften Wiegeschritten mit Bard könnte das nicht nur Google, sondern auch Apple tanzen lassen.

Fraglich ist noch die Finanzierung. KI bedarf einer enormen Rechenleistung, beim Training, Finetuning und fürs Antworten. OpenAI-CEO Sam Altman gab vor nicht allzu langer Zeit zu, sie wüssten überhaupt nicht, wie sie jemals Geld verdienen sollten. Die Milliarden von Investoren sind das eine, operativer Gewinn etwas anderes. Die Einnahmen aus den ChatGPT-Abonnements können wohl kaum die Kosten decken.

"OpenAI ist ein KI-Forschungs- und Einsatzunternehmen. Unsere Mission ist es, dafür zu sorgen, dass künstliche allgemeine Intelligenz (AGI) der gesamten Menschheit nützt", lautet die wiederkehrende Selbstbeschreibung von OpenAI auf der eigenen Webseite. Dass diese Mission und die dafür nötige Finanzierung schwierig zu vereinen sind, hat wohl auch zu dem Zwist um den Rauswurf Altmans geführt. Der gesamten Menschheit nutzen – ein heres Ziel.

Bisher steht eher die Frage im Raum, welche disruptive Kraft von einem Chatbot wirklich ausgeht. Eine Sprach-KI kann Aufgaben übernehmen, wegzudenken ist sie nicht mehr. Sie braucht aber permanente menschliche Betreuung. Die Begeisterung für das, was möglich ist, führt teilweise dazu, nach einem passenden Einsatzgebiet zu suchen, nach dem Motto: Wir haben hier eine Lösung, wo ist das Problem dafür?

Neue Fragestellungen haben ChatGPT und seine Geschwister auf jeden Fall gebracht: Was wird sich am Urheberrecht ändern müssen? Wie gehen wir mit den neuen Möglichkeiten für Deepfakes um? Welche Richtlinien sollte es für Basismodelle geben? Wann sind Anbieter von KI-Diensten in der Verantwortung? Wie verändert sich die Kriegsführung durch Sprachmodelle? Und kann ChatGPT einen guten Rückblick auf ein Jahr ChatGPT schreiben? Versuchen Sie es. Ich würde dazu sagen: Nein.

Mehr dazu finden Sie auch in unserem Podcast KI-Update.

Ein c't-Sonderheft zur Praxis mit KI finden sie in unserem heise Shop.

(emw)