zurück zum Artikel

Ein Jahr ChatGPT: Nicht mehr wegzudenken, aber auch nicht nur gut

Eva-Maria Weiß

(Bild: Erstellt mit Shutterstock von emw.)

Disruption, Dystopie, Desillusionierung? Eva-Maria Weiß blickt auf ein Jahr ChatGPT zurück.

Vor genau einem Jahr dürften bei OpenAI Drähte und Ohren geglüht haben – fast so sehr wie zuletzt bei den Querelen um den kurzfristigen Rauswurf des Gründers Sam Altman [1]. Mit der Veröffentlichung von ChatGPT loderte ein Hype-Feuer auf, jeder wollte den Chatbot testen und so ziemlich jeder war fasziniert, wie gut ChatGPT Fragen beantworten konnte.

Ebenso rasend schnell sprühten überall die Funken der Veränderung. Boom! Das wird alles ändern. Allerorten war von der disruptiven Kraft Künstlicher Intelligenz zu lesen, bis das Wort so mancher (anwesenden) Redakteurin und auch einigen Lesern zu den Ohren heraushing. Ebenso ununterbrochen wurden Dystopien beschrieben und vorhergesagt. Schon bevor die Abkürzung AGI (Artificial General Intelligence) in aller Munde war, sprachen manche davon, wie die neue KI die Menschheit durch ihre Intelligenz bedrohen werde.

Erst hieß es, wir würden Arbeitsplätze verlieren, die eine KI besser besetzen könne als der Mensch. Da jubelten vor allem Arbeitgeber und Anbieter von KI-Diensten, die ihre Produkte verkaufen wollen, aber man solle sich keine Sorgen machen: KI werde Arbeitnehmer nicht abschaffen, sondern effektiver machen. Schließlich werde sie sogar neue Jobs schaffen, beispielsweise als Prompt-Engineer.

Und was davon hat sich nach einem Jahr ChatGPT bewahrheitet? Wahrscheinlich von allem ein bisschen. Aber schon jetzt zeigt sich, dass alles wieder einmal ein bisschen komplizierter ist, als Hype und Dystopie vorgeben. (Seitenhiebe auf die Blockchain können Sie hier nach Gusto einfügen.)

Zunächst einmal ist nur ChatGPT ein Jahr alt und nicht Künstliche Intelligenz. Und Künstliche Intelligenz ist ein gaaaaanz schön weites Feld. Sie steckt in der Google-Suche [2] genauso wie in jedem Vorschlag, den wir in sozialen Netzwerken sehen, sowie in Auswertungssystemen und vielem mehr. ChatGPT ist eine generative KI, der Chatbot basiert auf einem großen Sprachmodell (Large Language Model, LLM). Von dieser Art Sprach-KI sagen manche Wissenschaftler, sie sei ein stochastischer Papagei, der nur nach Wahrscheinlichkeit auswählt, was er "antwortet", aber nichts versteht.

Schon einige Monate vor ChatGPT wurden Bildgeneratoren wie beispielsweise Midjourney frei verfügbar, sie sind sicherlich ein großer Teil des aktuellen KI-Hypes und dabei ganz unabhängig von ChatGPT. Dennoch lassen sich einzelne Fähigkeiten verschiedener Modelle vereinen. Auch in ChatGPT ist ein Bildgenerator integriert, Text kann dank der Verbindung zweier Modelle in Audio umgewandelt werden – und so ist es möglich, dass wir mit ChatGPT inzwischen auch wirklich sprechen können.

Eine solche Multimodalität ist aber noch lange keine AGI. Die Angst vor einer Superintelligenz wie HAL 9000 im Film "2001: Odysee im Weltraum" lassen wir deshalb hier beiseite. Es ist ohnehin fraglich, auf welchem Weg sich eine AGI überhaupt entwickeln ließe und was eine AGI eigentlich können muss, um eine Superintelligenz zu sein.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Umfrage (Opinary GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Opinary GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung [3].

Was also hat ChatGPT in seinem ersten Jahr der Existenz an Versprechungen eingelöst? Es war der am schnellsten gewachsene Dienst jemals. Nach fünf Tagen hatte ChatGPT bereits eine Million Nutzer. Instagram brauchte dafür 2,5 Monate, Netflix ganze 3,5 Jahre. Metas Threads allerdings brauchte wenige Monate später nur eine Stunde für die Million. Kurz schien es, als sei Googlen sowas von 2022, man fragt jetzt ChatGPT nach der Antwort.

Aber: In den ersten Monaten war ChatGPT auf einen Wissensstand bis September 2021 begrenzt. Eine Anbindung ans Internet hat der Chatbot erst kürzlich erhalten [4], nachdem eine erste Veröffentlichung als Plug-in nicht den Erwartungen von OpenAI entsprach – das Unternehmen gab an, ChatGPT könnte etwa hinter Bezahlschranken schauen, das sollte ausgemerzt werden.

Gibt man bei ChatGPT eine URL zu einem Artikel ein, der hinter einer Bezahlschranke steht, könnte man meinen, der Bot ist noch immer in der Lage dahinterzuschauen. Doch da taucht die große Schwierigkeit von LLMs auf: sie halluzinieren. URL, Überschrift, Vorspann reichen dem Chatbot aus, um irgendwas zu behaupten, das angeblich im Artikel steht – und das Irgendwas kommt oft der Wahrheit sehr nahe, es sind ja Wahrscheinlichkeiten, die wiedergegeben werden.

Die Halluzinationen sorgten anfangs für viel Gelächter, vor allem aber schränken sie den Nutzen von ChatGPT & Co ein. Das gilt auch für die Anbindung von ChatGPT (beziehungsweise GPT-4, so heißt das Sprachmodell, auf dem der Chatbot aufsetzt) an Microsofts Suchmaschine Bing. Die drehte in den Anfangstagen geradezu durch [5], wurde eifersüchtig und wirr, die Smileys am Ende jeden Absatzes wirkten mindestens passiv-aggressiv, sodass Microsoft Schranken einbauen musste.

Spaß machen ChatGPT und Bing Chat aber allemal. Bevor OpenAI eine Teilen-Funktion einführte, schickten sich Menschen reihenweise Screenshots von ChatGPT-Antworten. Oft ungefragt und oft zum Lachen. Die Nutzungszahlen stiegen und stiegen. Der Zugriff war immer wieder eingeschränkt, weil zu viele Menschen Fragen stellten. OpenAI führte schon kurz nach Veröffentlichung des Chatbots ein Abo-Modell ein, mit dem man an den anderen Menschen vorbeirauschen kann und neue Funktionen zuerst bekommt.

Mit der generellen Verfügbarkeit eines Chatbots und dem Hype setzen OpenAI und Microsoft den bisherigen Suchmaschinen und auch KI-Pionier Google unter Druck. Microsofts-CEO Satya Nadella sagte in einem Interview [6], Google sei ein 800-Pfund-Gorilla und solle nun herauskommen und zeigen, dass er tanzen kann. "Ich möchte, dass die Leute wissen, dass wir sie zum Tanzen gebracht haben."

Tatsächlich hat ChatGPT bei Google ganz offensichtlich Alarm ausgelöst. Es erschien etwas panisch, wie Google eine Veranstaltung in Paris auf die Beine stellte [7], bei der zahlreiche KI-Anwendungen vorgestellt wurden, die es schon lange gab, und einen Chatbot, der hierzulande zunächst nicht kam. Bard ist Googles Antwort auf ChatGPT [8]. Nicht halb so erfolgreich und von Google auch direkt wieder stiefmütterlich behandelt. Statt die KI-Suche, die sich Search Generative Experience nennt, zu bewerben, hat es zuletzt zahlreiche neue Funktionen für Google Maps gegeben [9].

Man weiß nicht recht, ob Google einfach nicht tanzen will, weil sie meinen, es nicht nötig zu haben, sie nicht tanzen können oder ob sie einfach glauben, der Hype ziehe wieder vorüber. Das T in ChatGPT steht für Transformer, eine Architektur, die bei Google entwickelt wurde.

Mittels API können auch andere Anbieter ChatGPT in ihre Dienste integrieren. Als eines der ersten Unternehmen nutzte das beispielsweise Snapchat, um eine Chat-KI in die Plattform zu integrieren [10]. Meta zog mit eigenen KI-Personas erst Monate später nach [11].

Man zahlt für die Integration von ChatGPT pro Token, das sind quasi Wortschnipsel, also jene Teile, die am wahrscheinlichsten aufeinanderfolgen. Billig ist das nicht, aber cool: Wenn man am Puls der Zeit sein möchte, braucht man schon einen eigenen Chatbot. Und mit Glück wird es auch gar nicht so teuer. Denn es zeigt sich, die Menschen wissen gar nicht recht, was sie ChatGPT und seine Brüder und Schwestern fragen sollen.

So gehen auch die Nutzungszahlen von ChatGPT deutlich zurück. Den Knick erklärte man zunächst mit dem Sommer und den Ferien. Mancher meinte, die Schüler nutzten alle ChatGPT, um ihre Hausaufgaben und Referate zu machen. Sicherlich kann der Chatbot dabei helfen, mit dem Herbst ging es jedoch nicht gleichermaßen wieder bergauf mit den Nutzungszahlen. Der Bildungsbereich steht dennoch vor der Herausforderung, wie mit ChatGPT-Hausaufgaben umzugehen ist.

Microsoft ist nicht nur OpenAI-Großinvestor und Anteilseigner, Microsoft ist auch bester Kunde, wenn es um die Produkte geht. Sie haben den Copilot entwickelt, eine Art viel besseren Karl Klammer, ein KI-Assistent, der unliebsame Mails und Stellenausschreibungen schreiben, Excel die gewünschten Werte entlocken und bei Github auch beim Programmieren helfen kann – dort gibt es den Copilot schon länger. [12]

KI, und insbesondere die Möglichkeit, dem Computer etwas in natürlicher Sprache sagen zu können, werde laut Nadella unseren Umgang mit dem Computer so ändern, wie das einst die Maus tat [13]. Microsoft bezeichnet sich selbst inzwischen als "das Copilot-Unternehmen".

Auch OpenAI ist allerdings nicht angetreten, um mit ChatGPT einen guten Chatbot auf den Markt zu bringen und sonst nichts. Sie versuchen, einen Kosmos um den eigenen Dienst aufzubauen. Erst kamen die Plug-ins, darunter der Zugang zum Internet. Es folgten andere Unternehmen, die ihre Anwendungen für ChatGPT bereitstellten – mit OpenTable kann man seither Tische in Restaurants buchen, Wolfram Alpha hilft beim Rechnen.

Zuletzt hat OpenAI "GPTs" vorgestellt, das sind Varianten des Chatbots, die zusätzliche Aufgaben übernehmen [14] sollen. Zum Start gibt es offizielle GPTs von OpenAI, in der Folge soll aber jeder und jedes Unternehmen einen GPT selbst entwickeln und anbieten können. Dafür bietet OpenAI eine Plattform, die an die gängigen App-Stores erinnert. Was die GPTs jeweils können, ist abhängig vom Anbieter; vorstellbar ist jedoch, dass Nutzer irgendwann ein GPT vom Lieblingsverein haben, ein GPT für die To-Do-Listen, ein GPT zur Reiseplanung und so weiter und so fort. Nach den ersten zaghaften Wiegeschritten mit Bard könnte das nicht nur Google, sondern auch Apple tanzen lassen.

Fraglich ist noch die Finanzierung. KI bedarf einer enormen Rechenleistung, beim Training, Finetuning und fürs Antworten. OpenAI-CEO Sam Altman gab vor nicht allzu langer Zeit zu, sie wüssten überhaupt nicht, wie sie jemals Geld verdienen sollten. Die Milliarden von Investoren sind das eine, operativer Gewinn etwas anderes. Die Einnahmen aus den ChatGPT-Abonnements können wohl kaum die Kosten decken.

"OpenAI ist ein KI-Forschungs- und Einsatzunternehmen. Unsere Mission ist es, dafür zu sorgen, dass künstliche allgemeine Intelligenz (AGI) der gesamten Menschheit nützt", lautet die wiederkehrende Selbstbeschreibung von OpenAI auf der eigenen Webseite. Dass diese Mission und die dafür nötige Finanzierung schwierig zu vereinen sind, hat wohl auch zu dem Zwist um den Rauswurf Altmans geführt. Der gesamten Menschheit nutzen – ein heres Ziel.

Bisher steht eher die Frage im Raum, welche disruptive Kraft von einem Chatbot wirklich ausgeht. Eine Sprach-KI kann Aufgaben übernehmen, wegzudenken ist sie nicht mehr. Sie braucht aber permanente menschliche Betreuung. Die Begeisterung für das, was möglich ist, führt teilweise dazu, nach einem passenden Einsatzgebiet zu suchen, nach dem Motto: Wir haben hier eine Lösung, wo ist das Problem dafür?

Neue Fragestellungen haben ChatGPT und seine Geschwister auf jeden Fall gebracht: Was wird sich am Urheberrecht ändern müssen? Wie gehen wir mit den neuen Möglichkeiten für Deepfakes um? Welche Richtlinien sollte es für Basismodelle geben? Wann sind Anbieter von KI-Diensten in der Verantwortung? Wie verändert sich die Kriegsführung durch Sprachmodelle? Und kann ChatGPT einen guten Rückblick auf ein Jahr ChatGPT schreiben? Versuchen Sie es. Ich würde dazu sagen: Nein.

Mehr dazu finden Sie auch in unserem Podcast KI-Update. [15]

Ein c't-Sonderheft zur Praxis mit KI finden sie in unserem heise Shop. [16]

(emw [17])


URL dieses Artikels:
https://www.heise.de/-9543956

Links in diesem Artikel:
[1] https://www.heise.de/news/OpenAI-Altman-wieder-Chef-von-OpenAI-9535725.html
[2] https://www.heise.de/news/On-Search-Google-bringt-allerhand-Kuenstliche-Intelligenz-in-seine-Anwendungen-4930673.html
[3] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[4] https://www.heise.de/news/OpenAI-laesst-ChatGPT-ins-Internet-9319476.html
[5] https://www.heise.de/news/Klar-macht-das-neue-Bing-Fehler-spannend-ist-die-KI-Suche-dennoch-7493727.html
[6] https://www.youtube.com/watch?v=KSixVG8Z5rQ
[7] https://www.heise.de/meinung/Lame-from-Paris-Google-zeigt-viel-Brain-aber-wenig-spannende-Neuigkeiten-7490540.html
[8] https://www.heise.de/news/Googles-Chatbot-Bard-ist-ab-sofort-in-Deutschland-verfuegbar-9214805.html
[9] https://www.heise.de/news/Google-Maps-Update-Immersive-Routen-thematische-Suche-und-Lens-9344973.html
[10] https://www.heise.de/news/Snap-Partner-Summit-My-AI-fuer-alle-und-mehr-AR-Funktionen-8971431.html
[11] https://www.heise.de/news/Meta-Connect-Chatbot-namens-Meta-AI-und-ein-Bildgenerator-namens-Emu-9319425.html
[12] https://www.heise.de/hintergrund/Praxiserfahrungen-Programmieren-mit-KI-Codeassistent-Github-Copilot-7538697.html
[13] https://www.heise.de/news/Microsoft-bei-AMD-auf-der-CES-KI-wird-alles-veraendern-wie-einst-die-Maus-7449226.html
[14] https://www.heise.de/ratgeber/ChatGPT-Was-die-neuen-GPTs-koennen-und-wie-Sie-eigene-KI-Bots-bauen-9530670.html
[15] https://kiupdate.podigee.io/
[16] https://shop.heise.de/ct-ki-praxis/PDF
[17] mailto:emw@heise.de