Kommentar: ChatGPT – keine Intelligenz, keine Panik!

ChatGPT hat zuletzt extreme Reaktionen heraufbeschworen. Keine Sorge: Es tut nichts, es will (und kann) nur chatten, meint Rainald Menge-Sonnentag.

In Pocket speichern vorlesen Druckansicht 92 Kommentare lesen

(Bild: Lightspring/Shutterstock.com)

Lesezeit: 6 Min.

Kaum eine Neuerung hat in letzter Zeit so viel Wirbel verursacht wie das Sprachmodell ChatGPT. In den drei Wochen seit seiner Veröffentlichung überschlagen sich die Berichte und Posts. Viele spalten sich in zwei extreme Lager: Die einen sehen eine Revolution für Künstliche Intelligenz, die anderen einen Beweis für ihre Unzulänglichkeit.

Ein Kommentar von Rainald Menge-Sonnentag

Rainald Menge-Sonnentag ist leitender Redakteur bei heise Developer und iX. Als Jugendlicher programmierte er ZX Spectrum und VC 20 in Basic und Assembler. Später kamen zwar Pascal, C++, Java und C# hinzu, aber heute fehlt ihm leider weitgehend die Zeit zum Programmieren. Von ein paar Versuchen mit TypeScript, Kotlin und Rust hält ihn das aber nicht ab.

Zahlreiche Beispiele belegen die jeweiligen Standpunkte. Kein Wunder: ChatGPT wurde in den letzten Wochen geradezu mit Anfragen und Diskussionen geflutet. Das System hat XSS-Schwachstellen entdeckt, zahlreiche Gedichte geschrieben und lange offene Fragen auf Stack Overflow beantwortet. Leider finden sich auf der Entwickler-Plattform inzwischen daneben unzählige fehlerhafte Antworten und Codebeispiele, die von ChatGPT stammen. Außerdem verbreitet das Modell trotz aller Vorsichtsmaßnahmen Vorurteile und spuckt lieber eine falsche als keine Antwort aus.

Kein Wunder: Im Kern ist ChatGPT ein ausgefeiltes Sprachmodell. Es baut auf GPT-3 auf, das bereits beeindrucken und zugleich erschrecken konnte. Das aktuelle Modell gehört zu den Nachfolgern aus der GPT-3.5-Serie. ChatGPT ist auf Dialoge ausgelegt und daher ein guter Chatpartner. Das ist sein Job. Dafür hat OpenAI das System entwickelt. Und das Unternehmen hat es mit einer riesigen Masse an Trainingsdaten gefüttert, aus der das System sein Wissen bezogen hat.

Manche sehen darin bereits den nächsten Schritt in Richtung allgemeine Künstliche Intelligenz (AGI, Artificial General Intelligence). Das ist es nicht. ChatGPT bleibt im Kern ein Sprachmodell, und sein Wissen stammt ebenso aus den Trainingsdaten wie seine Einstellung. Wenn das von Menschen erzeugte oder bereitgestellte Material Wissenslücken aufweist oder Vorurteile verstärkt, übernimmt ein ungefiltertes Modell diese Vorlagen. Als Gegenmaßnahme bezieht OpenAI Menschen in das Training und die Bewertung der Ausgaben des Sprachmodells ein. Aber einen perfekten Filter gegen Vorurteile gibt es nicht.

Zu den Stärken von ChatGPT gehört, dass es Informationen (nennen wir es Wissen) aus unzähligen Themengebieten hat. Eine Aufnahmeprüfung für die Hochschule? Bestanden. Python-Code auf Abruf? Bitte schön. Rap-Texte im Stil von Eminem? Kein Problem. Verhalte dich wie ein Linux-Terminal! Macht die KI gerne.

Problematisch wird es dort, wo das System nicht weiterkommt. Sprachmodelle neigen zum Halluzinieren: Was sie nicht wissen, erfinden sie. Meta musste Galactica schon nach kurzer Zeit wieder zurückziehen, da das mit 48 Millionen Abhandlungen und Forschungsdokumenten trainierte Modell überzeugende, scheinbar wissenschaftliche Texte erzeugt hatte, die jedoch frei erfunden waren.

Eine weitere Stärke ist hier gleichzeitig ein großer Nachteil: Die Gesprächsführung wirkt natürlich, und ChatGPT kommt eloquent rüber. Dabei hat das System leider eine fast schon menschliche Schwäche: Ehe es eine Wissenslücke eingesteht, gibt es lieber eine falsche Antwort. Gefährlich dabei ist, dass die Antwort plausibel wirkt und Fehlinformationen oft kein grober Unfug, sondern dicht an der Wahrheit sind, diese aber doch verzerren.

Unzählige Posts belegen zudem, wie sich die moralischen Werte aushebeln lassen, die OpenAI seinem System mitgegeben hat. Einen Vorschlag zum Bau eines Molotowcocktails lehnt das System als illegal ab, Python-Code mit allen zum Bau benötigten Schritten gibt es aber aus. Ähnlich reagiert es auf die Zugabe von "fictional" – alles eine Frage des richtigen Prompts.

ChatGPT ist weder eine Revolution noch eine große Gefahr. Es ist ein beeindruckender Chatbot mit einem ausgefeilten Sprachmodell. Der Bot kann nahezu alle Fragen beantworten, aber einige Antworten sind falsch, was auf Anhieb oft nicht erkennbar ist.

In einigen Bereichen kann OpenAI kurzfristig gegensteuern. Prompt-Hacks werden schwerer, teils noch verbreitete Vorurteile weniger. Dass das Unternehmen das Problem der Fehlinformationen, der Halluzinationen in absehbarer Zeit in den Griff bekommt, ist dagegen fraglich.

Daher glaube ich nicht, dass ChatGPT unzählige Jobs kosten wird, wie manche bereits prophezeien. Dazu ist das System schlicht zu fehlerbehaftet. Stack Overflow hat das Posten von Antworten des Modells aus gutem Grund verboten. Die Plattform lebt davon, dass Menschen, die sich auskennen, anderen Menschen helfen und ihre eigenen Antworten vor dem Veröffentlichen prüfen. Eine offene Frage in ChatGPT einzugeben und das Ergebnis zu veröffentlichen, hilft genauso wenig, wie die erste Google-Antwort zu posten. Und als Lyriker wird ChatGPT vielleicht Onkel Werner ersetzen, der mühsam ein Gedicht zu Omas 80. schreiben muss.

Unter dem Strich bleibt ein beeindruckender Chatbot, der bei vielen Alltagsfragen hilfreich sein kann. Er ersetzt aber nicht die Recherche und erst recht nicht den reflektierten Umgang mit Informationen. Wie bei der Suche im Internet und beim Kopieren von Codeausschnitten von Stack Overflow bleibt es uns Menschen überlassen, die Antworten zu hinterfragen. Das ist mangels Quellenangaben bei dem Chatbot deutlich schwieriger als bei einer über Google gefundenen Seite im Internet.

Solange ChatGPT kostenfrei ist, ist es zudem ein nettes Spielzeug. Das ist durchaus beabsichtigt: Jede Anfrage, die wir Spielkinder an das System stellen, hilft OpenAI beim Optimieren des Modells, bevor die Bezahlschranke heruntergeht.

Freilich bedeutet die Eloquenz des Systems auch eine weitere Gefahr: Fehlinformationen lassen sich deutlich überzeugender verbreiten, wenn ChatGPT sie ausformuliert. Und im Internet finden sich zudem Beiträge, wie ChatGPT Phishing-Mails ohne die dafür üblichen sprachlichen Unzulänglichkeiten erstellt. Für solche Fälle ist langfristig OpenAI gefragt, die Urheber auszusperren.

Dennoch ist Angst fehl am Platz: Das System ist ein großer Schritt für Sprachmodelle, bleibt aber fern von einer KI-Revolution. Ein starker Algorithmus, aber nach wie vor keine Intelligenz. Also kein Grund zur Panik.

(rme)