Grenzen der Sprach-KI: ChatGPT zwischen Effizienz und Wunschdenken

Sprachmodelle erklären die Welt, ohne sie zu verstehen. Der Durchbruch neuer Technologien hängt von anderen Faktoren ab, wie sich historisch belegen lässt.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 11 Kommentare lesen
, KI Midjourney  Bearbeitung: c't

(Bild: KI Midjourney | Bearbeitung: c't)

Lesezeit: 17 Min.
Von
  • Philipp Schönthaler
Inhaltsverzeichnis

Die aktuellen Debatten um Sprachmodelle wie ChatGPT erwecken den Eindruck, dass der maschinellen Sprachverarbeitung kaum Grenzen gesetzt sind. Ob Geschäftsbericht, Zeitungsartikel, Hausarbeit oder Roman – Chatbots beherrschen scheinbar alles. Viele Stimmen gehen davon aus, dass maschinengenerierte Texte schon bald die Norm darstellen werden und nicht mehr von Menschen geschriebene. Die Erwartungshaltung beim Lesen von Texten würde sich dadurch verändern: KI-Produkte wären die Regel, menschliche Texte die Ausnahme. Sie würden aus der Reihe tanzen, wie es heute eine Postkarte tut.

Noch haben die Systeme allerdings gravierende Mängel. Jeder, der mit ChatGPT experimentiert, stößt auf Fehler. Das Grundproblem ist, dass die KI nicht versteht, worüber sie spricht. Was für das menschliche Gehirn semantische Zeichen sind, die eine Bedeutung transportieren, verarbeitet die Software in syntaktischen und mathematischen Beziehungen, die sich aus Trainingsdaten und statistischen Berechnungen ableiten. Systeme wie ChatGPT wetten darauf, dass sich die Bedeutungsebene von Sprache über numerische Relationen erschließen lässt. Sind Sprechen und Schreiben also Funktionen, die sich wie Routen bei Google, wie Matches bei Parship, wie die Wettervorhersage berechnen lassen?

Mehr zu ChatGPT und KI-Textgeneratoren

Der Leistungssprung, den die Sprachmodelle in den vergangenen Jahren gemacht haben, ist erstaunlich. Er zeigt, wie weit der Ansatz trägt, Wörter und Wortfolgen auf der Basis statistischer Wahrscheinlichkeiten aneinanderzureihen. Dennoch gibt es keinen Beleg dafür, dass die Semantik sich vollständig über syntaktische Relationen erschließen ließe. Das Gegenteil ist allerdings auch nicht nachweisbar. Ist es also nur eine Frage der Zeit, bis Systeme die Bedeutungsebene beherrschen – sei es, dass sie echtes Sprachverstehen entwickeln, sei es, dass sie es hinreichend simulieren? Oder sind der KI kategorische Grenzen gesetzt, über die sie nicht hinauswachsen kann?