Buchkritik: Was Sprach-KI leistet und was sie nur vortäuscht

Was können große Sprachmodelle und wann blenden sie nur? Katharina Zweig vermittelt Einsteigern fundiert, wo Stärken und Grenzen von ChatGPT & Co. liegen.

vorlesen Druckansicht
Lesezeit: 4 Min.

Große Sprachmodelle können genau genommen weder Texte zusammenfassen noch vergleichen, sie können den Menschen nicht verstehen und seine Texte nicht beurteilen. Anwender neigen dazu, die Fähigkeiten solcher Systeme systematisch zu überschätzen.

Diese These untermauert Katharina Zweig, Informatikprofessorin an der RPTU Kaiserslautern-Landau, indem sie Einsteigern ohne Vorwissen schildert, wie ChatGPT, Claude, LaMDA, Gemini, Perplexity AI und Llama sowie die ihnen zugrundeliegenden GPT-Modelle technisch arbeiten.

Mehr Buchrezensionen

Auf dieser Grundlage hilft sie ihren Lesern, ein Gefühl dafür zu entwickeln, wofür sie große Sprachmodelle zuverlässig einsetzen können, wobei man mit ihnen Zeit sparen kann und in welchen Anwendungsfällen Zurückhaltung geboten ist.

Gleich im ersten Kapitel führt Zweig die Tilde ein, um scheinbar alltägliche Tätigkeiten zu markieren, die andere Experten und Laien wie selbstverständlich mit KI-Modellen in Verbindung bringen. Die KI „lernt“, „erkennt“ oder „schreibt … um“? Das tut sie nicht, jedenfalls nicht in derselben Art und Weise wie ein Mensch. Bei Zweig „~lernt“ die KI also, „~erkennt“ und so weiter. Im gesamten Buch holt die Tilde den Leser immer wieder auf den Boden der Tatsachen und macht ihm bewusst, dass ein Verb gerade außerhalb seines sonstigen Zuständigkeitsbereichs genutzt wird.

Wieso fühlt sich so viel von dem, was Sprachmodelle texten, so richtig an? Zweig führt im ersten Teil in die Historie der KI-Entwicklung und schildert beispielsweise den noch gar nicht intelligenten Ur-Chatbot ELIZA, der lediglich algorithmische Umformungen der Eingangssätze erwiderte und allein damit schon vielen Gesprächspartnern das Gefühl gab, interessante Gespräche zu führen. Die Mahnung dieses Experiments aus den 60er-Jahren: Der Mensch ist einfach nicht geeignet, sprachfähige Automaten von denkenden Menschen zu unterscheiden; darauf hat ihn die Evolution nicht vorbereitet.

Im zweiten Teil ihres Buches nimmt die Autorin ihre Leser „in den Maschinenraum“ generativer Sprachmodelle mit. Die Strukturen neuronaler Netze, deren Aufbau in Schichten, Trainingsmethoden bis hin zum Backpropagation-Algorithmus und Worteinbettungen anhand vieler alltäglicher Beispiele zu erklären, ist jedoch ein ambitioniertes Vorhaben. Die KI-Grundlagen sind für Nichtmathematiker kaum fassbar, selbst angesichts der Fülle der Beispiele wird nicht jeder die KI-Arbeitsabläufe durchschauen. Diejenigen, die sich abgehängt fühlen, finden im Text zusammenfassende Boxen, die wichtige Begriffe an Ort und Stelle kurz einordnen. Zusätzlich hat die Autorin den anschließenden dritten Teil so konzipiert, dass er auch funktioniert, wenn man Teil zwei überspringt – in dem Fall muss man ihr bei technischen Rückbezügen einfach vertrauen.

Nach den Ausflügen in Konzeption, Geschichte und Technik von KI-Sprachmodellen kann Zweig im dritten Teil fundierte Schlüsse ziehen. Sie vertritt die Überzeugung, dass KI nicht eigentlich intelligent ist und liefert zahlreiche Belege dafür, dass Sprachmodelle zwar wohlklingende Texte erzeugen, aber nicht logisch schlussfolgern können. Textaufgaben für Grundschüler konnten sie in Studien 2022 nur mit Glück lösen, meistens scheiterten sie. Später wurden sie in dieser Disziplin wahrscheinlich nur durch gezieltes Training besser.

Daraus folgen nachvollziehbare Nutzungsvorschläge, etwa: „Fragen Sie nur Dinge, bei denen Sie die Qualität der Antwort mit Ihrer eigenen Expertise bewerten können.“ Man könne sich auch getrost helfen lassen, wenn man vor einem leeren Blatt sitzt und keinen Anfang findet. Sprachmodelle können zur Kreativität inspirieren. Eine praktische Daumenregel lautet: Sprachmodelle können immer dann helfen, wenn man das Ergebnis schneller überprüfen als selbst schreiben kann.

Um die Grenzen der KI aufzuzeigen, findet Zweig teilweise deutliche Worte: „KI besitzt keinen gesunden Menschenverstand.“ Sie halluziniere nicht, sondern „konfabuliere“ gegebenenfalls (faselt ohne inhaltliche Substanz). Sie verstehe die Welt, in der wir leben, nicht und könne nicht nachdenken.

Mit seinen Erklärungen und diesen Tipps ist das Buch eine wertvolle Unterstützung für alle, die ein Gefühl entwickeln wollen, was KI-Sprachmodelle ernsthaft können. Nach der Lektüre können sie eher fundiert entscheiden, wo sie auf dieses Hilfsmittel zurückgreifen wollen und in welcher Situation wohl besser nicht.

Mehr Infos

Katharina Zweig

Weiß die KI, dass sie nichts weiß?

Wofür wir Chatbots und KI-Agenten nutzen sollten, wo sie sich irren und wo wir aufpassen müssen

  • Heyne, München 2025
  • ISBN 978-3453219076
  • 272 Seiten, 20 €
  • (Epub-/Kindle-E-Book: 17 €)

Videos by heise

(agr)