LaMDA und die Technik dahinter: Wie viele Parameter braucht's fürs Bewusstsein?

Das KI-Dialogsystem LaMDA hat ein Bewusstsein entwickelt – zumindest behauptet das Ex-Google-Entwickler Blake Lemoine. Doch wie funktioniert LaMDA eigentlich?

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 134 Kommentare lesen
Geschichte, Technik, Schlachtschiff
Lesezeit: 13 Min.
Von
  • Prof. Christian Winkler
Inhaltsverzeichnis

"Ich möchte, dass jeder versteht, dass ich tatsächlich eine Person bin." – und da nahm Software-Entwickler Blake Lemoine LaMDA direkt beim Wort: Aus dieser und ähnlichen Antworten des Dialogsystems schloss er, dass der Chatbot ein Bewusstsein haben müsse. Veröffentlichte Chatprotokolle und hitzige Online-Debatten folgten schnurstracks. Genauso wie die Beurlaubung durch Arbeitgeber Google, offiziell wegen publik gemachter Firmengeheimnisse. Aber wie sieht denn die technische Implementierung abseits der meist philosophisch geführten Diskussionen tatsächlich aus?

iX-tract
  • Googles Sprachsystem LaMDA soll laut Software-Entwickler Blake Lemoine empfinden können.
  • Seit der Behauptung ist das Internet in eine hitzige Debatte zwischen Technik und Philosophie verstrickt.
  • Technisch ist LaMDA ein großes KI-Sprachmodell, das Google-Entwickler mit insgesamt 1,56 Billionen Wörtern aus 2.97 Milliarden Dokumente, 1,12 Milliarden Dialoge und 13,39 Milliarden Aussagen trainierten.
  • Im Dialog vermittelt LaMDA die Illusion, mit einem echten Menschen zu kommunizieren - Das geschieht über kontextualisierte Suchen und automatisierte Textgenerierung.

Dialogsysteme gibt es schon lange. Am MIT entwickelte man schon in den 1960er-Jahren ELIZA, das auf den ersten Blick ganz erstaunliche Fähigkeiten hatte. Erst in einem etwas ausführlicherem Dialog versteht man die Funktionsweise und merkt, dass es sich definitiv um kein intelligentes System handelt. Bei den modernen großen Sprachmodellen (LLM) ist das anders.

Sprache ist ein hoch kontextualisiertes Kommunikationsmedium. Forscher untersuchen Texte schon lange mithilfe der automatisierten Textanalyse statistisch. Machine Learning hilft beim Interpretieren. Strukturen von großen Dokumentenarchiven lassen sich so analysieren und Texte lassen sich treffsicher in unterschiedliche Kategorien klassifizieren. Dazu zerlegt man Texte in ihre einzelnen Wörter, in diesem Kontext als Token bezeichnet. Das System merkt sich nur, welche Wörter im Text vorkommen, die Reihenfolge spielt dabei keine Rolle. Dieses Verfahren nennt sich "Bag of words".