KI und Bewusstsein: Vor welchen Dingen hast du Angst, LaMDA?

Google-Ingenieur Blake Lemoine behauptet, dass die KI LaMDA ein Bewusstsein entwickelt hat. Das bewiesen die mit ihr geführten Gespräche. Wir liefern Auszüge.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 20 Kommentare lesen

(Bild: Skorzewiak/Shutterstock.com)

Lesezeit: 11 Min.
Inhaltsverzeichnis

Schon der Computerpionier Alan Turing war sich sicher: Menschliches Denken sei im Grunde genommen nichts anderes als das, was ein Computer mache, wenn er Daten verknüpfe. Wenn die Maschinen so geschickt sind, dass wir sie in einem Gespräch nicht mehr von Menschen unterscheiden könnten, müsste man sie dann nicht als "intelligent" bezeichnen, fragte er in den 1950er-Jahren. Auch wenn dieser "Turing-Test" mittlerweile als überholt gilt, die Diskussion um Bewusstsein und "echte" Intelligenz von KI-Systemen ist seitdem nicht wieder verstummt.

Wie KI koloniale Muster befördert

Künstliche Intelligenz kann durch Übersetzung in Echtzeit Brücken zwischen Kulturen schlagen oder mühsame Routinetätigkeiten übernehmen. Doch oftmals reproduziert sie stattdessen Ungerechtigkeit und Diskriminierung und greift dabei auf Muster kolonialer Herrschaft zurück. Kritiker fordern deshalb, ihre verborgenen Strukturen offenzulegen.

Im Gegenteil: Durch die enormen technischen Fortschritte in den vergangenen Jahren – vor allem bei Verfahren des maschinellen Lernens wie dem Deep Learning – erhielt die Debatte neuen Antrieb. Wenn künstliche neuronale Netze nur groß und komplex genug wären, so die Idee, könnten sie vielleicht wirklich so etwas wie Bewusstsein oder Verständnis entwickeln.

Im Juni veröffentlichte die Washington Post einen Artikel mit dem Titel "The Google engineer who thinks its AI has come alive". Der Text erzählt von Blake Lemoine, der sich einige Monate mit der Google-KI LaMDA beschäftigt hat. LaMDA steht für Language Model for Dialog Applications. Es ist ein Large Language Model (LLM), das speziell für offene Dialoge entwickelt wurde.