LaMDA, KI und Bewusstsein: Blake Lemoine, wir müssen philosophieren!

Lemoine sieht in LaMDA ein Bewusstsein am Werk. Das zeigt nicht, wie erstaunlich die KI ist, sondern wie wenig wir uns selbst kennen, kommentiert Pina Merkert.

In Pocket speichern vorlesen Druckansicht 197 Kommentare lesen

(Bild: Jorm S / Shutterstock.com)

Lesezeit: 5 Min.

(This article is also available in English)

Neuronale Netze sind parametrisierte und daher im Prinzip allgemeine Funktionsapproximatoren. Wenn die Anzahl ihrer Parameter in die Milliarden geht, verlieren auch die schlauesten Data Scientists die Übersicht, was die Netze an welcher Stelle genau machen. Die Folge davon sind überraschte Menschen, deren Verwunderung über die vermeintliche Blackbox KI verschiedenste Formen annimmt.

Der Google-Mitarbeiter Blake Lemoine ist überrascht, wie selbstreflektiert die Chat-KI LaMDA schreibt und will sie beschützen. Da auf LaMDA nur ein kleiner Teil von Googles eigenen Mitarbeitern Zugriff hat, passt die Geschichte hervorragend ins Narrativ eines Hollywood-Blockbusters: In einem geheimen Labor haben sich zwielichtige Wissenschaftler der Hybris schuldig gemacht und ein geheimnisvolles Wesen erschaffen, das faszinierend und vielleicht sogar gefährlich sein könnte. Und auch wenn dieses Rezept schon zu manch spannendem Film geführt hat, sollte man sich nicht täuschen lassen: Googles KI-Abteilung weiß schon, was sie da gebaut haben. LaMDA ist auch nur ein großer Transformer, der gut schreiben kann. Das muss nicht überraschen, wenn man GPT3 gesehen hat.

Ein Kommentar von Pina Merkert

Pina Merkert lebt auf der Grenze zwischen Dramaturgie und Technik, zwischen Programmierprojekten und Hardwarebasteleien. Was dabei herauskommt, ist meistens nützlich, manchmal aber auch nur cool. Das gilt auch für ihre intensive Beschäftigung mit dem, was landläufig unter dem Begriff Künstliche Intelligenz geführt wird.

Liest man die Chatprotokolle, die Lemoine zu Googles Verdruss veröffentlicht hat, kann man aber dennoch ins Zweifeln kommen. Die Maschine schreibt reflektierter und klarer als viele Menschen, denen wir im Alltag begegnen. Wer sind wir, dem pöbelnden Idioten aus der U-Bahn ein Bewusstsein zuzusprechen, obwohl sein Verhalten alles andere als intelligent ist, und der eloquenten KI die gleiche Ehre zu verwehren?

Diese Frage entlarvt, dass es sich bei Lemoines Verwirrung eigentlich um ein philosophisches Problem handelt: Descartes berühmter Satz "Ich denke, also bin ich" erlaubt uns, der eigenen Existenz sicher zu sein. Wir sind uns also selbst bewusst, haben also ein Bewusstsein. Aber was ist mit allen anderen Menschen? Die sehen uns ähnlich und verhalten sich ähnlich wie wir. Ihnen die gleiche Art Bewusstsein zu unterstellen ist also naheliegend. Es ist aber nicht beweisbar. Oder, um es mit Ludwig Wittgenstein zu sagen: Wir haben gar keine Bedingungen, nach denen wir etwa Maschinen als bewusst bezeichnen können. Selbst wenn eine Maschine Bewusstsein hätte, können wir es nicht feststellen, weil wir der Begriff vom Bewusstsein nicht ausreichend definiert haben. Also machen wir unsere Annahme am Verhalten fest und sparen uns eine klare Grenze einzuziehen, die bewusstes Leben von unbewussten Dingen trennt.

Aber um genau diesen Grenzverlauf geht die Auseinandersetzung zwischen Lemoine und seinem Arbeitgeber: Lemoine hat nur seine Außenansicht auf Bewusstsein auf das Ding LaMDA angewendet. Dabei kam er nicht umhin, die KI in die gleiche Gruppe wie seine Mitmenschen zu stecken. Googles KI-Experten wissen aber genau, wie LaMDAs Formulierungen entstehen und sehen nicht ein, das Ding weniger als Ding zu betrachten, nur weil es ein besseres Werkzeug ist.

Das Problem ist, dass dem Wissen der KI-Experten eine große Wissenslücke gegenübersteht: Wie funktioniert eigentlich menschliches Denken? Ein Menschengehirn hat mehrere Größenordnungen mehr Synaspsen, als die bisher größten KI-Modelle simulieren. Entsprechend wenig Übersicht hat die Hirnforschung über die Vorgänge, die in einem Menschenkopf stattfinden. Wir gehen davon aus, dass dort etwas entscheidend tolleres passiert, als in einem Tiergehirn oder einem simulierten neuronalen Netz. Aber eigentlich wissen wir weder, ob überhaupt etwas strukturell anderes passiert noch was diese entscheidende Fähigkeit genau ausmacht. Neuronale Netze machen „nur“ vollautomatische Statistik und liegen damit bei manchen Anwendungen jetzt schon häufiger richtig als Menschen. Was wäre, wenn Descartes Denken auch nicht mehr beweist, als dass seine automatische Statistik den berühmten Satz am passendsten fand?

Google hat Blake Lemoine beurlaubt, weil er Geheimhaltungspflichten seines Vertrags missachtet hat. Das Internet hat sich eine Hollywood-Story darüber zurechtgelegt. Descartes wollte sich sicher sein, dass er existiert. Und wir? Wir sollten die Gelegenheit nutzen, unser eigenes Denken besser zu verstehen. Das Bedürfnis, die Vorgänge im eigenen Kopf als besonders zu empfinden, scheint bei allen Menschen aus allen Kulturen zu bestehen. Aber wenn wir eine Grenze ziehen wollen, dann sollten wir auch wissen, wo sie verläuft. Ich persönlich habe eine Vermutung: Es hat mit dem Einziehen von Grenzen zu tun, wo die Welt uns eigentlich ein Kontinuum präsentiert. Irgendwie bringen uns diese Grenzen weiter, sonst wären wir als Menschheit nicht so weit gekommen. Aber sie können auch Fehler in unsere automatische Statistik bringen. Und wenn wir die Grenzen unterschiedlich ziehen, entstehen Konflikte. Bei so einem Konflikt verliert dann auch mal jemand seinen Job. „Ich entlasse, also bin ich.“ - Descartes wäre begeistert.

(pmk)