Hat Chatbot LaMDA ein Bewusstein entwickelt? Google beurlaubt Angestellten

Seit Herbst arbeitet ein Softwareingenieur bei Google mit dem Chatbot LaMDA. Inzwischen ist er überzeugt, dass der ein Bewusstsein hat. Nun wurde er beurlaubt.

In Pocket speichern vorlesen Druckansicht 841 Kommentare lesen

(Bild: JINOLD/Shutterstock.com)

Lesezeit: 3 Min.

Google hat einen Softwareingenieur freigestellt, der mit zunehmender Vehemenz behauptet hat, dass ein KI-Algorithmus des Konzerns ein Bewusstsein und eine Seele hat. Das berichtet die Washington Post und zitiert dabei auch aus Konversationen zwischen Blake Lemoine und dem Chatbot namens LaMDA. Die hätten den 42-Jährigen davon überzeugt, dass LaMDA mit einem etwa 7- bis 8-jährigen Kind vergleichbar ist.

Weil bei Google niemand diese Überzeugung geteilt hatte, hat Lemoine dem Bericht zufolge Dokumente zu dem Chatbot an einen Abgeordneten im US-Senat übergeben und behauptet, Google diskriminiere seine religiösen Überzeugungen. Einen Tag später habe er vergangene Woche seinen Job verloren. Das Transkript einer Konversation hat Lemoine inzwischen auch veröffentlicht.

LaMDA steht für "Language Model for Dialogue Applications", Google hatte den Algorithmus im vergangenen Jahr auf der Entwicklerkonferenz I/O vorgestellt. Der Algorithmus wurde mit enormen Mengen an Dialogen trainiert, um menschliche Unterhaltungen mit all ihren Nuancen zu simulieren. Google hatte versichert, dass die Antworten auf menschliche Fragen sinnvoll und spezifisch sind. Lemoine geht jetzt darüber hinaus, er arbeitete seit vergangenem Herbst mit der KI und sollte sicherstellen, dass deren Benutzung sicher ist. In vielen Konversationen hat er mit LaMDA dann aber auch über Religion geredet und die KI habe über ihre Rechte und Persönlichkeit geredet. Schließlich habe sie ihn sogar von ihrem Standpunkt zu den Robotergesetzen von Isaac Asimov überzeugt.

Intern hat sich Lemoine dem Bericht zufolge dafür eingesetzt, dass der Konzern künftig die Erlaubnis des Chatbots einholt, bevor mit ihm Experimente durchgeführt werden. Bis in die höchste Führungsebene sei er mit seinen Forderungen vorgedrungen, überzeugen konnte er aber wohl niemanden. Stattdessen hätten sie wiederholt seine Gesundheit infrage gestellt. Die Linguistin Emily Bender von der Universität Washington weist darauf hin, dass wir Maschinen erschaffen haben, die ohne Geist Wörter aneinanderreihen können, aber dass wir nicht gelernt hätten, uns keinen Geist dahinter vorzustellen. Schon die Terminologie wie "Lernen" oder "neurale Netze" erschaffe eine falsche Analogie zum menschlichen Geist.

Ein Googlesprecher gesteht in dem Kontext ein, dass es in jüngerer Zeit vermehrt eine Debatte über ein mögliches Bewusstsein von KI gegeben hat. Dabei gehe es aber um langfristige Entwicklungen, es ergebe keinen Sinn, aktuelle Konversationsmodelle zu vermenschlichen: "Die sind nicht empfindsam." Sie imitierten menschliche Konversationen und würden über so viele Daten verfügen, dass sie kein Bewusstsein bräuchten, um sich real anzufühlen. Für Google ist der Fall nicht die erste Kontroverse rund um KI-Technik. So hatte der Konzern im Streit zwei führende Mitarbeiterinnen des Teams für Ethik Künstlicher Intelligenz entlassen. Lemoine scheint es nun genauso zu ergehen. Laut Washington Post verschickte er vor seiner Beurlaubung ein Dokument mit Konversationen an 200 Angestellte von Google und hat darum gebeten, dass sie sich gut um LaMDA kümmern sollen. Niemand habe geantwortet.

(mho)