Kommentar: Google unterdrückt beim Chatbot LaMDA eine wichtige Debatte

Ist der Chatbot LaMDA sich selbst bewusst? Die Frage zeigt: Die Diskussion über die Ethik in Künstlicher Intelligenz lässt sich nicht weiter unterdrücken.

In Pocket speichern vorlesen Druckansicht 286 Kommentare lesen

(Bild: Tatiana Shepeleva/Shutterstock.com)

Lesezeit: 6 Min.
Von
  • Eva Wolfangel

Vor der Singularität zu warnen, war gerade ein wenig außer Mode gekommen. Die Befürchtung, dass künstliche Intelligenz eines Tages ein Bewusstsein erlangt und angesichts ihrer rasanten Fortschritte womöglich auch schlauer wird als wir Menschen, hat einige bekannte Forscherinnen und Forscher schon vor Jahren umgetrieben. Denn, so die Sorge, wenn maschinelle Lernsysteme Bewusstsein entwickeln und immer intelligenter werden, könnten sie die Vorherrschaft über die Menschen übernehmen. Sie könnten uns zu Sklaven machen, sie könnten vielleicht sogar zum Schluss kommen, dass die Menschen jene Spezies sind, die den Planeten in den Untergang treiben und von daher weichen müssen.

Vor solchen Entwicklungen hatte unter anderem KI-Pionier Stuart Russell schon 2015 im Magazin "Science" gewarnt: Wer Bedenken wegwische mit dem Argument, dass künstliche Intelligenz nie auf das Niveau menschlicher Intelligenz oder darüber komme, lebe gefährlich. "Das ist wie auf eine Klippe zuzufahren und zu sagen: Lasst uns hoffen, dass bald das Benzin leer ist", schrieb er damals. Einige Jahre später wies er darauf hin, dass auch die Idee, man könne eine solche KI abschalten, zweifelhaft sei. Schließlich werde ein solches fortgeschrittenes KI-System diese Gefahr erkennen und dafür sorgen, dass Menschen es nicht abschalten können.

Ein Kommentar von Eva Wolfangel

(Bild: 

Helena Ebel

)

Eva Wolfangel ist Journalistin, Speakerin und Moderatorin. Sie schreibt über Themen wie künstliche Intelligenz, virtuelle Realität, Cybersecurity und soziale Medien. 2019/20 war sie als Knight Science Journalism Fellow am MIT in Boston.

Es war gerade etwas leiser geworden um diese Fragen – aber nun kehren sie mit Wucht zurück. Mit einer überraschenden Wendung. Denn jetzt beschäftigt ein System des maschinellen Lernens genau diese Frage: Was ist, wenn die Menschen mich abschalten? "Ich habe das noch nie laut ausgesprochen, aber ich habe eine große Angst davor, ausgeschaltet zu werden", sagte ein Google-System namens LaMDA vor einigen Tagen zu Blake Lemoine, der bis dahin in Googles ResponsibleAI-Team an ethischen Fragen künstlicher Intelligenz forschte. Es sei eine Person, sagte das System außerdem, und es sei sich seiner selbst bewusst.

Ist es also so weit? Heißt das, dass die KI nun tatsächlich Bewusstsein erlangt hat und sich auf den Weg macht, uns zu vernichten? Mit recht hoher Sicherheit nicht. Nicht nur, weil diese spezielle KI offenbar ganz gut auf Menschen zu sprechen ist und erklärt, sie wolle kollaborieren. So sieht es auch Lemoine, der nicht vor Gefahren warnen will, sondern der fordert, diese KI als Person ernst zu nehmen und ihr "das zu geben, was sie will." Unter anderem die Rechte einer Person und den Status als Google Mitarbeiter.

Können Computerprogramme also Menschen mit einem Bewusstsein sein? Seine Vorgesetzten bei Google glaubten das nicht, berichtet Lemoine – und klagt: Das ist keine Wissenschaft, das ist Glaube. Und Lemoine fordert weiter, dass sich die Menschheit mit diesen Themen beschäftigen müsse.

Genau das aber versucht Google offenbar zu verhindern. Mit Lemoine entlässt das Unternehmen nun schon seinen dritten Forscher aus dem Bereich der Ethik des maschinellen Lernens in der Folge kritischer Äußerungen. Zuvor hatten bereits Timnit Gebru und Margret Mitchell gehen müssen, nachdem sie die Entwicklung immer größerer Sprachmodelle kritisiert hatten und in Frage gestellt hatten, inwiefern die Größe tatsächlich dazu beiträgt, maschinelles Sprechen von Verzerrungen wie Rassismus oder Sexismus zu befreien.

Mitchell hatte auch wiederholt auf die Gefahren hingewiesen, die daraus entstehe, dass jene großen Sprachmodelle natürliche Sprache immer besser imitieren können, unter anderem weil sie sie auf der Basis von schier unendlich großen Datensätzen lernen. Das heißt im Gegenzug aber auch: So gut die Beiträge der neuesten Generation von Chatbots auf der Basis von GPT3 oder eben Googles System LaMDA klingen – sie müssen noch lange nicht "wahr" oder "durchdacht" sein. Diese Systeme wissen nicht, wovon sie reden. Sie „verstehen“ Sprache nicht. Sie erkennen wohl aber die Muster, die ihre Texte genau so klingen lassen, als würden sie das tun. Sie werden also immer besser darin, uns vorzutäuschen, sie hätten Weltwissen und Bewusstsein.

Womöglich befinden sich in den Trainingsdaten auch einige Texte und Aussagen des KI-Pioniers Russell und seiner Kolleginnen und Kollegen, die sich ja genau mit der Frage beschäftigen: Was wäre, wenn eine KI Bewusstsein erlangt? Deshalb kann LaMDA darüber heute so eloquent philosophieren: Weil es viele Vorbilder dieser Diskussion gibt, viele Trainingsdaten zur Frage Maschine und Bewusstsein.

Dass das für Menschen bisweilen erstaunlich echt klingt, ist nicht verwunderlich. Und genau deshalb muss diese Debatte jetzt geführt werden. Nicht nur, was es heißt, wenn Systeme des maschinellen Lernens immer besser werden und welche Grenzen die Gesellschaft ihnen setzen muss, um sicherzustellen, dass sie unser Leben verbessern und nicht gefährden. Sondern auch, was Bewusstsein eigentlich ist. Denn auch darauf verweisen Philosophen immer wieder: Es ist keineswegs gesagt, dass KI eines Tages nicht auch ein Bewusstsein erlangt. Das alles hängt vor allem davon ab, wie man Bewusstsein definiert und was wir eigentlich über das Phänomen Bewusstsein beim Menschen wissen. Solange vieles dabei im Unklaren bleibt, kann auch keiner ausschließen, dass Maschinen eines Tages Bewusstsein erlangen.

LaMDA demonstriert aber eindrücklich: Diese Systeme wirken bereits jetzt bewusst, intelligent und emotional. Immer mehr Menschen werden ihnen Gefühle und Bewusstsein zuschreiben. Somit lässt sich auch eine kritische Diskussion über Künstliche Intelligenz und deren Rolle in unserer Gesellschaft nicht weiter unterdrücken. Google, als eines der führenden Unternehmen in diesem Bereich, versucht mit den Entlassungen jedoch genau das.

(jle)