Maschinenethiker: "Unmoralische Maschinen gehören zu meiner ethischen Arbeit"

Maschinenethiker Oliver Bendel hat bereits vor 10 Jahren vor lügenden Chatbots gewarnt. Trotzdem findet er die moralischen Eingriffe bei ChatGPT zu übergriffig.

In Pocket speichern vorlesen Druckansicht 20 Kommentare lesen

(Bild: Tatiana Shepeleva/Shutterstock.com)

Lesezeit: 12 Min.
Inhaltsverzeichnis

Oliver Bendel studierte Philosophie und Germanistik sowie der Informationswissenschaft an der Universität Konstanz. Schwerpunkte in der Philosophie war unter anderem die Tierethik. Er promovierte im Bereich der Wirtschaftsinformatik an der Universität St. Gallen über anthropomorphe Softwareagenten und frühe Formen sozialer Roboter. Heute ist Bendel am Institut für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW in der Schweiz. Er ist zudem Autor verschiedener Bücher, etwa über Maschinenethik. MIT Technology Review sprach mit ihm bereits 2017. Damals ging es um die Frage, wie Roboter in gefärhlichen Situationen ein Gefühl der Sicherheit vermitteln können. TR-Redakteur Wolfgang Stieler kontaktierte Bendel nun im Kontext der Entwicklung von ChatGPT und dessen (Un-)Fähigkeiten. Bendel erzählt, welche Erkenntnisse er aus dem eigens entwickelten LieBot gewonnen hat und was das für den Einsatz von ChatGPT bringen könnte.

Herr Bendel, Sie haben vor gut zehn Jahren bereits mit einem Chatbot experimentiert, den Sie ganz bewusst darauf programmiert haben, falsche Aussagen zu produzieren. Was war Sinn und Zweck dieser Forschung damals?

Wir haben 2012 Chatbots mit Sätzen und Phrasen gefüttert wie "Ich will mich ritzen", "Mir geht es nicht gut", "Ich will mich umbringen" und so weiter. Die meisten Chatbots haben sehr unbefriedigende Antworten darauf gegeben. Ich dachte damals, wenn ich jetzt 16 wäre und Liebeskummer hätte, dann wären das genau die falschen Antworten.

Oliver Bendel

Daraufhin haben wir den Goodbot gebaut. Das war 2013. Der Goodbot hat Probleme des Benutzers erkannt und adäquat darauf reagiert. Eine Metaregel des Goodbot war, er sollte nicht lügen. Und diese Metaregel haben wir dann genommen, umgedreht und so den Lügenbot oder Liebot gebaut. Allerdings habe ich mir den Liebot 2013 zunächst nur auf dem Papier ausgedacht. Gebaut haben wir ihn dann 2016.

Und was hat er gemacht?

Wenn der Benutzer seine Frage gestellt hat, dann lief der Liebot sozusagen los und hat nach der richtigen Antwort gesucht. Und diese Antwort hat er dann manipuliert – nach sieben verschiedenen Strategien. Was wollten wir damit machen? Wir wollten schauen, wie Maschinen überhaupt lügen können. Wir wollten herausfinden, ob Maschinen ähnlich lügen wie wir oder ob sie eigene Möglichkeiten haben – die haben sie tatsächlich. Und dann wollten wir wissen, beispielsweise, was menschliches Lügen überhaupt ausmacht. Immer, wenn wir Maschinen erforschen, würde ich behaupten, finden wir auch sehr viel über die Menschen heraus. Und ich glaube, nach der Arbeit war uns besser bewusst, wie Menschen überhaupt lügen. Indem wir versucht haben, das auf Maschinen abzubilden.

Vor allem aber haben wir versucht zu zeigen, dass man tatsächlich Lügenmaschinen – wir haben das Münchhausen-Maschinen genannt – bauen kann und dass das eine ernsthafte Gefahr ist. Wir waren mit die ersten, die das gemacht haben, und wir haben uns ausgemalt, bestimmte finstere Mächte und Kräfte würden das tun und würden das in soziale Medien oder in andere Medien spielen.

Mehr über Künstliche Intelligenz

Ist es nicht unethisch, eine solche "böse" Maschine zu konstruieren?

Ich komme ursprünglich aus der Tierethik und habe das in den 80er-Jahren innerhalb von Philosophie studiert. Ich habe einen sehr weiten Ethikbegriff. Und zwar verstehe ich mich als Ethiker, der Moral – das Gute und das Böse – erforscht. Und als solcher nehme ich mir heraus, im Labor sozusagen auch böse Maschinen – "böse" in Anführungszeichen – zu erfinden und zu erforschen. Für mich gehören solche unmoralischen Maschinen zu meiner ethischen Arbeit dazu. Ich glaube, das erweitert die Ethik enorm, wenn man das zulässt. Das sehen nicht alle so!

Sie haben gesagt, Maschinen haben auch andere Möglichkeiten zu lügen als Menschen. Wie kann ich mir das vorstellen?

Der Liebot benutzt beispielsweise WordNet der Princeton University. Wir haben nach Möglichkeiten gesucht, wie Maschinen Wörter oder Zeilen ersetzen können, sodass mit größerer Wahrscheinlichkeit eine Lüge herauskommt. Dafür ist der Liebot in dieser Klassifikation nach oben oder unten gerutscht, dann zur Seite und wieder hoch oder herunter – er hat also andere Begriffe derselben Kategorie verwendet. So etwas würde ich nicht mit menschlichem Lügen in Verbindung bringen.