Robophilosophy: Die Komplexität der Roboterethik

Wie entscheiden Roboter ein moralisches Dilemma? Und wie entwickelt man ethische Standards für KI? Das debattieren Forscher auf der Konferenz Robophilosophy.

In Pocket speichern vorlesen Druckansicht 80 Kommentare lesen
Robophilosophy: Die Komplexität der Roboterethik

(Bild: sdecoret/Shutterstock.com)

Lesezeit: 6 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

Zwei Menschen bewegen sich auf einen Abgrund zu. Ein Roboter könnte wenigstens einen von ihnen vor dem tödlichen Sturz bewahren, indem er sich in den Weg stellt. Aber wen soll er retten? Unentschlossen bewegt er sich hin und her – und rettet am Ende keinen. Es sei möglicherweise das erste Experiment gewesen, bei dem reale Roboter mit einem ethischen Dilemma konfrontiert wurden, sagte Alan Winfield (University of the West of England) auf der Konferenz Robophilosophy 2020, die in diesen Tagen online abgehalten wird.

Der Abgrund existierte nicht wirklich bei diesem Experiment, sondern wurde durch einen rechteckigen Bereich symbolisiert, der gemieden werden sollte. Es waren auch keine Menschen beteiligt, sondern ausschließlich e-puck-Roboter. Zwei stellten die Menschen dar, der dritte spielte die Rolle des Retters, der dem ersten Asimowschen Robotergesetz folgen und Schaden von den Menschen abwenden sollte.

Hervorgegangen ist das Experiment aus Überlegungen zur Roboterethik. Der Transparenz des Roboterhandelns werde dabei höchste Priorität eingeräumt, erläuterte Winfield. Ein Roboter müsse in der Lage sein, sein Verhalten zu erklären, insbesondere wenn er einen Fehler gemacht und Schaden verursacht habe. Dabei spiele die "Theory of Mind" eine zentrale Rolle, also die Fähigkeit, sich in andere Personen hineinzuversetzen und Annahmen über deren Bewusstseinszustand zu machen.

Um diese Fähigkeit auch Robotern zu verleihen, hat Winfield die Consequence Engine entwickelt. Diese Software arbeitet parallel zum Robot Controller und unterstützt die Aktionsauswahl, indem sie alle möglichen Aktionen intern simuliert und bewertet. Winfield betonte, dass die Simulation in Echtzeit auf den Robotern vorgenommen werde.

Die kleinen Roboter sollen Menschen (H) vor dem "Absturz" bewahren.

(Bild: Alan Winfield)

Im Dilemma-Experiment sei aber wohl die Frequenz von 2 Hertz, mit der die Consequence Engine Aktionen auswählte, unzureichend gewesen und habe zu einer "pathologischen Unentschlossenheit" geführt. Der Roboter habe immer versucht, seine Entscheidungen der inzwischen veränderten Situation neu anzupassen.

Fragen zur Ethik und Moral zählen zur Kernkompetenz von Philosophen und werden daher in vielen Konferenzbeiträgen thematisiert. Tomi Kokkonen (University of Helsinki) und Aleksandra Kornienko (Österreichische Akademie der Wissenschaften) verweisen etwa in ihren Beiträgen auf den evolutionären Ursprung der Moral beim Menschen, die aus den Notwendigkeiten des sozialen Zusammenlebens erwachsen sei.

Kornienko bezweifelt, dass ein ähnlicher Prozess bei Robotern in einem akzeptablen Zeitrahmen realisierbar sei. Andererseits sei es bislang allerdings auch nicht gelungen, ein schlüssiges moralisches Regelwerk zusammenzustellen, das Robotern einfach einprogrammiert werden könnte.

Kokkonen erscheint mit seinen Ausführungen zur Protomoral, zu deren Kapazitäten er Altruismus und das Bedürfnis nach fairem Umgang miteinander zählt, etwas optimistischer. Die Protomoral sei möglicherweise Voraussetzung für die volle, reflektierte Moral beim Menschen. Daher könnte eine mittelfristige Perspektive, die sich an einem ähnlichen hierarchischen Aufbau orientiert, auch bei Robotern erfolgversprechend sein.