Robophilosophy: Die KomplexitÀt der Roboterethik
(Bild: sdecoret/Shutterstock.com)
Wie entscheiden Roboter ein moralisches Dilemma? Und wie entwickelt man ethische Standards fĂŒr KI? Das debattieren Forscher auf der Konferenz Robophilosophy.
Zwei Menschen bewegen sich auf einen Abgrund zu. Ein Roboter könnte wenigstens einen von ihnen vor dem tödlichen Sturz bewahren, indem er sich in den Weg stellt. Aber wen soll er retten? Unentschlossen bewegt er sich hin und her â und rettet am Ende keinen. Es sei möglicherweise das erste Experiment gewesen, bei dem reale Roboter mit einem ethischen Dilemma konfrontiert wurden, sagte Alan Winfield (University of the West of England) auf der Konferenz Robophilosophy 2020 [1], die in diesen Tagen online abgehalten wird.
Der Abgrund existierte nicht wirklich bei diesem Experiment, sondern wurde durch einen rechteckigen Bereich symbolisiert, der gemieden werden sollte. Es waren auch keine Menschen beteiligt, sondern ausschlieĂlich e-puck-Roboter [2]. Zwei stellten die Menschen dar, der dritte spielte die Rolle des Retters, der dem ersten Asimowschen Robotergesetz folgen und Schaden von den Menschen abwenden sollte.
Theory of Mind
Hervorgegangen ist das Experiment aus Ăberlegungen zur Roboterethik. Der Transparenz des Roboterhandelns werde dabei höchste PrioritĂ€t eingerĂ€umt, erlĂ€uterte Winfield. Ein Roboter mĂŒsse in der Lage sein, sein Verhalten zu erklĂ€ren, insbesondere wenn er einen Fehler gemacht und Schaden verursacht habe. Dabei spiele die "Theory of Mind" eine zentrale Rolle, also die FĂ€higkeit, sich in andere Personen hineinzuversetzen und Annahmen ĂŒber deren Bewusstseinszustand zu machen.
Um diese FĂ€higkeit auch Robotern zu verleihen, hat Winfield die Consequence Engine [3] entwickelt. Diese Software arbeitet parallel zum Robot Controller und unterstĂŒtzt die Aktionsauswahl, indem sie alle möglichen Aktionen intern simuliert und bewertet. Winfield betonte, dass die Simulation in Echtzeit auf den Robotern vorgenommen werde.
(Bild:Â Alan Winfield)
Im Dilemma-Experiment sei aber wohl die Frequenz von 2 Hertz, mit der die Consequence Engine Aktionen auswĂ€hlte, unzureichend gewesen und habe zu einer "pathologischen Unentschlossenheit" gefĂŒhrt. Der Roboter habe immer versucht, seine Entscheidungen der inzwischen verĂ€nderten Situation neu anzupassen.
Ethik und Moral
Fragen zur Ethik und Moral zĂ€hlen zur Kernkompetenz von Philosophen und werden daher in vielen KonferenzbeitrĂ€gen thematisiert. Tomi Kokkonen (University of Helsinki) und Aleksandra Kornienko (Ăsterreichische Akademie der Wissenschaften) verweisen etwa in ihren BeitrĂ€gen auf den evolutionĂ€ren Ursprung der Moral beim Menschen, die aus den Notwendigkeiten des sozialen Zusammenlebens erwachsen sei.
Kornienko bezweifelt, dass ein Ă€hnlicher Prozess bei Robotern in einem akzeptablen Zeitrahmen realisierbar sei. Andererseits sei es bislang allerdings auch nicht gelungen, ein schlĂŒssiges moralisches Regelwerk zusammenzustellen, das Robotern einfach einprogrammiert werden könnte.
Kokkonen erscheint mit seinen AusfĂŒhrungen zur Protomoral, zu deren KapazitĂ€ten er Altruismus und das BedĂŒrfnis nach fairem Umgang miteinander zĂ€hlt, etwas optimistischer. Die Protomoral sei möglicherweise Voraussetzung fĂŒr die volle, reflektierte Moral beim Menschen. Daher könnte eine mittelfristige Perspektive, die sich an einem Ă€hnlichen hierarchischen Aufbau orientiert, auch bei Robotern erfolgversprechend sein.
Standardisierungsfragen
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) ĂŒbermittelt werden. Mehr dazu in unserer DatenschutzerklĂ€rung [4].
Mit der Frage, ob Roboterethik ĂŒberhaupt auf Ă€hnliche Weise standardisiert werden kann, wie es im Ingenieurwesen oder im juristischen Bereich ĂŒblich ist, beschĂ€ftigt sich Michael Funk (UniversitĂ€t Wien). Eine schlĂŒssige Antwort bleibt er allerdings schuldig, sondern konzentriert sich zunĂ€chst darauf, die vielfĂ€ltigen Facetten der hierbei verwendeten Begriffe und Konzepte zu sortieren.
Nudging durch KI
Aber ob es nun möglich ist, ethische Standards zu formulieren oder nicht: Es wird versucht. So berichtete John P. Sullins von der US-amerikanischen Sonoma State University von dem BemĂŒhen, unter dem Zeichen IEEE P7008 [5] einen Standard fĂŒr ethisch akzeptables Nudging durch Roboter und autonome Systeme zu entwickeln.
Als Nudging werden Methoden zur Beeinflussung von Verhalten bezeichnet, die ohne EinschrĂ€nkung der Wahlmöglichkeiten und materielle Anreize auskommen. So sollen Menschen etwa zu einer gesĂŒnderen ErnĂ€hrung bewegt werden, indem die entsprechenden Speisen in der Kantine leichter erreichbar und in Augenhöhe platziert werden. Auch seine eigene PrĂ€sentation sei durch Nudging beeinflusst worden, sagt Sullins, indem er stets die gestalterischen VorschlĂ€ge des Systems akzeptiert habe.
Manipulativ und technokratisch?
Die Methode ist umstritten und wird als paternalistisch, manipulativ und technokratisch kritisiert. Der kurzfristige Nutzen könnte durch langfristige SchĂ€den mehr als aufgehoben werden. Wie attraktiv Nudging allerdings fĂŒr Robotikanwendungen sein kann, illustriert ein Video [6], das Sullins zeigte: In einem chinesischen Supermarkt werden die Kunden von Robotern begleitet, die als Einkaufskörbe dienen. Sie registrieren, was der Kunde mitgenommen hat, sodass der sich zum Schluss nur noch vor eine Kamera stellen muss, um per Gesichtserkennung zu bezahlen.
Es sei naheliegend, solche Roboter mit Empfehlungssystemen auszustatten, die den Kunden auf Produkte und Angebote aufmerksam machen, die ihn besonders interessieren könnten, meint Sullins. Ob das mit der ethischen Leitlinie vereinbar ist, die in dem IEEE-Dokument Ethically Aligned Design [7] formuliert wurde und eine Orientierung an den unverĂ€uĂerlichen Menschenrechten sowie am allgemeinen ökonomischen Wohlstand statt am ProduktivitĂ€tszuwachs oder Wachstum des Bruttosozialprodukts fordert?
Raffaele Rodogno (Aarhus University) hĂ€lt Nudging fĂŒr akzeptabel, solange es hilft, selbst gesetzte Ziele zu erreichen. SchrittzĂ€hler und andere Fitness-Apps könnten dazu ermutigen, sich mehr zu bewegen und Sport zu treiben. Es ist allerdings die Frage, ob in so einem Fall nicht eher von Coaching gesprochen werden sollte.
Mensch gefÀllt der KI
Marcus Westberg (UmeÄ University) sieht aber auch so einen Einsatz kritisch. Als Beispiel nennt er ein Smartphone, das die Schritte zÀhlt: Wird das vorgegebene Ziel von 10.000 Schritten pro Tag nicht erreicht, springt der Nutzer hektisch im Wohnzimmer herum, bis die 10.000 auf dem Display erscheint. Die Technologie diene dann nicht mehr dazu, den Nutzer zu stÀrken, sondern der Nutzer wolle der Technologie gefallen. Gamification könne diesen Effekt noch weiter verschÀrfen.
(vbr [9])
URL dieses Artikels:
https://www.heise.de/-4875161
Links in diesem Artikel:
[1] https://conferences.au.dk/robo-philosophy/aarhus2020/
[2] http://www.e-puck.org
[3] https://robohub.org/on-internal-models-consequence-engines-and-popperian-creatures/
[4] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[5] https://standards.ieee.org/project/7008.html
[6] http://www.retail-innovation.com/smart-shopping-carts-at-7fresh
[7] https://standards.ieee.org/content/dam/ieee-standards/standards/web/documents/other/ead_v2.pdf
[8] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[9] mailto:vbr@heise.de
Copyright © 2020 Heise Medien