Roboter-Ethik: Roboter können Menschen in Verlegenheit bringen

Selbst die simpelsten Roboter können schon heute Menschen physisch oder emotional Schmerzen bereiten. Vor diesem Hintergrund untersuchen Forscher, wie Menschen moralisches Verhalten von Robotern wahrnehmen.

In Pocket speichern vorlesen Druckansicht 108 Kommentare lesen
Lesezeit: 3 Min.
Von
  • Hans-Arthur Marsiske

Es ist absehbar, dass Roboter mit moralischen Dilemmas konfrontiert werden, für die es keine eindeutigen Lösungen gibt. Das sagte Matthias Scheutz von der Tufts University im Rahmen einer Vortragsreihe der University of Sussex vor der Konferenz Social and Ethical Aspects of Cognitive Systems, die heute Nachmittag beginnt. Er berichtete von Experimenten, in denen untersucht wurde, wie Menschen moralisches Verhalten von Robotern wahrnehmen.

Der Nao sieht niedlich aus, bringt Menschen aber vor allem durch sein
Verhalten in Verwirrung.

(Bild: Hans-Arthur Marsiske)

Scheutz betonte, es gebe "eine Dringlichkeit bei diesen Fragen". In den kommenden Jahren sei mit immer mehr Servicerobotern zu rechnen, die mit Menschen interagieren und dabei zunehmend autonom handelten. Selbst die simpelsten Roboter könnten schon heute Menschen physisch oder emotional Schmerzen bereiten, etwa wenn Haustiere mit dem Staubsaugerroboter ins Gehege kämen.

Wie aber soll ein Roboter auf einen unethischen Befehl reagieren? Wenn er ihn einfach nicht ausführe, könne der Mensch annehmen, dass einfach nur eine Funktionsstörung vorliege. Der Roboter müsse daher ausdrücklich prostestieren. Wie das auf Menschen wirkt, untersuchten die Forscher an der Tufts University mithilfe von humanoiden Nao-Robotern. Die Versuchspersonen sollten den Roboter anweisen, einen Turm aus Bauklötzen einzureißen, den er gerade selbst gebaut hatte. Der Roboter hatte zuvor verbal seinen Stolz über das Bauwerk geäußert und protestierte nun gegen den Befehl ("Aber ich habe ihn selbst gebaut"), begann sogar zu schluchzen und folgte den Anweisungen erst nach wiederholter Aufforderung.

Einige Versuchspersonen nahmen den Befehl daraufhin zurück. In der anschließenden Befragung zeigte sich, dass viele sich unwohl dabei fühlten, dem Roboter Schmerzen zuzufügen. Das Experiment wurde mehrfach variiert, etwa indem nicht der Erbauer des Turms selbst ihn wieder einreißen sollte, sondern ein anderer Roboter, oder indem nicht-humanoide Roboter zum Einsatz kamen. Es zeigte sich, dass das Aussehen des Roboters keine entscheidende Bedeutung für das Empfinden der Versuchspersonen hatte. Um ihn als moralischen Agenten wahrzunehmen, sei das Verhalten offenbar wichtiger, sagte Scheutz. Von großer Bedeutung sei auch der Grad der Differenziertheit bei der Interaktion. Verbaler Protest könne Menschen dazu bringen, Kommandos zu überdenken.

Bei zukünftigen Versuchen soll die Interaktion noch weiter verfeinert werden, etwa durch die Berücksichtigung von Körpersprache und Blickrichtung. Während der Roboter bisher ferngesteuert wurde, soll er zukünftig wirklich autonom handeln. Auch die in der Diskussion des Vortrags geäußerte Idee, den Versuch selbst von einem Roboter leiten zu lassen, fand Scheutz interessant. Er vermutet, dass die Ergebnisse dann noch deutlicher ausfallen würden. Aber auch die bisherigen Experimente seien bemerkenswert, zeigten sie doch, dass ein moralisches Dilemma mit Robotern möglich sei – obwohl allen Beteiligten klar sei, dass es sich doch "nur" um eine Maschine, ein Werkzeug handle. (anw)