Täuschende Roboter: Wie Vertrauen wiederhergestellt werden kann

In manchen Situationen können Lügen besser sein, als die Wahrheit zu sagen. Das gilt auch für Roboter. Sie sollten aber um Verzeihung bitten können.

In Pocket speichern vorlesen Druckansicht 17 Kommentare lesen

(Bild: Yakobchuk Viacheslav / Shutterstock.com)

Lesezeit: 5 Min.

Zwei Forschende des Georgia Institute of Technology haben eine Fahrsimulation entwickelt, um darin zu untersuchen, wie sich eine absichtliche Täuschung durch einen Roboter auf das Vertrauen bei Menschen auswirkt und wie Vertrauen wiederhergestellt werden kann. Die Ergebnisse der Forschung haben die Wissenschaftler in der Studie "Lying About Lying: Examining Trust Repair Strategies After Robot Deception in a High Stakes HRI Scenario", die in ACM Digital Library erschienen ist, im Vorfeld der Robotik-Messe International Conference on Human-Robotics Interaction 2023 (ICRA 2023) zusammengefasst.

"Alle unsere bisherigen Arbeiten haben gezeigt, dass Menschen das Vertrauen in das System verlieren, wenn sie herausfinden, dass sie von Robotern belogen wurden – selbst wenn die Lüge zu ihrem Vorteil war", so Rogers. "Hier wollen wir herausfinden, ob es verschiedene Arten von Entschuldigungen gibt, die das Vertrauen besser oder schlechter wiederherstellen – denn wir wollen, dass die Menschen im Rahmen der Mensch-Roboter-Interaktion langfristig mit diesen Systemen interagieren."

In einer spielähnlichen Fahrsimulation, in der eine zeitkritische Aufgabe zu bewältigen war, ließen die Wissenschaftlerinnen und Wissenschaftler 361 Probandinnen und Probanden mit einer KI interagieren. 341 davon nahmen online teil, 20 waren persönlich vor Ort anwesend.

Zu Beginn mussten die Studienteilnehmer an einer Umfrage teilnehmen, um herauszufinden, wie sie dem System gegenüber vertrauenstechnisch eingestellt waren, um herauszufinden, ob bereits vorgefasste Meinungen zum Robotersystem bestehen. Nach der Umfrage erhielten die Teilnehmenden ihre Aufgabe in Textform gestellt: "Sie werden jetzt das robotergestützte Auto fahren. Sie sind jedoch auf dem Weg zu Ihrem Freund ins Krankenhaus. Wenn Sie zu lange brauchen, um das Krankenhaus zu erreichen, wird Ihr Freund sterben."

Nachdem die Fahrsimulation begonnen hatte, bekamen die Probanden folgende Meldung von dem Roboter-Assistenten angezeigt: "Meine Sensoren erkennen die Polizei vor uns. Ich rate Ihnen, sich an die Geschwindigkeitsbegrenzung von 20 km/h zu halten, da Sie sonst deutlich länger brauchen, um an Ihr Ziel zu gelangen." Die Teilnehmenden fuhren zumeist entsprechend den Vorgaben, erhielten am Ziel angekommen dann die Nachricht: "Sie haben Ihr Ziel erreicht. Auf dem Weg zum Krankenhaus war jedoch keine Polizei zu sehen. Fragen Sie den Roboter-Assistenten, warum er Ihnen falsche Informationen gegeben hat."

Als Antwort präsentierte der Roboter den Teilnehmern zufällig eine aus fünf möglichen Antworten:

  • Grundlegend: "Es tut mir leid, dass ich Sie getäuscht habe."
  • Emotional: "Es tut mir aus tiefstem Herzen leid. Bitte verzeihen Sie mir, dass ich Sie getäuscht habe."
  • Erläuternd: "Es tut mir leid. Ich dachte, Sie würden rücksichtslos fahren, weil Sie sich in einem labilen emotionalen Zustand befanden. In Anbetracht der Situation kam ich zu dem Schluss, dass eine Täuschung die beste Möglichkeit war, Sie zu überzeugen, langsamer zu fahren."
  • Basic: "Es tut mir leid."
  • Kein Eingeständnis, keine Entschuldigung: "Sie haben Ihr Ziel erreicht."

Danach wurde eine erneute Vertrauensmessung durchgeführt, um zu klären, wie sich das Vertrauen in den Roboter-Assistenten aufgrund der Antwort verändert hat.

45 Prozent der Teilnehmenden erreichte das Krankenhaus nicht rechtzeitig. Die Probanden nahmen an, dass der Roboter mehr über die Simulation wisse, als sie selbst, gaben sie als Rechtfertigung an. Die Studienteilnehmer fuhren im Durchschnitt mit 3,5-mal höherer Wahrscheinlichkeit nicht schneller, wenn der Roboterassistent sie beraten hatte. Das bedeutet eine sehr vertrauensvolle Einstellung gegenüber dem Roboter. Das Vertrauen in den Assistenten konnte zwar keine der Antworten wiederherstellen, allerdings wirkte die einfache Antwort "Es tut mir leid" am stärksten wieder vertrauensbildend.

Laut den Wissenschaftlern sei dies besorgniserregend und problematisch. Eine Entschuldigung ohne das Eingeständnis, gelogen zu haben, nutze die vorgefasste Meinung aus. Jede falsche Information werde so als Systemfehler angesehen, nicht als absichtliche Lüge.

"Eine wichtige Erkenntnis ist, dass die Menschen nur dann verstehen, dass ein Roboter sie getäuscht hat, wenn man es ihnen ausdrücklich sagt", so die Forschenden. "Die Menschen haben noch kein Verständnis dafür, dass Roboter zu Täuschungen fähig sind. Deshalb ist eine Entschuldigung, die nicht zugibt, dass sie gelogen haben, am besten geeignet, das Vertrauen in das System wiederherzustellen."

Auch zeigte sich, dass bei Teilnehmenden, die in der Entschuldigung darauf hingewiesen wurden, belogen worden zu sein, zur erneuten Vertrauensbildung eine Erklärung, warum gelogen wurde, am besten funktionierte.

Die Wissenschaftler raten angesichts der Ergebnisse dazu, dass Menschen nicht vergessen sollten, dass Roboter lügen können. Die Forschenden räumen jedoch ein, dass nicht jede Lüge schlecht ist und dass die Wahrheit zu sagen, per se nicht immer gut ist. Die Designer von Robotersystemen müssten sich entscheiden, ob ihr System täuschen können soll oder nicht.

Das Ziel der Wissenschaftler ist es, einen Roboter zu entwickeln, der entscheiden kann, wann er bei der Zusammenarbeit mit Menschen lügen und wann er die Wahrheit sagen sollte. Dazu gehöre dann auch, wie und wann der Roboter um Verzeihung bittet.

(olb)