Wenn Roboter Fehler machen: Entschuldigen ist nicht genug!

Fehler machen alle – auch Roboter. Bei der Zusammenarbeit mit Menschen kann dann das Vertrauen verloren gehen, mitunter unwiederbringlich, sagen Forscher.

In Pocket speichern vorlesen Druckansicht 19 Kommentare lesen
Robot,Gives,A,Hand,To,A,Woman.,Two,Hands,In

(Bild: Willyam Bradberry/Shutterstock.com)

Lesezeit: 3 Min.

Roboter haben es schwer, das Vertrauen von Menschen zurückzugewinnen, wenn sie einen Fehler gemacht haben. Nach dem dritten Fehler sei das Vertrauen sogar komplett ruiniert. Zu diesem Schluss kommt eine Studie eines Wissenschaftsteams der University of Michigan.

In der Studie "Three Strikes and you are out!: The impacts of multiple human–robot trust violations and repairs on robot trustworthiness", die in Computers in Human Behaviour veröffentlicht ist, untersuchten die beiden Wissenschaftler Connor Esterwood und Lionel P. Robert, wie sich Fehler von Roboter auf das Vertrauen in sie auswirken können und welche Möglichkeiten die Roboter haben, das Vertrauen wiederzuerlangen.

In einem Experiment mit 240 Probanden sollten diese jeweils in einer virtuellen Umgebung mit einem Roboter im Team arbeiten. Dabei machte der Roboter manchmal einen Fehler und wendete daraufhin eine von vier verschiedenen Strategien an. Entweder er bat für den Fehler um Verzeihung, dementierte einen Fehler gemacht zu haben, erklärte den Fehler oder er versprach, sich zu bessern und den Fehler nicht mehr zu machen. Das Experiment zeigte, dass die Probanden durchaus bereit waren, dem Roboter zu verzeihen. Allerdings nur begrenzt. Wurde ein Fehler dreimal begangen, funktionierte danach keine der vom Roboter angewendeten Strategien mehr, um das Vertrauen des Menschen zurückzugewinnen.

Die beiden Forscher sehen deshalb die Notwendigkeit, für Roboter, die mit Menschen zusammenarbeiten, effektivere Methoden zu entwickeln, um erschüttertes Vertrauen wiederherzustellen. Vorschläge, wie dies geschehen kann, machten die Forscher jedoch nicht. Hier seien weitere Forschungen nötig. Wichtig sei es aber, dass Roboter nach einem begangenen Fehler sicher sein müssen, die Aufgaben in Zukunft fehlerfrei erledigen zu können, bevor sie versuchen, das Vertrauen der Menschen wiederzuerlangen. Esterwood sagt: "Wenn dies nicht der Fall ist, riskieren sie, das Vertrauen des Menschen auf eine Weise zu verlieren, die nicht wiederhergestellt werden kann."

Für die beiden Forscher steht angesichts der Studienergebnisse fest, dass es bei der Zusammenarbeit mit Robotern eine mögliche Grenze bei der Tolerierung von Fehlern gibt: Nach dem dritten Fehler ist das Vertrauen nicht mehr vollständig wiederherzustellen. Die Forscher betonen deshalb, dass kollaborativ mit Menschen arbeitende Roboter die Möglichkeit erhalten, zu zeigen, dass sie ihre Aufgabe auch fehlerfrei erledigen können. Ist das nicht der Fall, könnte die Zusammenarbeit durch das verloren gegangene Vertrauen schnell gestört sein und der Roboter nicht mehr als nützlich angesehen werden. Die menschlichen Kollegen könnten so versuchen, ihn nicht mehr zu nutzen und damit das Potenzial des Roboters schmälern. Im schlimmsten Fall könnten Roboter, die eigentlich helfen und entlasten sollten, wieder aus dem Arbeitsprozess entfernt werden.

(olb)