Studie: Können Menschen für Roboter Mitleid empfinden?
Roboter können unter bestimmten Umständen bei Menschen Mitleid auslösen. Doch nicht immer ist diese Form der emotionalen Manipulation erwünscht.

(Bild: MikeDotta/Shutterstock.com)
Wissenschaftler der Radboud University in den Niederlanden sind der Frage nachgegangen, ob Menschen mit einem Roboter Mitleid empfinden können. Ja, das geht und der Roboter kann auch so emotional eingestellt werden, dass er menschliches Mitgefühl ausnutzen kann, sagt die Studie.
Ein Roboter kennt keinen Schmerz. Jeder weiß das, doch Menschen sind emotionale Wesen, die sich von Robotern auch emotional manipulieren lassen können. Dazu reicht es schon aus, wenn der Roboter etwa wehleidige Töne ausstößt, traurige Augen macht und seine Arme zittern lässt.
"Wenn ein Roboter vorgeben kann, emotionalen Schmerz zu empfinden, fühlen sich Menschen schuldiger, wenn sie den Roboter schlecht behandeln", erklärt Marieke Wieringa, Doktorandin an der Radboud University.
Gewalt gegen Roboter
Wieringa und ihre Kollegen haben dazu in ihrer bisher unveröffentlichten Doktorarbeit untersucht, wie Menschen auf Gewalt gegen Roboter reagieren. Dazu haben sie unterschiedliche Tests durchgeführt. So zeigten sie etwa Probanden Videos, in denen Roboter misshandelt oder gut behandelt wurden.
Einzelne Teilnehmer der Studie wurden dazu aufgefordert, einen Roboter zu schütteln. Dabei stießen die Roboter mal klägliche Laute aus und zeigten weitere Reaktionen, die gemeinhin mit Schmerzen verbunden werden, mal nicht.
Bei den Versuchen stellte sich heraus, dass der Roboter, der etwa mitleidige Geräusche ausstieß, auch mehr Mitleid auslöste. Die Probanden waren danach nicht mehr gewillt, den Roboter erneut zu schütteln. In der Umkehr hatten sie aber kein Problem damit, wenn der Roboter keine Emotionen zeigte. Dann konnten ihn die Studienteilnehmer problemlos erneut schütteln.
Diesen Test erweiterten die Forscher, indem sie die Probanden vor die Wahl stellten, entweder eine langweilige Aufgabe zu erledigen oder einen Roboter zu schütteln. Je länger sie ihn schüttelten, desto länger konnten sie die Erledigung der langweiligen Aufgabe hinauszögern.
"Die meisten Leute hatten kein Problem damit, einen stummen Roboter zu schütteln, aber sobald der Roboter anfing, jämmerliche Geräusche von sich zu geben, entschieden sie sich dafür, die langweilige Aufgabe zu erledigen", sagt Wieringa.
Gefahren emotional reagierender Roboter
Wieringa sieht in emotional reagierenden Robotern die Gefahr, dass durch sie mit ihnen interagierende Menschen manipuliert werden könnten. Wieringa sieht hier Parallelen zu Tamagotchis, wie sie Ende der 1990er-Jahre aufkamen. Die virtuellen Haustiere mussten gepflegt und gefüttert werden, um nicht den virtuellen Tod zu erleiden. Robotikunternehmen könnten das Mitgefühl der Menschen auch bei Robotern ausnutzen, indem der Roboter dann gegen Geld gefüttert werden muss. Wieringa und ihre Kollegen halten es daher für angebracht, staatliche Regulierungen vorzunehmen, ob und wann ein Roboter oder Chatbot Gefühle vortäuschen darf.
Ein komplettes Emotionsverbot für Roboter hält Wieringa allerdings für unangemessen. Es könne bei bestimmten Anwendungen, etwa bei Therapien, nützlich sein, wenn ein Roboter Emotionen zeigt, damit etwa die zu therapierenden Menschen, bestimmte Dinge besser verarbeiten können.
Die Studie habe auch gezeigt, dass Menschen bei Gewalt gegen Roboter zurückhaltend reagieren und Mitleid empfinden, wenn dieser Gefühle zeigt. In solchen Fällen könne eine emotionale Reaktion des Roboters nützlich sein.
Ein mögliches Anwendungsbeispiel könnten Lieferroboter sein. In den USA sind sie immer wieder Angriffsziel von Menschen, die ihnen Tritte verpassen, sie umwerfen oder die Roboter anderweitig lahmlegen, weil sie sich von ihnen gestört fühlen. Ein paar wehleidige Töne des Roboters könnten solches Verhalten möglicherweise eindämmen.
(olb)