Roboter in der Pflege: Ethikerin sieht Gefahr in "Fake-Beziehungen"

Der Einsatz sozialer Roboter sei problematisch, wenn eine Person eine gefakte Beziehung nicht mehr erkennt, sagt eine Ethikerin im Interview mit der SZ.

In Pocket speichern vorlesen Druckansicht 38 Kommentare lesen

(Bild: Shutterstock/Miriam Doerr, Martin Frommherz)

Lesezeit: 3 Min.

Immer mehr Pflegebedürftige und ein Mangel an Pflegekräften: Der Einsatz von Robotik soll es richten. Neben Exoskeletten und der Möglichkeit, Bürotätigkeiten wegzuautomatisieren, sollte man nach Ansicht von Experten allerdings im Blick haben, wo beispielsweise Serviceroboter zum Einsatz kommen. So dürfe etwa das Miteinander nicht wegfallen, etwa wenn ein Roboter ein Getränk bringt, wie die Ethikerin Constanze Giese in einem Interview mit der Süddeutschen Zeitung erklärt.

Man müsse laut Giese immer prüfen, welchen Bedarf die Menschen haben. Das größte Problem, das Menschen in Einrichtung haben, ist die Einsamkeit. Wenn Roboter Getränke bringen, finde keine Beziehung statt. Sofern ein Roboter, wie die Roboterrobbe "Paro", als eine Art Therapiehund bei Menschen zum Einsatz kommt – etwa auch bei Menschen, die keine Kontakte mehr aufbauen können – ist das laut Giese begrüßenswert.

Den von dem Japaner Takanori Shibata entwickelte Therapie-Roboter Paro gibt es bereits seit 2004 – seit 2010 auch in der Region Hannover. Die "emotional creature" war nie als Ersatz für menschliche Zuwendung gedacht. Ihre Verbreitung in Deutschland hat Tobias Bachhausen vorangetrieben. Er war damals auch als "Paro-Trainer" tätig und bot in diesem Zusammenhang Besuche der Robbe für alte, an Demenz erkrankte Menschen an. Mit der Robbe allein gelassen werden, als Ersatz für Kommunikation, sollten sie allerdings nicht. Für ebenfalls unbedenklich halte sie auch den Einsatz von Unterhaltungselektronik, die in Pflegeeinrichtungen von mehreren Menschen genutzt werden kann.

Beim möglichen Einsatz von Chatrobotern müsse man sich allerdings fragen, ob sie die Antwort auf Vereinsamung sein dürfen. "Es wird ethisch dann problematisch, wenn wir einem Menschen eine gefakte Beziehung als Beziehungsersatz anbieten und die Person es nicht mehr erkennt", sagt Giese. Dies ist beispielsweise bei Demenzerkrankten der Fall.

Vermeintliche Freundschaften zwischen Mensch und Roboter beruhen lediglich auf Täuschungen und könnten sogar zur Vernachlässigung zwischenmenschlicher Freundschaften führen, sagt auch die Philosophin Helen Ryland (The Open University, Milton Keynes). Demnach könnten Roboter nicht die Bedingungen für Freundschaft erfüllen, die laut Aristoteles Gegenseitigkeit, Empathie, Selbstvergewisserung, gemeinsame Aktivitäten, gegenseitige Verpflichtungen, Wohlwollen, Liebe und Anerkennung der Tugenden, Aufrichtigkeit und Gleichheit beruhen – selbst, wenn sie Menschen zunehmend besser imitieren.

Auch wenn einer von Googles Softwareingenieuren davon überzeugt war, dass Googles Chatbot LaMDA ein Bewusstsein entwickelt hat, ist sich der Großteil der Experten einig: Die menschliche Kreativität und emotionale Intelligenz kann durch die KI nicht ersetzt werden, wie auch Samit Haddadin, Professor für Robotik und Systemintelligenz an der TU München, sagt.

(mack)