Maschinen-Ethik: Vertraue mir, ich bin ein Roboter

Seite 2: Maschinen-Ethik

Inhaltsverzeichnis

Die Forscher wollten wissen, inwieweit Kinder zwischen technologischem und zwischenmenschlichem Vertrauen unterscheiden können. Dabei wird technologisches Vertrauen definiert als die Bereitschaft, sich auf die Empfehlungen einer Maschine zu verlassen, zwischenmenschliches Vertrauen dagegen als die Bereitschaft, sich anderen gegenüber verletzlich zu machen. Bei der Analyse der Äußerungen der Kinder zeigte sich, dass sie ihr Vertrauen in den Roboter überwiegend mit zwischenmenschlichen Kategorien begründeten.

Überrascht waren die Forscher jedoch davon, dass einige Kinder ihr zwischenmenschliches Vertrauen in den Roboter mit dessen technologischen Fähigkeiten oder Begrenzungen begründeten, wofür sie eine dritte Kategorie bildeten. Um dieses Zusammenspiel der verschiedenen Dimensionen des Vertrauens und damit die Entwicklung sozialer Beziehungen zwischen Mensch und Roboter besser zu verstehen, empfehlen die Forscher weitere Studien mit größeren, repräsentativeren Gruppen von Kindern und auch mit Jugendlichen.

Damit Roboter und virtuelle Agenten als soziale Akteure in der menschlichen Gesellschaft akzeptiert werden, ist es natürlich auch hilfreich, wenn sie sich ethisch korrekt verhalten. Laura Wächter hat an der Universität Freiburg 30 Versuchspersonen Dialoge mit einem Roboter führen lassen, in denen dieser von moralischen Dilemmata erzählte, die ein anderer Roboter erlebt hatte.

Dabei ging es unter anderem darum, ob ein Roboter lügen darf, um eine von ihm betreute ältere Person zu gesünderem Verhalten zu bewegen, oder ob er einen versehentlich zu hoch ausgefallenen Betrag von Wechselgeld einem Waisenhaus spenden darf. Anschließend sollten die Teilnehmer des Experiments das Verhalten des Roboters bewerten.

Ihre Äußerungen wurden danach kategorisiert, an welcher ethischen Tradition sie sich orientierten: Als "utilitaristisch" bzw. "konsequentialistisch" gilt eine Ethik, die den größtmöglichen Nutzen einer möglichst großen Zahl von Personen anstrebt; eine "deontologische" Ethik, nach der bestimmte Handlungen unabhängig von ihren Ergebnissen gut oder schlecht sind, formuliert Regeln, die es zu befolgen gilt (etwa: Du sollst nicht lügen). Außerdem berücksichtigte Wächter in ihrer Studie noch die von Shalom H. Schwartz entwickelte Theorie "universeller Werte", wonach es zehn grundlegende Werte gibt, an denen sich alle Kulturen orientieren.

Interessanterweise kamen Handlungen des Roboters, die utilitaristisch begründet wurden, deutlich schlechter weg als die anderen. Das ist insofern bemerkenswert, als der Utilitarismus wegen seiner Orientierung an Quantitäten für die Programmierer von Robotern durchaus attraktiv erscheinen könnte.

Tatsächlich haben Juristen wie der Rechtswissenschaftler Eric Hilgendorf von der Universität Würzburg bereits die Sorge geäußert, dass etwa die Integration autonomer Fahrzeuge in den Straßenverkehr aus diesem Grund das auf der deontologischen Ethik basierende deutsche Rechtssystem durcheinander bringen könnte. Wächters Studie zufolge scheinen die Vorstellungen von Recht und Anstand offenbar doch tiefer in der Bevölkerung verwurzelt zu sein, als dass ein paar Roboter sie mal eben über den Haufen werfen könnten. Das letzte Wort zu diesem Thema ist aber sicherlich noch lange nicht gesprochen. (jk)