Moralisches Dilemma für autonome Fahrzeuge und ihre Nutzer

Das Trolley-Problem für autonome Fahrzeuge. Bild: Iyad Rahwan

Die meisten Menschen finden utilitaristische Regeln zur Minimierung von Opfer gut, würden aber Autos mit solchen Algorithmen nicht kaufen wollen

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Es ist immer wieder faszinierend, für autonome Roboter, beispielsweise autonome Fahrzeuge, moralische Dilemmata aufzustellen, wie das einst vor Gerichten gemacht wurde, als in Deutschland noch das Recht auf Kriegsdienstverweigerung möglichst verknappt werden sollte. Da musste man dann beispielsweise erläutern, wie man sich als jemand, der keine Gewalt anwenden will, verhalten würde, wenn man sieht, wie in einem Park die eigene Freundin gerade von feindlichen Soldaten bedroht wird, sie zu vergewaltigen und zu töten, und man die Wahl hat, gewaltsam einzuschreiten oder es geschehen zu lassen.

Bei autonomen Autos wird gerne eine Variante des bekannten philosophischen Trolley-Dilemmas angeführt, wie das KI-Professor Raúl Rojas in seinen Überlegungen zur Maschinenethik dargelegt hat, um freilich zu sagen, dass solche Dilemmata einerseits ein wenig weltfremd sind und andererseits Menschen oft keinesfalls auf das Leben anderer Menschen Rücksicht nehmen, wenn sie das ihre besser schützen wollen: Oma wird nicht überfahren.

Jetzt haben also der französische Ökonom Jean-François Bonnefon und die amerikanischen Psychologen Azim Shariff und Iyad Rahwan wieder einmal im Rahmen einer experimentellen Ethik eine Variante des moralischen Dilemmas aufgestellt: Die Algorithmen eines autonomen Fahrzeugs müssen entscheiden, ob sie es gegen einen Fußgänger oder eine Gruppe von mehreren Fußgängern lenkt oder das Steuer herumgerissen wird, wodurch es gegen eine Betonwand kracht und der Mitfahrer getötet würde, ob es herumlenkt und nur einen Passanten zu töten, um mehrere Fußgänger zu verschonen. Sie gehen davon aus, dass solche Entscheidungen zwar selten vorkommen werden, aber manchmal nicht zu vermeiden seien.

Selbst Ereignisse mit sehr geringer Wahrscheinlichkeit, so das Argument in ihrer in der Zeitschrift Science erschienenen Studie, , können dann auftreten, wenn einmal Millionen von autonomen Fahrzeugen unterwegs sind. Und weil die Verteilung von Schäden eine moralische Entscheidung ist, müssten die Algorithmen moralische Prinzipien in die Entscheidungen in Situationen einbauen, wo die Verursachung von Schäden unvermeidlich ist. Diese moralischen Entscheidungen müssten konsistent sein, was zwar ein Thema der philosophischen Ethik ist, kaum aber unter Menschen zutrifft, die schnell auch aus dem Bauch heraus entscheiden und durchaus widersprüchlich handeln können.

Nach der utlitaristischen Moral würde man sich einfach für die Alternative entscheiden, bei der am wenigsten Menschen umkommen. Das könnte im Fall der Entscheidung zwischen dem Mitfahrer und der Fußgängergruppe aber bedeuten, dass Käufer oder Nutzer eines autonomen Fahrzeugs mit einer solchen Fahrzeugethik nicht einverstanden sein und daher lieber Fahrzeuge kaufen oder nutzen könnten, die ihr eigenes Leben voranstellen. Um dem Problem näher zu kommen, haben die Wissenschaftler im Sinne einer experimentellen Ethik 6 Online-Umfragen durchgeführt. Versuchspersonen waren US-Amerikaner auf Amazon Mechanical Turk, die für jeweils 25 Cent mitmachten. Es gebe andere Studien in experimenteller Ethik, die ihre Partizipanten auch von der Plattform rekrutiert hatten und zu guten Ergebnissen gekommen wären, obgleich die Auswahl nicht repräsentativ ist.

Die Teilnehmer gaben ihr Alter und ihr Geschlecht sowie den Grad ihrer Begeisterung für autonome Fahrzeuge. Dann mussten sie nach dem Test noch eine einfache Frage beantworten, um zu prüfen, ob sie die Frage verstanden haben. Durchschnittlich 10 Prozent wurden daraufhin von der Auswertung ausgeschlossen. Durchweg waren die Versuchsteilnehmer mehrheitlich für die quantitative utlitaristische Lösung, dass es moralischer für autonome Fahrzeuge sei, die Mitfahrer zu opfern, wenn dadurch mehr Leben gerettet würden.

In einer Umfrage, für die 182 Personen Auskunft gaben, sagten etwa 76 Prozent, es sei moralischer einen Mitfahrer zu opfern als 10 Fußgänger. In einer weiteren Umfrage zeigte sich, dass mit einer steigenden Zahl von möglichen Opfern die Zustimmung zur utilitaristischen Lösung steigt, während in dem Fall, wo es um die Entscheidung um einen Mitfahrer oder einen Fußgänger geht, die Mehrzahl für die Rettung des Passagiers wäre. Selbst wenn ein Familienmitglied im Fahrzeug sitzt, ist noch eine knappe Mehrheit für das utilitaristische Opfern des Passagiers.

Eine überwältigende Mehrheit ist für eine utilitaristische Programmierung, allerdings glaubten nur 67 Prozent, dass Fahrzeuge so programmiert würden. Damit seien die Menschen aber nicht sonderlich geängstigt, wenn Fahrzeuge mit einer utilitaristischen Ethik programmiert wären, wobei man davon ausgehen muss, dass eine programmierte Entscheidung, jeweils die Entscheidung vorzuziehen, durch die vermutlich weniger Menschen getötet werden, rechtlich kaum umgesetzt werden könnte.

Weniger Opfer ist besser, aber nur, wenn es andere betrifft

In einer Umfrage sollten die Teilnehmer auf einer Skala von 1-100 angeben, wie wahrscheinlich es wäre, dass sie ein Fahrzeug mit programmierter Opferminimierung bzw. eines kaufen würden, dass vornehmlich die Mitfahrer schützt, auch wenn 10 oder 20 Menschen deswegen ums Leben kommen. So sehr zwar moralisch utilitaristisch entscheidende Fahrzeuge geschätzt werden, so wenig wären bereit, sie selbst zu kaufen und damit im Fall eines Dilemmas ihr eigenes Leben oder das eines Familienangehörigen für die Moral zu opfern. Bei der Beurteilung von Algorithmen in einer weiteren Umfrage erhielten diejenigen eine gute Wertung, bei der eine Person geopfert wird, um 10 Personen zu retten, während der Algorithmus, der den Mitfahrer opfert, um 10 Menschenleben zu retten, uneinheitlich bewertet wird. Er wird meist als gut empfunden, wenn es um andere Menschen geht, aber das sagt nur eine Minderheit, wenn es darum geht, ein Auto mit einem solchen Algorithmus zu kaufen.

Für die Wissenschaftler ist das ein klassischer Fall des sozialen Dilemmas, wo jeder dazu neigt, die eigenen Kosten zu reduzieren, anstatt sich so zu verhalten, dass es zu einem optimalen Ergebnis für alle kommt. So würden die Menschen eben utilitaristische, sich selbst und die Mitfahrer opfernde Algorithmen in autonomen Fahrzeugen begrüßen, ohne selbst ein solches Fahrzeug kaufen zu wollen.

In einer Umfrage wurde gefragt, ob die Teilnehmer solche autonomen Fahrzeuge kaufen würden, deren Algorithmen von der Regierung reguliert werden. Hier waren die Teilnehmer, die sich ansonsten für die höhere Moralität des utilitaristischen Opferns aussprachen, eher skeptisch, wenn dieses moralische Prinzip vom Staat verordnet würde. Nur um die 40 Prozent wären damit einverstanden, um die 30 Prozent nur würden solche Autos auch kaufen, während mehr als die Hälfte lieber solche kaufen würde, die nicht staatlich reguliert sind. Das Misstrauen gegenüber dem Staat ist in den USA sehr ausgeprägt, was auch heißt, man würde Privatunternehmen hier wohl mehr vertrauen. Das dürfte in Europa anders sein.

Die Wissenschaftler ziehen daraus allerdings den Schluss, dass zwar gesetzliche Regulierungen notwendig sein könnten, um das Problem des sozialen Dilemmas zu lösen, sie wären aber "kontraproduktiv". Die Mehrheit würde nicht nur eine gesetzliche Vorschrift zur Einführung utilitaristisch entscheidender autonomer Fahrzeuge ablehnen, eine solche Regelung könne auch die Akzeptanz für autonome Fahrzeuge entscheidend verzögern. Das würde bedeuten, dass die Leben, die von utilitaristischen Algorithmen in autonomen Fahrzeugen geopfert werden, von den Toten übertroffen werden, die durch die verzögerte Einführung von autonomen Fahrzeugen verursacht werden.

Notwendig sei, dass Hersteller und Gesetzgeber sich dieser Probleme bewusst seien und dass eine breite Diskussion über "moralische Algorithmen" geführt werden müsse, da es weitaus schwieriger zu lösende Dilemmata gebe. Als Beispiel wird die Frage angeführt, ob ein autonomes Fahrzeug in die Mauer fahren sollte, um einen Unfall mit einem Motorradfahrer zu vermeiden, wenn die Wahrscheinlichkeit höher ist, dass auch dann der Mitfahrer überlebt. Und überhaupt sei es nicht einfach, Algorithmen zu entwerfen, die moralische Werte und das Selbstinteresse ausgleichen, zumal dies in verschiedenen Kulturen anders ausfallen könnte. Das ist auch im realen Leben ganz ohne Maschinen so und wir nebenbei nicht automatisch entschieden, sondern unter Maßgabe von Gesetzen durch Gerichte, die nicht in Millisekunden Entscheidungen treffen. Es dürfte eine Illusion sein, eine programmierte Moral bauen zu können, die möglichst keine Fehler machen darf. Mit den autonomen Fahrzeugen könnten sicher viele Unfälle vermieden werden, aber keineswegs alle - und es werden neue Unfallursachen auftreten.