Autonome Autos können Ethik

Menschen handeln in Extremsituationen instinktiv. Dieses Handeln kann von autonomen Autos simuliert werden, sagen Osnabrücker Forscher in einer neuen Studie.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 3 Min.
Von
  • Marco Lehner
Inhaltsverzeichnis

Verkehrsminister Alexander Dobrindt (CSU) will ab 2020 autonome Autos der Klasse 3 erlauben – bei diesen Autos muss der Fahrer nur nach einer Vorwarnzeit eingreifen können. Damit tritt die Frage auf, wie sich das Auto verhalten soll, wenn es einen Unfall nicht mehr vermeiden kann. Forscher der Universität Osnabrück haben jetzt eine Studie veröffentlicht, die zeigen soll, dass Ethik und menschliches Verhalten in Extremsituationen von Maschinen simulierbar ist.

Mehr Infos

Auf den ersten Blick widersprechen die Forscher damit Dobrindts Ethikkommission. Diese ist der Ansicht, dass Entscheidungen, wie die Entscheidung Leben gegen Leben von der konkreten Situation abhängig sind. Sie seien deshalb nicht normierbar und auch nicht programmierbar. Die Kommission bezieht sich dabei darauf, dass die Schuldfrage erst im Nachhinein vor Gericht geklärt werden kann. Dort werden die äußeren Umstände miteinbezogen, die der Fahrer oder der Computer im Moment des Unfalls nicht wissen konnte. Deshalb könnten keine Regeln programmiert werden, die sich an gesetzlichen Normen orientieren.

Was allerdings möglich ist, ist das menschliche Verhalten nachzuahmen, ist sich das Forscherteam um die Kognitionswissenschaftler Leon Sütfeld und Gordon Pipa sicher. Denn in der kurzen Zeitspanne, die Fahrer zur Verfügung haben, um eine Situation zu bewerten, treffen sie laut Studie keine komplexen ethischen Entscheidungen. Viel mehr würden die Fahrer den Wert eines Lebewesens intuitiv abschätzen und dann eher einen Hund als einen Menschen überfahren. Diese einfachen Entscheidungen seien, so die Forscher, auch von autonomen Fahrzeugen umsetzbar.

Die Probanden der Studie wurden in einen VR-Fahrsimulator gesetzt und fuhren durch eine neblige Vorstadtgegend, in der plötzlich Gegenstände, Tiere und Menschen auf der Straße auftauchten. In einem Szenario hatten die Teilnehmer vier, in einem anderen nur eine Sekunde Zeit, um sich zu entscheiden, wohin sie ihr Auto lenken.

Hatten die Probanden vier Sekunden Zeit, versuchten sie durch ihre Handlung den aus ihrer Sicht geringsten gesellschaftlichen Schaden anzurichten. So wurden in diesem Szenario Männer eher überfahren als Frauen, Alte eher als Junge und Ziegen eher als Hunde.

Hatten die Probanden jedoch nur eine Sekunde Zeit für ihre Entscheidung, blieben die Tendenzen zwar gleich, aber weniger stark ausgeprägt. Während im langsamen Szenario 80 Prozent aller Männer überfahren werden, sind es im schnellen nur noch 58 Prozent.

Nach Ansicht der Forscher sollten autonome Autos mit den Daten von Menschen in ähnlichen Situationen trainiert werden. Dadurch wären die Ergebnisse nachvollziehbar. Sie werfen dennoch die Frage auf, ob es sinnvoll ist, einen Computer, der komplexere Entscheidungen schneller als ein Mensch treffen kann, auf die menschlichen Möglichkeiten zu beschränken.

Selbst ist das Auto (14 Bilder)

Im Jahr 2014 stellte Google sein eigenes autonomes Auto vor. Die Vision war es, kleine Zweisitzer mit Elektro-Antrieb zu entwickeln, die komplett auf Lenkrad und Pedale verzichten. Das Projekt Google Driverless Cars firmiert heute unter der Bezeichnung Waymo.
(Bild: Waymo)

(jle)