Roboterethik: Das selbstfahrende Auto und seine Opfer

Je mehr unsere Fahrzeuge entscheiden, desto mehr ethische Dilemmata tun sich auf. Wie sicher sollen (teil)autonome Autos sein? Und wen wählen sie als Opfer aus, wenn sich ein Unfall nicht vermeiden lässt?

In Pocket speichern vorlesen Druckansicht 663 Kommentare lesen
Bodenmarkierung Richtungsweise links oder rechts abbiegen

(Bild: zeevveez CC-BY 2.0 (bearbeitet))

Lesezeit: 5 Min.
Inhaltsverzeichnis

Von selbstfahrenden Autos erwarten Laien wie Fachleute deutlich weniger Unfälle. Ganz ohne Karambolagen wird es nicht gehen, denn extrem defensiv programmierte Vehikel würde gar niemand kaufen. Also wie sicher ist sicher genug? Und welche Fragen ergeben sich in der Folge? Verkehrsforscher und Bauingenieur Noah Goodall versucht, die wichtigsten Fragen zu definieren. heise online hat ihn in Washington, DC, getroffen.

Noah Goodall

(Bild: Daniel AJ Sokolov)

"Menschen treffen ununterbrochen ethische Entscheidungen", stellte Goodall in seinem Vortrag auf der Jahreskonferenz des Transportation Research Board fest, "aber unter Zeitdruck nicht so gut, wie sie vielleicht wollten." Schon die Wahl der Fahrweise, etwa wie viel Abstand man lässt, wenn man um einen Fußgänger herumfährt, sei eine ethische Entscheidung. Weil auch (teil)autonome Fahrzeuge Unfälle haben werden, fließen ethische Grundsätze zwangsweise in die Software ein.

Im Interview mit heise online schildert Goodall einige konkrete Problembeispiele: Soll sich ein Fahrzeug selbst opfern, wenn es einen schwereren Unfall wahrscheinlich vermeiden kann? Soll es einem Unfall ausweichen, wenn es erkennt, dass dann stattdessen jemand anderer den Unfall haben wird? Sind die eigenen Insassen – und damit Kunden des Herstellers [–] schutzwürdiger, als Dritte?

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Einfach die geltenden Verkehrsvorschriften in Code zu übersetzen, klappt leider nicht. "Dafür sind die Gesetze nicht immer eindeutig genug", erinnerte Goodall. "Da wird zum Beispiel vorgeschrieben, dass man etwas tun soll, '… wenn es sicher ist'. Außerdem sind die Regeln manchmal widersprüchlich." Oder auch praktisch unanwendbar: Jeder Autofahrer hat schon einmal ein Hindernis umfahren und dabei eine doppelte Sperrlinie überquert. In manchen Rechtsordnungen ist das immer illegal. Dort würde ein legal programmiertes Auto wie ein sturer Esel stundenlang stillstehen.

Autos, die stur die Vorschriften befolgen, hätten wenig Fans.

(Bild: Bundesarchiv, Bild 183-S25043 CC-BY-SA 3.0)

Den Schaden zu minimieren ist leichter gesagt als getan. "Der Wert verschiedener Objekte, Tiere, und so weiter, variiert", je nachdem, welcher Menschen gefragt werde, führte Goodall aus. Und beim menschlichem Leben stellen sich besonders schwierige Wertefragen. Jeder Mensch bewertet Parameter anders, etwa ob ein potenzielles Opfer freiwillig in Gefahr gekommen ist, mit welchen Absichten, ob es zugestimmt hat, ob es angeheitert ist und so weiter.

Soll ein helmloser Motorradfahrer im Zweifelsfall eher verschont werden als ein behelmter, weil Ersterer weniger geschützt ist? Sollen Schwangere mit einem höheren "Faktor" bewertet werden? Auch beim Datenschutz, bei juristischer Verantwortung oder "Killswitches" für Behörden werfen selbstfahrende Autos ethische Grundsatzfragen auf.

Doch Goodall hat eine gute Nachricht: "Das sind lösbare Probleme. In den meisten Fällen, in denen wir Risiken oder beschränkte Ressourcen verteilen, greifen wir auf ethische Systeme zurück." Als Beispiele führte er die Zuteilung von Spenderorganen, Zwangsrekrutierungen, so scheinbar banale Dinge an wie Bauordnungen oder so augenscheinlich grausame Entscheidungen wie welche Mitarbeiter mehr radioaktiver Strahlung ausgesetzt werden als andere.

"Die Lösung muss nicht alle zufriedenstellen", betonte Goodall, der als Forscher im Verkehrsministerium des US-Bundesstaates Virginia arbeitet. "Aber sie muss gut durchdacht und vertretbar sein." Er selbst habe das Feld der Ethik für sich entdeckt, als er nach wissenschaftlichen Studien über die unmittelbaren Folgen von Verkehrsunfällen gesucht habe. Er fand zwar viel Material über Zusammenstöße sowie die Sekunden davor. Wie es nach einem Aufprall weitergeht, sei aber kaum erforscht, erklärte Goodall.

Diagramm aus Googles Patentschrift: Wenn der Pkw nicht erkennen kann, ob der Lkw abgestellt oder die Ampel rot ist – wann soll er das Risiko eingehen, vorbeizufahren?

(Bild: Google)

Eine mögliche Herangehensweise an die ethischen Fragen wären Sammlungen von Regeln wie "niemals Menschen verletzen" oder "Wirbeltiere sind wertvoller als Insekten". Eine andere Möglichkeit wäre, verschiedenen Lebewesen und Objekten Geldwerte beizumessen und die erwarteten Restwerte für jedes zur Auswahl stehende Unfallszenario zu kalkulieren. Goodall selbst favorisiert einen anderen Ansatz, wie er heise online verriet: Risikomanagement.

Beim Risikomanagement wird die erwartete Auswirkung eines Ereignisses bewertet und mit der Wahrscheinlichkeit, mit der dieses Ereignis eintritt, multipliziert. Die Wahrscheinlichkeit könne von Ingenieuren abgeschätzt werden, meint Goodall. Die Bewertung, wie schlimm bestimmte Auswirkungen sind, will er hingegen den gewählten Volksvertretern überlassen. Übrigens hat Google ein Patent auf eine Risikomanagement-Methode bei autonomen Fahrzeugen.

Verkehrsforscher, Behördenmitarbeiter und Branchenmitglieder haben sich am Sonntag in der US-Hauptstadt zum 95. Jahrestreffen des Transportation Research Board (TRB) eingefunden. Das TRB ist eine Abteilung des Nationalen Forschungsrates (National Research Council), welcher den US-Präsidenten berät. Das Jahrestreffen des TRB ist ein Mammut-Ereignis mit über 800 Sitzungen. Dabei stehen bis Donnerstag mehr als 5000 Präsentationen zu Verkehrsthemen auf dem Programm. (ds)