Ethik-Kommission: Keine Lösung für "echte dilemmatische" Situationen beim autonomen Fahren

Wenn es ausweglos um Leben oder Tod auf der Straße geht, kann ein autonomes System laut einem Expertenbericht nicht weiterhelfen. Derartige Ereignisse seien weder normier- noch programmierbar. Haftung und Datenautonomie sind weitere Schwerpunkte.

In Pocket speichern vorlesen Druckansicht 723 Kommentare lesen
Autobahn A14
Lesezeit: 5 Min.
Inhaltsverzeichnis

Auch "Kollege Computer" am Steuer wird schwere moralische Dilemmata wie das hierzulande als Weichenstellerfall bekannte Trolley-Problem nicht lösen können. Zu diesem Ergebnis ist die von Bundesverkehrsminister Alexander Dobrindt (CSU) eingesetzte "Ethik-Kommission für automatisiertes und vernetztes Fahren" gekommen. In ihrem am Dienstag präsentierten Abschlussbericht heißt es: "Echte dilemmatische Entscheidungen" wie eine über "Leben gegen Leben" seien von der konkreten tatsächlichen Situation "unter Einschluss 'unberechenbarer' Verhaltensweisen Betroffener abhängig. Sie sind deshalb nicht eindeutig normierbar und auch nicht ethisch zweifelsfrei programmierbar".

Bei entsprechenden Grenzbereichen müsse intuitiv entschieden werden, betonte der frühere Bundesverfassungsrichter Udo Di Fabio, der die neunmonatige Arbeit der Expertengruppe leitete und die Ergebnisse zusammen mit Dobrindt vorstellte. "Wir legen da keine Rationalitätsmodelle an." Zuvor hatten es Kulturwissenschaftler bereits als überaus fraglich bezeichnet, ob moralische Entscheidungen für vertrackte Situationen überhaupt in Programme eingebaut werden könnten.

Die Autoren des Berichts wollen deswegen sicherstellen, dass technische Fahrsysteme von vornherein darauf ausgelegt werden, Unfälle zu vermeiden. Dafür müsse der Gesetzgeber alles tun. Letztlich könne in ernsten Dilemma-Fällen die Maschine nicht ersetzen, dass ein "sittlich urteilsfähiger, verantwortlicher Fahrzeugsführer" eingreift.

Di Fabio und Dobrindt präsentieren den Bericht der Kommission.

(Bild: heise online / Stefan Krempl)

Generell warnte Di Fabio davor, die Technik zu vermenschlichen: "Der Computer entscheidet nicht, sondern der Produzent oder Betreiber einer Software." Diese müssten letztlich gegebenenfalls auch haften. An diesem Punkt sei immer klarzustellen, "wer an welcher Stelle die Verantwortung trägt". Das System müsse ganz deutlich machen, wann es übernehme, indem etwa das Lenkrad eingezogen werde.

Eine "vorausschauende Technik, die wirklich intelligent gemacht ist", macht es laut Di Fabio aber zumindest unwahrscheinlicher, dass autonome Autos in die schlimmsten Dilemmata hineingeraten. Er zeigte sich überzeugt, dass es hierzulande bald nicht mehr 3000 Tote pro Jahr auf den Straßen gebe. Das Ideal einer kollisionsfreien Verkehrsführung sei zwar noch fern, ein Restrisiko bleibe. Trotzdem komme die Gesellschaft mit hochautomatisierten Systemen im Auto dem Leitbild näher, möglichst viele Fahrfehler und Unfälle ausmerzen zu können.

"In Gefahrensituationen, die sich bei aller technischen Vorsorge als unvermeidbar erweisen", muss der Kommission zufolge "der Schutz menschlichen Lebens in einer Rechtsgüterabwägung höchste Priorität" haben. Ein System müsse deshalb "im Rahmen des technisch Machbaren" so programmiert werden, dass es "im Konflikt Tier- oder Sachschäden in Kauf" nehme, "wenn dadurch Personenschäden vermeidbar sind". Sei ein Unfall unausweichlich, dürften qualifizierende Persönlichkeitsmerkmale wie Alter, Geschlecht und körperliche oder geistige Konstitution auf keinen Fall herangezogen werden. "Jedes Menschenleben ist gleich, eine Selektion nach Eigenschaften schlechterdings unzulässig", unterstrich Di Fabio. Problematisch werde es schon, wenn angefangen werde, potenzielle Opfer aufzurechnen.