Autonomes Fahren: Die Automatik der Ethik

In der Diskussion um Roboterautos nehmen knifflige Ethikfragen einen weiten Raum ein. Aber nüchtern betrachtet gehören sie nicht zu den großen zu lösenden Problemen der Programmierer.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 5 Min.
Von
  • Clemens Gleich

Plötzlich sind beide mitten auf der Straße – nur Meter von der Kühlerhaube entfernt: Ein Kind trödelt auf der rechten Spur – eine alte Frau hat, ohne nach rechts und links zu schauen, bereits die Hälfte der Gegenfahrbahn überquert. Und der Insasse des Wagens blickt statt auf die Straße auf sein Smartphone. Er überlässt das Fahren seinem Roboterauto. In Sekundenschnelle erfasst dessen Automatiktechnik beide "Hindernisse". Doch wohin das Lenkrad drehen? Wer ist wichtiger? Oma oder Kind?

Konstrukte dieser Art, ausgeschmückt in zahlreichen Varianten, sind sehr beliebt in der Diskussion um Roboterautos. Dabei sind sie im Grunde schon ein alter Hut. In den fünfziger Jahren des letzten Jahrhunderts diente der "Weichenstellerfall" der theoretischen Debatte um richtiges Handeln: Eine außer Kontrolle geratene Straßenbahn droht, fünf Personen zu überfahren. Durch Umstellen einer Weiche könnte man dafür sorgen, dass sie nur eine Person überfährt. Was tun?

Solche fiktiven Geschichten helfen, Verhalten vor verschiedenen Moralgrundsätzen zu diskutieren. Die meisten Menschen tendieren dazu, die Weiche umzustellen. Anders sah das in der "Fetten-Mann-Variante" aus: Ein Mensch könnte vor die Bahn geschubst werden, der durch seine Masse das Fahrzeug bremst und so das Leben der fünf anderen rettet. Das lehnen die meisten Menschen ab, denn die absichtliche Tötung eines Menschen als großes Tabu wiegt schwer.

Wie aber soll eine Maschine so etwas entscheiden? Die nüchtern langweilige Antwort: in der Realität so gar nicht. Lassen wir alle Faszination an solchen Diskussionen mal beiseite, erkennen wir schon in der Weichenstellergeschichte ihre Realitätsferne. Der Grund ist weniger, dass solche Fälle selten auftreten – schließlich geht es in der Debatte um genau jene furchtbaren Ausnahmen. Wichtig ist ein anderer Aspekt: Woher weiß der potenzielle Weichensteller, dass die fünf Menschen wirklich sterben werden, falls er nichts tut?

Ist er nah am Geschehen, hat er nur eine minimale Entscheidungszeit. Kein Gericht würde ihn verurteilen für Tat oder Unterlass. Hat er dagegen noch ausreichend Zeit, eine überlegte Entscheidung zu fällen, dann hätte er in der Realität noch eine Vielzahl weiterer Möglichkeiten anstatt nur: Oma oder Kind. Der Weichenstellerfall zeigt also schon in sich seine Eigenschaft als reines Diskussionswerkzeug.

Ein autonomes Auto mag sich zwar schneller diesen Überblick verschaffen können, schlicht, weil es in kürzerer Zeit mehr Daten verarbeiten kann. Aber am Ende hat es ebenso wie der Mensch nicht das Allwissen, um die Folgen einer Entscheidung hundertprozentig vorauszusehen. Programmierer können sich nicht sinnvoll mit den tragischen Einzelfällen aus sehr unwahrscheinlichen, aber theoretisch möglichen Szenarien beschäftigen – aus dem einfachen Grund, weil deren Anzahl unendlich ist.

Das Messwerkzeug muss daher die Statistik sein. Der Programmierer versucht, die Anzahl tragischer Fehler zu messen und algorithmisch zu reduzieren. Mit höchster Wahrscheinlichkeit wird er dabei feststellen, dass es besser ist, bei jeder gefährdeten Person sofort zu bremsen, als erst einmal Personen im Umkreis zu zählen oder gar zu identifizieren und Möglichkeiten abzuwägen.

Wir werden trotzdem Fälle erleben, in denen eine Maschinenentscheidung den Tod eines Menschen herbeiführt. Der Grund ist, dass kein noch so ausgeklügelter Automat das Verhalten seines "Gegenspielers" – nämlich des Menschen auf der Fahrbahn oder wo immer – vorherberechnen oder gar kontrollieren kann. Der Zufall bleibt – und damit auch das Schicksal.

Doch zurück zum theoretischen Konstrukt: Soll das Auto die Oma überfahren oder das Kind? Praxis: Das Auto kann innerhalb weniger Prozessorzyklen kaum einigermaßen belastbar entscheiden, was eine Oma ist und was ein Kind, sondern lediglich: Vollbremsung.

Zudem müssen wir uns die Frage stellen, wie es überhaupt zu dieser Situation kam. Meist lautet die Antwort: durch mangelnde Sorgfalt vorher. Der Fahrer ist zu schnell in ein kleines Dorf gefahren oder hat aus Ungeduld einen Zebrastreifen missachtet. Die Maschine wird jedoch nicht ungeduldig. Sie weiß, wo das Ortsschild steht und fährt ab dort wie in ihren Daten vorgeschrieben. Die große Frage der Ethik wird damit zu einer reinen Frage der Daten: Wie viel Abstand sollen Autos halten? Was ist wann und wo die Maximalgeschwindigkeit? Wie schnell kann das Fahrzeug reagieren? Die KI hat eindeutig zwei Vorteile gegenüber menschlichen Fahrern: Erstens hält sie sich an Regeln, und zweitens reagiert sie fast immer viel schneller.

Auch wenn es weiterhin Verkehrstote geben wird, wird durch KI ihre Zahl sinken. Wer sich diese Bilanz klarmacht, sollte einer neuen Technik ein paar wenige Fehler zugestehen. Die Maschine muss nicht jede abstruse Situation perfekt meistern. Sie muss nur über ihre Einsatzzeit deutlich besser sein als der durchschnittliche menschliche Fahrer.

Wenn sie dabei im Vergleich 10000 Menschenleben mehr rettet, funktioniert sie – selbst wenn einmal die Situation eintreten sollte, dass sie ein Kind statt einer alten Frau überfährt. Bei aller Tragik hat der Automat dann keine ethische Entscheidung getroffen, sondern ist aufgrund einer blitzschnellen Analyse aller vorhanden Daten zum Beispiel nach rechts statt nach links ausgewichen. Keine noch so raffinierte Programmierung wird das in bestimmten Situationen verhindern können – ebenso wenig wie heute der Mensch hinter dem Steuer. (bsc)