Wenn Maschinen entscheiden: Maschinen-Ethik im Widerspruch zur Rechtslage

Ein Algorithmus für autonome Autos, der die Zahl der Opfer bei einem Verkehrsunfall minimieren würde, dürfte in Deutschland nicht implementiert werden. Das berichtet Technology Review in seiner aktuellen Ausgabe.

In Pocket speichern vorlesen Druckansicht 812 Kommentare lesen
Google-Car

Stolz der KI-Forschung: Ein autonomes Auto von Google fährt ohne menschliche Hilfe durch Washington.

(Bild: Karen Bleier / AFP / Getty Images)

Lesezeit: 3 Min.

KI-Methoden wie "Deep Learning", deren Grundlagen bereits Mitte der 1970er-Jahre gelegt worden sind, erleben gerade einen zweiten Frühling. Mithilfe massiver Rechenkapazitäten, riesiger Datenmengen und nicht zuletzt üppiger Finanzmittel bringen IT-Konzerne wie Google, Microsoft, Baidu oder Facebook Computern bei, gesprochene Sprache simultan zu übersetzen, ein Auto durch den Stadtverkehr zu steuern, Witze und Sprachspiele zu verstehen oder zu beschreiben, was auf einem Foto zu sehen ist.

Mit dem Erfolg wachsen auch das Misstrauen und die Angst der Öffentlichkeit vor einem "Aufstand der Maschinen", vor Jobverlust und einer ungebremsten digitalen Hochrüstung. Nicht ganz zu Unrecht, wie Technology Review im neuen Heft berichtet (ab sofort im Handel oder online bestellbar).

 Ein aktueller Unfall mit einem teilweise autonomen Auto vermittelt einen Eindruck dessen, wohin die Reise geht. Das Modell verfügte über einen Spurhalteassistenten, der Fahrer fuhr mit hoher Geschwindigkeit auf eine Ortschaft zu. Kurz vor dem Ortseingang erlitt er einen Hirnschlag. Doch sein Fuß blieb auf dem Gas, das Auto raste softwaregesteuert durch das Dorf und tötete eine Frau mit ihren zwei Kindern. Der Fahrer überlebte.

"Ohne Spurhalteassistent wäre es auf der Wiese vor dem Dorf gelandet", berichtet Eric Hilgendorf, Leiter der Forschungsstelle RobotRecht an der Uni Würzburg und mit dem Fall vertraut. Dann hätte zwar eine Bremsung die Tragödie verhindert, wäre das Auto so programmiert gewesen. Aber der Unfall lässt sich zu einer Situation weiterspinnen, die keine einfache Lösung mehr kennt – insbesondere wenn die Maschinen wirklich autonom handeln sollen. Wäre das Fahrzeug nicht mehr rechtzeitig vor der Familie zum Stehen gekommen – hätte der Computer das Auto in ein Haus lenken sollen, auf die Gefahr hin, den Fahrer zu töten? Und wenn die einzige Ausweichmöglichkeit gewesen wäre, statt der Familie einen Passanten zu überfahren?

Nichts davon wäre legal programmierbar. "Nach heutiger Rechtslage ist beides verboten", erklärt Hilgendorf. "Ich darf Leben nicht gegeneinander aufrechnen." So bleiben wohl nur zwei Möglichkeiten: autonome Autos verbieten oder bestehende moralische Kategorien überdenken. Hilgendorf plädiert für Letzteres: "Wir müssen zu einer Quantifizierung von Menschenleben kommen."

Der Ansatz dürfte kaum auf Autos beschränkt bleiben. Nahezu alle Experten halten es für wahrscheinlich, dass selbst gutmeinende intelligente Maschinen Menschen Schaden zufügen oder gar töten werden. "Wir werden nicht dafür sorgen können, dass KI-Systeme unter allen Umständen sicher sind", betont Eric Horvitz, leitender Wissenschaftler in der Forschungsabteilung von Microsoft. Entscheidend sei daher, was größer ist: der Schaden oder der Nutzen? "Jeden Tag sterben Tausende in vermeidbaren Verkehrsunfällen und aufgrund von ärztlichen Fehlern in Krankenhäusern", mahnt Horvitz. "Ich bin ziemlich sicher, dass wir einen guten Teil davon retten könnten, wenn wir mehr KI-Technologie einsetzen."

Mehr dazu in der Dezember-Ausgabe der Technology Review (im Handel erhältlich oder online bestellbar). (jle)