Autonome Autos: Ethischer Algorithmus soll Risiko vor Unfällen abwägen

Eine deutsche Forschungsgruppe hat einen Algorithmus für autonome Autos entwickelt, der auf Basis von fünf Prinzipien das Risiko vor Unfällen minimieren soll.

In Pocket speichern vorlesen Druckansicht 137 Kommentare lesen
Cockpit,Of,Autonomous,Car.,A,Vehicle,Running,Self,Driving,Mode

(Bild: metamorworks/Shutterstock.com)

Lesezeit: 3 Min.

Eine Forschungsgruppe aus Deutschland hat einen Vorschlag für einen Algorithmus entwickelt, der Fahrmanöver von autonomen Autos einmal so steuern soll, dass das Risiko bei nicht abzuwendenden Unfällen möglichst fair verteilt wird. Es handle sich um den ersten ethischen Algorithmus, der den Anforderungen einer EU-Expertengruppe gerecht werde. Die Gruppe schlägt dafür vor, dass in riskanten Situationen fünf Prinzipien gegeneinander abgewogen werden sollten: das akzeptable Maximalrisiko eines Manövers, den besonderen Schutz der gegebenenfalls am schlimmsten Betroffenen, die Gleichbehandlung aller Menschen, die Minimierung des Gesamtrisikos und die Eigenverantwortung der Verkehrsteilnehmenden. Die genaue Gewichtung der Prinzipien müsse gesellschaftlich geklärt werden, fordern die drei.

Vorgestellt wird der Algorithmus in der aktuellen Ausgabe des Nature Machine Intelligence. Der Gruppe um Maximilian Geisslinger von der TU München zufolge sei ethisches Verhalten von autonomen Fahrzeugen ein wichtiger Meilenstein auf dem Weg zu einem breiten Einsatz auf der Straße. Die Anwendbarkeit ihrer Prinzipien haben sie demnach bei Tausenden Simulationen überprüft, sie verweisen aber auch auf nicht zu lösende Schwachpunkte. So gebe es einen Unterschied zwischen einer Person, die aus Unachtsamkeit auf eine Straße und damit womöglich vor ein Auto läuft und jemanden, der Angst um sein Leben hat und auf eine Straße flüchtet. Auch die KI werde nie alle Informationen haben und eine perfekte Lösung könne es deshalb nicht geben.

Claudia Brändle vom Karlsruher Institut für Technologie (KIT) weist zur Veröffentlichung des Vorschlags darauf hin, dass die Idee nicht vollkommen neu sei. Sie verweist auf bestehende Überlegungen zum sogenannten Trolley-Problem, bei dem es um die Frage geht, ob es ethisch vertretbar ist, einen Menschen zu opfern, um viele andere zu retten. Diese grundlegende Frage löse man aber auch nicht, wenn man statt von einem Schaden vom Risiko für die Beteiligten ausgehe. Gleichzeitig hält sie die Einbeziehung der Verantwortung für das eigene Verhalten für interessant, aber gleichzeitig auch für nicht unproblematisch. Immerhin geht es teilweise um schwerwiegende Konsequenzen.

Laut Ortwin Renn vom Research Institute for Sustainability in Potsdam vergeht aktuell keine Konferenz zum autonomen Fahren ohne die Vorstellung eines solchen Entscheidungsalgorithmus. Dass die Einbeziehung Künstlicher Intelligenz die Dilemmata auflösen könnte, bezweifelt er. So fragt er, wie denn vorzugehen sei, wenn es Widersprüche zwischen zwei Prinzipien gibt. Die Technik könne das Problem aber transparenter und plastischer machen.

Von allem sagt er aber noch, dass die Einsatzfälle extrem unwahrscheinlich seien, auch wenn sich die Forschung so intensiv damit beschäftige. Versicherungen beispielsweise wüssten von keinem einzigen konkreten Fall. Am nächsten kämen dem noch Situationen, in denen Menschen am Steuer jemandem ausweichen und sich damit selbst gefährden müssten. Da sie aber angeschnallt sein sollten, sei die Antwort hier eindeutig. Auch ein von den Forschenden gezeigtes Beispiel stelle kein Dilemma dar, hier geht es um ein riskantes Überholmanöver, das nach Abwägung der Prinzipien nicht durchgeführt wird.

(mho)