Autonome Autos: Entscheidungen von Systemen für autonomes Fahren sind kaum nachvollziehbar

Wenn Computer beispielsweise Autos steuern, nutzen sie meist Techniken für maschinelles Lernen. Doch je leistungsfähiger sie werden, desto schwieriger lässt sich erklären, warum sie bestimmte Bewertungen vorgenommen haben.

In Pocket speichern vorlesen Druckansicht 198 Kommentare lesen
Entscheidungen von Systemen für autonomes Fahren sind kaum nachvollziehbar
Lesezeit: 2 Min.
Von
  • Sascha Mattke
Vom vernetzten zum autonomen Auto

Mindestens zwei schwere Unfälle mit Beteiligung des Tesla-Autopiloten haben die Sicherheit von Systemen für autonomes Fahren in den Fokus geraten lassen. Exakte Informationen über die Funktionsweise des Tesla-Systems gibt es nicht, doch üblicherweise kommt dabei unter anderem Software zum Einsatz, die mittels Deep Learning Autos, Fahrbahnmarkierungen, Straßenschilder und andere Objekte auf Kamerabildern erkennt. Jedoch lässt sich bei Fehlern anschließend kaum nachvollziehen, warum es dazu gekommen ist, berichtet Technology Review online in "Undurchschaubare Autopiloten".

Im Juni kam es zu einem tödlichen Unfall, als ein vom Autopilot gesteuertes Model S mit einem Lastwagen zusammenstieß, den das automatische System übersah. Anfang Juli dann gab die National Highway Traffic Safety Administration bekannt, dass sie einen weiteren Unfall in Pennsylvania untersuche, bei dem ein Model X auf beiden Seiten gegen die Fahrbahnbegrenzung krachte und sich überschlug. Nach Angaben des Fahrers war er mit Autopilot unterwegs. Tesla fordert Fahrer allerdings auf, auch während der Fahrt mit dem Autopiloten auf die Straße zu achten, und erklärt in einem Disclaimer, dass helles Sonnenlicht Probleme machen kann.

Neuronale Netze lassen sich so auslegen, dass sie ein Konfidenzniveau für ihre eigenen Kategorisierungen angeben. Die Komplexität der mathematischen Berechnungen dahinter bedeutet allerdings, dass sich das Netz nicht so einfach zerlegen lässt, um seine Entscheidungen zu verstehen. Das wiederum bedeutet, dass sich unbeabsichtigtes Verhalten schlecht vorhersagen lässt; und wenn es zu einem Fehler kommt, ist er schwierig zu erklären. Wenn ein System zum Beispiel ein Objekt auf einem Foto falsch einordnet, lässt sich kaum (wenn auch nicht gar nicht) herausfinden, welches Merkmal des Bildes dafür ausschlaggebend war. Ähnliche Probleme gibt es bei anderen Maschinenlern-Techniken.

Mehr dazu bei Technology Review online:

Tesla Model S mit Autopilot (23 Bilder)

Testwagen

Tesla Motors stellte uns ein "Model S P90D" mit Autopilot als Testfahrzeug zur Verfügung.
(Bild: Peter-Michael Ziegler / heise online)

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(sma)