Was Uber von seinem tödlichen selbstfahrenden Auto gelernt hat

2018 fuhr ein autonomes Uber-Auto eine Fußgängerin zu Tode. Die Liste der Fehler schockiert. Uber gelobt, sich gebessert zu haben. Behörden lassen sich Zeit.

In Pocket speichern vorlesen Druckansicht 495 Kommentare lesen
Beschädiger Uber-Volvo wird von zwei NTSB-Beamten inspiziert

Der Unfallwagen bei der Untersuchung durch Beamte des National Transportation Safety Board (NTSB)

(Bild: NTSB (gemeinfrei))

Lesezeit: 8 Min.
Inhaltsverzeichnis

"Wenn 'selbstfahrend' in allgemeinen Unterhaltungen benutzt wird, um aktuelle oder kurz bevorstehende Fahrzeuge zu beschreiben, sollten wir sehr besorgt sein", sagte Ensar Becic von der US-Verkehrssicherheitsbehörde NTSB am Montag, "Es gibt keine serienreifen automatisierten Fahrzeuge vom SAE-Level 3." Becic hat den Unfall vom 18. März 2018, bei dem ein Uber-Testauto die Fußgängerin Elaine Herzberg in Tempe, Arizona, getötet hat, genau untersucht.

Am Montag präsentierte der Mann auf dem Automated Vehicles Symposium aus dem tödlichen Unfall abgeleitete Lehren und Empfehlungen. Ein Uber-Vertreter wiederum nutzte die Gelegenheit, darzulegen, was sich bei Uber ATG, der Uber-Sparte für autonome Fahrzeuge, seither geändert hat. Testfahrten wurden nämlich wieder aufgenommen, aber diesmal soll alles anders laufen. Wie sich zeigt, gibt es bei Behörden und Herstellern noch zahlreiche Unzulänglichkeiten.

Bei dem tödlichen Unfall hatte die Frau, ein Fahrrad schiebend, eine beleuchtete mehrspurige Fahrbahn überquert, die ansonsten verkehrsfrei war. Auf dem letzten Fahrstreifen wurde Herzberg von dem eine Testfahrt absolvierenden Uber-Auto gerammt und getötet. Sensoren des selbstfahrenden Autos hatten die Frau zwar bereits 5,6 Sekunden vor dem Aufprall erfasst, doch leitete der Computer weder Ausweichmanöver noch Bremsung ein.

Die im Fahrzeug sitzende Bedienerin, die den Roboterwagen hätte überwachen und im Gefahrenfall eingreifen sollen, schaute statt auf die Fahrbahn auf ihr Handy. Erst 0,2 Sekunden vor dem Aufprall wurde sie vom Bordcomputer auf die Gefahrensituation aufmerksam gemacht. Zu spät.

Ab Werk hatte das Auto ein Notbremssystem mit Lidar und Radar. Doch baute Uber beim Einbau des Selbstfahr-Systems ebenfalls ein Radar ein, das auf der selben Frequenz arbeitete. Um Interferenzen zu vermeiden, deaktivierten Uber-Ingenieure das ursprüngliche Notbremssystem.

Saßen bei den Testfahrten zunächst zwei Personen im Auto, wurde das aus Kostengründen auf eine Person reduziert. Für eine Person alleine ist es aber praktisch unmöglich, stundenlang einem Roboter zuzuschauen und dabei aufmerksam zu bleiben. "Wenn die Rolle des Fahrers darauf reduziert ist, Automatisierung zu überwachen, kennen wir das Ergebnis", sagte Becic am Montag, "Wir müssen lernen, wie wir die Fahrer konstant aktiv beteiligt halten."

Um sicherzustellen, dass die Bedienpersonen auch wirklich den Verkehr beobachten, baute Uber auf die Insassen gerichtete Überwachungskameras ein. Bloß schaute sich deren Aufnahmen offenbar nie jemand an. "Die Aufsicht der Firma ließ zu wünschen übrig", formulierte es Becic freundlich und attestierte Uber ATG generell eine "inadäquate Sicherheitskultur." Weil niemand kontrollierte, konnte sich die Bedienerin ungeniert ihrem Handy widmen.

Auch die Programmentwickler machten verheerende Fehler. Zwar sollte der Computer mögliche Hindernisse erfassen und klassifizieren; doch wurde der Ort, an dem ein Objekt oder eine Person registriert wurde, nicht gespeichert. Ergebnis: Das System konnte nicht vorhersagen, in welcher Richtung sich die Fußgängerin bewegen würde, obwohl sie die Straße überquerte, ohne wilde Haken zu schlagen. Verfügbare Daten wurden also ignoriert, was der Fußgängerin zum Verhängnis wurde.

Schockierend war der Verzicht auf Notbremsungen zur Minderung von Unfallfolgen. Notbremsungen waren zwar grundsätzlich vorgesehen, aber nur zur Vermeidung von Unfällen, nicht zur Minderung der Folgen nicht mehr vermeidbarer Unfälle. Das überließ der Computer den menschlichen Bedienern am Steuer. Diese im Programmcode zum Ausdruck gebrachte Geringschätzung Dritter wurde der Fußgängerin zum Verhängnis.

Zu allem Überdruss wartete der Computer auch noch eine geschlagene Sekunde nachdem er den Unfall als unvermeidbar erkannt hatte, bevor er die Bedienerin schließlich 0,2 Sekunden vor dem Aufprall alarmierte. Diese Wartesekunde war absichtlich eingebaut, um unnötige Alarme zu minimieren. So aber kam der Alarm viel zu spät. Die Bedienerin brauchte, wie bei Menschen üblich, eine weitere Schrecksekunde um zu reagieren – das war dann erst nach dem tödlichen Aufprall.

Doch Becic hatte auch Behörden und Gesetzgebern einiges auszurichten. Zwar hätten die meisten US-Staaten inzwischen eine Strategie für selbstfahrende Kfz ausgearbeitet. Viele schreiben darin aber keine Tests vor, bevor automatisierte Fahrzeuge auf öffentliche Straßen gelassen werden. Manche belassen es dabei, Sicherheitsschranken abzubauen, etwa autonome LKW-Konvois von ansonsten vorgeschriebenen Mindestabständen auszunehmen. Und bei jenen Staaten, die Tests verlangen, variieren die Anforderungen enorm.

Arizona, wo der tödliche Uber-Unfall passiert ist, verlangt laut Becic keine Tests vor Inbetriebnahme auf öffentlichen Straßen, solange noch ein menschlicher Bediener an Bord ist. Erst nach dem Unfall mit dem autonomen Auto verbot der Gouverneur Uber weitere Testfahrten. Inzwischen hat der Staat 66 Genehmigungen für Testfahrten auf öffentlichen Verkehrswegen ausgestellt.

Sicherheitsexperte Becic empfiehlt allen Staaten, nur noch selbstfahrende Autos auf öffentliche Straßen zu lassen, die sich zuvor in Teststellungen bewährt haben. Auf Bundesebene wünscht er sich, dass Betreiber automatisierter Fahrzeuge dazu verpflichtet werden, regelmäßig Sicherheitsberichte zu erstatten. Bislang erfolgt das freiwillig. Daher habe die Bundesstraßenbehörde NHTSA auch erst 23 Sicherheitsberichte erhalten. "Einige sind detailliert und technisch, andere sind im wesentlichen Marketingbroschüren", berichtete Becic.

Für Uber ATG ergriff dessen Direktor für Organisationssicherheit, Christopher SanGiovanni, das Wort. Er beschrieb zahlreiche interne Änderungen, die nach dem Unfall vorgenommen wurden. Außerdem betonte er, dass der Fehler nicht bei Einzelnen gesucht werden dürfe.

Zuerst richtete er aber eine Botschaft an andere Entwickler autonomer Kfz: "Sind Sie bereit für einen Crash? Das Prozedere nach einem Unfall ist wirklich lange, und Sie können sich nicht vorstellen, wie sehr das emotional auslaugend ist für eine Firma. (…) Fragen Sie sich selbst: Sind Sie vorbereitet? Haben Sie einen Plan? Und kennt jeder diesen Plan?"

So stellt Uber ATG die Abfolge der Aufräumarbeiten im eigenen Haus dar. Rechts zu sehen sind Diskussionleiterin Kristin Kingsley, Uber-ATG-Sicherheitsdirektor Christopher SanGiovanni und NTSB-Projektmanager Ensar Becic (v.o.n.u.).

(Bild: Screenshot)

Nach einem Unfall komme es darauf an, in die eigene Organisation hineinzuschauen: "Konzentrieren Sie sich auf sich selbst. Fragen Sie sich, was die Organisation falsch gemacht hat. Vermeiden Sie, Einzelpersonen verantwortlich zu machen", sagte SanGiovanni, "Was hat die Organisation gemacht, das den Mitarbeiter dazu gebracht hat, zu versagen?"

Uber habe nach dem tödlichen Unfall externe Experten mit einer Analyse beauftragt: "Diese Untersuchungen waren sehr umfangreich. Sie haben jeden Stein umgedreht. Wer berichtet an wen? Wer braucht mehr Unabhängigkeit? Wo könnten sich Interessenkonflikte auftun?" Inzwischen sei nicht mehr die Sicherheitsabteilung für Sicherheit zuständig, sondern das Management. Und Uber ATG habe sich dazu verpflichtet, sich nicht an jenen zu rächen, die Fehler anderer melden. "Das ist sehr schwierig, korrekt hinzubekommen", gestand SanGiovanni ein.

Auf technischer Seite hat Uber ATG das Radarsystem so umgebaut, dass nun auch das ab Werk vorhandene Notbremssystem eingreifen kann. Das eigene System soll nun auch dann notbremsen, wenn ein Unfall damit nur noch gemildert werden kann. Abgeschafft wurde die Wartesekunde. Mit so verbesserten Wägen hat Uber wieder Testfahrten aufgenommen, etwa auf öffentlichen Straßen Pittsburghs.

Zudem sitzen nun stets zwei Bediener im Auto. Das soll so bleiben bis die Fahrzeuge völlig autonom fahren können. Die beiden Mitarbeiter sollen nicht nur den Fahrcomputer, sondern auch einander beobachten, um Aufmerksamkeit zu garantieren und Übermüdung zu erkennen. Und die Aufpasser im selbstfahrenden Auto haben eine neue Funktionsbezeichnung erhalten, die Wertschätzung symbolisieren soll. Fortan heißen sie "Mission Specialists."

Das Automated Vehicles Symposium ist die älteste und wohl wichtigste wissenschaftliche Tagung in Nordamerika zu autonomen Fahrzeugen und Verkehrssystemen. Die jährliche Veranstaltung findet heuer COVID-bedingt online statt. Veranstalter sind der Branchenverband AUVSI und das Transportation Research Board (TRB), eine Abteilung des Nationalen Forschungsrates der USA.

(ds)