Autonomes Fahren: Tödlicher Uber-Unfall angeblich durch Software-Fehler verursacht
Die Software des autonomen Uber-Autos, das in Arizona eine Fußgängerin erfasste, soll selbstständig entschieden haben, nicht zu reagieren.
Der tödliche Unfall mit einem autonom fahrenden Auto des Fahrdienstleisters Uber im März wurde offenbar durch einen Software-Fehler verursacht. Die Sensoren des Fahrzeugs sollen die Frau, die ihr Fahrrad schiebend die Fahrbahn überquerte hatte, zwar erkannt haben, das System habe aber entschieden, darauf nicht zu reagieren. Das berichtet das Portal The Information, das sich auf eingeweihte Personen beruft.
Die Software entscheidet demnach selbstständig, ob das autonom fahrende Auto abbremsen beziehungsweise ausweichen soll. Wenn sie Objekte als "False Positives" erkennt wie zum Beispiel Plastiktüten, die über die Fahrbahn geweht werden, könne sie sie ignorieren. Darunter hatte das System offenbar auch die Frau eingestuft. Die 49-Jährige wurde von dem Fahrzeug erfasst und starb.
Lesen Sie zum Thema auch:
Fußgängerin stirbt nach Unfall: Uber stoppt seine autonomen Autos
Arizonas Gouverneur verbietet Uber weitere Testfahrten
"Öffentlicher Betatest mit unwissentlichen Crashtest-Dummies"
Notbremssystem war deaktiviert
Kommentar: Der Uber-Unfall und die Zukunft des autonomen Fahrens
Keine Reaktion
Der Unfall hatte sich im März ereignet, als Elaine Herzberg eine vierspurige Straße in Tempe im US-Bundesstaat Arizona überquerte. Das Uber-Fahrzeug wich ihr weder aus noch bremste es, wie ein Video verdeutlicht, das aus dem Innenraum des Unfallwagens gefilmt und von der Polizei veröffentlicht wurde. Die im Fahrzeug sitzende Testfahrerin hatte nicht auf die Straße geachtet und ihre Hände nicht am Lenkrad.
Uber hatte sofort alle Testfahrten mit seinen autonomen Autos gestoppt, die für Verkehrssicherheit zuständigen Behörden leiteten Untersuchungen ein. Bisher war unter anderem bekannt geworden, dass Uber den Notbremsassistenten in dem betroffenen Testwagen außer Betrieb gesetzt hatte. (anw)