Von autonomen Fahrzeugen und Menschen

Autonome Fahrzeuge sollen sicherer sein, weil sie Regeln strikt befolgen, aber in der Menschenwelt sind Regeln dazu da, sie zu brechen

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Wie funktioniert der Verkehr auf den Straßen? Es gibt Regeln, die die meisten Fahrer mehr oder weniger einhalten, aber auch schon mal überschreiten, wenn sie glauben, dass dies nötig ist. So fährt man manchmal noch schnell über den Zebrastreifen, selbst wenn schon ein Passant dabei ist, diesen zu betreten, fährt bei Gelb noch über die Kreuzung, um nicht scharf bremsen zu müssen, oder schneidet schon mal beim Einfahren, einen Fahrradfahrer oder ein anders Auto. An die Geschwindigkeitsvorgaben hält man sich lax, vor allem in 50- oder 30-km-Zonen. Und dann kommen Müdigkeit, Ablenkungen, Stimmungen und Risikobereitschaft dazu. Alles sorgt dafür, dass der Verkehr zwar erstaunlich gut läuft, aber es eben auch immer wieder zu Unfällen kommt.

Diese wären zum großen Teil vermeidbar, so die Verfechter der autonomen Fahrzeuge, wenn nicht Wetware mit allen Unterschieden und Fehleranfälligkeiten, sondern optimierte Software das Lenkrad übernimmt. Müdigkeit und fehlende Aufmerksamkeit gibt es dann nicht mehr, die Regeln werden perfekt eingehalten, die Unfälle können drastisch gesenkt werden. Allerdings nur dann, wenn die unterschiedlichen technischen Steuerungssysteme kompatibel und stets upgedated sind, keine Programmierfehler enthalten, nicht gehackt werden, nicht abstürzen und sofort reagieren, wenn ein Teilsystem wie Räder, Blinker, Bremsen, Kameras etc. beschädigt sind oder ausfallen. Und wenn sie in der Lage sind, die Fahrweise und Reaktion von Menschen, so lange noch welche ihr Auto lenken (dürfen), mit einzubeziehen. Es können sich also durchaus Probleme ergeben, wenn einmal massenhaft autonome Fahrzeuge unterwegs sind (Asimowsche Regeln für den Asphaltdschungel).

Zudem ist Regelbefolgung in vielen Fällen schön, wobei im Detail gelöst werden muss, wie eine Regel, beispielsweise Rechts vor Links, einzuhalten ist, also wie schnell auf eine Kreuzung zugefahren, bei welchem Abstand eines anderen Autos weitergefahren, ob die Vorfahrt auf jeden Fall wahrgenommen werden kann und was zu tun ist, wenn es keine Lösung gibt, also bei einer Kreuzung von drei Straßen drei Autos stehen. Wie koordinieren sich die autonomen Fahrzeuge untereinander, vor allem, wenn ein Auto noch von einem Menschen gesteuert wird? Wie lange wird gewartet, um keinen Fehler zu machen, wie schnell wird abgebremst und die Reaktion der nachfahrenden Fahrzeuge berücksichtigt?

Autonomes Google-Fahrzeug. Bild: Sam Churchill/CC-BY-SA-2.0

Wie die New York Times berichtet, wurde eben das bei Googles autonomen Fahrzeugen zu einem Problem, dass sie nicht ausreichend Fehler machen, die nicht nur für Risiken, sondern auch für die Aufrechterhaltung des Verkehrsflusses sorgen. So hat ein Google-Fahrzeug letzten Monat die Regel bei einem Fußgängerübergang beachtet und seinen "Sicherheitsmitfahrer" signalisiert, auf die Bremse zu steigen, um einen Fußgänger passieren zu lassen. Das war prima, aber hinten fuhr ein von einem Menschen gelenktes Auto, das prompt auf das Google-Fahrzeug aufprallte, weil der Fahrer mit der Bremsung nicht gerechnet hat. Das ist ein Fehler des menschlichen Fahrers, ein Unfall entstand trotzdem.

Schon zuvor kam es zu einem Problem, dass ein autonomes Fahrzeug an einer Kreuzung nicht weiterfuhr, weil die anderen, von Menschen gelenkten Autos nicht stoppten, sondern langsam weiterfuhren. Das ist für einen strengen Regelbefolger schwierig, wenn er nicht seine Mitmenschen kennt und etwa Blicke oder Gesten austauscht. Jetzt sollen die Google-Fahrzeuge auch langsam weiterrollen und die anderen Autos beobachten.

In this case, if the car had been left to operate autonomously, it would have stopped safely in front of the crosswalk - great. Intriguingly, though, it would have braked slightly less hard and traveled a bit closer to the crosswalk before stopping. In other words, our software might have created some extra margin in a situation where fractions of inches and seconds mattered.There's no way to know this would have protected us from a collision; if someone's driving too close, they’re still very likely to hit us. Our driver was 100% correct in hitting the brakes. But this situation highlights what computers are good at. Our software could do the math on many complicated factors all at once - pedestrian speed and trajectory, our speed and trajectory, the other vehicle’s speed and trajectory. And then it could make an extremely nuanced braking calculation and implement a very controlled response, all very quickly.

Nach Google wäre eine Verkehrswelt ohne menschliche Fahrer sicherer.

Für die Programmierer sei eben der Übergang vom menschlichen Fahrer auf den Verkehr mit nur noch regelgeleiteten, übervorsichtigen autonomen Fahrzeugen das größte Problem, heißt es in der NYT. Aber das ist natürlich absurd. Selbst wenn es nur noch autonome Fahrzeuge geben sollte und Menschen nicht mehr als Fahrer zugelassen wären, würden immer noch Menschen zu Fuß unterwegs sein oder mit dem Fahrrad fahren, sofern es nicht auch smart geworden ist, wobei dann aber die körperliche Bewegung fehlen würde, die um so wichtiger wird, desto stärker alle Abläufe automatisiert werden. Mit autonomen Fahrzeugen können wir uns schließlich auch den Gang zum Parkplatz ersparen, da diese sich selbst einen Platz suchen und den Passagier abholen.

"Das wirkliche Problem ist, dass das Fahrzeug zu sicher ist", meint der Direktor des Design Lab an der University of California, San Diego. "Sie müssen lernen, im richtigen Augenblick aggressiv zu sein, und der richtige Augenblick hängt von der Kultur ab." Stimmt, auch das kommt dazu, es ist ein Unterschied, ob man in Dänemark, Deutschland, Italien oder in der Türkei unterwegs ist. Das spielt so lange eine Rolle, so lange noch menschliche Fahrer mit ihren Autos gleichzeitig unterwegs sind, es wird aber auch dann noch eine Rolle spielen, wenn autonome Fahrzeuge nicht völlig autonom fahren, sondern wenn der menschliche Mitfahrer noch eingreifen kann, der mitunter dann doch mal schnell auf die Bremse oder auf das Gaspedal drückt. Das ist das Problem beim Mensch-Maschine-System, das heute noch vorgeschrieben ist. Nach Google war bei allen Unfällen, die bislang bei den Testfahrten auftraten, meist Auffahrunfällen, stets ein Mensch verantwortlich. Aber hätte das autonom fahrende autonome Fahrzeug vor dem Fußgängerübergang behutsamer gebremst, so dass ein Auffahrunfall vermieden worden wäre. Selbst für Google sei das unmöglich zu beantworten, obgleich man hier auf die Verlässlichkeit setzen muss.

Interessant ist, dass ein Mensch-Maschine-System, wie das bei vielen Fahrassistenzsystemen der Fall ist. Hingewiesen wird auf eine Studie eines Versicherungskonzerns, nach der Fahrzeuge mit einem Spurhalte-Assistenten eine etwas höhere Unfallrate hatten als Fahrzeuge ohne einen solchen. Gut möglich, dass die Fahrer noch genervter von den Regeln sind und vor allem nicht in die Rolle kommen wollen, am Steuerrad unter Kontrolle einer Maschine zu stehen, die Verhalten mitunter falsch oder eben bloß regelhaft interpretiert.

Von Florian Rötzer gerade im Westendverlag erschienen: Smart Cities im Cyberwar.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.