Roboterautos: Echtzeitdaten sollen Unfälle bei autonomen Fahrzeugen verhindern

Münchner Forscher haben ein Verfahren präsentiert, mit dem regelkonformes Verhalten selbstfahrender Autos online live verifiziert werden kann.

In Pocket speichern vorlesen Druckansicht 94 Kommentare lesen
Roboterautos: Echtzeitdaten sollen Unfälle bei autonomen Fahrzeugen verhindern

(Bild: Dean Burton/Shutterstock.com)

Lesezeit: 5 Min.
Inhaltsverzeichnis

Die Erwartungen an Roboterautos sind hoch: Sie sollen etwa dank des Einsatzes von Techniken Künstlicher Intelligenz helfen, Unfälle weitgehend zu vermeiden. Forscher der TU München haben auf dem Weg zu diesem Ziel nun einen weitgehend neuen Ansatz vorgestellt: Sie wollen anhand von Echtzeitdaten online live testen, ob sich autonome Fahrzeuge an die Regeln halten und sicher agieren.

Bislang arbeiten Forscher und Industrie vor allem an Möglichkeiten, die in selbstfahrenden Autos eingesetzten Algorithmen zuverlässig und gerichtsfest zu entwickeln und deren Funktionsweise weitgehend vorab zu prüfen. Sie testen so, ob die Technik mit den erlernten oder programmierten Entscheidungen etwa die Verkehrsregeln beachtet. Andernfalls drohen neben dem unmittelbaren Schaden durch einen Unfall potenziell langwierige Gerichtsverfahren und hohe Schadensersatzforderungen für die Hersteller.

Die Münchner Wissenschaftler um Christian Pek schlagen nun in einem am Montag im Fachblatt Nature Machine Intelligence erschienenen Artikel vor, diese Tests direkt während der Fahrt durchzuführen. Ihnen zufolge kann ein solches Online-Verifikationssystem auch Situationen bewältigen, die während der Konstruktion nicht bedacht wurden oder im Probebetrieb nicht vorkamen. Man habe dies anhand mehrerer "kritischer städtischer Szenarien" wie beim Linksabbiegen mit Autogegenverkehr und Radfahrern oder dem plötzlichen Betreten der Fahrbahn durch Fußgänger überprüft und dabei auch alternative Lösungsvarianten entwickelt.

Zunächst prüft das System dabei laut der Publikation, dass das Fahrzeug die Wege anderer Verkehrsteilnehmer nicht gefährdet. Darauf folgen Berechnungen von Ausweichrouten und eines Stopps, sollte sich die Verkehrssituation plötzlich ändern. Stufe die Software den vorgesehenen Fahrweg als nicht sicher ein, verwende sie den zuletzt berechneten sicheren Fahrweg. Erst wenn sie eine neuberechnete Route als sicher einstufe, wofür sie durchschnittlich weniger als 0,2 Sekunden brauche, richte sich das Vehikel danach.

So kann ein Robo-Auto laut dem Autorenteam stets juristisch sicher entscheiden und seine Fahrweise entsprechend anpassen, selbst wenn es trotzdem durch den Fehler eines anderen Verkehrsteilnehmers in einen Unfall verwickelt würde. Das eingesetzte autonome Fahrzeug habe nur sichere Routen und Fahrstile verwendet, auch wenn etwa in den voreingestellten Plänen keine anderen Verkehrsteilnehmer zu erwarten gewesen seien.

Das EU-Parlament hatte 2019 betont, "dass selbstfahrende Fahrzeuge erst dann uneingeschränkt akzeptiert und für den Verkehr verfügbar gemacht werden können", wenn der Gesetzgeber die damit verknüpften Ethikprobleme gelöst habe. Eine hiesige Kommission war schon vor drei Jahren aber zu dem Ergebnis gekommen, dass "echte dilemmatische" Situationen beim autonomen Fahren weder normier- noch programmierbar seien.

Andere deutsche Forscher sprechen angesichts der Überlegungen ihrer Münchner Kollegen von einem Schritt in die richtige Richtung, der aber kein Patentrezept darstelle. Die Arbeit bewege sich innerhalb einer Reihe nicht ganz konsistenter Ansätze, "um die Verhaltensplanung autonomer Fahrzeuge – also die Entscheidung über Art und Weise des zukünftigen Manövers – per Design sicher zu gestalten", erläutert Hermann Winner, Leiter des Fachgebiets Fahrzeugtechnik an der TU Darmstadt. Durch die Implementierung von Beispielszenarien auf Basis "echter" Sensordaten könne das Verhalten der Systeme nahezu "gerichtsfest", also auf verifizierte Weise geplant werden.

Das Grundproblem dieses sehr nützlichen, auch etwa bereits im Projekt "Unicar agil" vorgesehenen Ansatzes einer Verifikation ist es laut Winner aber, "dass diese auf Annahmen beruht, deren Validität erst nach einer langen Erfahrungszeit bewertet werden kann". Für eine kurze Passage im öffentlichen Straßenverkehr könne sich das Modell durchaus bewähren, was aber wenig sei "im Vergleich zu den Milliarden Kilometern, die man für einen aussagekräftigen Erfahrungsschatz benötigt". Der erhobene Anspruch könne so gerade im wichtigen Bereich der Qualität der internen Umfeldmodellierung noch nicht eingehalten werden.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Umfrage (Opinary GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Opinary GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Es sei entscheidend, "Garantien über das Verhalten von KI-Systemen abgeben zu können", lobt auch Philipp Slusallek, Wissenschaftlicher Direktor Agenten und simulierte Realität am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI), das skizzierte Grundprinzip. Der Artikel betreffe dann jedoch nur einen sehr kleinen Teil des Problems des autonomen Fahrens, nämlich die "Trajektorien" beziehungsweise Wegeplanung. Voraussetzung dafür sei bereits, "dass man die Umwelt genau und korrekt erkannt hat". Selbst diesen Sektor schränke das Team aber weiter stark ein auf "nur rechtlich erlaubte Bewegungen für die anderen Verkehrsteilnehmer".

Mit der Praxis im täglichen Verkehr habe dies aber wenig zu tun, gibt der KI-Forscher zu bedenken. So überfahre dort ein Auto etwa mal eine durchgezogene Linie, um einem in zweiter Reihe parkenden Fahrzeug auszuweichen. Ohne solches Verhalten würde der Verkehr auch nur sehr schlecht funktionieren. Schon bei einem solchen Manöver wäre bei dem gezeigten Verfahren ein Zusammenstoß programmiert. Wenn zudem ein Hindernis nicht als solches erkannt werde – wie beim bekannten Uber-Unfall oder immer wieder bei Teslas – oder wenn Situationen an komplexen Kreuzungen oder Baustellen falsch interpretiert würden, komme das System zu fehlerhaften Eingaben und könne daher auch nur fragwürdige Ergebnisse liefern.

"Absolute Sicherheit, dass ein automatisiertes Fahrzeug niemals und in keiner Situation einen Unfall verursacht", garantiere das beschriebene Rahmenwerk nicht, konstatiert auch Marcus Nolte von der Arbeitsgruppe Elektronische Fahrzeugsysteme der TU Braunschweig. Sobald sich jemand nicht an die programmierten Regeln halte, werde es nichts mehr mit dem angeblichen Sicherheitsversprechen. Trotzdem handle es sich um einen wichtigen Beitrag in der Debatte über die Einsatzreife selbstfahrender Autos.

(olb)