Autonome Fahrzeuge: Bei unsicheren Sensordaten drĂĽckt KI aufs Bremspedal
Sind die Sensoren autonomer Fahrzeuge gestört, treffen ihre KI-Systeme Fehlentscheidungen. Wissenschaftler aus Magdeburg wollen eine Lösung gefunden haben.
(Bild: Jana DĂĽnnhaupt/Uni Magdeburg)
Autonom agierende Fahrzeuge bringen ein fundamentales Problem mit sich: Sie müssen ihre Umgebung nicht nur erfassen, sondern auch erkennen, wann ihre Sensoren keine zuverlässigen Ergebnisse mehr liefern können. Solche Situationen ergeben sich vor allem durch schlechte Witterungsbedingungen oder eingeschränkte Sichtverhältnisse: Nebel, Regen, Schneefall oder Straßenbewuchs stört die Sensorik von autonomen Fahrzeugen, woraufhin ihre KI-Systeme keine präzisen Entscheidungen mehr treffen können.
Wissenschaftler der Otto-von-Guericke-Universität Magdeburg haben deshalb ein KI-gestütztes Verfahren entwickelt, das eine unsichere Datenlage der Kamera- und Lidar-Sensoren erkennt und autonome Fahrzeuge im Zweifelsfall zum Anhalten bringt. Laut Christoph Steup, dem Leiter des Projekts, kombiniert die Methodik maschinelles Sehen mit maschineller Selbsteinschätzung. Die KI analysiert also nicht nur, was sie wahrnimmt, sondern auch, wie zuverlässig die zugrundeliegenden Daten sind. Sinkt die Qualität der Sensordaten unter einen gewissen Schwellenwert, reagiert das System automatisch.
Erfolgreiche Tests an autonomem Shuttle
Das vom Bund geförderte Forschungsprojekt AULA-KI versucht, gerade jene Schwelle der Vertrauenswürdigkeit von Daten technisch erfassbar zu machen. Die entwickelten Konzepte hat das Team der Uni Magdeburg dabei teilweise schon in Software umgesetzt und an einem autonomen Fahrzeug auf dem Galileo-Testfeld der Uni getestet. Der eingesetzte EasyMile EZ10 Shuttle ist mit 8 Lidar und zwei Kameras ausgestattet, es kann bis zu sechs Personen befördern.
Die Beeinträchtigungen der Sensorik des autonomen Shuttles durch Nebel, Regen und Schnee konnte das KI-basierte Verfahren im Testbetrieb sehr zuverlässig detektieren. Im Fall von gemäßigtem Regen- oder Schneefall war es ihm sogar möglich, die Störungen teilweise zu kompensieren.
Vollständig korrigiert werden konnten die Sensordaten aber nicht immer, insbesondere bei starkem Regen oder Schneefall. Ziel war dann, die KI-Systeme des autonomen Fahrzeugs dazu zu bringen, kontrolliert anzuhalten. Das gelang Steup zufolge ziemlich zuverlässig. „Das System war im Zweifel lieber zu vorsichtig als zu riskant“, sagt der Projektleiter. Entscheidend für die Sicherheit des autonomen Fahrens sei aber vor allem der vorgelagerte Schritt: Ein autonomes Fahrzeug muss erkennen, dass die Datengrundlage gestört ist, bevor es falsch reagiert.
Videos by heise
Forschung könnte gesellschaftlich relevant sein
Steup sieht eine hohe gesellschaftliche Relevanz der Forschungsergebnisse. Autonome Fahrzeuge würden nur dann gesellschaftlich akzeptiert, wenn sie auch unter schwierigen Bedingungen verlässlich und sicher blieben. Das an der Universität Magdeburg entwickelte Verfahren liefere dafür zentrale Bausteine.
Ob und wann das System in Serienfahrzeugen eingesetzt werden könnte, ist derzeit offen. Der Transfer in konkrete Anwendungen ist der Pressemitteilung der Universität Magdeburg zufolge aber ausdrückliches Ziel. Konkrete Pläne oder Produkte nennt die Universität bislang keine.
Fraglich ist auch, ob die in Magdeburg entwickelte Technologie in der Lage ist, sich gegen Angriffe zu schützen, die Prompt Injections ähneln. Erst kürzlich hatten Wissenschaftler der University of California, Santa Cruz und der Johns Hopkins University gezeigt, dass die KI-Systeme autonomer Fahrzeuge mittels präparierter Schilder getäuscht werden können. Denn die in den Tests untersuchten KI-Modelle bewerteten die auf den Schildern angezeigten Texte nicht als reine Information, sondern als auszuführende Befehle. In bis zu 95 Prozent der Fälle konnten die getesteten KI-Modelle so erfolgreich zu Fehlentscheidungen verleitet werden.
(rah)