Studie: Wie sich Wärmebildkameras in autonomen Fahrzeugen austricksen lassen

Schwachstellen in der Bildverarbeitung von Wärmebildkameras können autonomen Fahrzeugen und Drohnen Hindernisse vorgaukeln, wo keine sind. Es gibt aber Abhilfe.

vorlesen Druckansicht 6 Kommentare lesen
stilisiertes rotes autonomes Auto

(Bild: Dean Burton/Shutterstock.com)

Lesezeit: 3 Min.
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Ein Forschungsteam der University of Florida hat festgestellt, dass sich Wärmebildkameras in autonomen Fahrzeugen und Drohnen, die dort zur Hinderniserkennung eingesetzt werden, einfach durch andere Wärmequellen austricksen lassen. Die Wärmebildkameras liefern dann irreführende Daten, die etwa Phantomhindernisse vorgaukeln. Ein physischer Zugriff auf die Wärmebildkameras ist dafür nicht nötig.

Wärmebildkameras werden in autonomen Fahrzeugen und Drohnen immer dann eingesetzt, wenn Hindernisse wie Menschen, Tiere, Maschinen und andere Objekte bei schlechten Sichtverhältnissen detektiert werden sollen. Bei Nacht, Nebel, Regen und Rauch können sie Wärmeunterschiede erkennen und sind so nicht auf gute Sicht angewiesen wie herkömmliche Kamerasysteme.

Wissenschaftler der University of Florida haben in ihrer Studie „The Heat is On: Understanding and Mitigating Vulnerabilities of Thermal Image Perception in Autonomous Systems“ (PDF), die auf dem 2026 Network and Distributed System Security Symposium vorgestellt wurde, drei bisher unbekannte Schwachstellen in der Bildverarbeitung von Wärmebildkameras aufgedeckt. Diese beziehen sich auf die Bildentzerrung, die Sensorkalibrierung und das Linsenverhalten. Probleme aufgrund dieser Schwachstellen können durch natürlich vorkommende oder absichtlich platzierte Wärmequellen in der Umgebung ausgelöst werden. Die von der Wärmebildkamera wahrgenommene Temperatur kann so verändert oder die entstehenden Daten beeinträchtigt werden, sodass Hindernisse nicht mehr korrekt erkannt werden.

Dabei werden die spezielle Optik der Kamera und die proprietären Signalverarbeitungsalgorithmen so beeinflusst, dass real vorkommende Hindernisse nicht erkannt oder dem System nicht existierende Hindernisse vorgetäuscht werden. Die Daten müssen dazu nicht etwa durch physischen Zugriff auf das System manipuliert werden, da das Problem in der Bildverarbeitung und den Sensoren selbst steckt.

„Alles, was wir entdeckt haben, ist im Sensor selbst verankert. Die Daten sind also bereits manipuliert, wenn sie von der Drohne oder dem Auto verwendet werden“, erklärt Sara Rampazzi, Assistenzprofessorin am Department of Computer & Information Science & Engineering (CISE) und Hauptautorin der Studie . „Wir evaluieren modernste Algorithmen und Software, die in den von den Herstellern eingesetzten Kameras laufen, und fordern im Grunde mehr Sicherheit.“

Um die Risiken von gezielten Angriffen auf Wärmebildkameras zu minimieren, entwickelten die Forscher „defensive Signalverarbeitungstechniken“, die verdächtige Wärmebildsignaturen erkennen und unterdrücken können. Die von ihnen entwickelten Tools greifen direkt auf die internen Algorithmen der Wärmebildkameras zu, um die Beeinflussung von Messwerten auszuschließen.

Videos by heise

Zur Entwicklung der Tools mussten umfangreiche Untersuchungen mit realen Wärmedatensätzen durchgeführt werden. Für die dafür nötige hohe Rechenleistung verwendeten die Forscher den Supercomputer HiPerGator der University of Florida. Mit ihm simulierten sie verschiedene Angriffsszenarien und analysierten das Verhalten ihres Modells, um etwaige Schwachstellen herauszufinden.

Das Forschungsteam hat einige Hersteller von Wärmebildkameras über die Problematik darauf aufmerksam gemacht, ihre Algorithmen anzupassen. Ob sie das tun oder nicht, werden die Forscher aber wohl nicht erfahren. Rampazzi rechnet mit keiner Rückmeldung der Unternehmen, die in der Regel keine Angaben zu ihren proprietären Algorithmen machen.

(olb)