Wie sich visionsbasierte Fahrerassistenzsysteme und Autopiloten gefährlich austricksen lassen

Autonomes Fahrzeug mit Sensoren (Lidar, Radar, Kameras). Bild: Alena Nesterova/CC BY-SA-4.0

Israelische Forscher konnten zeigen, dass Teslas Autopilotsystem und MobilEye durch auf Oberflächen projizierte oder in Videos von digitalen Werbetafeln eingebaute Phantombilder zum plötzlichen Bremsen gebracht werden können

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Die Verwendung von Fahrzeugen zu Terroranschlägen geht fast auf die Erfindung des Sprengstoffs und den Beginn des Anarchismus mit der Taktik der "Propaganda der Tat" zurück. Allerdings handelte es sich noch nicht um ein motorisiertes Fahrzeug, sondern um eine Pferdefuhrwerk, das Mario Buda 1920 in New York vor dem Gebäude von J. P. Morgan abstellte, um gegen die Inhaftierung der Anarchisten Sacco und Vanzetti zu protestieren. Das mit Dynamit beladene Fuhrwerk riss, als es in die Luft ging, 40 Menschen mit in den Tod. Die Stadt war zum Schauplatz der "asymmetrischen" Konflikte geworden, die heute in vielen Ländern vorherrschen und die als globale Konflikte auch auf Städte in den Staaten übergreifen, die sich weit entfernt vom primären Konfliktfeld befinden.

Zunehmend spielten PKWs und LKWs im Zeit vor den bewaffneten Drohnen eine wachsende Rolle, um Anschläge auf Personen auszuführen. Den ersten großen Selbstmordanschlag beging 1983 ein Hisbollah-Mitglied mit einem Lastwagen, der vollgepackt war mit Sprengstoff, mit dem er das Tor der US-Botschaft in Beirut rammte. Kurz darauf erfolgte mit einem Lastwagen und 6 Tonnen Sprengstoff ein Selbstmordanschlag auf einen US-Stützpunkt am Flughafen in Beirut, der auch wegen der hohen Todeszahl ein Zeichen setzte: 241 US-Soldaten starben.

Selbstmordattenate mit Sprenggurten erweiterten das Spektrum von Anschlägen, der Attentäter wurde selbst zum Vehikel, der den Sprengstoff ans Ziel brachte. Ebenso wie das Militär mit Tanks und gepanzerten Fahrzeugen unterwegs ist, hatten Islamisten im Irak und Syrien begonnen, Fahrzeuge zu panzern, um so geschützt und gelenkt von einem Selbstmordfahrer vor allem in Städte oder zu militärischen Stützpunkten zu fahren. Die Islamisten haben schließlich damit begonnen, Fahrzeuge auch ohne Sprengstoff in Menschenmengen zu steuern oder einzelne Menschen zu töten, wie das einzelne Palästinenser gemacht haben. Zuletzt wurde das von rechten Anhänger von Donald Trump in den Städten gegen Protestierende zur Praxis.

Experimentiert wurde von Islamisten des Islamischen Staats neben dem Einsatz von Drohnen, die ferngesteuert oder vorprogrammiert Sprengsätze zu einem Ziel bringen oder selbst als Kamikazedrohnen fungieren, auch mit selbstfahrenden Fahrzeugen, um ohne Fahrer eine Sprengladung zu einem Ziel zu bringen. Das erwies sich jedoch zu komplex, obgleich autonome Fahrzeuge bereits seit Jahren entwickelt und getestet werden. Man kann davon ausgehen, dass neben militärischen und polizeilichen Anwendungen auch Kriminelle oder Terroristen autonome Fahrzeuge einsetzen oder hacken werden, um sie zu übernehmen.

Autonome oder mit Fahrassistenzen ausgestattete Fahrzeuge als Gefahrenquelle

Das FBI und das US-Heimatschutzministerium haben 2015 vor den Risiken des Internet of Things gewarnt und dabei auch darauf hingewiesen, dass es mit der Verbreitung von autonomen Fahrzeugen ungemütlich werden könnte. Alles lässt sich prinzipiell abhören und hacken, auch fahrende Autos, Drohnen und Flugzeuge, Smart Homes, Fabriken oder Kraftwerke.

Europol stieß ins selbe Horn: "Innovationen in den Bereichen Transport und Logistik werden es OCGs ermöglichen, über das Internet überall und zu jeder Zeit Verbrechen zu begehen, ohne körperlich präsent zu sein." Der gesellschaftliche Bedarf an zunehmender Mobilität von Personen und Dingen mit reduzierter Umweltbelastung führe zu Innovationen wie dem Sharing von Autos und Fahrrädern, neuen Formen des öffentlichen Verkehrs und Lieferdiensten oder On-demand-Angeboten, die ebenso wie die zunehmend vernetzten Privatfahrzeuge vernetzt sind und Daten in Echtzeit austauschen. Dazu gehören autonome oder ferngesteuerte Fahrzeuge wie Autos, Schiffe und Drohnen. Es steigen damit die Möglichkeiten, Fahrzeuge und Verkehrsnetze anzugreifen und zu manipulieren, so Europol. Kriminelle können mit unbemannten Systemen Waren schmuggeln oder diese durch Cyberangriffe umleiten, um diese zu stehlen, ohne direkt auftauchen zu müssen.

Anwendungsmöglichkeiten gäbe es reichlich. Autonome Fahrzeuge sind so programmiert, dass sie vorsichtig und "vernünftig" die Verkehrsregeln beachten und Unfälle vermeiden. Falls sie gehackt würden, könnten deswegen Vandalen umso mehr Unheil anrichten, wenn sie die Fahrzeuge so umprogrammieren oder fernsteuern, dass sie mit ihren Passagieren wild über die Straßen jagen, Unfälle verursachen und die übrigen autonomen Fahrzeuge zu schnellen, auch gefährlichen Reaktionen zwingen. Sicherheitsbehörden hätten gerne einen Zugriff, um Fahrzeuge stoppen, fernsteuern oder verschließen zu können, auf der anderen Seite können sie so zu Waffen für Anschläge umfunktioniert werden. In einer Simulation zum Trainieren von Sicherheitskräften für die Präsidentenwahl wurden auch autonome Fahrzeuge verwendet, die in Wahlbüros fuhren, um Unruhe und Angst auszulösen ("Neues Schlachtfeld": Wie Sicherheitsfirmen Angst vor der nächsten US-Präsidentschaftwahl schüren).

Austricksen mit Phantombildern

Erstmals konnten Forscher 2015 über Mobilfunk und eine Sicherheitslücke im Infotainmentsystem eines Fiat Chrysler einen Wagen hacken und weitgehend die Kontrolle übernehmen. Bei einem Jeep Cherokee demonstrierten sie, dass der in den Hack eingeweihte Fahrer nach und nach die Möglichkeit verlor, das Fahrzeug zu lenken, das schließlich in einem Straßengraben landete. Aber das waren noch keine autonomen Fahrzeuge.

Israelische Forscher der Ben Gurion Universität haben nun, wie Wired berichtet eine Möglichkeit entdeckt, das Tesla-Autopilot-System auszutricksen. Der Trick basiert darauf, dass die Sichtsysteme visuelle Phänomene anders sehen oder interpretieren, als dies Menschen können. So hatte 2016 die Kamera eines schnell fahrenden Tesla auf einer Autobahn die weiße Farbe eines von links nach rechts abbiegenden Lastwagens mit den Wolken im Hintergrund verbunden und damit ausgeblendet, während das Radar die hohe Plattform des Sattelzugs erkannt, aber als Schildbrücke klassifiziert hat. Es war der erste tödliche Unfall mit dem Autopiloten (Fahrzeuge sind keine Spielzeuge).

Die Sichtsysteme könnten aber auch sehen, was Menschen nicht erblicken. Solche Phantom-Objekte lassen sich verwenden, um den Tesla-Autopiloten auszutricksen. So haben die Wissenschaftler damit experimentiert, für Sekundenbruchteile Bilder von Fußgängern oder Schildern auf die Straße, auf Bäume oder andere Oberflächen zu projizieren, wodurch das System das Fahrzeug sofort und ohne Warnung stoppte. Damit konnten sie in der Nacht den HW2.5 Autopiloten mit einem projizierten Fußgänger und ein Mobileye 630 mit einem Verkehrszeichen zur Übermittlung einer falschen Fahrgeschwindigkeit austricksen.

Sie entdeckten dann, dass sich derselbe Effekt erzielen lässt, wenn ein Schild in ein Video auf einer digitalen Werbetafel am Straßenrand eingebaut wird. Damit konnten sie den HW3.0-Autopiloten austricksen. Es reichen ein paar Frames, auf denen ein Stopp-Schild ist, um den Effekt zu bewirken. 0,42 Sekunden für den HW3.0 und für MobilEye gerade einmal 0,12 Sekunden. Überdies versuchten sie Stellen im Video zu finden, die von Fahrern nicht wahrgenommen werden, um dort für eine halbe Sekunde ein Phantom-Verkehrszeichen auftauchen zu lassen.

Wenn eine solche Werbetafel mit dem Internet verbunden ist, könnten Hacker in ein dort laufendes Video irgendetwas Zusätzliches einbauen, so dass Autopilotsysteme sofort bremsen, womit sich Unfälle und Staus verursachen ließen. Dazu würde ja schon Fahrzeug mit einem Autopiloten reichen. Im Unterschied zu anderen Möglichkeiten, den Autopiloten auszutricksen, würde die von den israelischen Forschern entwickelte den Vor- oder Nachteil haben, keine physische Spuren zu hinterlassen. Man könnte, was auch schon andere demonstriert haben, ohne große technische Kenntnisse aus der Ferne in eine digitale Werbetafel eindringen und dort Phantom-Bilder einbauen.

MobilEye hat auf eine Bitte von Wired zu einer Stellungnahme gar nicht geantwortet, Tesla schrieb, das Autopilotsystem sei nicht als vollautonomes System angelegt. Tatsächlich verwenden autonome Fahrzeuge mit anderen Sensoren hochauflösende Lidarsysteme mit großer Reichweite, um Geschwindigkeit und Distanzen zu messen, die sich mit solchen Phantombildern nicht wie Kameras oder Radarsysteme austricksen ließen. Aber auch multisensorische Systeme könnten sich austricksen lassen, meint Ben Nassi, einer der Forscher: "Wenn man ein System implementiert, das Phantome nicht beachtet, wenn sie nicht durch andere Sensoren bestätigt werden, wird man wahrscheinlich Unfälle haben." Und vermutlich lassen sich Möglichkeiten finden, alle Sensorsysteme mit Phantomsignalen zu beeinflussen.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.