Sicherheitsforscher befehligen Alexa, Siri & Co. via Laserstrahl

Angreifer könnten unter Umständen Sprachassistenten in einem Lichtstrahl codierte Befehle unterschieben und so etwa ein smartes Türschloss öffnen.

In Pocket speichern vorlesen Druckansicht 49 Kommentare lesen
Sicherheitsforscher befehligen Alexa, Siri & Co. via Laserstrahl
Lesezeit: 3 Min.
Inhaltsverzeichnis

Die Sprachassistenzsysteme von unter anderem Amazon, Apple und Google sind für Attacken mit einem Laserstrahl anfällig. Dabei könnten Angreifer beispielsweise smarte Lautsprecher und Smartphones ins Visier nehmen und mit einem Lichtstrahl die Ausführung von Befehlen anstoßen.

Klappt das, könnten sie so eventuell in ein Smart Home eingebundene Geräte steuern und Haustüren oder Garagentore öffnen. Attacken klappen aber nur, wenn die Geräte in Sichtweite sind und eine bestimmte Entfernung nicht überschritten wird.

In einer Abhandlung zeigen Sicherheitsforscher der University of Michigan und der japanischen University of Electro-Communications, wie das aus 75 Metern Entfernung durch ein Fenster geklappt hat. Unter Laborbedingen ist ihnen das maximal aus einer Entfernung von 110 Metern gelungen. Voraussetzung für eine erfolgreiche Übermittlung ist, dass der Laserstrahl direkt auf das Mikrofon zielt.

In ihren Tests haben die Sicherheitsforscher auf Equipment im Wert von rund 500 Euro gesetzt.

(Bild: lightcommands.com/ )

Mikrofone setzen aufgenommene Töne in elektrische Signale um. Die Sicherheitsforscher haben nun herausgefunden, dass man elektrische Signale in einen Lichtstrahl modulieren kann und damit das Mikrofon so anregen kann, als würde es einen Sprachbefehl bekommen. Dafür haben sie eigenen Angaben zufolge Equipment für rund 500 Euro benötigt.

Den Sicherheitsforschern zufolge ist die Prüfung, ob ein Sprachbefehl von einem registrierten Nutzer stammt, bei smarten Lautsprechern standardmäßig nicht aktiv. Beim Großteil von Smartphones und Tablets sei das wiederum der Fall. So könnten potenzielle Angreifer smarte Lautsprecher attackieren, ohne die Stimme des Besitzers imitieren zu müssen. Weiterhin schreiben sie, dass man Wake-up-Befehle wie "Hey Siri" und die Spracherkennung für Befehle des Besitzers unter Umständen auch umgehen konnte.

Auf einer Website zu ihren Ergebnissen listen die Sicherheitsforscher verschiedene Geräte auf, mit denen sie ihre Laser-Attacke erfolgreich getestet haben. Darunter befinden sich beispielsweise die smarten Lautsprecher Amazon Echo, Google Home und die Smartphones iPhone XR und Samsung Galaxy S9. Auf der Seite findet man auch Angaben zur nötigen Leistung eines Laserstrahls und der maximalen Entfernungen für erfolgreiche Attacken.

Die Sicherheitsforscher gehen davon aus, dass alle Geräte betroffen sind, die auf sogenannte MEMS-Mikrofone (microelectro-mechanical systems) setzen. Schützen kann man sich vor solchen Laser-Attacken nur schwer. Bislang gehen die Forscher davon aus, dass es keine Angriffe dieser Art gegeben hat. Es ist eher unwahrscheinlich, dass ein Angreifer den smarten Lautsprecher im eigenen Schlafzimmer ins Visier nimmt.

Um dem Angriffsszenario entgegenzuwirken, empfehlen sie Herstellern, weitere Authentifizierungsschichten zu implementieren. Beispielsweise könnte ein Gerät einem Nutzer eine individuelle Frage stellen. Außerdem könnten Hersteller die MEMS-Mikrofone mit Schutzbarrieren umhüllen, um Lichtstrahlen abzuhalten. Auf der Gegenseite könnten Angreifer aber dann die Leistung eines Laserstrahls erhöhen. (des)