Alexa: Akustische Man-in-the-Middle-Attacke gegen Amazons Sprachassistenten

Per Ultraschall lassen sich Alexa-Anfragen stören und manipulieren. Ein Proof of Concept belegt: Die lügende Alexa ist ein technisch realisierbares Szenario.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht
Lesezeit: 8 Min.
Inhaltsverzeichnis

Alexa könnte durch Hacker kompromittiert werden. Das ist eine Aussage, die beunruhigt, aber durchaus realistisch ist. So lassen sich beispielsweise Smart-Home-Anwendungen manipulieren. Bittet der Anwender etwa: "Alexa, schließe die Haustür!", so antwortet Alexa in diesem Fall nach kurzem Zögern: "Ich habe die Haustür geschlossen." Tatsächlich wurde sie aber geöffnet. Selbst von Alexa verlesene Protokolleinträge können gezielt gelogen sein. Dabei kommen die Antworten direkt vom Amazon Voice Service (AVS), Stimme und Sprechweise sind original.

Eine derartige Konfiguration kann man am System Security Lab des CYSEC an der TU Darmstadt im Laborbetrieb beobachten. Das Wissenschaftler-Team um Prof. Ahmad-Reza Sadeghi hat einen Proof of Concept konzipiert und aufgebaut, mit dem ein Echo-Lautsprecher kompromittiert wird. Ihre Erkenntnisse haben sie am im Juni 2018 auf der Design Automation Conference in San Francisco erstmals der Öffentlichkeit vorgestellt. Prinzipiell seien alle Alexa-Smart-Speaker auf diese Weise angreifbar.

Für eine akustische Man-in-the-middle-Attacke gegen einen Sprachassistenten müssen drei Bedingungen erfüllt sein. Zum einen muss die ursprüngliche Anwender-Frage blockiert werden. Zugleich muss der Angreifer diese Anfrage auffangen und analysieren, und schließlich muss er unbemerkt eine manipulierte Anweisung an den Sprachassistenten übermitteln.

Das war die Leseprobe unseres heise-Plus-Artikels "Alexa: Akustische Man-in-the-Middle-Attacke gegen Amazons Sprachassistenten". Mit einem heise-Plus-Abo können sie den ganzen Artikel lesen und anhören.