Alexa & Co.: Technische Hilfe gegen unerwünschtes Mithören

Forscher der TU Darmstadt haben mit internationalen Partnern ein Gerät entwickelt, das Sprachassistenten überführt, die unerwartet Konversation mitschneiden.

In Pocket speichern vorlesen Druckansicht 75 Kommentare lesen
Alexa & Co.: Technische Hilfe gegen unerwünschtes Mithören

(Bild: MAHATHIR MOHD YASIN/Shutterstock.com)

Lesezeit: 4 Min.
Inhaltsverzeichnis

Immer mehr Geräte im Smart Home sowie Smartphones und andere Wearables sind mit Diensten für das Erkennen und Auswerten menschlicher Sprache ausgerüstet. Intelligente Lautsprecher, smarte Fernseher, Thermostate, Sicherheitssysteme und Türklingeln haben Mikrofone für ständig mitlauschende Sprachassistenten an Bord, was den Datenschutz aushöhlen kann. Dass diese unerwünscht Gespräche mitschneiden, soll eine technische Lösung verhindern, die ein Team von Cybersicherheitsforschern der TU Darmstadt mitentwickelt hat.

Sprachassistenten lassen sich von Nutzern in der Regel mit einem Weckwort aktivieren, bei Amazons Echo-Lautsprecher kommt dafür üblicherweise der Satzanfang "Alexa, …" mit einem gewünschten Befehl zum Einsatz. Die Gruppe von Wissenschaftlern, der auch Partner der TU von der französischen Universität Paris-Saclay und der North Carolina State University in den USA angehören, führte nun umfangreiche Experimente mit Amazon Echo (Alexa), Google Home (Assistant), Apple Home Pod (Siri) und dem Audio-Einbruchsschutzsystem Hive Hub 360 durch.

Dabei entdeckten die Forscher laut ihrem Bericht, den sie jüngst auf dem Preprint-Server Arxiv.org publiziert haben, zahlreiche englische Begriffe, die die Assistenten fälschlicherweise als Weckworte interpretierten. Bei Alexa machten sie 89 solcher Ausdrücke aus, zu denen etwa "Letter" oder "Mixer" gehörten. Der Dienst reagierte darauf auch unabhängig davon, ob sie von einer künstlich erzeugten Roboter-Stimme oder einem Menschen gesprochen wurden. Die ungewollt aufgezeichneten Audio-Daten werden dann in die Cloud hochgeladen und von Amazon analysiert.

Die Analyse zeigte auch, dass die untersuchten Assistenzgeräte im normalen Standby-Betrieb in der Regel nicht viel Datenverkehr senden. Daher ist es möglich, Audioübertragungen anhand der von ihnen verursachten Zunahme der Transferrate zu erkennen. Der entwickelte Ansatz passt den Wissenschaftlern zufolge auf alle technischen Helfer, die Audio senden. Man habe sich aber auf die vier Gerätetypen beschränkt, da sie weit verbreitet seien und ein großes Spektrum von Anwendungsfällen abdeckten.

Um eine plötzliche Zunahme an Datenverkehr messen und einschlägige Parameter bestimmen zu können, überwachte das Team den Traffic der Geräte und wie dieser auf Gesprächsproben reagierte, die in die Umgebung der Mikrofone ausgesendet wurden. Üblicherweise geht die Rate dabei auch wieder zurück, wenn keine Stimmen mehr zu hören sind. So ließ sich der Verkehr in einzelne Zeitfenster unterteilen.

Auf Basis dieser Erkenntnisse bauten die Forscher ein Gerät zur "Spionageabwehr" und tauften es "LeakyPick". Es lässt sich laut dem Artikel in der Wohnung eines Benutzers platzieren und testet dann in regelmäßigen Abständen die anderen Sprachassistenten in seiner Umgebung mit Audio-Befehlen. Der nachfolgende Netzwerkverkehr wird auf die ausgemachten statistischen Muster hin überwacht, die auf eine Audioübertragung hinweisen. LeakyPick weist dann auf Geräte hin, die unerwartet aktiv geworden sind.

Die Kontrolleinheit existiert derzeit als Prototyp und ist laut der TU Darmstadt "noch nicht im Handel erhältlich". Sie basiert auf einem Raspberry Pi 3B und soll eine Messgenauigkeit von 94 Prozent beim Erkennen von Audioübertragungen durch bis zu acht Geräten mit Sprachassistenten erreichen.

LeakyPick könnte auch gegen raffinierte akustische Man-in-the-middle-Angriffe auf Alexa & Co. helfen, schreiben die Experten. Dabei werden Weckwörter und Befehle in dem für Menschen nicht hörbaren, von dem Assistenten aber erfassten Ultraschall-Bereich gesendet und so etwa Bestellungen bei Amazon getätigt. Wenn das den Datenverkehr überwachende Gerät eine Aktivität feststellt, obwohl kein hörbarer Befehl erfolgt ist, könnte das auf eine solche Attacke hindeuten.

(axk)