Alexa-FAQ: So löschen Sie Ihre persönlichen Sprachaufzeichnungen

Amazon hat intime Alexa-Sprachdateien preisgegeben. Wie konnte das passieren und was können Nutzer tun, um ihre persönlichen Aufnahmen zu löschen? Eine FAQ.

In Pocket speichern vorlesen Druckansicht 143 Kommentare lesen
Alexa

(Bild: dpa, Elaine Thompson/AP)

Lesezeit: 3 Min.
Inhaltsverzeichnis

Die Echo-Geräte von Amazon finden sich in Wohnzimmern – und sogar in Schlafzimmern. Dort warten die Geräte auf das Schlüsselwort und zeichnen dann auf, was die Menschen sagen, damit die Sprachassistentin Alexa vom Wetter berichtet oder einen Witz erzählt. Doch nun ist das passiert, was Datenschutzkritiker immer befürchtet haben: Amazon gab intime Alexa-Sprachdateien preis, rund 1700 Alexa-Sprachaufzeichnungen gelangten in die Hände eines Unbefugten. Ein datenschutzrechtlicher GAU. Die Antworten auf die wichtigsten Fragen.

Die Sprachaufzeichnungen speichert Amazon unbefristet, um die "Systeme zur Spracherkennung" zu trainieren. Sie sollen immer besser die natürliche Sprache der Nutzer verarbeiten können. Alexa kann somit auch achtlos hingenuschelte Befehle richtig verarbeiten.

Ja, jeder Amazon-Kunde kann die Sprachdateien jederzeit überprüfen und auch löschen. Das geht manuell im Kundenportal unter www.amazon.de/alexaprivacy. Auf dieser Seite sind alle Sprachaufnahmen chronologisch aufgelistet. Mit einem Klick lassen sich einzelne oder gleich alle Aufzeichnungen entfernen. Vielen Kunden dürfte dies nicht bekannt sein.

Die Echo-Geräte (und andere, die Alexa integriert haben) nehmen nicht automatisch alle Gespräche auf, sondern warten auf das "Aktivierungswort". Es lautet "Alexa", "Echo", "Amazon" oder "Computer", erläutert Amazon in einer FAQ. Ohne die Erkennung des Aktivierungsworts werden Sprachaufzeichnungen nicht gespeichert oder in die Cloud geleitet, verspricht Amazon.

Wenn der Nutzer dann mit mit Alexa plaudert, leuchtet ein Lichtsignal auf. Das Gerät leitet die Aufzeichnungen an "Amazons Cloud weiter", wo sie verarbeitet werden. Die Aufnahme endet, sobald die "Frage beziehungsweise Aufforderung bearbeitet wurde". Die Befehle werden mit dem jeweiligen Amazon-Konto verknüpft. Alexa passt sich zudem an die persönlichen Sprachgewohnheiten an. Eine "Mikrofontaste" an den Echo-Geräten deaktiviert das Mikrofon, sodass keine Audiodaten in die Cloud geschickt werden können.

Der DSGVO-Experte Dr. Carlo Piltz erklärt im c't-Interview: "Wenn hier der Zweck der Datenverarbeitung zur Anlernung der KI tatsächlich erforderlich ist, um auch den Dienst mit Spracherkennung so anbieten zu können, würde der Grundsatz der Datensparsamkeit diese Verarbeitung nicht unbedingt verbieten. Es dürften nur nicht mehr Daten verarbeitet und länger gespeichert werden, als für diesen Zweck erforderlich."

Die Weitergabe von Tondateien an einen unberechtigten Dritten "kann mehrere DSGVO-Vorgaben verletzen, zum Beispiel die Vorschriften zur Sicherstellung einer angemessenen Datensicherheit oder auch die Pflicht, Daten nur zu übermitteln, wenn dafür eine Erlaubnis vorliegt", erklärt Piltz.

Der Kunde hatte sein Recht auf Selbstauskunft aus der neuen Datenschutz-Grundverordnung (DSGVO) wahrgenommen. Sie gewährt "betroffenen Personen" ein umfangreiches Auskunftsrecht. Von Amazon erhielt der Nutzer daraufhin eine ZIP-Datei, die auch 1700 WAV-Dateien enthielt. Offenbar hatte Amazon sie dem falschen Kundenkonto zugeordnet, denn der betroffene Nutzer hat Alexa nie verwendet. Das deutet auf mangelhafte Prüfmechanismen im Auskunftsverfahren hin. Amazon selbst spricht von einem "menschlichen Fehler" und "isolierten Einzelfall".

Alexa ist längst nicht mehr nur in Amazon-Hardware wie dem Echo Dot oder Echo Spot zu finden. Auch Geräte von Drittherstellern sind mit Alexa ausgestattet, etwa die Sonos One oder diverse Smart-Home-Geräte. (dbe)