Indiskrete Sprachassistentin: Auch bei Siri hören Menschen zu

Ein Teil der Fragen an Apples Assistentin Siri wird zur Kontrolle an Menschen weitergeleitet. Die bekommen dadurch private und sogar intime Gespräche mit.

In Pocket speichern vorlesen Druckansicht 354 Kommentare lesen
App "Siri"

Manchmal hört nicht nur das Telefon zu.

(Bild: dpa, Alexander Heinl)

Lesezeit: 3 Min.

Mitarbeiter von Apple bekommen regelmäßig Einblicke ins Privatleben von Apples Kunden, von der Konversation mit dem Arzt bis zum Geschlechtsverkehr. Das liegt an der Assistentin Siri, die Gesprächsfetzen aufzeichnet und versucht, darin enthaltene Fragen zu beantworten. Zur Qualitätskontrolle und -verbesserung bekommen auch menschliche Mitarbeiter einen Teil dieser Aufzeichungen zu hören. Wenn die Assistentin fälschlicherweise glaubt angefragt worden zu sein – was regelmäßig vorkommt –, dann sind auch Gespräche betroffen, die die Kunden gar nicht mit Siri teilen wollen.

Apples Mitarbeiter sind damit beauftragt, Siris Reaktionen auf die Gesprächsschnipsel zu bewerten. Angefangen damit, ob die Aktivierung der künstlichen Assistentin überhaupt gewünscht war, aber auch ob Siris Antwort angemessen war und ob es sich überhaupt um eine von Siri beantwortbare Frage handelt. Wie ein anonym gehaltener Mitarbeiter jetzt dem britischen Guardian berichtet hat, löst die Assistentin häufig unerwünscht aus – unter anderem das Geräusch eines Reißverschlusses würde oft Siri aktivieren. Die dann entstehenden Aufzeichnungen sind teilweise höchst intim. Der (oder die) Whistleblower(in) erzählt von "unzähligen Aufzeichnungen, die private Diskussionen zwischen Ärzten und Patienten enthalten, Geschäftsvereinbarungen, scheinbar kriminelle Deals, sexuelle Beziehungen und so weiter."

Gegenüber dem Guardian hat Apple das Vorgehen bestätigt. Die Firma betont, dass "weniger als 1% der täglichen Siri-Aktivierungen" betroffen sind, dass die Daten nicht mit der Apple ID verknüpft würden und dass die betreffenden Mitarbeiter sich an Apples "strikte Vertraulichkeitsvereinbarungen" halten müssten. Das alles ist aber ein sehr schwacher Trost. Schon der Inhalt der Gespräche kann ausreichen, um die Betroffenen zu identifizieren. Laut der Quelle des Guardian kommt hinzu, dass Apple die Aufzeichnungen mit Metadaten anreichere, damit die Mitarbeiter Siris Reaktion besser bewerten können. Zu den Daten gehöre unter anderem die geografische Position und Kontaktinformationen. Außerdem würden Drittfirmen mit der Auswertung beauftragt und es gäbe eine hohe Fluktuation der Mitarbeiter — es sieht also nicht danach aus, dass Apple die Einhaltung seiner Vertraulichkeitsvereinbarungen garantieren kann.

Pikant ist außerdem, dass Apple in seinen Erläuterungen zum Datenschutz zwar erwähnt, Daten zur Verbesserung von Siri und der Diktierfunktion zu sammeln, aber es wird weder explizit gemacht, dass diese Daten Gesprächsmitschnitte beinhalten, noch dass diese von Menschen ausgewertet werden. Für eine Firma, die nach eigenem Bekunden Wert auf Datenschutz legt, ist das durchaus peinlich.

Grundsätzlich ist Apples Vorgehen nichts Neues; auch die Assistentin Alexa von Amazon und Googles "Assistant" zeichnen Gespräche auf, lösen immer wieder fälschlicherweise aus und lassen mitunter Menschen zuhören. Das scheint auch technisch unumgänglich: Menschen bekommen die Gespräche ja zu hören, gerade weil Siri & Co noch korrigiert und verbessert werden müssen. Wenn man dieses Korrektiv zuverlässig auch ohne menschliches Feedback bieten könnte, dann wäre es auch nicht mehr nötig, so ein Korrektiv überhaupt zu haben. Bei Amazon und Google kann man immerhin per Einstellung einige Verwendungsarten der eigenen Aufzeichnungen ausschließen. Apple-Nutzer haben momentan nur die Möglichkeit, Siri komplett auszuschalten, wenn sie sicherstellen wollen, dass ihre Gespräche nicht von Menschen gehört werden. (syt)