Siri: Keine Stimmauswertung durch Apple-Mitarbeiter mehr
Nachdem bekannt wurde, dass der Konzern Aufnahmen der Sprachassistentin zu Qualitätssicherungszwecken überprüfen lässt, kam es zu Protesten. Apple reagiert nun.
Apple hat Überprüfungen von Sprachaufnahmen seines Assistenzsystems Siri durch Mitarbeiter eingestellt. Das Unternehmen werde künftig ausdrücklich eine Erlaubnis dazu einholen, erklärte Apple.
Die Funktion solle in einem späteren Software-Update umgesetzt werden, teilte Apple dem Tech-Blog TechCrunch mit. Bis dahin werde die Praxis jedoch weltweit gestoppt und auf den Prüfstand gestellt. Die Erkenntnis, dass Menschen Siri-Aufnahmen abhören können, hatte weltweit für Unverständnis gesorgt – weil viele Nutzer dies schlicht nicht wussten.
Seit Jahren Praxis
Bei digitalen Assistenten wie Amazons Alexa, dem Google Assistant und Siri wurden Fragmente von Mitschnitten seit Jahren zum Teil auch von Menschen angehört und abgetippt, um die Qualität der Spracherkennung zu verbessern. Es geht dabei zum Beispiel um Fälle, wo die Sprachassistenten versagten, falsche Erkennung von Aktivierungswörtern oder neue Sprachen und Dialekte. Die Anbieter betonen, dass die Aufnahmen davor anonymisiert werden – das sagt auch Apple. Den Nutzern war die Praxis allerdings weitestgehend nicht bewusst, bis vor kurzem erste Medienberichte dazu auftauchten. Apple erledigt die Arbeit zudem nicht nur im eigenen Haus, sondern lagert sie an externe Firmen aus, was ein zusätzliches Sicherheitsproblem darstellen könnte.
Apple verwies schon länger in einem Sicherheitsdokument darauf, dass auch "eine geringe Anzahl von Transkriptionen" für die Verbesserung des Dienstes eingesetzt werden könne. Nach dem Papier im Bereich für Entwickler musste man allerdings suchen – und die Nutzer werden bei der Einrichtung von Siri bisher nicht explizit auf diese Möglichkeit hingewiesen. Ein Feature, mit dem sich die Übertragung an Apples Server grundsätzlich abdrehen lässt, ist in iOS zwar vorhanden, allerdings nur über den komplizierten Apple Configurator erreichbar.
Weckworte fehlerhaft verstanden
In einer Meldung der Zeitung Guardian aus der vergangenen Woche erzählte der Mitarbeiter eines Apple-Dienstleisters, auf den Aufnahmen seien zum Teil sehr private Details zu hören. So schnappe Siri auch Fragmente von Gesprächen mit medizinischen oder geschäftlichen Inhalten, mögliche kriminelle Aktivitäten oder auch Nutzer beim Sex auf, sagte er.
Die fehlerhaften Aktivierungen, bei denen die Software glaubt, die Weckworte "Hey, Siri" gehört zu haben, sind dabei ein besonderes Problem. Denn dabei können Sätze und Unterhaltungen aufgezeichnet werden, die nicht an die Sprachassistentin gerichtet waren. Beim nachträglichen Anhören sollen die Mitarbeiter herausfinden, welche Worte oder Geräusche die versehentliche Aktivierung auslösten, um die Software entsprechend anzupassen. Nach früheren Angaben von Apple wurde weniger als ein Prozent der Aufnahmen in meist nur wenige Sekunden langen Fragmenten von Menschen ausgewertet.
Google reagiert ebenfalls – wegen DSGVO
Erst am Donnerstag war bekannt geworden, dass Google nach einem ähnlichen Bericht über seinen Assistant bereits Anfang Juli das Anhören der Mitschnitte durch Menschen in der EU ausgesetzt hat. Damit reagiert der Konzern auf Bedenken von Datenschützern, die glauben, die Praxis verstoße gegen die DSGVO.
Der Stopp gilt noch mindestens bis Ende Oktober, wie der Hamburger Datenschützer Johannes Caspar mitteilte. Er leitete wegen der Praxis ein Verwaltungsverfahren gegen den Internet-Konzern ein, um das Anhören der Mitschnitte durch Google-Mitarbeiter oder Dienstleister zu untersagen. (mit Material der dpa)
(bsc)