KI ohne Schnüffeln: Apple will zeigen, dass das geht

Dank maschinellem Lernen werden digitale Assistenten immer smarter. Die dafür benötigte Datenerfassung muss aber nicht privatsphärenfeindlich sein.

In Pocket speichern vorlesen Druckansicht
Siri-Aufnahme

Mann spricht in ein iPhone.

(Bild: dpa, Alexander Heinl)

Lesezeit: 3 Min.
Von
  • Karen Hao

Wer ein iPhone besitzt, wird über das letzte Jahr hinweg ein verändertes Verhalten der Sprachassistentin Siri bemerkt haben. Sie wacht nun auf, wenn man "Hey Siri" sagt – aber nur dann, wenn es die eigene Stimme ist, nicht die von Freunden oder der Familie.

Der Grund für diese Änderung ist vernünftig: Apple möchte verhindern, dass alle iPhones in einem Raum reagieren, wenn eine Person das "Wake Word" sagt. Zur Umsetzung dieser Funktion könnte man annehmen, dass der Konzern viele persönliche Audiodaten sammeln musste. Überraschenderweise war das allerdings nicht so.

Stattdessen verließ sich der Konzern auf eine Technik, die sich "Federated Learning" nennt. Das erläuterte Julien Freudiger, Leiter des Bereichs Privatsphärenschutz bei Apple, kürzlich auf der Konferenz "Neural Processing Information Systems". Federated Learning ist eine Methode des maschinellen Lernens, bei der die Daten der Nutzer geschützt werden sollen. Sie wurde ursprünglich ausgerechnet von Google eingeführt, das war bereits 2017.

Das Verfahren erlaubt es Apple, verschiedene Kopien eines Sprechererkennungsmodells über alle Geräte hinweg zu trainieren, die der Nutzer besitzt. Dabei kommen nur Audiodaten zum Einsatz, die lokal zur Verfügung stehen. Das aktualisiert Modell wird dann an einen zentralen Server geschickt, wo es zu einem Master-Modell kombiniert werden kann. Auf diese Weise verlassen die Rohdaten der Anfragen an Siri der Nutzer nie ihre iPhones und iPads – und dennoch wird die Sprachassistentin automatisch besser darin, den richtigen Sprecher zu identifizieren.

Neben Federated Learning nutzt Apple außerdem die sogenannte Differential Privacy als weitere Schutzschicht. Diese Technik injiziert stets eine kleine Menge an Rauschen in die Rohdaten, bevor diese dann einem lokalen Machine-Learning-Modell vorgelegt werden. Dieser zusätzliche Schritt macht es außerordentlich schwierig für einen Angreifer, aus dem trainierten Modell wieder auf die originalen Audiodaten zu schließen.

Obwohl Apple Differential Privacy bereits seit 2017 nutzt, wird das Verfahren erst seit iOS 13 mit Federated Learning kombiniert – es erschien im September 2019. Neben der Personalisierung von Siri werden beide Verfahren auch für andere Anwendungen verwendet, darunter die personalisierte Tastatur QuickType und das sogenannte Gefunden-in-einer-App-Feature, das im Kalender oder der Mail-App nach Namen von Kontakten sucht, die noch nicht im Adressbuch stehen. Freudiger zufolge wird Apple die Datenschutzmethoden bald auch in anderen Apps und Funktionen unterbringen.

Im vergangenen Jahr wurde Federated Learning im Bereich der KI-Forschungsgemeinde immer beliebter – schließlich werden die Datenschutzbedenken gegenüber den Internetriesen immer größer. Im März führte Google eine Reihe neuer Werkzeuge ein, die es Entwicklern erleichtern sollen, ihre eigenen Federated-Learning-Modelle zu implementieren. Sie sollen unter anderem dabei helfen, KI in Gesundheitsanwendungen sicherer zu machen. Firmen wie Owkin, Doc.ai oder Nvidia meldeten ihr Interesse an.

So neu diese Verfahren eigentlich noch sind – Apples Verwendung bei Siri zeigt, dass es durchaus möglich ist, sie hochzuskalieren auf viele Millionen Geräte. Das Vorgehen zeigt auch, dass es durchaus möglich ist, technischen Fortschritt und Privatsphärenschutz gleichzeitig zu erreichen – wenn man es nur will.

(bsc)