Apple Intelligence: So sicher sollen die Cloudserver sein

Trotz hauptsächlicher Verarbeitung auf dem Gerät kommt auch Apples KI nicht ohne Cloudserver aus. Jetzt wurden neue Details zum Datenschutz bekannt.

In Pocket speichern vorlesen Druckansicht 31 Kommentare lesen
Apple-Logo auf einer Geräterückseite

(Bild: Sebastian Trepesch)

Lesezeit: 4 Min.
Inhaltsverzeichnis

Die Versprechen, die Apple rund um seine Cloudserver für die Apple Intelligence abgegeben hat, sind groß: Daten, die dort künftig für Apples Künstliche Intelligenz verarbeitet werden, sollen nicht gespeichert und für andere Zwecke weiterverarbeitet werden, versprach der iPhone-Hersteller in der Keynote am Montag. Doch wie genau soll das eigentlich funktionieren? Dazu wurden jetzt weitere Details bekannt. Apple hat hierzu auch einen Blogpost verfasst.

Apples Cloud soll nur dann zum Zuge kommen, wenn die lokale Verarbeitung auf dem iPhone, iPad oder Mac nicht möglich ist, verspricht Apple. Wann dies der Fall ist, entscheidet das System selbst – für den Nutzer wird es offenbar nicht ersichtlich sein, wo genau die Daten verarbeitet wurden. In jedem Fall behalte das Gerät aber immer die Hoheit über den persönlichen Kontext, der basierend auf den persönlichen Daten des Nutzers wie Mails, Kontakte, Nachrichten und anderen Datensätzen gebildet wird. Nur die jeweils benötigten Daten übergebe das Gerät mit einem Prompt an die Server und übe sich damit in Datenminimalismus. Der semantische Index, in dem alle relevanten Daten auf dem lokalen Gerät gespeichert werden, werde auf Kernel-Ebene gesichert und sei von anderen Apps nicht einsehbar, erfuhr heise online.

Deswegen sei eben auch ein A17 Pro, ein M1, M2, M3 oder M4 von Apple nötig – nur diese Chips hätten die nötigen Voraussetzungen, heißt es.

Für seine Server setzt Apple ebenfalls auf den Apple Silicon. Welchen Chip genau man einsetzt, verrät Apple nicht – wohl aber ist zu hören, dass ein eigenes Betriebssystem für das Private Cloud Compute geschrieben wurde, das auf dem iPhone-Betriebssystem iOS basiere. Der Grund hierfür sei, dass Apple in Sachen Security viele Erfahrungen mit dem iPhone gesammelt habe und diese Erkenntnisse in Private Cloud Compute einfließen.

Den Servern, die keinen dauerhaften Speicher vorhalten sollen, fehle auch ein privilegierter Zugang für Administratoren. Einen Shell-Zugang aus der Ferne soll es nicht geben. Datentransfers zu den Endgeräten seien Ende-zu-Ende-verschlüsselt und würden über die Secure Enclave des Apple Silicon verarbeitet, um bestmöglich abgesichert zu werden.

Apple hat nach eigenen Angaben noch weitere Sicherheitsfunktionen eingebaut: Secure Boot soll verifizieren, dass auf den Servern das richtige, nicht modifizierte Betriebssystem zum Einsatz kommt. Eine Trusted Execution Monitor genannte Funktion überprüfe, dass nur von Apple signierter Programmcode ausgeführt werden kann. Und eine Methode namens Attestation soll auch seitens der Endgeräte, die mit dem Server kommunizieren, überprüfen können, dass die Gegenstelle wirklich ein Apple-Private-Server ist.

Doch kann von außen überhaupt jemand überprüfen, dass das nicht nur schöne Versprechen sind? Apple sagt Ja: Wie beim Security Bounty Program für das iPhone wolle man mit Sicherheitsforschern zusammenarbeiten, die einen Zugang zur Software bekommen sollen, um diese auf Schwachstellen zu überprüfen. Ob das auch für die Hardware gilt, verrät Apple nicht: Wie beim iPhone muss aber natürlich ein geeignetes Gerät bereitgestellt werden, um die Tests vornehmen zu können.

Bleibt noch die Frage, wie Apple überhaupt etwas für die Verbesserung seiner generativen KI lernen will, wenn doch die Daten so gut abgesichert sind. Hier sei es schon so, dass ein Modelltraining stattfinden könne, ist zu hören. Allerdings nutze Apple hierfür Methoden, die sicherstellen, dass das Unternehmen nichts über die einzelnen Nutzer erfahre und auch nicht identifizierbar zuordnen kann, was der einzelne Nutzer macht. Es sei schlichtweg die Herausforderung, sich etwas mehr anzustrengen, ist aus dem Apple Park zu hören.

(mki)