Sicherheitsexperte Schneier lobt Datenschutz bei Apple Intelligence

Der langjährige IT-Security-Forscher Bruce Schneier hat sich Apples KI-Ansatz angesehen. Er hält ihn für datenschutzfreundlicher als die der Konkurrenz.

In Pocket speichern vorlesen Druckansicht
Apple-Intelligence-Icon

Apple-Intelligence-Icon.

(Bild: Apple)

Lesezeit: 2 Min.

Wenn ab Herbst erstmals Funktionen von Apple Intelligence für erste Nutzer freigegeben werden, dürften sich viele User die Frage stellen, wie es mit dem Datenschutz bestellt ist. Zwar hat Apple hier diverse Ankündigungen gemacht: Etwa soll möglichst viel KI lokal auf dem einzelnen Gerät laufen und Server-Auslagerungen dank Private Cloud Compute komplett geschützt erfolgen. Doch wie schlägt sich Apple hier im Vergleich zur Konkurrenz etwa von Google und Samsung? Der bekannte Sicherheitsforscher Bruce Schneier hat nun eine erste Bewertung vorgenommen.

Gegenüber dem Magazin Wired sagte der heute bei der Tim-Berners-Lee-Gründung Inrupt als Chef of Security Architecture arbeitende Experte, es handele sich offenbar um ein "ziemlich beeindruckendes Privatsphärensystem". Das Ziel sei, auch in der Cloud nicht weniger sicher zu sein als auf dem iPhone selbst. "Da gibt es zwar viele bewegliche Teile, aber ich denke, sie haben das ziemlich gut gelöst." Apple integriert auf Wunsch allerdings auch ChatGPT. Hier hatte es etwa von X-Chef Elon Musk massive Kritik gegeben, weil Apple-Daten bei OpenAI landen könnten.

Hierzu meinte Schneier, Apple entferne zwar identifizierende Informationen vor dem Absenden der Anfrage. Das Problem sei aber, dass es eben in vielen Anfragen selbst viele identifizierende Informationen gebe. Dann hänge alles an den Regeln von OpenAI. Apple ist nicht das einzige Unternehmen, dass möglichst viele KI-Anwendungen lokal ausführen will, so gibt es von Google etwa entsprechende "kleine" Modelle. Allerdings fehlt es dieser Hybrid AI noch an PCC-ähnlichen Ansätzen. Google betont hier, "robuste Sicherheitsmaßnahmen" in seinen Rechenzentren zu implementieren. Man sende auch keine Daten an Dritte.

Apple plant, PCC und On-Device-AI von externen Sicherheitsexperten überprüfen zu lassen. Dazu soll es ein "PCC Virtual Research Environment" geben, zudem werden Binary-Images von jedem PCC-Build publiziert. Bootloader und Firmware werden als Plaintext publiziert. Außerdem setzt der Konzern ein neues Bug-Bounty-Programm auf, das vermutlich hohe Ausschüttungen haben wird.

Interessant wird die von Schneier aufgeworfene Frage, wie sich OpenAI-Technik in das System integriert. Zuletzt hatte das Unternehmen demonstriert, dass es augenscheinlich in Sachen Sicherheit mit heißer Nadel strickt: Die macOS-Version von ChatGPT, ein erster offizieller Desktop-Client, speicherte Chatdaten einfach im Klartext auf der SSD.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Preisvergleich (heise Preisvergleich) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (heise Preisvergleich) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(bsc)