Google: Private AI Compute soll Cloud-KI mit Datenschutz vereinen
Mit Private AI Compute macht Google das große Datenschutzversprechen: Leistungsfähige Cloud-KI soll sich ohne Datenabfluss nutzen lassen.
(Bild: heise medien)
Google hat mit Private AI Compute eine neue Cloud-basierte KI-Verarbeitungsplattform vorgestellt, die größere Gemini-Modelle nutzt und gleichzeitig die Privatsphäre der Nutzer schützen soll. Das System kombiniert die Rechenleistung von Cloud-Servern mit Sicherheitsmechanismen, die bislang der lokalen Verarbeitung auf dem Gerät vorbehalten waren.
Der Hintergrund: Während On-Device-KI-Modelle wie Gemini Nano auf den Neural Processing Units (NPUs) von Smartphones laufen und damit Nutzerdaten lokal verarbeiten können, stoßen sie bei komplexeren Aufgaben an ihre Grenzen. Die leistungsfähigeren Cloud-Modelle erfordern jedoch die Übertragung von Nutzerdaten an Google-Server – ein Datenschutzproblem, das Private AI Compute lösen soll.
Das Konzept erinnert an Apples Private Cloud Compute, das Apple bereits im Juni 2024 angekündigt hatte. Auch Apple setzt auf eine Kombination aus lokaler und Cloud-basierter KI-Verarbeitung, bei der sensible Daten in einer geschützten Cloud-Umgebung verarbeitet werden sollen.
Titanium Intelligence Enclaves als Sicherheitsanker
Technisch basiert Private AI Compute auf einem einzigen integrierten Google-Stack mit eigenen Tensor Processing Units (TPUs). Den Kern der Sicherheitsarchitektur bilden Titanium Intelligence Enclaves (TIE) – hardwarebasierte sichere Enklaven, die Nutzerdaten isolieren sollen. Laut Google werden Remote Attestation und Ende-zu-Ende-Verschlüsselung eingesetzt, um Geräte mit der versiegelten Cloud-Umgebung zu verbinden.
Videos by heise
Das System soll sicherstellen, dass sensible Daten ausschließlich innerhalb der geschützten Enklave verarbeitet werden und weder für Google noch für Dritte zugänglich sind. Die Architektur orientiert sich an Googles Secure AI Framework und den firmeneigenen AI Principles sowie Privacy Principles. Google betont, dass Private AI Compute dieselbe Art sensibler Informationen verarbeiten kann, die Nutzer auch bei der lokalen On-Device-Verarbeitung erwarten würden.
Der Multi-Layer-Ansatz umfasst mehrere Sicherheitsebenen: Die Daten bleiben verschlüsselt, während sie zwischen Gerät und Cloud übertragen werden. Innerhalb der Titanium-Enklaven erfolgt die Verarbeitung durch Gemini-Modelle in einer isolierten Umgebung. Durch Remote Attestation soll das Gerät verifizieren können, dass es tatsächlich mit einer vertrauenswürdigen Private-AI-Compute-Instanz kommuniziert.
Erste Anwendungen auf Pixel 10
Praktisch kommt Private AI Compute zunächst in zwei Features auf Pixel-10-Smartphones zum Einsatz. Die Funktion Magic Cue, die kontextbasierte Vorschläge auf Basis von Bildschirminhalten generiert, soll durch die Cloud-Anbindung "noch hilfreicher" werden, wie Google verspricht.
Auch die Recorder-App profitiert von der neuen Infrastruktur: Transkriptions-Zusammenfassungen sind nun in mehr Sprachen verfügbar. Google nutzt die Cloud-Modelle, um die begrenzten Fähigkeiten der On-Device-KI zu erweitern, ohne – so Googles Versprechen – Kompromisse beim Datenschutz einzugehen.
Trotz der Datenschutzversprechen bleibt die lokale KI-Verarbeitung in einigen Punkten überlegen: NPUs bieten niedrigere Latenz, da keine Datenübertragung erforderlich ist. Zudem funktionieren On-Device-Features auch ohne Internetverbindung zuverlässig. Google sieht Private AI Compute als Hybrid-Ansatz, der je nach Anforderung zwischen lokaler und Cloud-basierter Verarbeitung wechselt.
Wie robust die Sicherheitsmechanismen von Private AI Compute in der Praxis sind, müssen allerdings unabhängige Security-Analysen zeigen. Google hat ein Technical Brief veröffentlicht, das weitere technische Details zur Architektur enthält. Weitere KI-Features mit Private-AI-Compute-Anbindung sollen in Kürze folgen.
(fo)