GAZEploit: Rekonstruktion von Passwörtern über Vision-Pro-Personas demonstriert

Sicherheitsforscher haben einen Weg gezeigt, anhand der Augenbewegungen der Nutzer von Apples Headset sensible Daten zu rekonstruieren. Der Konzern reagierte.

In Pocket speichern vorlesen Druckansicht 5 Kommentare lesen
Vision Pro mit Nutzerin

Vision Pro mit Nutzerin.

(Bild: Apple)

Lesezeit: 4 Min.
Von
  • Kathrin Stoll
Inhaltsverzeichnis

Ein Sprichwort besagt, die Augen seien das Fenster zur Seele. Mindestens kann man an ihnen ablesen, in welcher Stimmung jemand gerade ist und wie es ihm oder ihr gerade geht. Dass man über die Augen auch herausfinden kann, was jemand gerade tippt und so an sensible Daten wie Passwörter, PINs oder den Inhalt einer Privatnachricht gelangen kann, haben US-amerikanische IT-Sicherheitsforscher nun gezeigt. Der aktuell nur theoretische Angriff erfolgte auf Apples Mixed-Reality-Headset Vision Pro.

Der unter dem Namen GAZEploit veröffentlichte Angriff nutzt Apples Persona-Funktion. Auf das Headset zugreifen mussten sie dazu nicht. Stattdessen analysierten sie die Augenbewegungen der virtuellen 3D-Avatare, die die Vision Pro durch die Innenkameras erfasst. Nutzen kann man die Persona-Avatare beispielsweise in Zoom, Microsoft Teams, Reddit, Slack, Tinder, X, Skype oder in FaceTime-Anrufen, sie ersetzen jeweils das fehlende Videobild des Vision-Pro-Nutzers.

Möglich war die Rekonstruktion der Eingaben, weil man auf der Vision Pro alternativ zum direkten Tippen mit den Händen in der Luft auch das Augentracking verwenden kann. Wenn man den richtigen Buchstaben im Blick hat, kann dieser durch eine Fingergeste (Tipp mit Daumen und Zeigefinger) ausgewählt werden, was für manche User angenehmer ist.

Das Wissen darüber, was der Nutzer dabei tut, bleibt eigentlich dem Träger des Headsets vorbehalten; wer allerdings während der Teilnahme an einem Zoomcall, Livestream oder FaceTime-Anruf mit seinem Avatar mit den Augen tippt, gibt dabei offenbar mehr preis, als gedacht. Die virtuellen Avatare der Benutzer spiegeln nämlich die Gesichts- und Augenbewegungen der Nutzer.

Der Angriff stützt sich auf zwei Arten biometrischer Daten, die die Forscher aus den Videoaufnahmen eines Avatars extrahierten: Zum einen das Seitenverhältnis der Augen, zum anderen die geschätzte Blickrichtung. Zunächst identifizierten die Forscher mithilfe eines neuronalen Netzwerks die Muster, anhand derer sich erkennen lässt, ob jemand gerade tippt. Dazu fütterten sie das Deep-Learning-Modell mit Videoaufnahmen der Avatare von 30 verschiedenen Personen beim Tippen mit den Augen auf einer QWERTY-Tastatur in der Vision Pro.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Dann fanden sie mittels geometrischer Berechnungen heraus, wo und in welcher Größe die Nutzer ihre Tastaturen vor sich in der Luft positioniert hatten. Reichte das Videomaterial aus, um die Position und Größe der Tastatur zu rekonstruieren, sei es möglich, die folgenden Tastaturanschläge zu erkennen, sagte einer der beteiligten Forscher gegenüber dem US-amerikanischen Technikmagazin Wired.

Apple hat die Lücke, der die CVE-ID 2024-40865 zugewiesen wurde, mittlerweile behoben und den Fix mit dem Softwareupdate zu visionOS 1.3 an die Nutzer ausgespielt. Allerdings geht das Unternehmen dabei recht brachial vor: Wenn man jetzt während der Teilnahme an einem Videocall oder Livestream die virtuelle Tastatur nutzt, unterbricht die Brille schlicht das Teilen des Avatars, er wird also währenddessen unsichtbar. Offenbar fiel Apple zunächst keine andere Lösung ein.

Der Angriff war zwar im Labor entwickelt worden und kein Vision-Pro-Nutzer wurde dadurch gehackt, doch theoretisch hätten böswillige Angreifer das Biometriedatenleck der Brille bei der Entwicklung einer gleichen Methode missbrauchen können. Die Arbeit der Forscher zeigt nur ein spezifisches Risiko beim blickgestützten Tippen. Cheng Zhang, Assistenzprofessor an der Cornell University, der sich mit der Entwicklung von Wearables zur Interpretation menschlichen Verhaltens befasst, erläuterte gegenüber Wired, dass dieser Exploit nur ein mögliches Beispiel ist. Nutzer von Wearables übersähen oft, wie viele Informationen die Geräte über ihre Person sammeln und preisgeben könnten und welche Datenschutzrisiken damit einhergingen.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Preisvergleich (heise Preisvergleich) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (heise Preisvergleich) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(kst)