Hintergrund: Was wir über Apples Vision Pro und visionOS wissen

Seite 4: visionOS steuern – mit Augen, Gesten und mehr

Inhaltsverzeichnis

Die Steuerung von Apps in visionOS erfolgt mit Augen, Gesten und Sprachbefehlen. Die Eingaben werden über die Kamera- und Sensorensysteme des Headsets erfasst. Das Betriebssystem hebt die Bedienelemente hervor, auf die die Augen gerade fokussieren. Bringt der Headset-Träger nun Zeigefinger und Daumen in einer Zwickgeste zusammen, führt visionOS die Aktion aus. Das fühlt sich offenbar sehr natürlich an, die Lernkurve scheint gering, gerade für iPhone-Nutzer. Es gibt weitere Gesten unter anderem zum Scrollen, Zoomen und Verschieben von Inhalten (siehe Grafik).

(Bild: Apple)

Die Gesten funktionieren auch, ohne dafür die Arme erst vor die Augen respektive die Hauptkameras des Headsets zu heben. Es reicht, sie etwa mit den Händen bequem auf dem Schoß auszuführen, die Vision Pro hat dafür extra zwei nach unten gerichtete Kameras. Entwickler können obendrein eigene Handgesten für Virtual-Reality-Apps definieren sowie auch Daten über die Beschaffenheit der Umgebung abfragen, um etwa 3D-Objekte auf einem physischen Tisch zu platzieren. Das kennen Nutzer bereits von Augmented-Reality-Apps für das iPhone, dafür kommt ebenfalls Apples ARKit zum Einsatz. Direkten Zugriff auf die Kameras erhalten Apps in visionOS aber nicht. Dem Hand-Tracking durch Dritt-Apps müssen Nutzer erst zustimmen.

Neben solchen indirekten Gesten ist auch eine direkte Steuerung von Apps mit den Fingern vorgesehen, die ähnlich wie die Touch-Bedienung von iPhone und iPad funktioniert. Dafür muss man die Fenster nahe genug an sich heranziehen, um die Bedienoberfläche direkt zu "berühren". So ist zudem die Interaktion mit 3D-Objekten möglich. Für die Texteingabe hat visionOS ein virtuelles Keyboard mit an Bord. Alternativ diktiert man Siri den Text etwa für ein Suchfeld oder steuert mit Sprachbefehlen Systemaktionen wie Apps starten und beenden. Demonstriert hat Apple das allerdings noch nicht.

Bewährte Eingabegeräte wie Tastatur und Maus hat Apple weiter als Option vorgesehen.

(Bild: Apple)

Auf Fingergesten allein muss man sich bei visionOS aber nicht verlassen, gerade für längere Texteingaben, das Ausführen von Tastenkürzeln oder die Arbeit mit Profi-Apps sind klassische Eingabegeräte klar von Vorteil. Das Betriebssystem unterstützt dafür Hardware-Tastaturen, Trackpads und Mäuse – alles wohl rein über Bluetooth. Der auf zweidimensionale Bedienoberflächen ausgelegte Mauszeiger arbeitet hier im Zusammenspiel mit dem Augen-Tracking: Wechselt der Blick von einem Fenster zu einem anderen, springt auch der Cursor dorthin.

Game-Controller etwa von Xbox und Playstation lassen sich ebenfalls per Bluetooth verbinden. Spezielle VR-Controller, die man in beiden Händen hält, hat Apple bislang weder selbst gezeigt noch eine Unterstützung für Geräte von Drittherstellern in Aussicht gestellt.

Apples SDK verrät, dass für visionOS weitere aus iOS bekannte Elemente geplant sind, darunter das Kontrollzentrum zur schnellen Ansteuerung von Systemfunktionen sowie eine Mitteilungszentrale, die Benachrichtigungen sammelt. Das SDK sieht außerdem einen Gastmodus vor, der dafür gedacht ist, die Vision Pro vorübergehend einer anderen Person zu geben. Ein richtiger Mehrbenutzermodus, der es erlaubt, zwischen verschiedenen Profilen und Konfigurationen zu wechseln, scheint allerdings nicht geplant zu sein.