Mac & i 5/2023
S. 118
Developer’s Corner
VisionOS SDK

 App durch die Brille

Erste Schritte mit Vision Pro und visionOS

Während die Vision Pro noch auf sich warten lässt, steht das visionOS SDK den Entwicklern bereits zur Verfügung. Wir zeigen, wie man mit dem Simulator arbeitet und Apps erstellt.

Von Gero Gerber

Bei der Vision Pro, die wir in Mac & i 4/2023 ausführlich vorgestellt haben, handelt es sich um einen eigenständigen Spatial-Computer. Spatial deshalb, weil sich alles im Raum abspielt. Apps, Audio und Interaktion werden dreidimensional erfasst und wiedergegeben. An der Außenseite eingelassene Kameras erfassen Gesten und nehmen die Umgebung auf. Dass der Nutzer durch die Brille seine Umgebung sehen kann, wird als Passthrough bezeichnet. Im Fall der Vision Pro kann man allerdings nicht tatsächlich durch die Brille hindurch sehen; stattdessen sieht der Headset-Träger seine Umgebung auf zwei Displays im Inneren des Headsets, wo sie sich gegebenenfalls mit anderen, eingespielten Inhalten wie Apps oder einer Umgebung vermischt. Passthrough kann mehr oder weniger eingeschränkt sein, je nach Kontext und Immersions-Stufe (wie viel der Nutzer von der realen Umgebung in weiter Ferne noch sieht). Die Steuerung erfolgt überwiegend mit Handgesten und per Augen-Tracking. Hierfür erkennt die Vision Pro, wenn der Nutzer etwa ein Objekt oder Steuerelement mit den Augen fokussiert.

visionOS

Mit visionOS liefert Apple zur Vision Pro auch ein neues Betriebssystem. Den Vision Pro Simulator und das visionOS SDK laden registrierte Apple-Entwickler gemeinsam mit Xcode 15 herunter. Zum Redaktionsschluss bot Xcode 15 Release Candidate noch keinen Support für visionOS. Die Code-Beispiele, die Sie wie immer im Webcode finden, basieren auf der Xcode 15 Beta 8.