visionOS 2: Passthrough-Kamera-Freigabe für interne Unternehmens-Apps

Bislang ist das, was die Vision Pro sieht, Entwicklern nicht direkt zugänglich. Mit visionOS 2 ändert sich das – für eine Developer-Gruppe.

In Pocket speichern vorlesen Druckansicht
Produktion der Vision Pro

Produktion der Vision Pro: Unternehmenskunden sollen mehr Durchblick erhalten.

(Bild: Apple / Screenshot YouTube)

Lesezeit: 3 Min.

Apples erstes Mixed-Reality-Headset Vision Pro sieht sehr viel von seiner Umgebung. Dafür sorgen zahlreiche Kameras, die neben dem Raum auch körpernahe Handbewegungen und intern die Augen erfassen, um die Personas-Funktion darzustellen. Aus Datenschutzgründen werden die meisten dieser Daten direkt auf dem Gerät verarbeitet. Entwickler wiederum erhalten nur Anhaltspunkte, die für die Darstellung ihrer Apps reichen sollen, nie echte Rohdaten aus den Kameras. Mit visionOS 2, das am Montagabend erscheinen dürfte, ändert sich das nun – zumindest für eine spezielle Gruppe von Developern.

Mit speziellen "Managed Entitlements", die man bei Apple beantragen muss – plus einer Lizenzdatei, die mit der Apple-ID verknüpft wird – können Entwickler bei Firmen über eine Enterprise-API Apps entwickeln, die maschinennah sind. Die Idee dabei ist, mehr Forschung und Entwicklung möglich zu machen – sowie interne Anwendungen, die mehr können als das, was normalen Apps erlaubt ist. "In the wild" sollen solche Programme aber aus besagten Datenschutzgründen nicht gelangen können.

Zu den Enterprise-API-Features für visionOS 2, die im Rahmen einer Session auf der Entwicklerkonferenz WWDC 2024 im Sommer erstmals gezeigt wurden, gehört der Zugriff auf ein In-Screen-Capturing dessen, was mittels Passthrough in der Umgebung von der Vision Pro gesehen wird. Zudem gibt es direkten Zugriff auf die Hauptkamera, was das Betriebssystem aktuell für Apps sperrt. Developer in Firmen sollen zudem einen größeren Spielraum bekommen, was die Leistungsabforderung des M2-SoC betrifft ("Increased Performance Headroom") – das dürfen normale Apps ebenfalls nicht.

Apple betont, dass es sich bei der Enterprise-API um Features handelt, die "allein in einem Geschäftskontext" einzusetzen sind. Man kann solche Apps also (natürlich) nicht im App Store vertreiben, sondern muss dafür den Apple Business Manager verwenden. Auch kleinere Features, die regulären App-Store-Entwicklern für die Vision Pro bislang nicht zur Verfügung stehen, kommen über die neue Schnittstelle auf das Headset. Dazu gehört das Abscannen von QR-Codes und sogenannten Spatial-Barcodes, um Positionen im Raum zu lokalisieren.

Schließlich liefert Apple auch direkteren Zugriff auf die Apple Neural Engine (ANE) für Aufgaben aus dem Bereich des Maschinellen Lernens – dies soll ähnlich arbeiten wie derzeit unter iOS. Auch das Object-Tracking wird für Unternehmensentwickler erleichtert, mittels "konfigurierbaren Parametern" lassen sich bekannte Objekte schneller identifizieren und erfassen. Unternehmensentwickler, die die Enterprise-API für die Vision Pro nutzen wollen, müssen einen "Development Only"-Request bei dem Konzern anfordern.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Preisvergleich (heise Preisvergleich) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (heise Preisvergleich) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(bsc)