Apples neue Entwicklerwerkzeuge: Wo sich das Headset doch blicken lässt
Der U1-Chip wird für die ARKit-Entwicklung nutzbar – das wäre auch für ein AR-Headset praktisch. Doch es gibt noch weitere neue Werkzeuge, auf die das zutrifft.
Apple ermöglicht es Entwicklern künftig, den Ultraweitband-Chip U1 mit Augmented-Reality-Anwendungen zu verknüpfen. Die Neuvorstellung auf der Entwicklerkonferenz WWDC nährt Gerüchte, dass in den neuen Entwicklerwerkzeugen dieses Jahres schon allerhand Vorbereitungen für ein AR-Headset getroffen werden. Um den Einstieg Apples in das Metaverse gibt es viele Spekulationen. Aktuell wird damit gerechnet, dass allerdings erst Anfang 2023 mit einer Hardware-Ankündigung zu rechnen ist.
Nearby Interactions erweitert
Die Erweiterung der Nearby Interactions API, einer Schnittstelle für Entwickler in iOS 16, wäre für ein AR-Headset zumindest ein nützlicher Baustein. Der U1-Chip erlaubt das präzise Lokalisieren von Gegenständen, die mit ihm versehen sind. So können Besitzer der AirTags zum Beispiel die kleinen Ortungsgeräte mittels des U1-Chips anpeilen und so auf kleinstem Raum bestimmen, wo sie sind.
Apple hat hierfür auch bereits eine Augmented-Reality-Anwendung mit dem U1 verbunden, nämlich die Funktion zum Auffinden der AirTags. Durch die Erweiterung der Entwicklerwerkzeuge können mit Veröffentlichung im Herbst alle Entwickler solche Apps bauen.
Denkbar wäre zum Beispiel, dass der U1 in Spielen mit echten Gegenständen zum Einsatz kommt, die in der gemischten Realität der Brille eine Rolle spielen. Auch im Zusammenspiel mit der Apple Watch oder dem iPhone sind Anwendungen denkbar, die der räumlichen Orientierung oder Steuerung dienen.
Geheimnisvoller U1-Chip
Der U1-Chip wurde im Jahr 2019 mit dem iPhone 11 eingeführt. Zunächst blieb sein genauer Nutzen geheimnisvoll. Apple sprach nur von "erstaunlichen neuen Fähigkeiten". Mit Verbesserungen bei kabellosen Datenübertragungen via AirDrop und der Ortung der AirTags wurde deutlich, was damit gemeint ist. U1-Chips sind in allen iPhones seit der 11-er-Generation sowie in der Apple Watch seit der Series 6 eingebaut. Neben den AirTags hat auch der HomePod mini den Chip, durch den die Audiowiedergabe präziser zwischen Telefon und dem Lautsprecher gewechselt werden kann.
Wo noch AR-Potenzial drinsteckt
Neben der überarbeiteten Nearby Interaction regen auch weitere neue Funktionen und APIs die Fantasie derer an, die ein AR-Headset erwarten. So sehen einige im Design der Fensterverwaltung Stage Manager, die auf dem iPad und Mac eingeführt wird, einen Vorboten, wie auch die Anzeige in einer Brille aussehen könnte. Die Fähigkeiten von Live Text Camera werden ebenso als nützlich für eine AR-Brille gesehen wie die neue API namens RoomPlan, die via Kamera und Lidar-Sensor ein präzises Raumprofil erstellt. Apple hat überdies das Entwicklerwerkzeug ARKit in Version 6 deutlich aufgewertet und mit Metal 3 auch die grafischen Möglichkeiten der Apple-Geräte weiter verbessert.
Auf eine offizielle Ankündigung, klar zu lesende Andeutungen oder sogar erste Software bis hin zum erwarteten Betriebssystem realityOS warten Beobachter der WWDC allerdings vergeblich. In früheren Jahren wurde neue Hardware manchmal schon sehr weit im Voraus angekündigt, damit Entwickler dafür Apps schreiben.
(mki)