Augmented Reality: Das ist neu in Apples ARKit 3.5

Mit dem aktuellen iOS hat Apple sein Augmented-Reality-Framework ARKit um einige beeindruckende Features erweitert. Wir zeigen, was für Entwickler wichtig ist.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Erweiterte Realität, erweitert: Was neu ist in Apples ARKit 3.5

(Bild: Fractal Pictures, stock.adobe.com)

Lesezeit: 18 Min.
Von
  • Gero Gerber
Inhaltsverzeichnis

Um es gleich vorwegzunehmen: Apple hat in die neue Reality-Composer-App eine ungemein praktische Funktion eingebaut, durch die Entwickler viel Zeit sparen.

Öffnet man sie auf dem iPhone oder iPad, erstellt ein neues Projekt über den „+“-Button oben rechts, und wählt dann wiederum oben rechts die Option „…“ und danach „Developer“, kann der Nutzer über die Kamera des Geräts ein Video inklusive Sensor-Daten aufzeichnen. Das dient während der Entwicklung als Input für die AR-Session.

Jeder Entwickler, der schon mit der AR-Entwicklung in Berührung kam, wird erkennen, wie praktisch diese Funktion ist, da man sich nun nicht mehr bei jedem Start der App mit dem Gerät auf den Weg machen muss, um die AR-Funktionalität zu testen. Um das erstellte Video samt Sensor-Daten zu nutzen, kann man im Xcode-Projekt (mit einem angeschlossenen Device) unter „Product / Scheme / Edit Scheme… / Run“ die Option „ARKit“ aktivieren und das aufgenommene Video als „Replay Data“ angeben. Dieses Video wird dann beim Start der App auf das Device kopiert und dient von da an als Input für die AR-Session. Unser Beispielprojekt finden Sie hier.