Apple stellt ARKit 3, Core ML 3 und weitere Entwickler-Tools vor

Wie in den Vorjahren legt Apple bei der WWDC bei seinen Entwicklerwerkzeugen einen Schwerpunkt auf Augmented Reality und Machine Learning.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Apple

(Bild: dpa, Shawn Thew)

Lesezeit: 3 Min.
Von
  • Alexander Neumann
Inhaltsverzeichnis

Die wichtigste News für Entwickler auf Apples Entwicklerkonferenz WWDC ist vermutlich das GUI-Framework SwiftUI, aber auch andere Neuerungen sind dieser Tage ein Thema im kalifornischen San Jose. So gibt Apple unter anderem einen Einblick in ARKit 3, Core ML 3 und Create ML. Außerdem legt die nun als Beta vorliegende Version 11 der Entwicklungsumgebung Xcode die Grundlage für das Entwickeln von Anwendungen mit den neuen Frameworks.

Apple WWDC 2019

Die neueste Ausgabe von ARKit, Apples Software Development Kit für Augmented-Reality-Anwendungen enthält unter anderem ein Motion-Capture-Feature, das Entwicklern hilft, die Bewegung von Menschen in Apps zu integrieren, sowie eine People-Occlusion-Funktion. Mit letzterer werden AR-Inhalte vor oder hinter Menschen erscheinen, um immersivere AR-Erlebnisse und Greenscreen-ähnliche Anwendungen zu ermöglichen.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Zwei weitere AR-Werkzeuge sind Reality Composer und RealityKit. Reality Composer wird als App für iOS und Mac beschrieben, die außerdem in Xcode integriert ist. Sie soll es einfach machen, interaktive Augmented-Reality-Erlebnisse ohne vorherige 3D-Erfahrung zu erstellen. RealityKit wiederum ist ein High-Level-Framework mit fotorealistischem Rendering, Kameraeffekten, Animationen und physikalischen Features, das speziell für Augmented-Reality-Szenarien entwickelt wurde. Es umfasst des Weiteren eine Swift-API und integriert sich mit ARKit.

Spielten Ankündigungen zu früheren ARKit-Versionen schon bei den beiden letzten WWDC-Ausgaben eine Rolle, gilt das auch für das Machine-Learning-Framework Core ML, mit dem iOS-Entwickler Machine-Learning-Anwendungen können. Die nun vorgestellte Version 3 ist die erste, die Trainings für maschinelles Lernen auf dem Gerät bietet, um personalisierte Erfahrungen mit iOS-Apps zu ermöglichen. Mehrere Modelle mit unterschiedlichen Datensätzen zu trainieren, wird auch ein Feature der neuen Create-ML-App auf macOS für Anwendungen wie Objekt- und Geräuscherkennung sein. Mit der App sollen Entwickler Machine-Learning-Modelle erstellen können, ohne Code anfassen zu müssen.

Mehr Infos

Apples Entwicklerwerkzeuge, aber auch die Programmiersprache Swift werden einen großen Rahmen auf der neuen Entwicklerkonferenz heise MacDev einnehmen, die von 3. bis 5. Dezember 2019 in Karlsruhe stattfindet. Bis 21. Juni kann man sich noch mit Vorträgen und Workshops für die Konferenz bewerben, aus denen die Ausrichter – Mac & i, heise Developer und dpunkt.verlag – dann das Programm zusammenstellen.

Multi-Model-Training mit verschiedenen Datensätzen kann mit neuen Modelltypen wie Objekterkennung, Aktivität und Klassifizierung verwendet werden.Mit über 100 Modellschichten, die jetzt Core ML unterstützt, bietet Apple ein breites Spektrum an Machine-Learning-Szenarien, die Bereiche wie Computer Vision und Natural Language Processing umfassen.

Eine kleinere Neuerungen ist, dass Entwickler mit dem PencilKit Unterstützung für Apple Pencil zu ihren Apps hinzuzufügen können. Es enthält außerdem eine neu gestaltete Tool-Palette. Eine weitere ist, dass MapKit nun neue Funktionen wie Vektor-Overlays, Point-of-Interest-Filterung, Kamera-Zoom und Schwenkbeschränkungen sowie Unterstützung für den Dark Mode bietet. (ane)