Maschinelles Lernen: iOS 13 erkennt Hunde und Katzen

Bislang hatte das maschinelle Lernen von Apple mit Vierbeinern manchmal Probleme. CoreML wird nun um einen Tiererkenner ergänzt.

In Pocket speichern vorlesen Druckansicht 26 Kommentare lesen
iOS 13 erkennt Hunde und Katzen

Es ist eine Mieze?

(Bild: Frau Mahlzahn - womit die Frage ungeklärt bleibt, ob eine Katze das Recht auf ihr eigenes Bild reklamieren kann.)

Lesezeit: 2 Min.

Entwickler, die gerade die Vorabversion von iOS 13 testen, haben entdeckt, dass das Betriebssystem neue Erkennungsroutinen im Rahmen der KI-API CoreML mitbringt, die Tiere von Menschen unterscheiden können.

Zu den neuen Funktionen für das maschinelle Lernen gehören erstmals Möglichkeiten, Hunde und Katzen auf iPhone, iPad oder iPod touch zu identifizieren – und zwar direkt offline auf dem Gerät. Die entsprechenden globalen Variablen heißen "VNAnimalDetectorCat" und "VNAnimalDetectorDog" und stecken offenbar auch in macOS 10.15 alias Catalina.

Wie der App-Developer Frank A. Krueger auf Twitter schrieb, hat Apple die beiden neuen Funktionen auch bereits in seine Doku aufgenommen. Apple beschreibt sie mit den simplen Worten: "A cat detector" und "A dog detector". Der Hersteller scheint die Features aus seinem Erfahrungsschatz im Rahmen der Fotos-App portiert zu haben: Die Anwendung kann bereits seit längerem diverse Objekte unterscheiden – vom Tisch zum Themenpark. Auch hier erfolgt das maschinelle Lernen beziehungsweise das Erkennen direkt auf dem Gerät, da Apple vermeiden will, Daten in die Cloud zu schicken.

CoreML wurde erstmals mit Xcode 11 eingeführt. Apples Entwicklungsumgebung erlaubt unter anderem das Anlegen eigener ML-Trainingssitzungen, um Modelle direkt in eine App zu übertragen. Dabei können Developer auch eGPUs nutzen, um die Erstellung abzukürzen. Mit iOS 13 sind CoreML-Modelle auch "personalisierbar", so lernen Apps die Nutzervorlieben und können die Datenbank entsprechend anpassen. Auch hier arbeitet die Technik lokal auf dem Gerät.

iOS 13 bringt außerdem die Sprachassistentin Siri in mehr Apps – so wird es künftig beispielsweise möglich sein, externe Musikdienste – also nicht nur Apple Music – per Sprache aufzurufen. Ob Spotify & Co. dieses Feature nutzen, bleibt jedoch den Anbietern überlassen, sie müssen es in ihre jeweilige App einbauen.

Mehr zum Thema CoreML:

(bsc)