Vom KI-Modell zur App: So geht das mit Apples Machine-Learning-Workflow
Wir demonstrieren Apples neuen ML-Workflow anhand einer selbst gebauten Chat-App. Sie verwendet neue Features aus dem PyTorch-Framework und dem Core ML API.
- Jürgen Schuck
Ein Teilgebiet der künstlichen Intelligenz ist das maschinelle Lernen, bei dem sich alles um trainierte Modelle dreht, die beispielsweise Objekte in Bildern identifizieren. Modelle der sogenannten generativen künstlichen Intelligenz erzeugen neue Inhalte. In diesen Bereich, auch als "GenAI" bezeichnet, fällt die einfache Chat-App, die auf Benutzereingaben mit selbst erzeugten Texten reagiert. Zu dem Download der Beispiel-App und gelangen Sie hier. Apple empfiehlt zum Entwickeln von Apps für Apple Intelligence ein Vorgehen in drei Schritten: trainieren, vorbereiten, integrieren.
- Neue Funktionen in Core ML erleichtern die Integration von KI-Modellen in eigene Apps.
- Apple rät, Modelle für Apple-Intelligence-Apps schrittweise zu entwickeln: trainieren, vorbereiten, integrieren.
- Gezieltes Training und sorgfältige Vorbereitung optimiert die Modelle insbesondere für mobile Geräte.
KI-Modell trainieren
Im ersten Schritt erfolgt zunächst die Auswahl eines passenden Basismodells, das erforderlichenfalls noch in ein geeignetes Format zu übertragen ist. Eine Vielzahl an Modellen finden Sie auf Hugging Face. Das Portal ist eine Art GitHub für maschinelles Lernen und stellt neben Tools und Bibliotheken populäre Modelle wie Metas LLaMA, Microsofts BERT und OpenAIs GPT zum Download bereit. Auch Apple veröffentlicht Tools und Modelle auf Hugging Face. Zu seinem Apple Foundation Model (AFM) für Apple Intelligence teilt es jedoch nur ein Paper auf seiner Forschungsseite Machine Learning Research.
Für eigene Apps eignen sich Foundation Models am besten. Diese Modelle sind für breite Aufgabenspektren in Bereichen wie Sprache, Audio und Video vortrainiert und lassen sich durch sogenanntes Finetuning für den eigenen Anwendungsfall beispielsweise mit Apples ML-Framework MLX spezialisieren. Das Framework zum Training und Finetuning von Modellen teilt Apple zusammen mit einigen Anwendungsbeispielen als Open Source auf GitHub. Es ist optimiert für Apple Silicon und läuft nur auf den hauseigenen Prozessoren. Die Funktionen von MLX ähneln denen der verbreiteten Frameworks Tensorflow und PyTorch. Es gibt API-Bindings für C, C++ und Swift sowie für das in der KI-Community beliebte Python.
Das war die Leseprobe unseres heise-Plus-Artikels "Vom KI-Modell zur App: So geht das mit Apples Machine-Learning-Workflow". Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.