Ungewohnt offen: Apple veröffentlicht 20 KI-Modelle

Im Vorfeld der WWDC wurden KI-Veröffentlichungen als Wink verstanden, dass Apple etwas plant. Warum Cupertino jetzt weiterhin auf Open-Source setzt.

In Pocket speichern vorlesen Druckansicht 24 Kommentare lesen
Apple Intelligence auf Mac, iPhone und iPad

In der Apple Intelligence dürfte einiges von den jetzt veröffentlichen KI-Modellen Apples enthalten sein.

(Bild: Apple)

Lesezeit: 3 Min.

Seit der Entwicklerkonferenz WWDC Anfang Juni ist klar: Apple hat nicht nur eigene KI-Modelle entwickelt und einige davon demonstrativ vor der Präsentation im Netz veröffentlicht – der iPhone-Hersteller hat mit Apple Intelligence sogar konkrete Pläne, seine eigenen KI-Modelle baldmöglichst einzusetzen. Schon im Herbst sollen Nutzer mit US-englischer Spracheinstellung davon Gebrauch machen können. Eine Woche nach der WWDC hat Apple jetzt 20 neue CoreML-Modelle und vier neue Datensätze auf einer Open-Source-Plattform hochgeladen.

Für den Upload wählte Apple die KI-Open-Source-Plattform Hugging Face. Dort hatte das Unternehmen aus Kalifornien bereits im April vier OpenELMs (Open Efficient Language Models) veröffentlicht. Zuvor, im Oktober 2023, lud Apple das KI-Modell Ferrer bei GitHub hoch, das Benutzeroberflächen verstehen kann – ein Vorgriff auf eine neue Funktion, die für Sprachassistent Siri angekündigt wurde.

Zu den jetzigen neuen Modellen zählt etwa Depth Anything, das bei Fotos nachträglich Tiefeninformationen errechnen kann, um Objekte im Vorder- und im Hintergrund voneinander zu unterscheiden. Das Modell wurde laut Apple mit rund 600.000 Bildern trainiert, in denen Kennzeichnungen angebracht waren. Weitere 62 Millionen Trainingsbilder wurden ohne Kennzeichnungen verwendet. In den Bereich Bilder geht auch das ML-Modell FastViT zur Klassifizierung von Bildern oder DETR zur semantischen Segmentierung, also der Kennzeichnung bzw. Kategorisierung eines Bildes auf Pixelebene. Zu den Datensätzen gehört etwa FLAIR, der rund 430.000 Bilder von 51.000 Flickr-Nutzern umfasst.

Die neu veröffentlichen KI-Modelle lassen sich durchaus auch mit den ersten vorgestellten Funktionen von Apple in Verbindung bringen wie die GenMojis, um per Texteingabe gezielt Emojis erstellen zu lassen, mit der Image Wand, um aus Textumschreibungen oder Strichskizzen Bilder zu erzeugen, Image Playground für das Erstellen von Bildern auf Basis von Schlüsselwörtern oder Clean-Up, eine Funktion in der Fotos-App, um unerwünschte Dinge aus Bildern zu entfernen. Sie alle haben gemeinsam, dass sie darauf abzielen, Informationen On-Device zu verarbeiten, also auf dem Gerät.

Dass Apple sich so offen gibt, dürfte einige, die den Hersteller vor allem von seinen Produkten kennen, überraschen – ist aber mit Blick auf andere Open-Source-Aktivitäten nicht ungewöhnlich. So hat Apple auch seine Programmiersprache Swift quelloffen bei GitHub veröffentlicht und arbeitet mit der internationalen Community zusammen. Anders als im Produktmarketing geht Apple hier auch offen mit Zukunftsplänen um.

Im Falle der KI-Modelle kündigte Apple auf der WWDC Transparenz an, um das Vertrauen in die KI-Bemühungen zu erhöhen. Die Veröffentlichung auf Hugging Face könnte aber auch darauf abzielen, Entwickler dazu zu ermuntern, selbst mit KI-Modellen in ihren Apps zu arbeiten und die Verarbeitung der Daten datenschutzfreundlicher von den großen Cloud-Lösungen weg auf die Geräte zu verlagern. Profiteur dieser Entwicklung wäre hierbei auch Apple, denn für den Hardware-Hersteller könnte dies den Absatz aktueller Geräte erhöhen, die mit der neuesten, leistungsfähigeren Neural Engine zur Verarbeitung ausgestattet sind.

(mki)