Bericht: Hauseigene KI-Modelle von Apple auch für Developer
Aktuell nutzen Entwickler Modelle von OpenAI, Anthropic oder Meta für ihre Anwendungen. Künftig will hier auch Apple mitmischen – mit eigener Technik.
KI trifft Mensch (Symbolbild): Schafft Apple mit eigenen KI-Modellen bei Entwicklern den Durchbruch?
(Bild: Ole.CNX/Shutterstock.com)
Zur Durchsetzung von KI-Modellen tragen nicht nur die Hersteller selbst bei, sondern insbesondere die Entwicklergemeinde: Sie ist es, die ChatGPT, Claude oder Llama in ihre eigenen Apps integriert und damit (weiter) popularisiert. Dieses Kniffes will sich nun auch Apple bedienen: Künftig ist geplant, eigene Sprachmodelle und andere KI-Technik, die der iPhone-Konzern entwickelt hat, für Developer freizugeben. Das berichtet die Finanznachrichtenagentur Bloomberg.
SDK und Frameworks schon auf der WWDC
Ein passendes Software Development Kit (SDK) samt entsprechender Frameworks, die eine Entwicklung von KI-Funktionen auf Basis von Apples Large Language Models (LLMs) erlaubt, könnte bereits zur Entwicklerkonferenz WWDC ab dem 9. Juni präsentiert werden, heißt es. Die Frage ist noch, wie weitgehend die Funktionen sind.
Videos by heise
Aktuell gelten die Features, die Apple im Rahmen seines KI-Systems Apple Intelligence auf iPhone, iPad, Mac und Vision Pro offeriert, als eher mau. So kann man etwa Texte umschreiben lassen, Benachrichtigungen und E-Mails werden zusammengefasst und Bilder lassen sich erstellen – letzteres aber nicht fotorealistisch. Es existiert weder ein richtiger Chatbot – den stellt optional OpenAI –, noch sind die Outputs herausragend. Allerdings hieß es zuletzt, Apple nähere sich dank großer Investitionen der Konkurrenz zumindest an.
Erst kleine, lokale Modelle
Offenbar liegt der Fokus ohnehin bei kleineren Sprachmodellen, die auf dem iPhone selbst laufen – zumindest am Anfang. Diese sind aber noch schwächer als Apples vollwertiges KI-System, das bei anspruchsvollere Aufgaben in die Cloud wechselt. Schon jetzt können Entwickler zudem die Standard-KI-Funktionen wie die Schreibwerkzeuge, Genmoji oder Image Playground samt Benachrichtigungszusammenfassungen verwenden. Sie sind eigentlich standardmäßig aktiv, wobei es Möglichkeiten gibt, sie zu umgehen.
Sinn von SDK und Frameworks ist nun, dass es nun für Entwickler möglich wird, eigene KI-Funktionen auf Basis der Apple-Technik zu schreiben. Was das kostet – und ob es vielleicht sogar gratis ist – bleibt abzuwarten. Vorbild soll der App Store an sich sein: Mit Erscheinen des Softwareladens für iOS im Jahr 2008 hatte Apple auch zahlreiche eigene Technologien für Entwickler freigegeben. Denkbar ist weiterhin, dass Apple auf der WWDC neue eigene Sprachmodelle zeigt. An einer "LLM-Siri" arbeitet der Konzern allerdings erst für 2026 oder gar 2027.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externer Preisvergleich (heise Preisvergleich) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (heise Preisvergleich) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
(bsc)