MCP-Unterstützung: Erste Anzeichen für iOS-Einbau in Apple Intelligence
Mit dem Model Context Protocol lassen sich KI-Systeme leicht verbinden. Das soll demnächst beim iPhone möglich werden.
Apple Intelligence: Schnittstelle geplant?
(Bild: Apple)
KI-Systeme und agentische Lösungen kombinieren, das ist das Ziel des von Anthropic entwickelten Model Context Protcol (MCP). Mit etwas Glück könnte Apple die Technik recht bald aufs iPhone holen: im Rahmen von iOS 26.1. Dafür gibt es nun gute, erste Hinweise im Betacode des Updates, das wohl noch im Oktober erscheinen wird. Neben iOS soll es auch aufs iPad (mit iPadOS 26.1) und den Mac (mit macOS 26.1) gelangen, berichtet das Apple-Blog 9to5Mac, das die Codeleaks entdeckt hat. MCP erlaubt es, KI-Systeme mit Datenquellen zu verbinden und die Isolation einzelner LLMs aufzuheben. Es soll ein offener Standard ähnlich wie das Web-Protokoll HTTP werden, hoffen die Macher.
App Intents mit MCP?
Apple will MCP offenbar in sein App-Intents-Framework integrieren. Damit soll Apple Intelligence – und insbesondere eine verbesserte Sprachassistentin Siri – mit Anwendungen interagieren können. Dazu gehört auch das Auslesen von App-Zuständen. Damit das funktioniert, müssen Entwickler aber tätig werden. Da Apple die kontextsensitivie Siri zunächst aufs kommende Jahr verschoben hatte, tat sich hier bislang nur wenig. App Intents können aber auch mit der Spotlight-Suche arbeiten, die Kurzbefehle-App nutzen und sogar Hardware-Interaktionen abfangen.
Videos by heise
Mit MCP könnten Entwickler auf deutlich mehr zugreifen als nur Siri und/oder Apple Intelligence. Auf Systemebene wären so App-Aktivitäten und Verfügbarmachung von Daten und Funktionen für letztlich alle KI-Plattformen nutzbar, die MCP unterstützen. Dazu gehören neben Anthropics Clause auch ChatGPT von OpenAI sowie diverse weitere große Sprachmodelle und KI-Anwendungen.
MCP bei Apple erst am Anfang
Der Codeleak besagt allerdings nicht, dass MCP direkt mit iOS 26.1 und Co. bereitsteht – es könnte sich dabei auch nur um erste Vorarbeiten handeln, bis die kontextsensitive Siri dann (hoffentlich) im kommenden Frühjahr erscheint. "Der heute gefundene Code deutet auf einen noch sehr jungen MCP-Support hin", schreibt 9to5Mac. Es könne noch "eine Weile dauern", bis die Integration verfügbar ist – selbst eine offizielle Ankündigung sei vermutlich noch länger entfernt.
Apple fährt aktuell eine mehrgleisige Strategie: Apple Intelligence basiert auf eigenen Sprachmodellen, Nutzer können alternativ aber auch ChatGPT verwenden. Auch Google Gemini könnte in absehbarer Zeit bereitstehen. Zwischenzeitlich hieß es gar, Apple werde das LLM für die kontextsensitive Siri (oder deren Chatbot-artigeren Nachfolger) gleich direkt von Google beziehen.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externer Preisvergleich (heise Preisvergleich) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (heise Preisvergleich) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
(bsc)