Analyse zu neuen Plänen: Macht Apple bei KI jetzt alles besser?
Lange Zeit war Apple in Sachen Künstlicher Intelligenz hinten. Nun soll der Konzern auch dank Google-Gemini-Hilfe vorankommen. Was ist von den Ideen zu halten?
Apple und KI: Genau richtig lange gewartet?
(Bild: Below the Sky / Shutterstock / Bearbeitung: heise medien)
Apple Intelligence ist ein Begriff, bei dem Fans von KI bislang abwinken: Die Sprach- und Bildmodelle des iPhone-Herstellers gelten einfach nicht als konkurrenzfähig, genauso wenig wie die offerierten Dienste wie Schreibwerkzeuge, Image Playground oder Genmoji. Einen eigenen Chatbot bietet Apple ebenso wenig an, mit Siri lässt sich nur schlecht plaudern. Zwei Nachrichten aus den vergangenen Wochen könnten nun dazu führen, dass sich das alles ändert: Apple hat demnach vor, erstmals einen eigenen Chatbot direkt in seine Betriebssysteme zu integrieren, sowie, und das ist noch erstaunlicher, ein eigenes KI-Wearable auf den Markt zu bringen.
Chatbots wohl doch interessant
Zunächst zum Chatbot. Diesen hatte Apple über einen langen Zeitraum sowohl nach Innen als nach Außen abgelehnt. Softwareboss Craig Federighi gilt allgemein als KI-Skeptiker, der Rieseninvestitionen wie bei anderen IT-Riesen bislang untersagt hatte. Offenbar fürchtete der Konzern, erstens nicht mit der Konkurrenz mithalten zu können, sowie zweitens in Fallen hineinzulaufen, die Apple gar nicht mag – etwa wenn KIs halluzinieren, Guardrails nicht beachten und damit das familienfreundliche Image des Konzerns antasten.
Videos by heise
Doch mit iOS 27, macOS 27 und den anderen Betriebssystemen, die im Sommer vorgestellt und im Herbst ausgeliefert werden dürften, soll sich das ändern: Ein systemweit zur Verfügung stehender Chatbot ist glaubwürdigen Berichten zufolge vorgesehen, als eine Art Super-Siri. Das Ganze wird dann vom „bevorzugten Cloud-Anbieter“ des Konzerns „gepowert“, zu dem sich Google kürzlich offiziell erklären durfte. Heißt: Apple steht außen drauf, ein Google-Gemini-basiertes Modell ist drin. Interessant wird hier, wie Apple dies vermarkten wird. Der Konzern äußert sich nicht zu technischen Details, es könnte für ihn aber ratsam sein, durchblicken zu lassen, dass man Google-Technik nutzt, um die oben erwähnten möglichen Peinlichkeiten zu umgehen.
Der bevorzugte Cloud-Anbieter
Völlig unklar ist auch noch, wie es mit dem Datenaustausch aussieht. Bislang wird angenommen, dass Apple zunächst einfachere Gemini-Modelle auf eigenen Servern im Rahmen der Private-Cloud-Compute-Initiative laufen lässt, doch sind die für den im Herbst geplanten Chatbot wohl nicht gut genug. Danach kann Apple eigentlich nur noch Google-Tensor-Systeme erwerben, die für die neuesten Gemini-Modelle optimiert sind, um sie in eigene Rechenzentren zu stellen. Oder aber die Rechenarbeit erfolgt in Googles Anlagen, was preislich und praktisch wohl sinnvoll ist, zumal auch die halbe iCloud auf Google-Cloud-Servern gehostet wird (neben Microsoft Azure und Amazons AWS).
Erste Anzeichen, wie man sich das alles vorzustellen hat, wird es wohl im April geben. Dann kommt nach allen aktuellen Erkenntnissen endlich die kontextsensitive Siri im Rahmen von iOS 26.4. Diese wird auf Apples eigenen Modellen sowie auf einfacheren Gemini-Modellen basieren, wie es bislang heißt. Der Konzern kann sich hier keine Schnitzer erlauben, nachdem das Vorhaben bereits im Sommer 2024 (!) angekündigt worden war. Siri soll damit endlich intelligenter werden, Nutzerinhalte verwenden, um echten Mehrwert zu bieten – und auch Apps steuern oder zumindest auslesen. Die Chatbot-Qualitäten eines ChatGPT oder Claude sind jedoch nicht zu erwarten, die kommen später.
Wirklich ein KI-Gadget
Schließlich kam auch noch die Meldung herein, dass Apple im Sinne einer direkten Konkurrenz zu Ex-Designboss Jony Ive ein eigenes KI-Gadget in Form eines Wearables plant. Als ich dies erstmals vernahm, hielt ich es für einen Scherz. Schließlich sind bisherige Produkte in dem Segment krachend gescheitert, und es steht keineswegs fest, dass es Jony Ive zusammen mit Sam Altman gelingt, ein im Markt erfolgreiches KI-Wearable von OpenAI durchzusetzen.
Trotzdem scheinen die Informationen der Wahrheit zu entsprechen. Laut Angaben von The Information soll für 2027 eine Art anpinnbarer AirTag mit Lautsprecher, Kamera, Mikrofone und drahtloser Ladefunktion erscheinen. OpenAI hat selbst angeblich Stifte, Brillen, Pins und/oder Ohrstöpsel in der Pipeline. Die Sinnhaftigkeit dieser Geräte ergibt sich eigentlich nur daraus, dass sie ohne Zusatzhardware wie ein Smartphone funktionieren, denn sonst könnte man einfach dieses verwenden.
Apple hat außerdem bereits die Apple Watch, die die ideale Plattform für einen ständig verfügbaren KI-Assistenten darstellen dürfte – sie kann aber bislang offiziell nur indirekt Apple Intelligence. Apples möglicher KI-Pin soll ein Millionenseller werden. Wie intelligent oder Cloud-abhängig er wird, ist offen. Es wäre für Apple zumindest ungewöhnlich, in eine derart unbewiesene Kategorie vorzustoßen. Da ist der Aufkauf des KI-Unternehmens Q.AI schon spannender, das es ermöglichen soll, mit Sprachassistenten stimmlos zu kommunizieren. Das wäre ein echter Fortschritt.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externer Preisvergleich (heise Preisvergleich) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (heise Preisvergleich) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
(bsc)