Apple Intelligence: Das sagen der KI- und der Software-Chef zum Siri-Neubeginn

Nach der WWDC-Keynote fand in Cupertino im Apple Park eine ungewöhnliche Fragestunde statt. Welche weiteren Details die Chefs zu Apples KI preisgaben.

In Pocket speichern vorlesen Druckansicht 27 Kommentare lesen
Justine Ezarik, John Giannandrea und Craig Federighi auf der Bühne

YouTuberin und Moderatorin Justine Ezarik (von links), Apples KI-Chef John Giannandrea und Software-Chef Craig Federighi auf der Bühne im Steve-Jobs-Theater.

(Bild: Apple)

Lesezeit: 5 Min.
Inhaltsverzeichnis

Es gab nach der Keynote zur Apple-Entwicklerkonferenz WWDC viele Fragen rund um Apple Intelligence, der KI-Offensive des iPhone-Herstellers. Antworten sollte eine Veranstaltung im Steve-Jobs-Theater geben, an der geladene Medienvertreter, darunter heise online, teilnehmen konnten. Die Veranstaltung erinnerte im ersten Moment ein wenig an jene legendäre Fragerunde, die Steve Jobs im Jahr 2007 nach einer Mac-Neuvorstellung ausrichtete. Damals ließen sich Jobs, sein Marketingchef Phil Schiller und der damalige COO Tim Cook 15 Minuten lang mit Fragen löchern.

Jetzt, an diesem Montag, saßen Software-Chef Craig Federighi und John Giannandrea, Chef für Maschine Learning und Apples KI-Strategie, vorn. Schiller, seit einigen Jahren Apple Fellow und zuletzt bekannt als der Mann für schwierige Fälle, wie die Gesetze in der EU, saß indessen in der ersten Reihe und schaute zu. Doch mit der unbequemen Fragerunde von damals hatte diese Zusammenkunft dann doch deutlich weniger gemein als gedacht.

Mit Justine Ezarik, besser bekannt als YouTuberin iJustine, hatte Apple eine externe Moderatorin angeheuert, die Federighi und Giannandrea interviewte. Apple-Chef Tim Cook moderierte die Runde vergnügt an. Allzu unbequeme Fragen waren von Ezarik, die bekannt dafür ist, neue Apple-Produkte in allen Farbtönen und Variationen euphorisch auszupacken, nicht zu erwarten. Auch blieb unklar, wie die genauen Rahmenbedingungen für ihre Moderation aussahen, ob sie also von Apple dafür bezahlt wurde, wie viel Wissen sie vorab zur Vorbereitung hatte und ob Apple die Fragen vorgab.

Zumindest ein kleines bisschen mehr Klarheit und Einblick in Apple Intelligence gewannen die Zuschauer dann aber doch. Im Gegensatz zur Keynote wurde deutlich, dass Apple einen Großteil seiner KI mit eigenen Sprachmodellen bestreitet – die Zusammenarbeit mit OpenAI also deutlich weniger Bedeutung hat, als zunächst angenommen. Im Publikum der WWDC-Keynote wurden auch OpenAI-Chef Sam Altman gesichtet – er sollte hier aber keine Rolle spielen. Deutlich wurde ferner, dass ChatGPT dann zum Einsatz kommt, wenn die Nutzer mehr wollen – also etwa bei der Texterstellungs-Funktion. Dann bereite Apple ihnen mit der neuen Integration komfortabel den Weg, anstatt sie in eine Dritt-App zu entlassen, ließ Federighi erkennen – und das System warnt zugleich aber davor, dass diese KI auch mal halluzinieren kann.

Apple selbst befürchtet sowas bei seinen eigenen generativen Modellen offenbar nicht. Trainiert worden seien diese mit Daten aus dem öffentlichen Web, aber auch mit lizenzierten Inhalten aus Büchern und Stock-Fotos, sagte Giannandrea. Die Modelle habe man sehr genau trainiert und getestet, beteuerte er und die Funktionen seien sorgfältig geplant, sodass bekannte Schwächen von KI gar nicht erst zum Tragen kommen.

Federighi brachte es auf den Punkt, als er sagte: "Wir nehmen nicht den Teenager und sagen ihm: Hier, flieg mal das große Flugzeug". Apples Software-Chef erläuterte auch die Sicherheitsvorkehrungen beim Private Cloud Computing. Selbst, wenn eine Firma verspreche, dass sie mit den Daten nichts macht, könne das keiner überprüfen, sagt er. Apple halte sich deshalb die Daten vom Leib, indem Anfragen anonymisiert und mit maskierten IP-Adressen an die Server gesendet würden. Der Server habe keinen permanenten Speicher und logge Anfragen auch nicht. Zudem sei Apple offen für regelmäßige Audits durch Sicherheitsforscher.

Der Aspekt Sicherheit, aber auch die Energieeffizienz hätten Apple dazu bewogen, seinen eigenen Apple-Silicon-Prozessoren für die Server zu verwenden. "Einer der größten Kostenfaktoren ist Energie", betonte Federighi. Apple wolle die Auswirkungen auf die Umwelt reduzieren und verwende überdies nur Strom aus 100 Prozent erneuerbarer Energie.

Giannandrea und Federighi demonstrierten mit ihrem gemeinsamen Auftritt auch einen Schulterschluss. Erst kurz vor dem Event war in einem Medienbericht laut geworden, dass die Zusammenarbeit in Sachen KI zwischen den beiden zunächst angespannt gewesen sei. Nun betonten sie beide, dass Apple Intelligence erst am Anfang stehe, dass dies ein erster Schritt sei, persönliche Intelligenz im Stile Apples zu etablieren. Und Siri sei jetzt kein Sprachassistent mehr, sondern ein Geräteassistent, der ein tieferes Verständnis dafür entwickle, was auf dem Gerät passiert, so Giannandrea.

Apple Intelligence sei kein taktischer Schachzug, sondern Apple baue es wirklich ins Betriebssystem ein, betonte Giannandrea, der früher bei Google KI entwickelte. Federighi zeigte am Beispiel der KI-generierten Emojis auf, dass sich damit individuelle Nutzerbedürfnisse erfüllen ließen, die man bislang niemals alle hätte umsetzen können. "Dies ist der Beginn einer langen, aufregenden Reise."

(mki)