Apple Intelligence: Diese Funktionen gibt es zum Auftakt

Privat soll sie sein, aber vor allem einfach in der Bedienung: Ein erster Blick auf die Funktionen der Apple Intelligence, die in iOS 18 kommen sollen.

In Pocket speichern vorlesen Druckansicht 17 Kommentare lesen
Schreibhilfe der Apple Intelligence

Mit der Apple Intelligence integriert Apple unter anderem Schreibhilfen in seine Betriebssysteme, mit denen zum Beispiel Mails Korrektur gelesen oder Formulierungen verbessert werden können.

(Bild: Apple)

Lesezeit: 7 Min.
Inhaltsverzeichnis

Wenn Apple ab Herbst zunächst in Englisch und später in anderen Sprachen die Apple Intelligence an den Start bringt, dann soll der Umgang mit Künstlicher Intelligenz sicher, aber vor allem auch einfach sein. Wie einfach, das konnte heise online im Zuge der Entwicklerkonferenz WWDC bereits am Beispiel mehrerer Funktionen anschauen, die in der aktuell verfügbaren ersten Developer-Beta von iOS 18 noch nicht enthalten sind. Wann die in Entwicklung befindlichen Features frei getestet werden können, ist noch unklar. Auch sind noch einige weitere Details bekannt geworden, die aus der Eröffnungskeynote der Entwicklerkonferenz WWDC nicht hervorgingen.

Am deutlichsten wird Apples Ansatz bei der Arbeit mit Bildern. Mit der "Image Wand" genannten Funktion genügen eine Strichzeichnung oder sogar nur ein vorhandener geschriebener Text in der Notizen-App, um dazu passend ein Bild zu erstellen. Weil das offenbar auch zauberhaft wirken soll, erinnert die dazugehörige Animation an den Glimmer, den man aus Filmen über Magier kennt. "Zauberstab" ist hierbei der Apple Pencil, der etwa genutzt wird, um eine vorhandene Zeichnung zu umkreisen und per Menü die Funktion auszulösen. Beim Umsetzen einer gezeichneten Torte oder dem Erstellen eines Bildes zur Anleitung für eine Hundehütte zeigte sich die von Apple selbst entwickelte generative KI sehr treffsicher – allerdings war auch die Strichzeichnung der Torte schon ziemlich gut. Wie gut die KI auch Künstler versteht, die nicht so gekonnt skizzieren, gilt es abzuwarten.

Apple Intelligence - Die ersten Funktionen (19 Bilder)

Ergänzend zu den eigenen KI-Modellen Apples bietet die Apple Intelligence auch an, ChatGPT zu konsultieren – etwa zum Verfassen eines Textes. (Bild: Apple)

Ähnlich einfach funktioniert die Funktion "Clean-Up" in der Fotos-App. Der Mann, der im Gruppenbild vor einer schönen Szenerie im Hintergrund ins Bild läuft, wird schon von der KI selbst als Störenfried identifiziert und schimmernd markiert. Das Antippen mit einem Finger genügt, um ihn verschwinden zu lassen. Die KI erzeugt den passenden Hintergrund, um das Bild zu vervollständigen. Bei anderen Motiven muss der Nutzer selbst aktiv werden – allerdings reicht hier ein Umkreisen mit dem Finger, um etwa in einer Totale eines Parks zwei im Vordergrund vorbeilaufende Personen heraus zu retuschieren. Eine Besonderheit ist hierbei, dass das Entfernen des Hauptmotivs von der Software nicht zugelassen wird. Ob das der Sorge geschuldet ist, dass mit den Bildern Unfug angestellt werden könnte, oder ob es qualitativ zu keinem guten Ergebnis führen könnte, bleibt offen – vermutlich spielt beides eine Rolle. Auch wird natürlich bei Veröffentlichung der Funktionen noch genau zu prüfen sein, wie glaubhaft der Hintergrund wirklich aufgefüllt wird.

Sprachassistent Siri soll in iOS 18 dank KI deutlich besser werden

(Bild: Apple)

Apple Intelligence wird im Herbst zunächst auf drei Plattformen und in US-Englisch starten: auf dem iPhone (iOS), dem iPad (iPadOS) und dem Mac (macOS). Im Auto, in CarPlay, wird es zumindest die veränderte Spracherkennung namens Siri mit ihrem schimmernden neuen Look am Bildschirmrand und einigen Funktionen geben, da CarPlay im Grunde nur eine Schnittstelle zum iPhone ist. Die dank watchOS unabhängigere Apple Watch und die HomePods mit ihrer eigenen Firmware werden trotz gewisser Verbindungspunkte zum iPhone erstmal leer ausgehen. Für Besitzer ist das bedauerlich, da gerade die Geräte mit sehr kleinem oder gar keinem Bildschirm von der menschlicheren Siri deutlich profitieren würden.

Allerdings benötigt Apple für die Magie der Intelligence einen leistungsstarken Prozessor, den gerade die kleinen Geräte nicht haben. Deshalb wird es Apple Intelligence auch nur auf dem iPhone 15 Pro, dem iPhone 15 Pro Macs sowie allen Macs und iPads, die mit mindestens über einen M1-Chip verfügen, geben. Die gute Nachricht ist: Dank lokaler Verarbeitung (On Device Processing) wird die Apple-KI auf diesen Geräten vielfach auch dann noch zur Verfügung stehen, wenn gerade keine Verbindung ins Internet besteht oder im Flugmodus. Es könne allerdings je nach Funktion zu Einschränkungen kommen, nämlich dann, wenn die KI Aufgaben an die leistungsstärkeren KI-Server von Apple in der Cloud abgeben möchte.

Wann genau das passiert, weiß niemand genau. Apple will die Nutzer offenbar nicht mit solchen Details nerven – den Fachmann juckt es natürlich unter den Fingern, dem Gerät dieses Geheimnis zu entlocken. Lediglich wenn die Apple-KI-Modelle gar keine Antwort haben und Siri per Dialogfenster vorschlägt, die Anfrage an ChatGPT von OpenAI weiterzugeben, wird sehr deutlich, dass die Antwort in der Cloud liegt. Das ist vor allem dann der Fall, wenn zum Beispiel aus dem Nichts heraus ein komplett neuer Text erschaffen soll oder wenn ein sehr langes Dokument auf einen bestimmten Punkt hin untersucht werden soll.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Apples eigene KI kommt vor allem für die kleineren Handreichungen im Alltag zum Einsatz: Beim Korrekturlesen eines Texts soll sie unter anderem auf Rechtschreibung, Satzstruktur, Grammatik, Formulierungen und Stil achten können. Nach dem Markieren taucht ein kleiner blauer Pfeil neben dem Text auf, der ein Menü öffnet, über das die gewünschte Funktion ausgewählt wird. Vorhandene Texte können auf diese Weise auch in einen anderen Stil umformuliert werden. Die KI unterstreicht Änderungsvorschläge. Diese können entweder Schritt für Schritt oder mit einem Antippen komplett übernommen werden.

Was auffällt: Während die Textbearbeitung eher auf Werke abzielt, die auch im beruflichen Kontext verwendet werden, dürften die meisten bildgenerierenden Funktionen von Apples KI eher im privaten Bereich und zu Unterhaltungszwecken genutzt werden. So etwa die Genmojis: Wer in dem Suchfeld der Emoji-Tastatur nicht fündig wird, kann künftig in iOS 18 eine Schaltfläche antippen und bekommt ein maßgeschneidertes Motiv. Das kann entweder als richtiges Bild oder als Tapback in iMessage verschickt werden.

Eher für Unterhaltungszwecke: Mit dem Image Playground können Bilder erzeugt werden, die zum Beispiel Kontakte aus dem Adressbuch als Superhelden abbilden.

(Bild: Apple)

Ähnlich der Image Playground: Statt steifer textbasierter Prompts wirft der Nutzer der KI per Textfeldeingabe Bausteine zu, etwa den Begriff Feuerwerk und Brücke. Wahlweise kann aus dem Adressbuch auch ein Kontakt ausgewählt werden. Die um das Bild als Blasen herumschwebenden Wörter kann der Nutzer dann auch leicht wieder herausnehmen. Das Ergebnis ist wahlweise comichaft oder eine Illustration – niemals aber sieht es nach einem realen Foto aus, wie es andere Bildgeneratoren in der Standardeinstellung tun.

Aber das soll ja erstmal nur der Anfang sein, wenn die Apple Intelligence im Herbst in US-Englisch veröffentlicht wird. Und schon für den Anfang dürften die bislang bekannten Funktionen der Apple Intelligence, wenn sie wahrscheinlich im Jahr 2025 auch in deutscher Sprache verfügbar sind, die Möglichkeiten auf den Apple-Geräten deutlich erweitern.

(mki)