Kontrollzentrum: Apple versucht, Usern Apple Intelligence schmackhaft zu machen
Seit iOS 18.3.1 reaktiviert Apple sein KI-System automatisch. Mit iOS 18.4 wird die Einbindung ins Betriebssystem noch enger.
Logo von Apple Intelligence: Breiter Einsatz erwünscht.
(Bild: Apple)
Apple möchte augenscheinlich sehr, dass User sein KI-System Apple Intelligence nutzen, auch wenn es längst nicht perfekt ist. Wie Tester der zweiten Entwicklerbeta von iOS 18.4 berichten, wird die Integration mit dem Update noch verstärkt. So gibt es erstmals im Kontrollzentrum Icons für zentrale Apple-Intelligence-Funktionen. Aktuell ist das KI-System nur auf Englisch verfügbar, soll im April aber auch auf Deutsch vorliegen.
Apple Intelligence kostet Speicherplatz
Schon mit iOS 18.3.1 hatte sich das KI-System automatisch wieder eingeschaltet, wenn User es zuvor abgedreht hatten – allerdings nicht bei allen Nutzern. Das kann für Probleme sorgen, da Apple Intelligence für seine Modelle ordentlich Speicherplatz belegt – es sollen mindestens 4 GByte sein. Es gibt keine Möglichkeit, dies bei aktivem Apple Intelligence abzudrehen, da die LLMs und Bildgeneratoren Teil des Betriebssystems sind: Ist das KI-System aktiv, werden sie heruntergeladen.
Videos by heise
In iOS 18.4 Beta 2 lassen sich nun mindestens drei Apple-Intelligence-Funktionen direkt aus dem Kontrollzentrum aufrufen: "Talk to Siri" (um Siri Fragen zu stellen, was jedoch auch über die Seitentaste geht), "Type to Siri" (um Fragen an Siri einzutippen) sowie der Aufruf von Visual Intelligence. Letztere Funktion erlaubt es, Fotos zu schießen, um diese dann mittels KI analysieren zu lassen, wobei sich Apple hier (auch) von Google helfen lässt.
Visual Intelligence fürs iPhone 15 Pro
Mit iOS 18.4 kommt Visual Intelligence außerdem auf das iPhone 15 Pro und 15 Pro Max. Die Funktion war zunächst nur den iPhone-16-Modellen vorbehalten, da Apple sie mit dem Camera-Control-Knopf (Kamerasteuerung) kombiniert hatte. Mit dem iPhone 16e wurde das Feature auch auf die Aktionstaste geholt.
In der zweiten Beta von iOS 18.4 geht dies nun auch auf dem 15er-Pro-Modellen. Zudem kann man VIsual Intelligence wie erwähnt auch über das Kontrollzentrum aufrufen. Der Dienst kann unter anderem fotografierte Texte übersetzen, sie vorlesen, Google nach gesehenen Objekten durchsuchen beziehungsweise diese auch direkt identifizieren – gegebenenfalls via ChatGPT. Visual Intelligence ist mit iOS 18.4 auf allen Apple-Intelligence-fähigen iPhones verfügbar, also allen fünf 16er-Modellen plus die 15er-Pro-Geräte.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externer Preisvergleich (heise Preisvergleich) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (heise Preisvergleich) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
(bsc)