iPhone 15 Pro und Pro Max: Visuelle Intelligenz nun aktiv
Apple hat seine Ankündigung wahrgemacht und ein KI-Feature, das bislang nur für das iPhone 16 parat stand, auch älteren Geräten zugänglich gemacht.

Visual Intelligence in Aktion: Hier bei der Ăśbernahme in den Kalender.
(Bild: Apple)
Visual Intelligence, visuelle Intelligenz, nennt Apple eine Funktion, mit der man per iPhone-Kamera Informationen über die Umgebung abfragen kann. Zuletzt kamen auch noch Funktionen wie Kalendereinträge, Übersetzungen oder die Zusammenfassung von Texten hinzu. Allein, die Funktion war nur den im letzten Herbst erschienenen iPhone-16-Modellen vorbehalten – wohl auch, weil Apple diese von ihren Vorgängern absetzen wollte. Daher ließ sich Visual Intelligence auch nur über die neue Kamerasteuerung auslösen, die 15 Pro und 15 Pro Max fehlen. Mit iOS 18.4 tut sich nun etwas: Wie bereits angekündigt, hat Apple eine Nachlieferung umgesetzt. An der Hardware lag es also nicht.
Im Notfall hilft auch ChatGPT
Mit Visual Intelligence kann man auch Google befragen, Texte laut vorlesen lassen sowie ChatGPT kontaktieren. Beim iPhone 15 Pro und 15 Pro Max kann man sich Visual Intelligence nun auf die Aktionstaste legen. Dazu wählt man in den Systemeinstellungen unter Aktionstaste "Visuelle Intelligenz" – und schon liegt das Feature auf dem Knopf, ganz ohne Kamerakontrolle.
Alternativ – etwa wenn man die Aktionstaste für wichtigere Dinge benötigt – nutzt man das Kontrollzentrum, wo im Bereich Apple Intelligence und Siri nun auch ein passendes Icon auftaucht, das sich dann weit nach vorne schieben lässt.
Neuer Basisdienst in Planung
Das iPhone 16e konnte auf diese beiden Arten bereits vor iOS 18.4 auf Visual Intelligence zugreifen. Der Support für iPhone 15 Pro und 15 Pro Max ist somit ein No-Brainer. Mit iOS 18.4 hatte Apple auch erstmals sein KI-System Apple Intelligence – auf dem Visual Intelligence teilweise basiert – freigegeben.
In den USA ist es mit Visual Intelligence inzwischen möglich, Restaurantreservierungen oder Lieferdienstbestellungen abzusetzen. Es ist davon auszugehen, dass die Features künftig noch erweitert werden. Einen "Live-Assistenten" mit Kamerabild, wie ihn Google oder OpenAI bereits präsentiert haben, wird man mit der Funktion aber wohl nicht erreichen, das ist auch nicht das Ziel. Was allerdings stört, ist die Tatsache, dass man keine vorhandenen Bilder mit Visual Intelligence analysieren kann – sie müssen aktuell entweder gerade aufgenommen worden oder eben direkt vor der Linse sein.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externer Preisvergleich (heise Preisvergleich) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (heise Preisvergleich) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
(bsc)