Analyse zur WWDC 2025-Keynote: Apple will (wieder) gut aussehen
Apple renoviert das Aussehen seiner Betriebssysteme und umgarnt die Entwickler. Aber wie stark sitzt dem iPhone-Hersteller das KI-Thema im Nacken? Eine Analyse.
(Bild: mki / heise online)
Apple will wieder gut aussehen. Der iPhone-Hersteller renoviert das Design all seiner Betriebssysteme. Die neue Optik namens Liquid Glass in iOS 26 und Co. mag manche an Windows Vista und dessen Glasdeko erinnern. Aber Apples Ansatz, die Steuerelemente dreidimensionaler und griffiger als bislang zu gestalten, geht im Jahr 2025 technisch deutlich darüber hinaus und sieht im Gebrauch viel natürlicher und effektvoller aus. Es ist ein auf den ersten Blick schmuckes Redesign, das Nutzern aber keine große Umgewöhnung abverlangt, weil das meiste vertraut bleibt. Überdies erfüllt der iPhone-Hersteller endlich den Wunsch vieler iPad-Nutzer, ein Multitasking zu erhalten, das den Namen verdient, und öffnet die Apple Intelligence für Entwickler.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Man tut Apple nicht Unrecht, wenn man inmitten der Dauerberieselung mit Neuigkeiten diese drei Features als die herausragenden, die wirklich relevanten Highlights der diesjährigen Weltentwicklerkonferenz WWDC und der neuen Software-Versionen bezeichnet. Dass Apple künftig seine Versionen nach Jahrgängen nummeriert, war selbst Apple keine große Schlagzeile wert. Es gab noch viele weitere Kleinigkeiten, die mal mehr, mal weniger nützlich erscheinen. Aber die genannten drei Funktionen haben gemeinsam, dass sie erstens sehr viele Nutzer betreffen und ansprechen und zweitens, vor allem die Entwickler ins Boot nehmen. Und das war zweifellos die zentrale Botschaft dieser Entwicklerkonferenz. Sie sollte nach Jahren, in denen es primär um neue Hardware (Vision Pro) oder Aktionäre und Kunden (KI) ging, wieder mal jene in den Fokus rücken, um die es sich bei einer Entwicklerkonferenz eigentlich drehen sollte.
Apple wirft alles in einen Topf
Aber natürlich ging es Apple auch um sich selbst. Die Hauptthemen der vergangenen beiden Jahre hatten jeweils eine kurze Halbwertzeit – milde gesagt. Kritiker, und dazu zählen mitnichten nur die üblichen Verdächtigen, formulieren das deutlich schärfer. Die Apple Vision Pro mag man weiterhin als Technologie mit Potenzial ansehen, als Gerät, das in einer Nische ihre Freunde gefunden hat. Der groß gefeierte Aufbruch in das Zeitalter des räumlichen Computings war und ist sie auch mit visionOS 26 gewiss nicht. Und generative Künstliche Intelligenz war für Apple bereits ein unangenehmes Thema, bevor sie selbst es im Jahr 2024 mit der Apple Intelligence bedienten. Die Hoffnung, Apple werde zwar spät einsteigen, aber dann den anderen zeigen, wo es langgeht, hat sich nicht erfüllt.
Videos by heise
Dieses Jahr wurde deshalb nahezu alles in einen Topf geworfen, was endlich mal wieder eine nachhaltige Zufriedenheit mit dieser WWDC garantieren könnten: Langjährige Nutzerwünsche wurden erfüllt, der Ruf nach einem Redesign erhört, Developer mit neuen, kostenlosen und sofort verfügbaren APIs versorgt. Hier liegt viel Potenzial, wenn man vor Ort mit Developern spricht – aber ob die Modelle den Ideen und Wünschen standhalten, werden die nächsten Wochen zeigen. Das Redesign der Fotos-App wurde teilweise rückgängig gemacht, indem die Tab Bar zurückkehrt und die mit Schaltern reichlich überladene Kamera-App neu gestaltet.
Die “Vision erweitert”
Und auch wenn der Ball bei der Apple Intelligence tendenziell flach gehalten wurde – sie wurde zwar überall so ein bisschen eingestreut, aber essenziell wurde nichts wirklich Neues geliefert – so hat Apple doch die größten Baustellen beseitigt: Beim letztjährig angekündigten, nie erschienenen Programmierassistenten Swift Assist wurde die “Vision erweitert”, wie Apple es in schönstem Marketingsprech formuliert. Auf Deutsch: Man hat jetzt ChatGPT integriert. Wahlweise kann auch Anthropic mit Claude eingebunden werden. Das Ganze ist nicht irgendwann, sondern sofort verfügbar. Die Entwickler, die sich die technische Keynote, die State of the Union, später am Montag vor Ort im Apple Park ansahen, applaudierten kräftig – und das zurecht: Apple hat hier endlich mal geliefert.
Auf Consumerseite kann Image Playground, die App für das Generieren von Bildern, jetzt ebenfalls ChatGPT ansteuern – und die Nutzer dürfen sich darauf freuen, dass sie erstmals verlässlich etwas Brauchbares damit erstellen können. Auch in der Bilderkennung Visual Intelligence und bei den Kurzbefehlen holt sich Apple Hilfe von OpenAI – man kann dies getrost als nonverbales Eingeständnis werten, dass die Realität der eigenen Modelle eindeutig hinter den Ambitionen geblieben ist.
Apple schert aus – das muss nicht schlecht sein
Apple schert mit seiner Entwicklerkonferenz deutlich aus dem Chor seiner Mitbewerber aus. Bei Google und Microsoft gab es ja kaum ein anderes Thema als KI. Auf eine Weise ist es da schon erfrischend, dass man bei Apple auch mal was anderes zu hören bekommt, zumal die Liste der Baustellen und Wünsche im Nicht-KI-Bereich lang genug ist.
Und vor Ort, in Cupertino, mutmaßen Beobachter bereits, dass das Glas-Design jetzt kommt, damit es in ein paar Jahren von allen Apps unterstützt wird, wenn vielleicht die sagenumwobene Mixed-Reality-Brille im Stile einer normalen Sehhilfe kommt. Ist das wieder dieser Idealismus, diese Träumerei, der Apple-Fans, die am Ende in eine Enttäuschung mündet? Fest steht: Wenn das der Plan ist, würde Apple in dem Moment wirklich gut aussehen – und das nicht nur, wie jetzt, für den Moment.
(mki)