Sprachmodelle sollen es richten: "LLM Siri" mit iOS 19 erwartet

Auf die meisten Fragen weiß Siri keine Antwort – trotz Apple Intelligence. Neue Sprachmodelle sollen es angeblich richten, aber wohl frühestens mit iOS 19.

In Pocket speichern vorlesen Druckansicht 23 Kommentare lesen

(Bild: NYC Russ/Shutterstock.com)

Lesezeit: 2 Min.

Apple plant eine Generalüberholung seines in die Jahre gekommenen Sprachassistenzsystems. Fortgeschrittene Sprachmodelle sollen einem Bericht zufolge die Basis für ein plauderfähigeres Siri legen: Entwicklung und Testläufe sind bei Apple bereits im Gange, wie die Finanznachrichtenagentur Bloomberg unter Berufung auf informierte Personen berichtet, intern werde das Projekt "LLM Siri" genannt – LLM steht für Large Language Models, große KI-Sprachmodelle.

Dafür kommen demnach neue, hauseigene Apple-Sprachmodelle zum Einsatz, die letztlich natürliche Konversationen mit dem Assistenzsystem ermöglichen sollen. Das System sei auch in der Lage, komplexere Anfragen schneller zu beantworten, heißt es. Derzeit wird "LLM Siri" als alleinstehende App getestet, erklärt Bloomberg, das KI-Siri sei aber dafür ausgelegt, letztlich das bisherige Siri zu ersetzen und direkt in Apples Betriebssysteme integriert zu werden.

Nach Informationen Finanznachrichtenagentur arbeitet Apple auf eine Vorstellung des neuen Sprachassistenzsystems Mitte 2025 hin – parallel zur Enthüllung von iOS 19 und macOS 16. Die Bereitstellung von "LLM Siri" sei letztlich aber erst 2026 zu erwarten.

Mit dem Start von Apple Intelligence hat Siri in iOS 18.1 und macOS 15.1 bereits eine auffällige neue Bedienoberfläche erhalten – das Sprachassistenzsystem hat dabei aber fast nichts dazugelernt. Für komplexere Anfragen verweist Siri wie gehabt auf eine Web-Suche. Ab iOS 18.2 setzt Apple hier auf ChatGPT als Notnagel: Siri leitet die Anfrage dann an den Chatbot weiter, wenn Nutzer das möchten. Apple hat bereits angedeutet, dass Support für Google Gemini folgt.

Anfang 2025 wird das bestehende Siri voraussichtlich leistungsfähiger und erhält dafür – im Rahmen von Apple Intelligence – tieferen Einblick in Nutzerdaten sowie erweiterte Zugriffs- und Steuermöglichkeiten für Apps. Flüssige Unterhaltungen, wie sie etwa der Audiomodus von ChatGPT bietet, umfasst das nicht.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Preisvergleich (heise Preisvergleich) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (heise Preisvergleich) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(lbe)