Wenn die Siri mit dem Alfred...

Siri, die Assistenzsoftware auf dem iPhone 4S, kommt bei den Nutzern gut an. Sie könnte aber noch viel mehr leisten, wenn Apple sie für externe KI-Anwendungen öffnen würde, sagen Experten.

In Pocket speichern vorlesen Druckansicht 14 Kommentare lesen
Lesezeit: 5 Min.
Von
  • Tom Simonite

Siri, die Assistenzsoftware auf dem iPhone 4S, kommt bei den Nutzern gut an. Sie könnte aber noch viel mehr leisten, wenn Apple sie für externe KI-Anwendungen öffnen würde, sagen Experten.

Die Apple-Kundschaft ist schon ein verwöhnte Schar: Als Konzernchef Tim Cook statt des erhofften iPhone 5 „nur“ ein iPhone 4S präsentierte, hob ein leichtes Murren an. Das schlägt nun nach ersten Fingerübungen mit Apples aktuellem Smartphone zunehmend in Begeisterung um. Grund ist das iPhone-Assistenzprogramm Siri , das gesprochene Fragen erkennt und aus Quellen wie Wikipedia oder Wolfram Alpha beantwortet. Schon gilt es einigen als Paradigmenwechsel, wie Nutzer mit Computern interagieren.

Nicht alle sehen das so: Die mit dem iPhone 4S ausgelieferte Betaversion von Siri schöpfe das Potenzial der in ihr steckenden Technologie noch nicht aus, bemängeln Software-Entwickler und KI-Experten. Zwar kann Siri, falls gewünscht, mit Wettervorhersagen oder Restaurantempfehlungen aufwarten oder die Terminplanung mittels Spracheingabe abwickeln. Aus Flugplänen den passenden Flug heraussuchen oder ein Kinoticket lösen, kann das Programm jedoch nicht. Was seltsam ist, weil Siri dies schon konnte, als Apple das gleichnamige Start-up kaufte, das die Software entwickelt hatte.

„Technisch wäre es möglich, jeden beliebigen Webdienst in Siri zu integrieren“, sagt Norman Winarsky vom Forschungslabor SRI International. Er war daran beteiligt, ein ursprünglich von der Militärforschungsagentur DARPA finanziertes Konzept zu der marktfähigen Technologie Siri weiter zu entwickeln. Aus der ließe sich mehr herausholen, wenn man sie mit anderen Apps kombiniert, bekräftigt Winarsky. „Es gibt genug Leute, die ihre Apps gerne für Siri optimieren würden.“ Das Assistenzprogramm könne im Prinzp all die unterschiedlichen Bedienkonzepte unter einer einzigen intuitiven Oberfläche zusammenfassen. Statt sich auf dem iPhone durch mehrere Seiten zu klicken, um ein Musikstück auszuwählen, könnte man es einfach mit einem gesprochenen Satz aufrufen.

Den phänomenalen Erfolg des iPhone verdankt Apple nicht zuletzt dem früher unüblichen Modell, externe Entwickler eigene Anwendungen für das Handtelefon schreiben zu lassen. Apple sollte mit Siri denselben Weg verfolgen, fordert Winarsky. Gerade Apps, die auf KI-Algorithmen setzen, könnten die Assistenzsoftware enorm bereichern.

Zwar könne Siri bereits die Absichten hinter einem vom Nutzer gesprochenen Satz erkennen und dabei Slang-Ausdrücke oder Zweideutigkeiten berücksichtigen, sagt Winarsky. Es nehme einen inhaltlichen Abgleich aber nur mit Webdiensten vor, die für eine Antwort hilfreich sein könnten. Winarsky und seine Kollegen bei SRI International arbeiten hingegen schon an KI-Systemen, die anspruchsvollere Aufgaben lösen können, etwa bei einer Antwort Hintergrundinformationen zu angefragten Urlaubszielen zu berücksichtigen. Die Systeme könnten Antworten auch an den jeweiligen Nutzer anpassen, je nachdem, welche Fragen er in der Vergangenheit gestellt oder welche Vorlieben er zu erkennen gegeben hat, so Winarsky.

Die Firma Cleversense, die vor einigen Monaten eine eigene Assisten-App namens Alfred herausgebracht hat, würde die gerne mit Siri kombinieren, sagt Babak Pahlavan, einer der Gründer von Cleversense. Alfred, für die Mobilbetriebssysteme iOS und Android erhältlich, bezieht sein Datenmaterial aus Quellen im Web – beispielsweise vom Empfehlungsdienst Yelp –, um Restaurants oder Bars vorzuschlagen. Dabei berücksichtigt Alfred auch, wo ein Nutzer sich gerade aufhält, welche Ortsprofile er auf Facebook angeschaut hat.

„Im Hinblick auf den Einsatz von KI-Algorithmen kommen wir gleich hinter Siri“, sagt Pahlavan. Er stimmt Winarsky zu, dass die Erkennung natürlicher Sprache der Kernpunkt von Siri sei. Cleversense konzentriere sich darauf, sein Programm lernen zu lassen, so dass Nutzer im Laufe der Zeit ihre Fragen immer weniger erläutern oder ergänzen müssen – so dass schon simple Anweisungen wie „Ich will mittagessen“ genügen. „Siri kann mit solch allgemeinen Aussagen noch nichts anfangen“, sagt Pahlavan. „Es benötigt noch zusätzliche Hinweise wie den, dass Sie ‚ein italienisches Restaurant in der Nähe von San Francisco’suchen.“ Siri könne noch keine vorherigen Aktionen berücksichtigen – im Verbund mit der Technologie von Cleversense aber vielleicht schon.

Der Smartphone-Assistent Alfred habe in drei Monaten sieben Millionen Empfehlungen abgegeben, betont Pahlavan, und das, obwohl 90 Prozent der Alfred-Nutzer ihre Fragen sehr vage formulierten. Das funktioniere, weil das zugrundeliegende KI-System Nutzer-Feedback verarbeite. Cleversense will das System für andere Entwickler öffnen, um es in deren Apps und Webdienste einklinken zu können. Pahlavan hofft, dass auch Apple diesen Schritt gehen wird und so die Entstehung eines regelrechten Ökosystems von KI-Anwendungen fördert. Apple selbst hat sich dazu bislang auch auf Nachfrage nicht geäußert. (nbo)