Was wir von Alexa & Co. in Zukunft erwarten dĂĽrfen
Amazon, Google und Apple wollen mit ihren Assistenten nach dem Wohnzimmer als Nächstes das Auto erobern. Was in beiden Bereichen bereits möglich ist, ist vor allem in den USA zu sehen.
- Nico Jurran
- Stefan Porteck
- Was Assistenten leisten
- Test: Google Assistant, Alexa & Co.
- Der Assistent der Zukunft
- Assistenten im Datenschutz-Check
Wer sich für die Zukunft von Alexa und Google Assistent interessiert, muss einen Blick über den großen Teich werfen. Denn in den USA sind schon einige smarte Geräte mit integriertem Sprachassistenten auf dem Markt oder zumindest konkret angekündigt, die es noch nicht nach Deutschland geschafft haben.
Googles Smart-Display Nest Hub Max etwa: Das hat anders als der hierzulande erhältliche Nest Hub zusätzlich zum Bildschirm eine Kamera, sodass sich darüber Videogespräche führen lassen. Und der Max bietet eine weitere Besonderheit: Gestensteuerung. Will man etwa eine laufende Musikwiedergabe pausieren, muss man nur die Hand heben.
Bei manchem hiesigen Alexa-Fan steht wiederum der Fire TV Cube auf der Wunschliste. Der Würfel übernimmt an den Fernseher angeschlossen die Aufgaben eines Fire-TV-Sticks. Mit seinem eigenen Lautsprecher lässt er sich aber auch wie ein Echo nutzen.
Offline im Heim
Viele wünschen sich einen (beschränkten) Offline-Betrieb für ihren Sprachassistenten. Dann würde dieser auf dem Smart-Speaker bei einer Internetstörung künftig nicht komplett verblöden, zudem würden keine Sprachaufzeichnungen mehr das Heim verlassen.
Zumindest Google hat eine kleine Offline-Erkennung schon einmal per Update nachgeliefert: beim Befehl „Stopp“, um Wecker und Timer auf Google-Home-Lautsprechern auf Zuruf zu beenden.
Auf seiner Entwicklerkonferenz 2019 stellte Google außerdem ein neues API vor, das die Ansprache ausgewählter Smart-Home-Geräte ohne Cloud ermöglicht. Smarte Speaker bräuchten dazu nur ein vergleichsweise kleines Update, damit der Assistent die Namen gängiger Räume und Geräte wie Küche, Flur, Lampe, Thermostat und Basisbefehle wie „an“ und „aus“ offline versteht. Vollständig aus der Cloud und auf die heimischen Geräte dürfte die Spracherkennung bei den aktuellen Smart-Speakern jedoch in naher Zukunft nicht wandern. Dafür sind die Anforderungen an die Rechenleistung und den Gerätespeicher zu groß – es geht ja nicht nur darum, die einzelnen Worte zu erkennen, sondern sie in einen Zusammenhang zu stellen.
Lokaler Zugriff
Doch selbst das wäre nur die halbe Miete für den Offline-Betrieb: Zusätzlich müssen die Assistenten in den Smart-Speakern direkt mit den Smart-Home-Geräten kommunizieren – derzeit spricht meist die Google-Cloud die Cloud des Geräteherstellers an, die dann wiederum das Gerät benachrichtigt. Für einen lokalen Zugriff benötigen die IoT-Geräte eine standardisierte Schnittstelle im LAN, wofür Google vor allem HTTP-Requests vorsieht. Die Hersteller der IoT-Geräte müssen mitziehen, sie brauchen in ihrer Schnittstelle zum Google-Assistant aber lediglich ein paar Zeilen Code zu ändern, um den lokalen Zugriff übers heimische Netzwerk zu aktivieren. Außen vor blieben damit aber etliche Geräte, die auf Funkstandards wie Bluetooth oder Zigbee setzen, zumindest solange deren Bridge nicht eine lokale Schnittstelle bekommt.
Anders bei Amazon: Der Echo Plus und der Show der 2. Generation haben einen integrierten Zigbee-Hub, der die IoT-Geräte direkt anspricht. Denkbar ist, dass Google seine kommende Assistenten-Generation ebenfalls entsprechend aufrüstet.
Ăśberarbeitet
Die Entwickler von Alexa & Co. entwerfen nicht nur neue Geräte und Betätigungsfelder, sondern statten die bestehenden Systeme mit neuen Funktionen und Diensten aus.
Bereits seit Mai bietet Amazon amerikanischen Alexa-Nutzern einen neuen Eingabemodus. In diesem reagiert die Assistentin darauf, ob der Nutzer flüstert – und antwortet ihrerseits leiser. Das ist beispielsweise dazu gedacht, um ein nebenan schlafendes Kind durch die Spracheingaben beziehungsweise die Antwort von Alexa nicht zu wecken.
Für großes Aufsehen sorgte zudem ein Patent seitens Amazon, das beschreibt, wie Alexa auf Befehlssätze reagieren könnte, bei denen das Aktivierungswort am Ende steht. Sätze würden dann mit einer (vom Nutzer einstellbaren) Länge von 10 bis 30 Sekunden auf dem Gerät zwischengespeichert und nur dann in die Cloud geschickt, wenn Alexa ihr Codewort hört. Die beschriebene Technik ist laut Amazon derzeit noch nicht im Einsatz, jegliche Prognosen über ihre künftige Verwendung seien „höchst spekulativ“.
Wo bleibt Apple?
Apple hinkt derweil recht stark hinterher. Der HomePod genannte Smart-Speaker aus Cupertino beherrscht es bislang nicht, per Sprachbefehl an Siri gewünschte Musik von Spotify abzuspielen – was auf Smart-Speakern mit Alexa oder Google Assistant längst selbstverständlich ist. Immerhin kündigte das Unternehmen an, dieses Feature im Rahmen der kommenden Betriebssystemversion iOS 13 zu ermöglichen.
Das gilt auch für die Möglichkeit, mehrere Nutzerprofile auf einem Smart-Speaker zu verwenden, die Apple beim HomePod ebenfalls mit iOS 13 einführen soll. Siri soll dann verschiedene Anwender an deren Stimmen erkennen können und auf persönliche Anfragen zu Nachrichten, Kalendereinträgen oder Erinnerungen individuell reagieren. Vielleicht gelingt es Apple, dieses Konzept besser und zuverlässiger umzusetzen als die Konkurrenz.
Im Auto
Nach dem Wohnzimmer kommt das Auto: Dort müssen die Augen auf der Straße und die Hände am Lenkrad sein, weshalb Sprachsteuerung besonders sinnvoll und nützlich ist. Entsprechend sind Apple und Google beim Thema Auto schon länger mit von der Partie und auch Amazon macht sich bereit – und kampflos werden auch die altgedienten Pkw-Hersteller den Tech-Unternehmen nicht das Feld überlassen.
Die derzeit stärksten Auto-Ambitionen hegt Google. Sein Assistant bekommt auf Smartphones einen Fahr-Modus mit angepasster Oberfläche samt großer Icons. Im Gegenzug stellt das Unternehmen seine „Android Auto“-App für Smartphones ein.
Zudem zeigte Google im vergangenen Jahr, wie sein neues Betriebssystem „Android Automotive“ eigenständig auf der Hardware eines Prototypen-Fahrzeugs lief. Losgehen soll es im kommenden Jahr: Der Elektroflitzer Polestar 2 der gleichnamigen Volvo-Tochter wird zum Marktstart 2020 das erste Serienfahrzeug mit Android Automotive sein. Darüber hinaus haben Fiat-Chrysler und Renault-Nissan-Mitsubishi Interesse an dem System bekundet.
Pläne für Alexa
Auch Alexa soll künftig auf vier Rädern stehen. Mit dem seit 2018 verfügbaren Auto SDK können Fahrzeughersteller den Service integrieren, doch trotz Amazons Bemühungen konnte Alexa sich bislang noch nicht in großem Stil in Autos breit machen.
Bislang nur in den USA vertreibt Amazon den Adapter „Echo Auto“ als Nachrüstlösung für vorhandene Entertainment-Systeme in jedem Kraftfahrzeug. Über die heimischen Smart-Home-Steuerung ist Alexa dann beispielsweise in der Lage, beim Wegfahren vernetzte Lampen auszuschalten und die Haustür abzuschließen.
Sowohl bei Android Auto als auch bei Echo Auto und bei Apple CarPlay benötigt man zum Betrieb zwingend ein Smartphone. Und ihre Assistenten können bestenfalls auf dem Infotainment-Display im Armaturenbrett erscheinen und nur mit Apps auf dem Smartphone interagieren, nicht aber mit dem Auto selbst.
BMW arbeitet dagegen an einem eigenen System namens BMW Natural Interaction, das Sprach- und Gestensteuerung kombiniert. Während der Fahrt könnte man so auf ein Restaurant am Straßenrand zeigen, um sich weitere Informationen geben lassen. BMW will nach eigenen Angaben die Sprach- und Gestenerkennung im Fahrzeug durchführen, komplexe Sprachbefehle wie Tischreservierungen und Auskünfte sollen aber über die BMW-Server laufen.
Und im Tunnel?
Der Erfolg von Assistenten im Auto hängt nicht zuletzt davon ab, wie gut standortbezogene Dienste integriert sind – damit man während der Fahrt beispielsweise nach der nächsten Tankstelle fragen kann oder nach einem Restaurant, das gerade geöffnet hat. Idealerweise programmiert der Assistent den Weg zum gewählten Ziel dann gleich selbst in das Navigationssystem ein. Hier dürfte vor allem Google mit der bereits gesammelten Unmenge an vernetzten Informationen (Knowledge-Graph) und der engen Verknüpfung mit den eigenen Diensten wie Google Maps gegenüber Amazon, Apple und Pkw-Herstellern die Nase vorn haben.
Die Achillesverse der Autoassistenten ist die Internetverbindung: Anders als im Wohnzimmer muss es zumindest für die Fahrt durch den Tunnel einen Offline-Modus geben, in dem sich Grundfunktionen wie Radio oder Klimaanlage noch per Sprachbefehlen bedienen lassen. Sonst fühlt man sich im modernen Connected Car bei jedem Funkloch plötzlich wieder wie in einem 40 Jahre alten VW-Käfer.
Dieser Beitrag stammt aus c't 20/2019. (nij)