Digitale Assistenten: Dein Freund und Lauscher

Seite 2: Vom Helfer zum Spion

Inhaltsverzeichnis

Sollen täglich Millionen Anfragen verarbeitet werden, liegt es nahe, dies in der Cloud zu tun. "Dort skaliert das Deep Learning mit tiefen neuronalen Netzen besser", sagt Volker Fischer. Zwar kommen die Anfragen meist noch von Smartphones, aber der Anteil von Smart Speakern steigt. Weltweit werden 2020 voraussichtlich allein 128 Millionen Amazon-Geräte im Einsatz sein, auf denen Alexa läuft. Immer häufiger steuern die Smart Speaker inzwischen auch intelligente Thermostate, Lampen, Rollläden und andere Smart-Home-Anwendungen. Hier wird es heikel, denn aus diesen Daten lassen sich Lebensgewohnheiten rekonstruieren: Arbeitsrhythmen, Vorlieben in der Freizeit oder Muster, wie sich jemand durch seine Wohnung bewegt. Firmen wie Google und Amazon, die zielgenaue Werbung oder passende Produkte an den Mann und die Frau bringen wollen, interessiert das natürlich brennend. Kein Wunder, dass die Frage des Datenschutzes immer wichtiger wird.

Unter den großen Anbietern von Sprachassistenten und Smart Speakern anonymisiert nur Apple seine Daten. Die werden einem "Random Identifier" zugeordnet, von dem keine Rückverfolgung zur Person möglich ist. Denn das Unternehmen finanziert sich bislang über den Verkauf von Premiumgeräten und nicht über Daten. Für das Geschäftsmodell von Amazon und Google wäre eine solche Anonymisierung indes tödlich – beide leben von den Nutzerdaten. Amazon behält sich denn auch das Recht vor, die Transkripte der unzähligen Alexa-Gespräche Drittanbietern zur Verfügung zu stellen, deren Produkte Alexa dann und wann ins Gespräch einflicht. Wer Alexa und andere nicht anonymisierte Sprachassistenten nutzt, muss sich also auf die Vorkehrungen des Datenschutzes verlassen. Die sind in Europa immerhin stärker als in den USA. Während hier ab 25. Mai die neue EU-Datenschutz-Grundverordnung (DSGVO) für alle Mitgliedsländer gilt, gibt es in den USA bis heute kein einheitliches Datenschutzrecht.

Datenschützer sind mit der DSGVO indes nicht zufrieden. "Alle modernen Herausforderungen für den Datenschutz wie soziale Netzwerke, Big Data, Suchmaschinen, Cloud Computing, Ubiquitous Computing und andere Technikanwendungen werden vom Text ignoriert", kritisiert Alexander Roßnagel, Experte für Internetrechtsfragen an der Universität Kassel. Die Regelungen der DSGVO seien zu abstrakt. "Es besteht eine hohe Rechtsunsicherheit." Immerhin wird in der DSGVO das "Marktort-Prinzip" festgeschrieben: Die Daten unterliegen den Datenschutzbestimmungen des Ortes, an dem sie erhoben werden – das gilt dann auch für Amazon.

Wie man den Datenschutz direkt in ein System einbauen kann, zeigt das Projekt Listen für ein sprachgesteuertes Smart Home. Hier findet die Spracherkennung weitgehend lokal statt. "Wenn Sie mit einem Befehl die Heizung regeln wollen, bleibt die Anfrage komplett im Haus", betont Volker Fischer. Fragen nach dem Wetter hingegen gehen in eine Cloud, denn die Antwort lässt sich nur im Netz finden. Allerdings schickt Listen nur die abstrakte Repräsentation der Sprache raus – nicht das Audiosignal selbst. Es verrät zwar, was der Nutzer wissen will. Das Sprachprofil selbst jedoch – und damit auch mögliche Zusatzinformationen wie Alter, Geschlecht oder sogar emotionale Verfassung – gelangt nicht in fremde Hände. Noch ist Listen allerdings in der Entwicklung.

Für alle, die sich ernsthaft um den Datenschutz sorgen, gibt es trotzdem einen Lichtblick – zumindest für die nächste Zukunft: Die Sprachassistenten sind noch gar nicht so schlau, wie viele vermuten. Während das Deep Learning die Spracherkennung revolutioniert hat, hapert es an der anderen großen Herausforderung der künstlichen Intelligenz: dem sogenannten Weltwissen.

Der Mensch hat es, wenn er etwa bei dem Wort "Vogel" sofort versteht, was gemeint ist. Das kann ein fliegendes Tier sein, aber auch eine psychische Macke – je nach Kontext. Zwar sind seit den 1980ern "kognitive Architekturen" entwickelt worden, die das menschliche Weltwissen modellieren sollen. Die wichtigsten heißen SOAR, ACT-R, Clarion und Vector-LIDA.

Diese Architekturen binden bei der Interpretation von Wörtern Datenbanken wie Cyc oder DBpedia ein. Konzepte wie eben "Vogel" sind dort in sogenannten Ontologien abgelegt. In ihnen werden Begriffe klassifiziert und mit bestimmten Eigenschaften versehen: Ein "Vogel" ist ein Wirbeltier, das sich in der Luft bewegen kann und Eier legt. Das seit 1984 aufgebaute Cyc ist mit rund 300.000 Konzepten und drei Millionen Daumenregeln, die diese Konzepte erschließen, die größte Sammlung solcher Ontologien. Anders als beim Deep Learning lernen die Datenbanken die Konzepte nicht von selbst. "Die Wissensmodellierung wird oft noch von Hand gemacht", sagt Josef van Genabith.

Doch trotz dieser Mühen ist das Ergebnis nicht "auch nur annähernd vergleichbar mit dem Wissen, das Menschen heuristisch bewältigen", stellten Antonio Lieto von der Universität Turin, Christian Lebiere von der Carnegie Mellon University und Alessandro Oltramari vom Bosch-Forschungszentrum in Pittsburgh in einem Überblicksartikel 2017 fest. Der Versuch, natürliche Sprachen durch formale Sprachen abzubilden, gilt zumindest für große Sprachsysteme als komplett gescheitert. "Sie kommen weder mit Mehrdeutigkeiten natürlicher Sprache noch mit Metaphern gut zurecht, und beide sind maßgeblich dafür verantwortlich, dass die menschliche Sprache so effizient funktioniert", sagt van Genabith.

Das erklärt auch, warum sich im Netz zahlreiche unterhaltsame Anekdoten finden, wie Alexa, Google Assistant oder Siri irgendetwas gründlich missverstehen. Dumm nur, wenn diese Missverständnisse Konsequenzen haben. Dann bestellt Alexa schon mal eine Puppenstube und vier Pfund Kekse, weil ein sechsjähriges Kind den Smart Speaker von Amazon wie einen magischen Spielgefährten behandelte – so geschehen im Januar 2017 in Dallas. Das ist ärgerlich, aber noch kein Drama.

Problematisch hingegen ist, dass die Sprachassistenten auch im Stand-by-Zustand zuhören. Der US-Anwalt Gerald Sauer brachte es vor einiger Zeit im Magazin "Wired" auf den Punkt: "Das sind nicht Geräte, die potenziell zuhören. Es sind Geräte, die zuhören." Das sieht auch Volker Fischer so. Wenn die Smart Speaker aus dem Stand-by mit einem Weckruf-Wort wie "Ok Google" aktiviert werden können, müssten sie zwangsläufig vorher ganz Ohr sein, sagt Fischer. Dass all die Audiosignale, die im Stand-by eingehen, nicht in die Cloud übermittelt werden, "kann man glauben oder nicht".

(nbo)