Chatbots: Stets zu Diensten?

Inhaltsverzeichnis

Google Now jedenfalls lässt meinen Vorwurf an sich abperlen. Die Entwickler scheinen unter allen Umständen vermeiden zu wollen, dass ich meinen Assistenten als irgendwie menschlich ansehe. Das gelingt ihnen ausgesprochen gut – wobei ich jedoch eine Ausnahme zu sein scheine. Die meisten Nutzer schreiben ihrem digitalen Gegenüber unbewusst menschliche Eigenschaften zu – selbst wenn ihnen völlig klar ist, dass sie mit einer Maschine sprechen.

Konzerne gehen mit diesem "Persona Design" ganz unterschiedlich um. Amit Singhal, ehemals Chefingenieur bei Google, erzählte vor zwei Jahren, dass Witze und Small Talk nur soziale Interaktionen suggerieren würden, die heutige KI noch nicht habe – das würde falsche Erwartungen wecken. Umso größer ist dann der Ärger, wenn der Bot wieder mal nur Bahnhof versteht. Als in den 90er-Jahren die ersten textbasierten Chatbots aufkamen, wurden ihre Logfiles schnell zu Lexika zeitgenössischer Beschimpfungen und sexueller Anmache. Die Assistentin von Google hat daher nicht einmal einen eigenen Namen, und Facebooks Assistent "M" kein Geschlecht. Es gibt ihn mit männlicher und weiblicher Stimme.

Ob es dabei bleibt? Ray Kurzweil, Leiter der technischen Entwicklung bei Google, hat im Mai angekündigt, einen humaneren Bot zu entwickeln. Nutzer sollen ihn mitgestalten können, er soll Texte von uns lesen und unsere Persönlichkeit adaptieren. Google würde damit in eine Richtung gehen, die Apple und Microsoft bereits eingeschlagen haben. Siri etwa kontert meinen Vorwurf "Du bist langweilig" mit "Ich finde mich eigentlich ziemlich interessant". Meine Frage nach ihrem Alter beantwortet sie kess mit: "Geht dich das was an?" Sie versteht sich auch auf lockere Plaudereien oder Zungenbrecher. Microsoft hat seiner Assistentin Cortana sogar einen virtuellen Körper spendiert, entliehen aus einem Computerspiel.

Das Risiko liegt dann allerdings nicht nur in der Reaktion des Nutzers, sondern – ganz menschelnd – auch im Verhalten des Bots selbst. Was passiert, wenn man es mit einer realistischen Persona übertreibt, musste Microsoft kürzlich mit seiner Plaudermaschine "Tay" erfahren. Sie sollte anhand anderer Tweets lernen, einen albernen Teenie zu mimen. Das funktionierte im Prinzip auch. Tay begann sogar, mit anderen Nutzern zu flirten. Allerdings schnappte sie auch rassistische und sexistische Sprüche auf und twitterte sie weiter. Das war Microsoft dann doch zu menschlich, und es zog Tay aus dem Verkehr.

Von Google Now höre ich erst wieder etwas, als ein Termin ansteht. Mein Smartphone vibriert, seine LEDs blinken blau. Ich zucke kurz zusammen. Es ist nicht so, dass ich früher viele Termine versäumt hätte, aber immerhin funktioniert die Erinnerung. Ich muss gleich zum Einwohnermeldeamt, um meinen Ausweis zu verlängern. In Zukunft soll mich nicht Google Now, sondern ein Behördenassistent darauf hinweisen, dass mein Personalausweis abläuft – und mit dem Einwohnermeldeamt gleich einen Termin aushandeln. "Wir entwickeln einen Behördenassistenten für Berlin", sagt Michael Meder, Leiter des Anwendungszentrums Smart Government Services am DAI-Labor. "In der jetzigen Phase beantwortet er gezielt Fragen zu den Dienstleistungen der Behörden." Künftig sollen solche Assistenten zur Schnittstelle zwischen uns und einer Behörde werden, indem sie zum Beispiel für mich den optimalen Zeitpunkt ausrechnen, die Steuern zu überweisen.

Sahin Albayrak, Direktor des DAI-Labors, ist sich sicher, dass solche Dienste kommen. Der Trend gehe dahin, Daten aus verschiedenen Bereichen zusammenzuführen: Verwaltung, Finanzen, Shopping, Medizin, Arbeit, Freizeit. "Erst dann können Assistenten ihr Potenzial ausschöpfen", sagt Albayrak. "Natürlich macht uns das anfälliger bei der Datensicherheit, aber auch dafür entwickeln wir bereits Systeme."

Dass unsere Daten künftig sicherer seien, ist das Mantra vieler Entwickler. So wie Norbert Blüm immer sagte, die Rente sei sicher. Für den einzelnen Nutzer ist es allerdings heute schon kaum überschaubar, was die digitalen Butler auswerten, woher sie ihre Informationen bekommen und welche Wege die Daten nehmen. Es erfordert Mühe, den Spagat zwischen Datenschutz und Service bei meinen Assistenten zu meistern. Google Now etwa habe ich umfassenden Zugriff auf meine Daten erlaubt, er wird nun von sich aus aktiv. Nach Auswertung meiner E-Mails weist er mich darauf hin, dass ich später am Tag eine Online-Bestellung entgegennehmen soll. Gebeten habe ich den Assistenten nicht darum. Natürlich lässt sich der Datenzugriff auch einschränken. Google erlaubt mir etwa, "Web & App-Aktivitäten" oder den "Standortverlauf" zu deaktivieren. Doch was genau Google noch auswertet und was nicht, wird mir nicht klar. Microsoft gestattet deutlich detailliertere Einstellungen, welche Vorlieben Cortana auswerten darf. Aber auch hier bleibt letztlich nichts anderes übrig, als dem Konzern zu vertrauen.

Mit den digitalen Butlern wird es bald sein wie früher mit den menschlichen Dienern: Sie wissen mehr, als der Herrschaft lieb ist. Um etwa zu Mittag zu essen, soll es laut Microsoft künftig reichen, "Ich habe Hunger!" zu sagen. Die entsprechenden Muster im Essverhalten verraten Cortana , dass der Nutzer dienstags sehr wahrscheinlich Pizza bevorzugt, und fragt ihn gleich, ob sie ihm die übliche bestellen oder einen Tisch reservieren soll. Nutzer müssten allerdings einwilligen, dass Cortana mit den entsprechenden Apps von Dienstleistern interagiert. Ähnlich soll "Allo" von Google funktionieren: Wenn sich zwei Nutzer über einen Messaging-Dienst wie WhatsApp zum Abendessen verabreden, soll Allo einen Tisch reservieren. Außerdem soll der Butler anhand der bisherigen Konversationen eines Users lernen, etwa vorformulierte Geburtstagsgrüße anzubieten.