Sozial geschickte Chatbots

Heutige virtuelle Assistenten sind darauf ausgelegt, freundlich zu wirken, können damit aber nicht immer überzeugen. Ihre Nachfolger sollen deshalb auf viel mehr achten als den reinen Inhalt von Fragen oder Anweisungen.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 4 Min.
Von
  • Will Knight
Inhaltsverzeichnis

Auf einer Technologie-Konferenz in Pittsburgh hatte ich vor kurzem Gelegenheit, eine frühe Version eines überzeugenden Chatbots kennenzulernen. Nach einigen Scherzen und Smalltalk empfahl mir "Sara" ein paar andere Personen, die ich dort kennenlernen sollte. Und diese Vorschläge waren wirklich hervorragend – wenn ich die Leute nicht schon gekannt hätte, wäre ich den Empfehlungen gefolgt.

Entwickelt wurde Sara von Justine Cassell. Als Leiterin des Bereichs Mensch-Computer-Interaktion an der Carnegie Mellon University erforscht sie, wie virtuelle Agenten subtile Hinweise in Gesprächen nutzen können, um eine Beziehung zu Menschen aufzubauen und effektiver darin zu werden, Informationen zu übermitteln oder sie zu etwas zu überreden.

Diese Arbeit lässt das Potenzial für nützlichere Chatbots erkennen. Heute sind die meisten davon schrecklich einfältig und leicht zu verwirren, und bis sie Sprache besser verstehen, wird es noch eine Weile dauern. Mit der Auswertung von Gesprächsinformationen aber könnten diese Helfer weniger nervig und effektiver werden. Auch einige große Unternehmen beschäftigen sich bereits mit dieser Möglichkeit.

Ein Gespräch mit Sara wirkt bereits deutlich weniger holprig als mit anderen Chatbots. Das System erfasst sowohl die von einem Menschen getätigten Aussagen als auch seine Stimmlage dabei. Zusätzlich erfassen Kameras den Gesichtsausdruck und Kopfbewegungen des Sprechenden. Auf Grundlage dieser Informationen ermittelt Software dann eine Reaktion, die eine Beziehung zu ihm entstehen lassen soll. So sah mich Sara bei unserem Gespräch einmal lächeln und nicken, und sofort machte sie eine abfällige Bemerkung über sich selbst.

"Es gibt schon viele Chatbots, die sozial sprechen, aber das tun sie nach dem Zufallsprinzip, was nicht nützlich ist", erklärt Cassell. "Bei echten Menschen dient soziales Sprechen einem konkreten Zweck."

So werde oft Smalltalk eingesetzt, um den Schrecken durch eine anschließende merkwürdige Frage abzumildern, sagt Cassell. Wenn ein Computer das im falschen Kontext versucht, ist das nicht nur wirkungslos, sondern verstörend. Cassell und ihre Studenten haben deshalb viele unterschiedliche menschliche Interaktionen analysiert, um herauszufinden, welche Elemente sich erfassen und in Maschinen programmieren lassen. Zuletzt wurde beispielsweise das Verhalten von Gymnasiasten beobachtet, die sich gegenseitig Mathematik beibrachten.

Cassell selbst beschäftigt sich schon seit mehr als einem Jahrzehnt mit diesem Thema, und wie sie sagt, zeigen neuerdings auch Forscher aus Unternehmen Interesse daran. Ein großes Unternehmen, dessen Namen sie nicht nennen will, habe vor kurzem sogar die Patente hinter Sara kaufen wollen.

Die von Cassell und anderen entwickelten Methoden könnten sich als besonders wichtig erweisen, weil virtuelle Assistenten uns zunehmend eigenständig bei der Informationssuche unterstützen und auf unser Kaufverhalten Einfluss nehmen sollen. Facebook, Google und andere Internet-Größen sehen sie als viel versprechende neue Schnittstelle für die Interaktion mit Kunden.

Vor dem Praxiseinsatz gibt es allerdings noch einige Herausforderungen. Eine der größten davon ist laut Timothy Bickmore, Professor an der Northeastern University, die Erfassung all der unterschiedlichen Signale, die für eine Interaktion relevant sein könnten, einschließlich Körpersprache und Gesichtsausdrücken. Besonders schwierig könnte das auf Mobilgeräten sein, auch wenn Smartphones theoretisch alle Informationen aufnehmen können, die Sara benutzt. Laut Bickmore ist dieser Aufwand allerdings gar nicht hilfreich, wenn eine Schnittstelle nur möglichst schnell und effizient Anweisungen ausführen soll. "Diese Signale sind in einem natürlichen Gespräch am nützlichsten", sagt er. "Manchmal stört das soziale Zeug einfach nur."

"Mein Ziel ist ein System, das Sie das ganze Leben lang begleiten und mit der Zeit sein Verhalten verändern kann", sagt Cassell. "Wenn es nach fünf Jahren immer noch so mit Ihnen spricht wie am ersten Tag, dann werden Sie das Gefühl haben, es leide unter Gedächtnisschwund – oder noch schlimmer, dass es sich nicht für Sie interessiert."

(sma)