Mein Freund, der Roboter

"Affective Computing" soll aus seelenlosen Maschinen einfühlsame Partner machen. Das anfangs verlachte Forschungsgebiet wird zunehmend ernst genommen.

vorlesen Druckansicht 4 Kommentare lesen
Lesezeit: 19 Min.
Inhaltsverzeichnis

"Affective Computing" soll aus seelenlosen Maschinen einfühlsame Partner machen. Das anfangs verlachte Forschungsgebiet wird zunehmend ernst genommen.

Das Ding sieht aus wie eine Mischung aus Flaschengeist und Embryo: vollkommen kahl, ohne Haare oder Augenbrauen, der Mund ist nur ein schmaler Schlitz, die Haut schmutzig-weiß. Reglos hängt die Telenoid-Puppe mit ausgebreiteten Armen in ihrem Ständer. Ein Kabel läuft wie eine Nabelschnur vom unteren Ende des Rumpfes zur Wand und verschwindet dort.

"Hallo", sagt der Roboter plötzlich, "können Sie mich hören? Wie ist Ihr Name?" Die weibliche, leise Stimme hat einen leichten Nachhall, als wäre die Sprecherin sehr weit entfernt. Ich nehme die Maschine auf den Arm – die Silikonhaut fühlt sich überraschend weich und warm an. Der Roboter mustert mich nachdenklich, dann legt er den Kopf schief und wackelt mit seinen handlosen Armstümpfen. Kein Zweifel: Was eben noch wie eine Puppe wirkte, macht jetzt einen verblüffend lebendigen Eindruck.

Die Wirkung ist kein Zufall – die Vorführung eigentlich ein getarntes Experiment. Mithilfe von Robotern wie dem Telenoid wollen Wissenschaftler erforschen, was Menschen als künstlich und was sie als menschlich empfinden, wo die schmale Grenzlinie zwischen Mensch und Maschine verläuft. Die Antwort auf solche Fragen soll einer völlig neue Generation von informationsverarbeitenden Maschinen den Weg ebnen: Empathische Computer, die auf Ärger oder Enttäuschung ihrer Benutzer eingehen, Lernprogramme, die Unaufmerksamkeit oder Langeweile bereits im Ansatz erkennen, oder digitale Fitnesstrainer, die auch den hartnäckigsten Stubenhocker auf die Beine bringen.

Denn menschliche Gefühle sind mehr als nur die lästige Begleitmusik zu effizienter, kalter Logik, die alles wirklich Wichtige regelt. Positive oder negative Emotionen lenken ganz wesentlich unsere Konzentration und Aufmerksamkeit, und sie sind ein bedeutender Bestandteil unserer Kommunikation: Menschen senden nicht nur permanent nonverbale Signale aus, sie interpretieren auch die Handlungen, Gestik und Mimik ihrer Kommunikationspartner und bilden daraus unbewusst eine Theorie über den mentalen Zustand ihres Gesprächspartners.

"Menschen bilden diese Fähigkeit in der Regel ab einem Alter von vier Jahren aus", erklärt Nicole Krämer, Professorin für Sozialpsychologie an der Universität Duisburg-Essen, die sich seit Jahren mit virtuellen Software-Agenten beschäftigt. "Eine Maschine tut das nor- malerweise nicht. Sie kann beispielsweise nicht wissen, dass ein Mensch es komisch findet, auf eine gestellte Frage nicht sofort eine Antwort zu bekommen – oder zumindest den Hinweis: Moment, darüber muss ich nachdenken."

Als Rosalind Picard, Professorin am Massachusetts Institute of Technology (MIT), 1995 in einem wissenschaftlichen Aufsatz jedoch erstmals vorschlug, die Messung, Modellierung und Berechnung von Emotionen in die Informatik mit einzubeziehen, wurde sie von ihren Kollegen schlichtweg ausgelacht. Heute, rund 15 Jahre später, gilt die Forschung zum "Affective Computing" nicht mehr als exotisches Steckenpferd, sondern steht an vorderster Front der Mensch-Maschine-Kommunikation. So entwickelt das MIT Senselab beispielsweise gemeinsam mit Audi einen "Affective Intelligent Driving Assistant" (Aida) – ein Fahrerassistenzsystem, das die Gefühle des Fahrers interpretieren und in der Kommunikation berücksichtigen soll. Der Prototyp des künstlichen Beifahrers sieht aus wie eine lebendig gewordene Schreibtischlampe: Der Kopf sitzt auf einem verfahrbaren Ständer und zeigt ein animiertes Comic-Gesicht, das je nach Situation lächelt, zweifelt, traurig oder streng blickt.

Ob derlei hochgradig stilisierte emotionale Ausdrücke jedoch dauerhaft von Menschen akzeptiert werden, ist noch nicht erwiesen. Hiroshi Ishiguro, Professor für Robotik an der Osaka University und Abteilungsleiter am Advanced Telecommunications Research Institute in Kansai Science City, will das herausfinden. Er experimentiert seit Jahren mit sogenannten Geminoiden: menschenähnlichen Robotern, die per Kamera, Mikrofon und Datenleitung von einem Operateur gesteuert werden. Werde solch eine ferngelenkte Puppe von einem anderen Menschen als lebendiges Wesen wahrgenommen, entstünde eine Telepräsenz des Operateurs, erklärt Ishiguro. Der Mensch habe nicht mehr das Gefühl, mit einem Roboter zu sprechen, sondern er spüre gewissermaßen die Anwesenheit des entfernten Operateurs. Umgekehrt habe auch der Operateur den beinah körperlichen Eindruck, vor Ort zu sein. "Einmal hat jemand bei einem solchen Experiment seine Hand auf die Wange des Roboters gelegt", erzählt Ishiguro. "Und ich hatte das Gefühl, diese Hand zu spüren. So etwas können Sie mit einer Videokonferenz nicht machen."