Roboterkatze mit Gefühlen

Dank so genannter emotionaler Logik sollen Automaten künftig effizienter arbeiten, Entscheidungen treffen und besser vorausplanen.

vorlesen Druckansicht
Lesezeit: 6 Min.
Von
  • Duncan Graham-Rowe

Wissenschaftler in den Niederlanden haben einen Roboter entwickelt, der ein vom Menschen abgeschautes Gefühlsmodell in seine autonomen Entscheidungen einbeziehen kann. Das Forscherteam glaubt außerdem, dass emotionale Variablen im Software-Entscheidungsprozess dazu führen könnten, dass Mensch und Automat natürlicher miteinander interagieren.

"Wir denken nicht wirklich, dass Computer Gefühle haben können, aber Emotionen haben eben eine bestimmte Funktion innerhalb der menschlichen Logik", meint Mehdi Dastani, Forscher für Künstliche Intelligenz (KI) an der Universität von Utrecht. Durch die Verwendung so genannter intelligenter Agenten mit dem Menschen ähnlichen Emotionen sollen Roboter entstehen, die sein Verhalten besser emulieren können.

Die Hardware des Versuchsroboters, der auf den Namen "iCAT" hört, wurde von der Forschungsabteilung des niederländischen Philips-Konzerns entwickelt und dient eigentlich zum Testen neuer Nutzerschnittstellen. Die kleine Maschine beherrscht Gesichtsausdrücke, in dem sie Augenbrauen, Augenlieder, Mund und Kopfposition verändern kann. So ist es der Roboterkatze beispielsweise möglich, gefühlsmäßig mitzuteilen, wenn sie etwas nicht versteht – sie schaut dann verwirrt drein.

Dastanis Algorithmen, die er "emotionale Logik" getauft hat, sollen auf längere Sicht aber auch in anderen Roboter Verwendung finden. Mit iCAT ist es nun aber leicht möglich, den inneren Zustand des Roboters anzuzeigen, während er Entscheidungen trifft.

Neben der verbesserten Interaktion mit Menschen soll die emotionale Logik auch intelligenten Assistenten bei der Arbeit helfen. So ließe sich Last bei komplexen KI-Entscheidungsprozessen besser verteilen – auch bei den so wichtigen Planungsaufgaben.

Die Logikfunktionen wurden ursprünglich von John-Jules Meyer und Bas Steunebrink entwickelt, die ebenfalls in Utrecht forschen. Sie umfassen Regeln, die insgesamt 22 verschiedene Emotionen definieren – darunter Ärger, Hoffnung, Angst, Belohnung und Freude. Statt nur dem reinen Gefühlsausdruck zu dienen, definieren sich die Gefühle in diesem Modell allerdings darüber, welche Ziele der Roboter erreichen will und wie er dieses Ziel am besten erreicht.

Bei der Ausführung üblicher Aufgaben wie beispielsweise der Navigation in einem Raum können Roboter normalerweise zwei Ansätze verwenden: Sie können vorab anhand eines Anfangs- und Zielpunktes ihren Weg planen und diesen Plan dann in einem Zug ausführen – oder sie planen ihre Route ständig um, während sie unterwegs sind. Die erste Methode ist recht primitiv und führt zu den bekannten Szenen, in denen ein Roboter ständig gegen ein unvorhergesehenes Hindernis anrennt, ohne um es herum zu kommen. Der zweite Ansatz ist deshalb robuster – besonders in einer Umgebung, die komplex und für den Roboter zunächst nicht vorhersehbar ist. Der Computer im Roboter wird dabei allerdings ständig gefordert, weil die Maschine dauernd nach der besten Route suchen muss – aus einer großen Anzahl möglicher Variante.

Emotionale Logik könnte beide Ansätze nun verbinden – und den Roboter nur dann zur Überprüfung seines "Fahrplans" bringen, wenn sein Gefühlsstatus es diktiert. Bei einer Navigationsaufgabe würde dann das Gefühl "Hoffnung" daraus definiert, dass das System aufgrund von Sensordaten glaubt, dass mit Plan A zur Erreichung von Ziel B auch tatsächlich dieses Ziel erreicht wird. "Angst" würde hingegen ausgelöst, wenn das System hofft, Ziel B mit Plan A zu erreichen, es aber eigentlich nicht glaubt, dass das auch funktioniert. Mit dieser Definition könnte "Angst" dem Roboter dabei helfen, zu erkennen, wann es Zeit wird, eine neue Route zu probieren. "Dies verändert so zu sagen das Glaubenssystem des Roboters, weil er nicht mehr annimmt, dass der Rest des Plans zur Erreichung des Ziels führt", erläutert Dastani.

Fügt man einem intelligenten Agenten einen solchen emotionalen Status hinzu, wird es möglich, das Verhalten des Systems zu überwachen, so dass die Entscheidung oder Planung nur dann erfolgt, wenn es absolut notwendig ist: "Das ist eine Heuristik, die einen rationalen Entscheidungsprozess realistischer und leichter zu berechnen macht. Wir überwachen ständig, ob die Gefahr des Scheiterns besteht."

Es gibt bereits diverse Roboter, die menschliche Gesichtsausdrücke genau nachahmen können und so Emotionen in die Robotik einbeziehen. Dastanis Fokus darauf, wie Emotionen Entscheidungsprozesse beeinflussen, macht seine Forschungsarbeit jedoch ziemlich speziell. Bei anderen Projekten wie dem Roboter "Kismet" der MIT-Forscherin Cynthia Breazeal geht es darum, einer Maschine Emotionen zu entlocken und diese auch von den Benutzern erwidert zu bekommen.

Dastanis emotionale Funktionen stammen aus einem psychologischen Modell namens OCC, das 1988 von den drei Psychologen Andrew Ortony, Allan Collins (beide Northwestern University) und Gerald Clore (University of Virginia) entwickelt wurde. "Verschiedene Psychologen haben auch verschiedene Sets an Emotionen ermittelt", erläutert Dastani. Der Grund für die Verwendung des OCC-Modells sei, dass es Gefühle im Hinblick auf Objekte, Aktionen und Ereignisse spezifiziere.

Laut Ortony wurde sein Modell auch deshalb entwickelt, um KI-Arbeiten wie die der Niederländer zu ermöglichen: "Es ist sehr befriedigend für uns, dass unser Modell so verwendet wird." Rechner mit Gefühlen seien normalerweise auf Interaktion mit dem Menschen ausgelegt, doch es gäbe noch viel Arbeit auf dem Gebiet der emotionalen Entscheidungsfindung innerhalb eines Automaten.

"Dieses Thema betrifft einen Großteil der philosophischen Debatte über die Natur der menschlichen Gefühle und der menschlichen Gedankengänge", meint Blay Whitby, Philosoph an der University of Sussex, der sich auf Künstliche Intelligenz spezialisiert hat. Schlecht sei das sicher nicht, doch viele Philosophen würden die Sichtweise einer emotionalen Logik wohl als Widerspruch in sich begreifen, meint er.

Die 22 verschiedenen Gefühle in Dastanis emotionaler Logik ermöglichen bereits ein sehr reiches Modell der menschlichen Gefühlswelt, selbst im Vergleich zu einigen tiefgehenden psychiatrischen Theorien, meint Whitby. Doch dazu gehört auch, dass es eine innerliche Konfliktauflösung zwischen verschiedenen emotionalen Stadien gibt und die Technologie auch praktisch getestet wird: "Der Teufel steckt bei einer solchen Arbeit im Detail. Und Interaktionen zwischen mehreren Agenten werden explizit nicht berücksichtigt."

Dastani zufolge ist ein solcher Ansatz aber auf seiner To-Do-Liste. Erst dann werde es möglich, dass Endanwender wirklich die Vorteile emotionaler Logik wahrnehmen könnten – in Form einer natürlicheren Interaktion mit Robotern und durch vernünftige Antworten intelligenter Agenten etwa in automatisierten Call Centern. Bevor es soweit ist, werden diese emotionalen Seiten der Künstlichen Intelligenz jedoch eher hinter den Kulissen zu finden sein – zur Navigation und zur Aufgabenplanung, meint Dastani. Voraussagen, wann ein solches System kommerziell erhältlich ist, mag er deshalb noch nicht. (bsc)