Die Angst des Roboters beim Elfmeter

Was Emotionen bei Robotern leisten sollen, ist ebenso umstritten wie die Frage, ob sie Gefühle benötigen, um intelligent zu sein

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Brauchen Roboter Gefühle? Sicherlich nicht. Etliche Lebewesen können sich erfolgreich im täglichen Leben behaupten, ohne Gefühle bewusst zu erleben.

Obwohl Darwin bereit war, Insekten den Ausdruck von "Angst, Terror, Eifersucht und Liebe" einzugestehen, besprechen wir hier solche Gefühlszustände, die nicht rein physiologisch sind, sondern die auch als solche wahrgenommen werden. Ameisen z.B., obwohl sie soziale Insekten sind, empfinden wahrscheinlich nichts Besonderes, wenn sie die Brut pflegen oder Eindringlinge eifrig bekämpfen. Der Kopf einer Ameise lebt noch einige Minuten, nachdem er vom Körper abgetrennt wurde und greift sogar nach Nahrung, falls diese überreicht wird. Bei Reptilien ist es ebenfalls schwer vorstellbar, dass sie Kinder der Traurigkeit werden könnten. Fische haben Gesichter, die für uns Menschen fortwährend ausdrucklos bleiben. Erst bei Säugetieren, besonders bei Primaten, glaubt man so etwas wie höhere Gefühle beobachten zu können. Bei Affen bilden sie wichtige Elemente des Verhaltensrepertoires und bereits Darwin beschäftigte sich mit allgemeinen Prinzipien der Gefühlsausdrücke bei Menschen und Tieren, insbesondere bei Primaten.1

Emotionen und Science Fiction

Emotionen sind ein Standardmotiv der Roboterromane. In solchen Geschichten scheitern die intelligenten Maschinen der Zukunft an den verschiedensten Aufgaben, weil sie, anders als Menschen, bis zum bitteren Ende rein rational vorgehen möchten. Da, wo einfaches "common sense" oder Empathie notwendig gewesen wäre, um einen potentiellen Konflikt zu entschärfen, finden Maschinen mit ihren starren Algorithmen keinen Ausweg aus logischen Sackgassen.

Der Torwart der FUmanoide wirft sich furchtlos vor dem rollenden Ball bei RoboCup 2011

Der Computer HAL in Clark und Kubricks Epos "2001: Odyssee im Weltraum" scheut nicht vor Mord zurück, um die ihm anvertraute Mission erfolgreich durchführen zu können. Gezwungen, die Raumfahrer zu belügen, um sie, koste es, was es wolle, zum Jupiter zu bringen, flüchtet sich der Rechner in eine Art zerstörerischen Wahnsinn. Allerdings ist seine Stimme immer neutral, sachlich und ausdrucklos. Das immer offene rote Auge verrät keine Emotionen. Erst als HALs Schaltungen ausgebaut werden, redet er offen über seine Angst:

Will you stop, Dave? Stop, Dave. I'm afraid. I'm afraid, Dave. Dave, my mind is going. I can feel it.

Auch Isaac Asimov hat sich bereits 1950 ausführlich mit dem Widerspruch zwischen reiner Rationalität und "common sense" auseinandergesetzt. In der Sammlung von Kurzgeschichten mit dem Titel "I, Robot" gibt jedes Kapitel ein neues Beispiel dafür, welchen Schaden inflexible Programmierung bei der Bewältigung von alltäglichen Aufgaben mit sich bringen kann.2 Die Hauptfigur (neben dem Roboter selbst) ist eine Roboter-Psychologin, die in jedem Kapitel dem Scheitern und der kognitiven Fehlentwicklung der jeweiligen Roboter auf den Grund geht.

Emotionen scheinen deswegen etwas Besonderes zu sein: sie haben etwas mit höheren Intelligenzleistungen zu tun und obwohl wir Robotern eine gewisse Schlauheit zuschreiben könnten, ist es schwer vorstellbar, dass sie wie Menschen eines Tages auch emotional reagieren könnten. Die Frage ist dann, ob diese Roboter mit diesem Manko wirklich intelligent sein könnten. Marvin Minsky hat es 1985 auf den Punkt gebracht3:

The question is not whether intelligent machines can have emotions, but whether machines can be intelligent without any emotions.

Emotionen in der Robotik

Wenn Robotiker sich über das Thema Emotionen für Roboter oder Computer unterhalten, meinen sie nicht immer dasselbe. Es gibt zumindest drei mögliche Zugänge zu der Frage der Verarbeitung bzw. Berechnung von Emotionen:

  1. Roboter können Emotionen lesen. Ein Computer kann mit Hilfe einer Videokamera Gesichter von Menschen aufnehmen und aus den Bildern ermitteln, ob diese Menschen froh, frustriert oder gelangweilt sind. Schon lange redet man in der Informatik über "affective computing" und meint damit nicht, dass der Computer selbst Emotionen empfinden soll, sondern dass der Rechner seinem Gegenüber, dem Mensch, besser dienen kann, wenn sein Gemütszustand erkannt wird. Rosalind Picard hat bereits 1997 mit ihrem Buch über das Thema4 die Grundlage dafür geliefert und gezeigt, dass Menschen in ihrer Interaktion mit Computern den Rechner quasi-sozial behandeln, und dass sie auch von dem Rechner "zivilisiertes" Verhalten erwarten. Softwarefirmen sind deswegen an "affective computing" erpicht. Nichts zieht die Aufmerksamkeit des Benutzers mehr an als ein Rechner, der sich wie ein Kumpel verhält, d.h. als perfekter Diener, der alle Wünsche erraten kann noch bevor diese ausgesprochen werden.
  2. Roboter können Emotionen vortäuschen. Einige Systemdesigner erhoffen sich eine höhere Akzeptanz von Robotern, wenn diese menschlicher auftreten, d.h. wenn sie nach außen gar nicht als Maschinen wirken. Da Menschen so gut beim Ablesen von Emotionen sind, ist es nicht schwer, ihnen Emotionen maschinell vorzutäuschen. Sogar eine Trickfilmzeichnung kann bereits die "Emotionen" der Trickfilmcharaktere transportieren. In Japan experimentieren Forscher seit Jahren mit Robotern, die Gesichtsausdrücke und andere Gesten imitieren und dadurch menschlicher erscheinen sollen. Einige Roboter ähneln automatisierten Wachsfiguren und mancher Roboterforscher hat sich bereits selbst als Roboter zumindest visuell geklont. Sehr erfolgreich sind auch die Experimente von Cynthia Breazeal und Rodney Brooks verlaufen, die mit minimalen Mitteln (ein robotisches Gesicht) Menschen dazu gebracht haben, sich minutenlang mit Robotern zu unterhalten, obwohl diese nur ein paar Laute, je nach Kontext, von sich geben konnten und ansonsten nur neugierig geguckt haben.
  3. Roboter sollten Emotionen empfinden. Das ist eigentlich der heilige Gral bei vielen Forschungsprojekten. Praktisch jeden Monat erscheint ein Bericht in der Presse über einen Roboter, der diesmal "erstmalig" wirklich mit Menschen kommuniziert, Emotionen empfindet und ein echter Partner von Menschen sei. Könnte man aber wirklich solche Roboter bauen? Braucht man sie auch? Möchte man gelangweilte robotische Staubsauger haben, oder gar depressive, wie Marvin, der paranoide Roboter aus "Hitchhikers Guide to the Galaxy", der nicht einmal einen Bruchteil seiner Intelligenz braucht, um jegliche Aufgabe zu lösen?