Träumen Menschen von zärtlichen Androiden?
Oder doch nur von der Wiedereinführung der Sklaverei mit technischen Mitteln? Die Forschung an Roboteremotionen benötigt langfristig eine Grenze - nicht aus moralischen, sondern aus Sicherheits- und rechtlichen Erwägungen.
- Niels Boeing
Es ist für meinen Geschmack starker Tobak, den der Brite David Levy in seinem aktuellen Buch „Love and Sex with Robots“, das den Anstoß zur Titelgeschichte der neuen TR-Ausgabe gab, ausbreitet. Wir werden in 50 Jahren nicht nur Roboter als ausgefeilte Sex-Spielzeuge nutzen, sondern auch mit Freude emotionale Beziehungen zu ihnen entwickeln, lautet seine These. Mehr noch: Roboter werden in der Lage sein, diese Gefühle glaubwürdig zu erwidern.
Nehmen wir einmal an, dass Emotionen nicht einem diffusen „élan vital“ entspringen, sondern sich eines Tages tatsächlich sehr detailliert modellieren lassen. Wohin würde uns das führen?
Da ist zum einen die Qualität der „künstlichen“ Emotionen. Der KI-Pionier Marvin Minsky vertritt in seinem Buch „The Emotion Machine“ die These, Emotionen seien nur eine andere Art zu denken. Also kognitive Prozesse, die sich ebenso wie etwa rationales Schlussfolgern modellieren lassen müssen. Andererseits weist Minsky in seinem Buch darauf hin, dass sie sich im Laufe der menschlichen Evolution als körperlich empfundener Verstärkungsmechanismus für überlebenswichtige Entscheidungen herausgebildet haben – Angst löst beispielsweise Flucht aus. Diese Evolution hat laut Minsky in Hunderten von verschiedenen Umwelten, über 300.000 Generationen stattgefunden (wenn man das Alter der Gattung Homo auf sechs Millionen Jahre veranschlagt). Kann diese Entwicklung in einem Roboter so verdichtet nachgebildet werden, dass halbwegs verlässliche Emotionen dabei herauskommen?
Diese Frage wird auch in Ridley Scotts „Bladerunner“ aufgeworfen, und zwar in der Szene am Anfang des Films, als Deckard die Assistentin des Industriellen Tyrell dem Replikantentest unterzieht. In dem werden emotionale Regungen getestet. Tyrell, der Schöpfer der künstlichen Menschen, enthüllt Deckard anschließend, dass auch Rachael ein Replikant ist. Sie selbst weiß es nicht, weil ihre einprogrammierte Erinnerung so wirksam ist, dass sie glaubt, diese sei echt.
Den Grund dafür beschreibt Tyrell so: „Sie [die Replikanten] sind emotional unerfahren – die wenigen Jahre, in denen sie Erfahrungen speichern können, die Sie und ich als erachten. Wenn wir ihnen etwas geben, Vergangenheit, so schaffen wir ein Polster. Wir fangen ihre Emotionen auf und als Folge davon können wir sie besser kontrollieren.“ Tyrell traut den sich entwickelnden Emotionen seiner Replikanten nicht - zurecht, denn am Ende wird er von einem seiner Geschöpfe umgebracht.
Eine weitere Frage schließt sich an. Wenn die Emotionen von Robotern eines Tages so ausgereift wären, dass sie echte Beziehungen ermöglichen, würde man sie nicht länger als simuliert bezeichnen können. Dann hätten wir es mit fühlenden Wesen und nicht mehr mit Sachen zu tun, als die Roboter nach heutiger Rechtslage gelten. Müsste man ihnen dann aber nicht gewisse Persönlichkeitsrechte zugestehen?
Manche Forscher bejahen diese Frage ohne Umschweife. Damit bekämen wir aber ein Problem, und zwar auch dann, wenn wir uns nicht mit dem moralischen Verbot aufhalten, der Mensch solle kein Schöpfer sein. Denn Roboter werden als Werkzeuge entwickelt, ganz gleich ob heute für das Fabrikfließband oder irgendwann für die Beziehungsarbeit. Man will sogar ganz bewusst Konflikten, die sich mit „echten“ Menschen ergeben könnten, aus dem Weg gehen: Laut der MIT-Forscherin Sherry Turkle hat die japanische Regierung in den Achtzigern die Entwicklung von Haushalts- und Pflegerobotern angeschoben, um nicht irgendwann ausländische Arbeitskräfte für eine überalterte japanische Gesellschaft der Zukunft anwerben zu müssen. Bei dieser Motivation ist es ziemlich unwahrscheinlich, dass man intelligenten und zu Emotionen fähigen Robotern irgendwann Rechte zugestehen würde. Im Prinzip lauert hier die Wiedereinführung der Sklaverei mit technischen Mitteln, unterfüttert mit einem primitiven Chauvinismus. Auch diese Problematik hat „Bladerunner“ in phänomenaler Weise in Szene gesetzt.
Wir können emotionale Roboter natürlich lächelnd als Gedankenexperiment abtun, weil man die technischen Hürden nie überwinden, weil KI ein Traum bleiben wird. Doch seien wir vorsichtig: In diese Forschung wird in den kommenden Jahren noch viel Geld gepumpt werden, weil riesige Märkte locken. Und wir können meines Erachtens keine eindeutige Schwelle benennen, unterhalb der die beiden „Bladerunner-Fragen“ irrelevant sind. Deswegen sollten wir schon einmal ein paar Gedanken an sie verschwenden – und vielleicht ein Forschungslimit definieren, jenseits dessen KI und Robotik nicht weiter vorangetrieben werden. (wst)