Der philosophierende Killer-Roboter aus den Google-Labs

Was Technik-Journalisten über Forschung zu Künstlicher Intelligenz schreiben, hat vor allem mit ihren eigenen geheimen Phantasien und Träumen zu tun

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Die Zukunft ist düster. Wenn sich die Menschheit nicht selbst auslöscht, werden Roboter über kurz oder lang diese Chance ergreifen, ausgestattet mit einem magischen Stoff namens "Künstliche Intelligenz". Passend zum Start des neuen "Terminator" ("Mein Papa ist eine Maschine") kommen sie wieder über uns, die geheimen Träume von Menschen, die ihre Kindheit mit den "Transformers" verbracht haben.

Sie kommen über uns in Form von Schlagzeilen wie diesen:

  1. Google baut einen Chatbot, der denkt, es sei unmoralisch, Kinder zu haben
  2. Google-KI-Chatbot hasst Kinder
  3. Googles KI-Roboter denkt, dass der Sinn des Lebens ewiges Leben sei
  4. Googles Roboter deckt den Sinn des Lebens auf
  5. Roboter tickt bei Test-Gespräch mit Mensch aus
  6. Google-Robot ist von Menschen genervt

Google ist ja alles Mögliche zuzutrauen, darüber herrscht sowieso Einmütigkeit. Und die Forscher in den Google Labs erst: Außer Reichweite ihrer Manager, die die gröbsten Verstöße gegen die wissenschaftliche Ethik emsig zu kaschieren versuchen, laufen die verrückten Wissenschaftler zur Höchstform auf und haben ihn längst gebaut, den Terminator.

Vor gut einer Woche kam es nun heraus, dass dieser Killer-Roboter kurz davor war, seinen menschlichen Gesprächspartner zu Staub zu zermahlen. Trotz dieser Kurzschlussreaktion (wer ist nicht manchmal von sinnlosen Fragen genervt?), erwies er sich ansonsten im Gespräch als überaus philosophischer Denker, der den Sinn des Lebens kennt und leider keine Kinder mag.

Das lernt der Leser jedenfalls aus den Schlagzeilen, die ein harmloses Paper zweier Google-Forscher zitieren. Erschienen in den Proceedings einer Konferenz zu maschinellem Lernen und auf Arxiv.org verfügbar, beschreibt der Artikel einen interessanten Versuch.

Wie lassen sich menschliche Gespräche modellieren?

Die Wissenschaftler gingen der Frage nach, wie sich menschliche Gespräche modellieren lassen. ELIZA lässt grüßen: das 1966 von Joseph Weizenbaum am MIT entwickelte Programm war trotz simpler Konstruktion erstaunlich gut darin, im Gespräch Antworten zu geben, die dem Partner ein gewisses Verständnis vorgaukelten. Das lag in diesem Fall daran, dass die Antworten vage genug waren, als "passend" durchzugehen.

Wie elektronische Dialogsysteme etwa bei der automatischen Auskunft, aber auch Siri oder Cortana zeigen, ist das Problem bis heute nicht zufriedenstellend gelöst. Allenfalls in bestimmten Domänen besitzen die Programme genug Kenntnisse, die passenden Antworten zu liefern. Dabei geht man in der Regel von oben an die Lösung: Man versucht, jede mögliche Frage-Antwort-Kombination vorauszuahnen. Und das ist bei kreativer menschlicher Kommunikation einfach eine riesige Menge.

Eine andere spannende Option ergibt sich nun aus der Tatsache, dass menschliche Kommunikation nicht komplett zufällig ist. Gesprächspartner gehen normalerweise auf ihr Gegenüber ein. Auf eine bestimmte Aussage folgt also mit gewisser Wahrscheinlichkeit eine bestimmte andere. Wie lässt sich nun bestimmen, welche Antwort in einer bestimmten Situation die wahrscheinlichste ist? Zur Lösung solcher Problemstellungen eignen sich neuronale Netzwerke - und genau das war auch der Ansatz der Google-Forscher.

Das Arsenal der Untertitel

Oriol Vinyals und Quoc Le fütterten ein neuronales Netzwerk mit einem umfangreichen Arsenal echter menschlicher Konversationen. Dazu hatten sie zum einen Zugriff auf einen Katalog mit 30 Millionen Bestandteilen der Gespräche einer IT-Hotline. Zum anderen nutzten sie Daten des OpenSubtitles-Projekts (vom Film-Untertiteln), das noch etwa 30 Mal umfangreicher ist, aber dafür ganz unterschiedliche Themen enthält. Nach dem Lernprozess stellten sie ihrem System Fragen - und beobachteten, wie gut das neuronale Netzwerk darauf reagierte.

Die Unterhaltungen sind so unterhaltsam zu lesen, wie man das von der zugrundeliegenden Datenbank erwartet. Mit den Film-Untertiteln lief das System zur Höchstform auf (siehe Arxiv.org-PDF). Dabei stellten die Forscher ein paar interessante Effekte fest: Das Modell reagierte zum Beispiel meist grammatikalisch korrekt und in der richtigen Person und war in der Lage, an den richtigen Stellen die passenden Fragen anzubringen.

Dazu mussten die Fragen nicht in der erlernten Form gestellt werden. Trotzdem steckten die Antworten auch immer wieder voller Unsinn - und oft genug merkt der Leser, dass da gerade ein Filmdialog nachgespielt wird.

Vor allem aber ist das Modell nicht in der Lage, eine konsistente Persönlichkeit zu entwickeln - eine Voraussetzung, um den Turing-Test zu bestehen. Zudem liegt eine grundlegende Schwäche dieser Verfahrensweise darin, dass menschliche Kommunikation eben nicht (nur) von Antwort zu Antwort erfolgt.

Zu jedem Gespräch gehören auch eine Geschichte und gewisse Absichten der Gesprächspartner, die sich über die Unterhaltung hin verfolgen lassen und die Wahrscheinlichkeiten bestimmter Antworten ebenfalls beeinflussen.