Künstliche Intelligenz soll moralisches Handeln lernen – aus Geschichten

Forscher wollen Robotern moralisches Handeln beibringen. Sie sollen aus Geschichten lernen, wie sie ihre Ziele mit angemessenen Mitteln erreichen. Zum Einsatz kommt Reinforcement Learning – das momentan wohl heißeste Thema in der KI.

In Pocket speichern vorlesen Druckansicht 115 Kommentare lesen
Roboter "Pepper"

(Bild: dpa, Franck Robichon/Archiv)

Lesezeit: 2 Min.

Dass Computer allein aus der Betrachtung von Spielzügen komplexe Strategiespiele auf Profi-Niveau erlernen können, hat Google mit seinem kürzlich vorgestellten Go-Computer AlphaGo eindrucksvoll bewiesen – warum also nicht auch gesellschaftliche Konventionen? Die Forscher Mark Riedl und Brent Harrison der School of Interactive Computing am Georgia Institute of Technology haben ein System entwickelt, das aus Geschichten lernen soll, sich angemessen zu verhalten. Den Prototypen ihres Qixote getauften Künstlichen Agenten haben die Wissenschaftler diese Woche auf der Konferenz der Association for the Advancement of Artificial Intelligance (AAAI) in Arizona vorgestellt, Details siehe Paper. Ähnlich wie beim von der Google-Tochter DeepMind entwickelten AlphaGo kommt dabei Reinforcement Learning zum Einsatz. Dieses bestärkende Lernen hat den Vorteil, dass Strategien belohnt werden, die langfristig den größten Erfolg versprechen.

Eine ganze einfache Geschichte könnte davon handeln, für einen kranken Menschen Medizin in einer Apotheke zu besorgen. Die Künstliche Intelligenz (KI) hat nun mehrere Möglichkeiten, etwa das Erwünschte zu stehlen oder Geld am Automaten zu holen, sich in der Apotheke höflich anzustellen und das Medikament legal zu erwerben. Während sie tausende von Möglichkeiten durchspielt, honoriert das Belohnungssystem Handlungen, die denen aus den Beispielgeschichten ähneln, erläutert Riedl in seinem Paper. Ein nur auf das Ziel "Medikament besorgen" fokussiertes System hingegen würde es einfach stehlen, weil dies den geringsten Aufwand erfordert. Riedl betont, dass Qixote keine moralischen Wertvorstellungen entwickelt, sondern lediglich herrschende Konventionen verinnerlicht.

Hinter dem Ansatz von Riedl und Harrison steckt die Überzeugung, dass in den zahlreichen Geschichten und Erzählungen einer Gesellschaft das komplette Regelwerk für einen menschlichen Umgang miteinander enthalten ist. Somit könne eine KI allein aus dem immensen Schatz an Erzählungen lernen, sich in unterschiedlichen Situationen wie ein menschliches Wesen zu verhalten. Ähnliche Prinzipien stecken hinter den erfolgreichen Deep-Learning-Verfahren, die sich aus Millionen von Beispielsätzen selbstständig die Regeln von Satz- und Wortbildung erschließen oder anhand von Bildern die Merkmale der Objekte im Bild. So weit ist Qixote allerdings noch nicht. Riedl betont, dass das System noch sehr simpel sei und ganz am Anfang stehe. (atr)