Künstliche Gefühle sollen KIs klüger machen

Simulationen mit virtuellen Agenten zeigen, dass Gefühle Maschinen klüger machen können.

In Pocket speichern vorlesen Druckansicht 27 Kommentare lesen
CeBIT
Lesezeit: 2 Min.
Von

Schon der amerikanische KI-Pionier Marvin Minsky war der Auffassung, dass Emotionen nichts weiter sind, als "andere Wege zu denken“. 2006 schrieb Minsky sogar ein ganzes Buch dazu. In „The Emotion Machine“. argumentierte er: Programme voller Vorgaben für jede Eventualität werden zu komplex, während Emotionen häufig auf einem anderen Weg zur „richtigen“ oder ökonomischen Verhaltensweise führen.

Lange galt der Ansatz in der KI-Community aber als Minderheitenposition, denn es ist nicht trivial, Emotionen zu modellieren. Das ändert sich nun langsam, berichtet Technology Review in seiner aktuellen Ausgabe. Eine wachsende Zahl von Forscher ist überzeugt, dass Gefühle Maschinen klüger machen.

TR 03/2018

Seit einiger Zeit forscht beispielsweise Eva Hudlicka zu diesem Problem. Sie will erreichen, dass Roboter in gefährlichen Situationen nicht erst alle Eventualitäten durchrechnen müssen, in gefährlichen Situationen aber auch nicht vor virtueller Angst erstarren. „Wo diese Grenze liegt, versuchen wir gerade herauszubekommen“, sagt Hudlicka.

Was genau tragen Emotionen zur Kognition bei? Welche Schlüsseleindrücke repräsentieren Gefahr? Was genau ist gruselig? Und was geschieht, wenn die durch vermeintliche Bedrohung ausgelösten Funktionen die Oberhand gewinnen?

Um das zu testen, simulierten Hudlicka und ihre Kollegen eine Such- und Rettungsaktion im verschneiten Gelände. Dabei sollte ein Team künstlicher Agenten auf Pistenraupen Verirrte finden und retten. Manche Agenten bekamen einen ängstlichen Bias implementiert: Alles, was gefährlich sein könnte, bekam in ihrer Programmierung Vorrang vor allem anderen – also einen höheren Wert. Andere Agenten hingegen behielten mehr den Blick für das große Ganze – in ihren Rechenvorschriften bekamen potenziell gefährliche Situationen einen kleineren Wert.

Das Ergebnis war ein spannender Teamprozess: Die ängstlicheren Agenten waren zwar teilweise schneller und konnten bei Gefahr besser priorisieren, achteten aber nicht darauf, ob noch genügend Benzin im Tank war. Wer von welchem Bias profitiert, hängt letztlich von seiner Aufgabe ab. „Für den Sicherheitsinspektor einer Fluglinie ist ein Bedrohungs-Bias hilfreich“, sagt Hudlicka. Wer hingegen andere von etwas überzeugen möchte, für den ist Risikobewusstsein weniger zielführend.

(wst)