KI-Konferenz AAMAS: Empathische Roboter kooperieren besser

Um etwas gemeinsam zu erreichen, müssen Handelnde eine gewisse Empathie mitbringen. Das gilt auch für Roboter.

In Pocket speichern vorlesen Druckansicht 33 Kommentare lesen
KI-Konferenz AAMAS: Empathische Roboter kooperieren besser
Lesezeit: 5 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

Zu den spannendsten Aspekten der Forschungen zu Künstlicher Intelligenz (KI) zählt, dass sie nahezu unvermeidlich neue Einsichten zum menschlichen Denken und Verhalten, sowohl individuell als auch sozial, mit sich bringen. Schließlich ist der Mensch das wohl wichtigste Vorbild für die Gestaltung künstlicher Agenten – was nicht heißt, dass er perfekt wäre. Gerade im gesellschaftlichen Zusammenleben gibt es Spielraum für Verbesserungen. Hier wiederum können Agentensysteme wertvolle Anregungen liefern.

Jason Thompson (University of Melbourne) etwa gab beim Workshop über Agenten-basierte Modellierung urbaner Systeme im Vorfeld der Konferenz AAMAS (Autonomous Agents and Multiagent Systems) in Montréal zu bedenken, dass der Autoverkehr in seiner heutigen Form auf Angst beruhe: Fußgänger und Radfahrer wissen, dass Autos ihnen schweren Schaden zufügen können, und sind entsprechend vorsichtig.

Mit der zunehmenden Verbreitung autonomer Fahrzeuge könnte sich das jedoch umkehren: Im Bewusstsein, dass solche Roboterautos im Zweifelsfall immer anhalten werden, könnten die bislang unterlegenen Verkehrsteilnehmer die Straßen dominieren. Insbesondere in der Übergangsperiode, wenn sich manuell betriebene und autonome Fahrzeuge mischen, könne das aber zu erhöhten Risiken führen, weil von außen nicht eindeutig zu erkennen ist, wie ein Auto gesteuert wird.

Generell werde behauptet, dass autonome Fahrzeuge die Unfallzahlen senken würden, so Thompson. Eine Simulation mit einem Multi-Agentensystem stelle das jedoch in Frage: Zunächst sei der Verkehr mit 2000 manuell gesteuerten Fahrzeugen und 500 Radfahrern simuliert worden. Nach 250 Zeiteinheiten seien 500 autonome Fahrzeuge hinzugefügt worden – woraufhin die Zahl der Kollisionen zwischen manuellen Autos und Radfahrern zugenommen habe. Thompson beklagte, dass die Forschungen zu autonomen Fahrzeugen fast ausschließlich aus Sicht der Autos betrieben würden, deren Wahrnehmung von außen dagegen kaum eine Rolle spiele.

Der Straßenverkehr lässt sich als eine Form gesellschaftlicher Kooperation betrachten. Deren Entstehung und Entwicklung war Thema mehrerer Vorträge im Hauptprogramm der Konferenz. Ein Schlüsselbegriff ist die Indirekte Reziprozität: Eine Person hilft einer anderen ohne direkte Gegenleistung, verbessert dadurch aber ihren gesellschaftlichen Ruf und damit die Wahrscheinlichkeit, dass ihr in einer entsprechenden Situation ebenfalls geholfen wird.

Fernando P. Santos (Princeton University) zeigte, wie sich dieser Mechanismus im Zusammenspiel mit sozialen Normen logisch formulieren lässt. Mit spieltheoretischen Modellen untersuchte er unter anderem, inwieweit die Entstehung und Aufrechterhaltung von Kooperation von der Größe der Gemeinschaft abhängt. Er kam zu dem Ergebnis, dass in einer hybriden Gesellschaft aus Menschen und künstlichen Agenten eine kleine Anzahl kooperativer Agenten ausreiche, um prosoziales Verhalten generell zu befördern.

Jize Chen und Changhong Wang haben am chinesischen Harbin Institute of Technology untersucht, welche Rolle Empathie bei der Entstehung von Kooperation spielt. Empathie, so ihre Vermutung, habe sich aus der Erfahrung entwickelt, dass die gemeinsame Jagd für alle bessere Ergebnisse bringt, als wenn jeder allein jagt.

Um die Hypothese zu testen, entwickelten sie den Algorithmus "Adaptive Empathetic Learner" (AEL) und ließen damit ausgestattete Softwareagenten das "Survival Game" spielen, das die Situation bei der Jagd nachbildet. Es zeigte sich, dass die empathischen Agenten Teams aus starken und schwachen Mitgliedern bildeten, Agenten ohne das Empathie-Modul dagegen nicht. "Es ist positiv, dass Agenten mit unterschiedlichen Kräften zusammenwirken können, um die Kluft zwischen reich und arm zu vermindern", schreiben die Forscher in ihrer Studie. Experimente mit weiteren Szenarien (Gefangenendilemma, Ultimatumspiel) zeigten, dass Empathie zu größerer Fairness führt, selbst in antagonistischen Situationen.

Studien wie diese lassen hoffen, dass die Frage, die Carles Sierra (IIIA-CSIC) in seinem Plenarvortrag stellte, mit "Ja" beantwortet werden kann: "Ist verantwortungsvolle Autonomie möglich?" Sierra meinte damit Systeme, die gesellschaftliche Bedürfnisse erfüllen, den Werten der Gesellschaft folgen und Menschen die Kontrolle überlassen. Er verwies unter anderem auf die Arbeiten der Politikwissenschaftlerin Elinor Ostrom – der bislang einzigen Frau, die mit dem Wirtschaftsnobelpreis ausgezeichnet wurde. Sie hat gezeigt, dass gemeinschaftliche Güter durch die lokale Kooperation der Betroffenen besser verwaltet werden können, als durch staatliche Kontrolle oder den freien Markt. Als Beispiel dafür nannte Sierra die landwirtschaftliche Region L‘Horta bei Valencia, wo die Bewässerung seit Jahrhunderten erfolgreich in Eigenregie geregelt wird.

Bis künstliche Agenten Ostroms Prinzipien genügen können, seien noch viele Fragen zu klären, sagte Sierra. Nötig sei aber in jedem Falle, dass sie sich entwickeln können, weil auch gesellschaftliche Normen nicht statisch seien, sondern sich entwickelten. Und die Menschen müssten weiterhin die Kontrolle behalten. (olb)