Menschen sind zu Maschinen weniger nett

Während wir anderer Menschen Gutmütigkeit erwidern, tun wir das gegenüber Maschinen weniger. Wissenschaftler sorgen sich.

In Pocket speichern vorlesen Druckansicht 151 Kommentare lesen
Mann trägt Hitchbot

2014 vertraute der Roboter Hitchbot (im Bild mit Prof. David Harris Smith) auf menschliche Hilfe. Er durchquerte Kanada erfolgreich per Anhalter. Ein ähnlicher Versuch 2015 in den USA scheiterte an einem gierigen Menschen.

(Bild: Daniel AJ Sokolov)

Lesezeit: 2 Min.
Von

Menschen gehen einer Studie zufolge rücksichtslos mit intelligenten Maschinen um. "Von künstlicher Intelligenz (KI) wird erwartet, dass sie Rücksicht auf den Menschen nimmt. Doch umgekehrt kann davon keine Rede sein", erläutern Wissenschaftler der Ludwig-Maximilians-Universität (LMU) in München und der Universität London. Online-Experimente belegen, dass Menschen Maschinen ausnutzten und dabei kaum Schuldgefühle entwickelten.

"Dieser Widerwille zur Kooperation mit Maschinen ist eine Herausforderung für die zukünftige Interaktion zwischen Mensch und KI", betont Jurgis Karpus von der LMU. Das Team hat untersucht, ob sich Menschen im Umgang mit Künstlichen Intelligenzen genauso kooperativ verhalten wie gegenüber ihren Mitmenschen. Dies dürfte künftig unter anderem mit Blick auf das autonome Fahren relevant werden, etwa beim Einfädeln-Lassen oder an Engstellen.

Die Ergebnisse haben die Forscher ernüchtert: "Unsere Studie zeigt, dass Menschen Maschinen zunächst dasselbe Vertrauen entgegenbringen wie ihren Mitmenschen: Die meisten gehen davon aus, auf Kooperationsbereitschaft zu treffen", schildert Karpus. Doch dann beginnen die Unterschiede: "Menschen sind sehr viel weniger bereit, sich einer KI gegenüber reziprok zu verhalten als gegenüber einem Menschen. Sie beuten sogar die 'Gutmütigkeit' der Maschine zum eigenen Vorteil aus. Im Autoverkehr würde ein Mensch einem menschlichen Fahrer die Vorfahrt gewähren, nicht jedoch einem selbstfahrenden Auto."

Sein LMU-Kollege Bahador Bahrami ergänzte jedoch: "Der große Unterschied in ihrem Verhalten, verglichen mit dem gegenüber ihren Mitmenschen, ist allerdings: Sie haben kein Problem damit, Maschinen auszunutzen, und zeigen dabei auch kaum Reue."

Professor Ophelia Deroy, Philosophin und Mitautorin der Studie, die zudem am Norwegischen Institut für Friedensforschung in Oslo ethische Implikationen der Integration von Robotersoldaten an der Seite menschlicher Soldaten erforscht, sagt zu den Studienergebnissen: "Wir alle wollen, dass KI vertrauenswürdig ist und sich Menschen gegenüber rücksichtsvoll verhält. Aber es reicht nicht, KI nach diesen Kriterien zu modellieren. Für den Einzelnen sieht es vielleicht nach einem verzeihlichen Akt des Selbstinteresses aus, wenn wir uns Robotern gegenüber nicht kooperativ verhalten und sie sogar für unsere eigenen Belange ausnutzen. Für die Gesellschaft als Ganzes könnte es allerdings weitreichendere Auswirkungen haben."

Die Publikation ist online abrufbar: Jurgis Karpus u.a.: Algorithm exploitation: humans are keen to exploit benevolent AI.

(ds)