Human-Robot Interaction: Ethnographie der Roboter

Während Ingenieure in aller Welt an neuen Robotern tüfteln, klappt deren Zusammenleben mit den Menschen nicht immer reibungslos.

In Pocket speichern vorlesen Druckansicht 17 Kommentare lesen
Menschen und Roboter: Die Schwierigkeiten des Zusammenlebens

(Bild: Hanson Robotics)

Lesezeit: 6 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

Immer wieder werden Roboter Opfer menschlicher Gewalt. So hätten Bewohner eines Seniorenheimes versucht, die Roboterrobbe Paro zu zerstören, berichtete Cathrine Hasse (Aarhus University) auf der Konferenz HRI 2018 (Human-Robot Interaction), die sich in dieser Woche in Chicago trifft. Ihre Kollegin Jessica Sorenson (Aarhus University) erzählte von Angriffen auf Überwachungsroboter in San Francisco, die von Obdachlosen offenbar als Eindringlinge in ihren Lebensraum betrachtet wurden. Um zu einem friedlicheren Zusammenleben von Mensch und Roboter zu kommen, wollen die Forscherinnen Methoden der Ethnographie nutzen und organisierten einen Workshop, der die Möglichkeiten dieses neuen Ansatzes diskutierte.

Es sei eine Voraussetzung ethnographischer Feldstudien, so wenig wie möglich als selbstverständlich anzusehen, sagte Sasse. Idealerweise gäben solche Studien Antworten auf Fragen, "von denen wir nicht wussten, dass wir sie stellen würden". So hätte sich gezeigt, dass im Falle des Roboters Paro unterschiedliche Perspektiven wirksam waren. Während die dänische Regierung ebenso wie die Leiterin des Seniorenheims den Roboter als technische Innovation schätzten, sahen einige Bewohner wie auch Pfleger darin eher einen Eindringling, der den Status der Pflegekräfte verminderte.

Die dänische Regierung treibe die Entwicklung von Robotiktechnologie für die Alten- und Gesundheitspflege massiv voran und wolle daraus auch einen Exportartikel machen, bestätigte Niels Christian Mossfeldt Nickelsen (Aarhus University). Er hat eine empirische Studie mit dem Roboter Bestic begleitet, der gelähmte Personen beim Essen unterstützen soll. Dabei zeigten sich zum einen technische Probleme: In einem Video war zu sehen, wie der Roboter die Speise mit dem Löffel über den Tellerrand schob, statt sie aufzunehmen.

Nachdem er neu justiert worden sei, so Nickelsen, habe er beim Füttern die Wange statt den Mund des Patienten getroffen. Zum anderen gäbe es wie bei Paro unterschiedliche Perspektiven. So werde der Roboter von Hauspflegern eher akzeptiert als von Pflegern in stationären Heimen. Bei den Nutzern käme es darauf, ob sie beim Essen menschliche Gesellschaft genießen oder nicht. Eine Kostenersparnis sei mit dem 7.000 US-Dollar teuren Gerät bislang noch nicht zu erzielen.

Von kulturellen Anpassungsproblemen konnte Lasse Blond (Aarhus University) berichten. Die hätten sich bei Feldversuchen mit den koreanischen Robotern Silbot-2 und Silbot-3 gezeigt. Ursprünglich als ferngesteuerter Lehrer für den Englischunterricht in abgelegenen Gegenden konzipiert, wird der Silbot heute eingesetzt, um mit Denkspielen der Entwicklung von Demenz vorzubeugen. Die vorprogrammierten Spiele hätten sich allerdings für die dänische Kultur als völlig ungeeignet erwiesen.

Karolina Zawieska (De Montfort University) richtete den Fokus auf die Entwickler und Hersteller von Robotern und ihre Haltung zu ethischen Herausforderungen der Technologie. Zwar werde die Bedeutung ethischer Fragen unter Robotikern zunehmend anerkannt, dennoch gebe es weiterhin Vorbehalte. So sei sie bei ihren Befragungen häufig der Haltung begegnet, dass es bei der Arbeit der jeweiligen Firma keine ethischen Probleme gäbe. Das habe zumeist nicht mit einer Gegnerschaft gegenüber Ethik zu tun, sondern eher mit einer Konzentration auf die jeweiligen Ingenieursaufgaben, die kurzfristig zu lösen seien. Das Thema Ethik habe auch oft eine Verteidigungshaltung provoziert.

Ihr sei auch entgegnet worden, berichtete Zawieska, dass die Firmen über keine speziellen Kenntnisse in Ethik verfügten. Das stand in auffallendem Kontrast zu der ebenfalls beobachteten Haltung, dass doch jeder wüsste, was gut und was schlecht sei. Es ginge aber weniger um Expertise oder festgeschriebene Prinzipien, sondern um Sensibilität für ethische Fragen und die Bereitschaft, darüber nachzudenken. Dafür fehlt aber offenbar die Zeit: Immer wieder wurde Zawieska geantwortet, dass die Firmen andere Prioritäten hätten. Es ginge darum, Effizienz und Profit zu steigern. In diesem Rahmen werde Ethik dann zu ein Werkzeug degradiert, die soziale Akzeptanz der Technologie zu erhöhen. Damit zeige sich letztlich die Notwendigkeit größerer sozio-ökonomischer Veränderungen, so Zawieska.

Jamie Wallace (Aarhus University) hat sich angesehen, wie Experimente zur Mensch-Roboter-Interaktion in wissenschaftlichen Artikeln visualisiert werden. Häufig seien Fotos, die die Konstellation von Menschen und Robotern und ihre Position zueinander zeigten, oft mit eingezeichneten Linien und Pfeilen. Dann gebe es Bilder, in denen die Blickrichtung zwischen Mensch und Roboter im Mittelpunkt stehe. Sequenzen von Bildern dienten der Wiedergabe von Bewegungsabläufen. Und schließlich würden Softwarearchitekturen und Algorithmen grafisch dargestellt. All diese Darstellungen orientierten sich an der algorithmischen Eindeutigkeit und suggerierten damit eine Klarheit, die der Mehrdeutigkeit menschlicher Interaktion nicht entspreche, sagte Wallace.

Einen interessanten Ansatz zur Erforschung der Haltung von Robotikforschern präsentierte Eun Jeong Cheon (Indiana University Bloomington). Sie konfrontierte die Wissenschaftler in semi-strukturierten Interviews mit fiktiven Situationen in der Zukunft. Eine Frage könnte zum Beispiel lauten: "Im Jahr 2026 hat Ihnen der Verlauf eines Experiments Gänsehaut bereitet. Was notieren Sie in Ihrem Forschungstagebuch?" Zukünftige Nutzer von Robotern, so ein Ergebnis dieser Befragungen, würden den Erwartungen der Forscher zufolge weniger emotionale Bindungen zu den Maschinen eingehen und sie nie wie Menschen behandeln. Mit anderen Worten: Sie werden mehr und mehr wie Ingenieure denken. Es darf bezweifelt werden, ob sich diese Erwartung erfüllt.

Mit der Zeit dürften sich allerdings die heute noch häufig übersteigerten Erwartungen der Nutzer an die Fähigkeiten der Roboter mehr und mehr der Realität angleichen. Nicht nur Hollywoodfilme, sondern auch Fernsehshows und Werbefilme trügen dazu bei, den gegenwärtigen Stand der Technik zu übertreiben, erklärte Julia Rosén (University of Skövde). Als Beispiele brachte sie einen Ausschnitt aus einer Talkshow, in der der Roboter Pepper scheinbar eine lockere Konversation mit dem Talkmaster führte und dabei Scherze machte, und einen Werbefilm der Herstellerfirma, in dem Pepper wie ein mitfühlendes Familienmitglied erschien. Ein positives Gegenbeispiel, so Rosén, sei der Auftritt des Roboters Sophia in einer Nachrichtensendung: Hier habe Sophia gleich zu Beginn des Gesprächs mit den Moderatoren eingeräumt, dass ihre Antworten vorprogrammiert seien.

Eine solche Offenheit und Ehrlichkeit im Umgang mit Menschen könnte zumindest dazu beitragen, dass zukünftig weniger auf Roboter eingedroschen wird. Auf jeden Fall entwickelt sich hier für Ethnographen ein spannendes neues Forschungsfeld, das sie noch eine Weile beschäftigen wird. (mho)