Robophilosophie: Was Roboter tun – und was sie lieber lassen sollten

Roboter werden die Gesellschaft verändern, aber wer bereitet die Gesellschaft darauf vor? Geisteswissenschaftler und Ingenieure diskutieren, welche Aufgaben sie übernehmen sollten und wie Roboter eingesetzt werden könnten.

In Pocket speichern vorlesen Druckansicht 81 Kommentare lesen
Roboter, Softbank Robotics

(Bild: Softbank Robotics)

Lesezeit: 5 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

In der dänischen Stadt Aarhus trifft sich diese Woche die internationale Konferenz Robo-Philosophy. Unter dem Titel „What Social Robots Can and Should Do“ wollen die teilnehmenden Wissenschaftler darüber diskutieren, wie sich gewährleisten lässt, dass „empirische und normative Forschung schon im frühesten Designstadium Hand in Hand gehen“. Es sei die „weltweit größte Konferenz für geisteswissenschaftliche Forschungen zur sozialen Robotik“, sagte Ko-Organisatorin Johanna Seibt von der Aarhus University mit sichtlichem Stolz bei der Begrüßung der Teilnehmer.

Was den Informatikern ihre Algorithmen, sind den Philosophen ihre griechischen Begriffe. So verwies Seibt auf die Idee des „Kairos“, womit der richtige Zeitpunkt zum Handeln gemeint ist. Dieser Moment sei jetzt, sagte sie und verwies auf Prognosen, wonach sich das Marktvolumen für Roboter in den nächsten Jahren verzehnfachen könnte, während für die Menschen zugleich der Verlust von einem Drittel oder sogar der Hälfte aller Arbeitsplätze droht.

(Bild: Robo-Philosophy )

Problematisch sei, dass die technische und wirtschaftliche Entwicklung sehr viel schneller erfolge als die Erforschung der durch sie geschaffenen neuen Formen der sozialen Interaktion. Umso bedauerlicher sei es, dass die Förderung der Geisteswissenschaften ausgerechnet jetzt zugunsten der Ingenieurwissenschaften zurückgefahren werde, wo sie am dringendsten gebraucht werden.

Mehrere Redner betonten gleich am ersten Konferenztag die Notwendigkeit interdisziplinärer Forschungen. Kerstin Fischer (University of Southern Denmark) beschrieb, wie Roboter bei psychologischen und linguistischen Studien eine Lücke zwischen teilnehmender Beobachtung und Laborexperimenten füllen können: Während bei Beobachtungen nicht alle Parameter kontrolliert und wichtige Faktoren übersehen werden können, beschränkt die Künstlichkeit der Laborsituation die Aussagekraft der Ergebnisse.

Teo soll ein Roboter zum Knuddeln für Kinder mit Autismus-Spektrum-Störungen sein

(Bild: Polisocial Krog)

Bei Interaktionsexperimenten mit Robotern ließe sich deren Verhalten dagegen bis ins Detail kontrollieren und variieren, zugleich würden sie von vornherein als künstlich wahrgenommen und fügten sich dadurch besser in die Laborumgebung. Fischer brachte Beispiele von Studien, bei denen auf diese Weise die Bedeutung linguistischer Muster oder das Zusammenspiel von Sprache und Gestik in der Interaktion erforscht wurden.

Wiederholt kam auch der Einsatz von Robotern bei der Betreuung von Kindern und alten Menschen zur Sprache. Ob Roboter gut oder schlecht für Kinder seien, ließe sich nicht so einfach beantworten, sagte etwa Raya A. Jones von der Cardiff University. Dies sei ein Balanceakt zwischen normativen und deskriptiven Betrachtungen. Zudem unterschieden sich die bisher vorliegenden Studien hinsichtlich vieler Faktoren wie der Robotercharaktere, der Dauer der Interaktion oder des Alters der Kinder.

Roboter Nao in einem Center der "Autistes sans Frontière".

(Bild: Softbank Robotics)

So habe sich wohl gezeigt, dass Roboter bei autistischen Kindern den Erwerb sozialer Fähigkeiten während der ersten fünf Lebensjahre unterstützen könnten. Das gelte deswegen aber nicht automatisch auch für gesunde Kinder. Es fehle auch an Langzeitstudien. Bislang seien die Untersuchungen zumeist beendet worden, bevor die Roboter von den Kindern als langweilig empfunden wurden.

Ganz grundsätzlich fragte Nolen Gertz (University of Twente) unter Bezug auf das Hegelsche Konzept von der antagonistischen Natur des Menschen, inwieweit Technologie das Andere sein könne, an dem wir unser Bewusstsein ausbilden. Während bei Hegel die Auseinandersetzung mit dem Anderen bis zum Kampf um Leben und Tod ginge, sei das mit Robotern kaum denkbar: Ohne Sterblichkeit gebe es keinen Kampf auf Leben und Tod.

Müssen Roboter fühlen können oder reichen die Gefühle des Menschen für eine gute Beziehung?

(Bild: dpa, Ole Spata)

Dem widersprächen aber, so Gertz, Berichte von Soldaten, die Roboter zur Untersuchung von Sprengfallen wie Kameraden behandelt und sie sogar unter Einsatz ihres eigenen Lebens geborgen hätten. Gertz folgerte daraus, dass es letztlich nicht darauf ankäme, ob Technik tatsächlich Leidensfähigkeit und Bewusstsein entwickeln könne. Es reiche schon, dass Menschen diese Eigenschaften auf sie projizierten.

Um Leben und Tod geht es schon lange beim Einsatz bewaffneter Drohnen. Bislang sei das dem Militär vorbehalten gewesen, sagte Noel Sharkey (Sheffield University) im ersten Plenarvortrag der Konferenz. Doch im vergangenen Juli habe in Dallas erstmals auch die Polizei einen Roboter eingesetzt, um einen Verdächtigen zu töten. Zugleich gebe es Bestrebungen, bewaffnete Minidrohnen einzusetzen, wie etwa den von der Firma Desert Wolf entwickelten Oktokopter Skunk Drone.

Aber auch ohne dass Waffen im Spiel sind, gibt es genügend Anlass zur Beunruhigung. So gebe es in Großbritannien Bestrebungen, zusammen mit dem Internethändler Amazon die Warenauslieferung mit Drohnen zu testen und dafür einen Luftkorridor in 30 bis 40 Metern Höhe einzurichten. Sharkey zeigte sich entsetzt, dass es hierzu nicht einmal den Ansatz einer öffentlichen Diskussion gebe. Es sei die Aufgabe von Wissenschaftlern, eine solche Debatte voranzubringen. Dabei ginge es nicht darum, den Leuten zu sagen, was sie tun sollen, sondern die Probleme zu benennen.

Zum Thema veranstalten Telepolis und Westendverlag auch eine Diskussionsveranstaltung zur Buchmesse in Frankfurt:

(kbe)