Konferenz RO-MAN: Roboter mit Herz, Verstand und Seele

Um die Interaktion zwischen Menschen und Roboter zu verbessern, müssen Roboter sozial interagieren können.

In Pocket speichern vorlesen Druckansicht 13 Kommentare lesen
Konferenz RO-MAN: Roboter mit Herz, Verstand und Seele

(Bild: Shutterstock/Miriam Doerr, Martin Frommherz)

Lesezeit: 6 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

Zum 29. Mal trifft sich in dieser Woche die International Conference on Robot and Human Interactive Communication (RO-MAN) – und zum ersten Mal virtuell. Ursprünglich war Neapel als Treffpunkt vorgesehen, doch die Coronavirus-Pandemie warf diese Planungen über den Haufen. Nun soll also mithilfe der Plattform underline.io im Internet über das diesjährige Konferenzthema "Robots with Heart, Mind, and Soul" diskutiert werden.

Roboter mit Herz, Verstand und Seele – damit beziehen sich die Organisatoren der Tagung insbesondere auf deren soziale und emotionale Fähigkeiten. "Es geht nicht allein darum, eine Interaktion korrekt durchzuführen, sondern auf eine Art und Weise, die für Menschen glaubhaft und akzeptabel ist", schreiben sie in ihrem Willkommensgruß an die Konferenzteilnehmer.

Um dieses Ziel zu erreichen, braucht es interdisziplinäre Forschungen. Psychologie, Neurowissenschaft und Kognitionsforschung seien ebenso erforderlich wie Informatik und Ingenieurswissenschaft, betonte Laura Fiorini (Scuola Superiore Sant’Anna, Pisa) in ihrer Einleitung zum Workshop Adaptive behavioral models of robotic systems based on brain-inspired AI cognitive architectures (APHRODITE), der sich am Montag bereits vor der offiziellen Eröffnung der Konferenz versammelte.

Dort erläuterte die Psychologin Agnieszka Wykowska (Italian Institute of Technology), wie Methoden der Neurowissenschaft und experimentellen Psychologie die Mensch-Roboter-Interaktion befruchten können. Sie berichtete von Experimenten, bei denen untersucht wurde, inwieweit die gemeinsame Aufmerksamkeit von Mensch und Roboter durch regelmäßigen Blickkontakt und die Art der Augenbewegungen des Roboters beeinflusst wird.

Dabei ist bemerkenswert, dass die neurophysiologischen Messungen und die subjektiven Einschätzungen der Versuchsteilnehmer gelegentlich voneinander abwichen: So wurden etwa die langsamsten Augenbewegungen als die menschenähnlichsten wahrgenommen, während die Messungen zeigten, dass tatsächlich die mittlere Geschwindigkeit die Aufmerksamkeit der Probanden am stärksten auf sich zog. Wykowska betonte, dass die Befruchtung der verschiedenen Forschungsdisziplinen durchaus wechselseitig erfolge: So profitieren auch die Neurowissenschaft von der Robotik, weil diese helfe, die Experimentbedingungen besser zu kontrollieren.

Mit der Frage, wie Mensch und Roboter gemeinsame Intentionen erkennen und verfolgen können, beschäftigte sich Hiroaki Wagatsuma (Kyushu Institute of Technology). Der Experte für nicht-lineare Dynamik bezog sich aufs menschliche Langzeitgedächtnis, das in explizites und implizites Gedächtnis unterschieden werde. Beide seien an verschiedene Hirnregionen geknüpft.

Das explizite, episodische Gedächtnis werde bewusst genutzt und sei an den Hippocampus geknüpft. Das implizite Gedächtnis dagegen arbeite unbewusst und erfordere wiederholtes Training und viel Information. Dies lasse sich im Roboter mithilfe von Deep Learning nachbilden. Für die Lösung von Problemen wie Puzzles oder inkorrekt gestellte Probleme (ill-posed problems) sei aber beim Menschen eine erhebliche Beteiligung des Hippocampus erforderlich und beim Roboter eine wissensbasierte Künstliche Intelligenz (KI).

Als Beispiele für solche Probleme zeigte Wagatsuma Szenen aus dem Straßenverkehr, bei denen aus den Bewegungen einzelner Verkehrsteilnehmer deren Intentionen nur unter Zuhilfenahme von Wissen und Wahrscheinlichkeitseinschätzungen zu erahnen waren. Um die Fähigkeiten einer KI zur Einschätzung solcher Situationen testen und quantifizieren zu können, schlägt er Bongard-Probleme als Vergleichsmaßstab vor.

Bei diesen nach dem russischen Informatiker Mikhail Bongard benannten Aufgaben geht es darum, bei zwei Gruppen einfacher geometrischer Diagramme den gemeinsamen Faktor der einen Gruppe zu erkennen und zu benennen, der bei der anderen Gruppe fehlt. "Die Fähigkeit zur Lösung von Bongard-Problemen liegt sehr nah am Kern 'reiner' Intelligenz – wenn es so etwas überhaupt gibt", schrieb Douglas Hofstadter 1979 in seinem berühmten Buch "Gödel, Escher, Bach". Seitdem scheint dieser Ansatz wieder etwas in den Hintergrund getreten zu sein.

Stattdessen wird mehr über soziale und emotionale Intelligenz diskutiert. So stellte Chiara Filippini (University of Chieti-Pescara) im Workshop den Ansatz vor, die Emotionen von Kindern in Roboterexperimenten mithilfe von Thermokameras besser beobachten und einschätzen zu können. Antonio Guerrieri (Fondazione Neurone) sprach über Emotionserkennung anhand gesprochener Sprache, wobei der Roboter insbesondere das Geschlecht der sprechenden Person erkennen und berücksichtigen soll.

Als soziale Intelligenz lässt sich auch die Fähigkeit bezeichnen, die bei dem Experiment gefragt war, von dem Alessandra Sorrentino (Scuola Superiore Sant‘Anna) berichtete. Hier ging es darum, die Gebrechlichkeit alter Menschen anhand von Körperhaltung, Lauftempo und Griffstärke einzuschätzen. Zehn Versuchspersonen im Durchschnittsalter von knapp 63 Jahren liefen mit dem Roboter ASTRO wie mit einem Rollator zehn Meter weit. Dabei beobachtete der Roboter den Oberkörper mit einer Kamera und das Laufverhalten mit Laserscanner und IMU (Internal Measurement Unit). Um die Kraft des Handgriffs zu messen, musste die Versuchsperson zur Kalibrierung vorher ein Dynamometer fünf Sekunden lang mit größtmöglicher Kraft drücken. 26 Parameter seien auf diese Weise erfasst worden, erklärte Sorrentino. Ziel sei es, dass der Roboter aufgrund solcher Messungen seine eigenen Bewegungen an die jeweilige Person anpasse.

Derzeit werden Roboter, die alte Menschen im Alltag unterstützen sollen, aber noch als zu groß und zu langsam empfunden. Das ist ein Ergebnis des Experiments das im Rahmen des EU-Projekt MoveCare durchgeführt wurde: Ein "intelligenter virtueller Pfleger" steuerte dabei eine intelligente Umgebung mit Serviceroboter, smarten Objekten, einem Aktivitätscenter und einer "virtual community". N. Alberto Borghese (University of Milano) nannte als weitere bemerkenswerte Ergebnisse, dass die Versuchsteilnehmer sich ohne Roboter mehr in Kontrolle des Systems fühlten. Generell seien jüngere Teilnehmer mit dem System besser zurechtgekommen – was für ein System zur Altenbetreuung nicht gerade eine Empfehlung darstellt.

Das unterstreicht die große Bedeutung partizipatorischen Designs, womit die frühzeitige Einbindung der zukünftigen Nutzer in die Technologieentwicklung gemeint ist. Dabei hätten sich ältere Erwachsene zur Überraschung der Wissenschaftler als "lebende Datenbanken technologischer Umbrüche" entpuppt, sagte Roger A. Søraa (Norwegian University of Science and Technology). Es wäre auch eine gewisse Technologiemüdigkeit zu beobachten gewesen. Als eine mögliche zukünftige Rolle von Robotern in der Altenbetreuung werde daher häufig die eines Vermittlers zwischen den Senioren und ihren informellen Pflegern aus dem Kreis der Angehörigen genannt. (olb)