VR, AR und Mixed Reality vereinfachen Interaktion zwischen Mensch und Maschine

Wenn Mensch und Maschine aufeinandertreffen, kann das zu Problemen führen. VR, AR und Mixed Reality können dabei helfen, dass sich beide besser "verstehen" und besser miteinander umgehen können.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen
VR, AR und Mixed Reality vereinfachen Interaktion zwischen Mensch und Maschine

Roboterkopf der Firma Furhat Robotics als Beispiel für "rendered faces".

(Bild: Hans-Arthur Marsiske)

Lesezeit: 5 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

Hooman Hedayati, Doktorand an der University of Colorado, zeigte zu Beginn seines Vortrags bei der Konferenz HRI 2018 (Human-Robot Interaction) ein Video mit einem Problem, dass viele Drohnenpiloten kennen: Die Drohne selbst und das Bild der Bordkamera gleichzeitig im Auge zu behalten, kann zu Abstürzen führen. Als Hedayati das Video ein zweites Mal vorführte, forderte er die Zuschauer auf, den Drohnenpiloten zu beobachten: Der hob und senkte mehrmals den Kopf, schaute mal aufs Display, dann wieder auf die Drohne – bis sie außer Kontrolle geriet, sich in einem Baum verfing und zu Boden fiel.

Hedayati zeigte noch weitere Videobeispiele für die Problematik des ständigen Blickwechsels zwischen Monitor und physischer Wirklichkeit: Fußgänger, die stolperten, weil sie ständig auf ihr Mobiltelefon schauten, ein Autofahrer, der während der Fahrt Textnachrichten schrieb und im Straßengraben landete. Während bei diesen Alltagssituationen die naheliegende Empfehlung lautet, das Telefon einfach in der Tasche zu lassen, bieten sich für die Steuerung von Drohnen andere Lösungen an.

Hedayati und seine Kollegen führten Experimente durch, bei denen das Bild der Drohnenkamera und der Blick auf die Drohne selbst mithilfe von Augmented Reality (AR) auf einem Display überlagert wurden. Die Aufgabe für die Testpersonen bestand darin, mit der Drohne in möglichst kurzer Zeit Fotos von farbigen Flächen an einer Wand aufzunehmen, sodass die Ränder des Fotos möglichst exakt an den Rändern der Flächen verliefen.

Dabei kamen verschiedene AR-Verfahren zum Einsatz: Im Modus "Frustum" wurde das Bild der Bordkamera direkt über der Drohne projiziert. "Callout" nennen die Forscher dieses Verfahren. Im Modus "Peripherals" befindet sich dieses Fenster dagegen an einer festen Stelle, unabhängig von der Position der Drohne. Bei Schnelligkeit und Präzision der Steuerung ergaben sich bei beiden Verfahren zwar Unterschiede, die AR-Lösungen waren jedoch der traditionellen Steuerungsmethode immer deutlich überlegen, weil keine Blickwechsel mehr erforderlich waren.

Der Einsatz von Virtual, Augmented und Mixed Reality in der Robotik ist ein Forschungsfeld, das sich gerade rasant entwickelt. So gab es am Tag vor Beginn der Konferenz erstmals auch einen eigenen Workshop zu dem Thema, bei dem unter anderem Verfahren diskutiert wurden, die es ermöglichen sollen, Intentionen von Robotern für Menschen transparenter zu machen. Das kann geschehen, indem auf dem Display des Benutzers Pfeile oder Linien die beabsichtigte Bewegungsrichtung eines Roboters anzeigen, wie Nikolaos Katzakis erklärte. Eine weitere Möglichkeit, die der Wissenschaftler an der Universität Hamburg erforscht, bestehe darin, einem nicht-humanoiden Roboter mit einem menschlichen Avatar zu überlagern, weil die Bewegungen von Menschen leichter einzuschätzen seien.

Sebastian Meyer zu Borgsen, der an der Universität Bielefeld forscht, schlug vor, die Interaktion zwischen Mensch und Roboter zu erleichtern, indem Robotern durch eine Hololens ein virtueller Flobi-Kopf aufgesetzt wird.

Beliebtestes Robotergesicht: Yumi

(Bild: Omate)

Um den mechanischen Aufwand zu vermeiden, dem Roboter mimische Ausdrucksfähigkeit zu verleihen, werden Gesichter häufig auf Monitoren dargestellt oder von innen auf eine transparente, dem menschlichen Kopf nachgebildete Fläche projiziert. Im Vergleich zu rein mechanischen Gesichtern biete dieser Ansatz eine größere Flexibilität, sagte Alisa Kalegina, die mit ihrem Forschungsteam an der University of Washington eine systematische Übersicht über die bislang entwickelten Robotergesichter erstellt hat.

Unbeliebtestes Robotergesicht: Jibo

(Bild: Jibo)

Dabei fanden die Wissenschaftler heraus, dass von den 157 erfassten "rendered faces", nur wenige Wangen, Ohren und Haare besaßen. Im Gegensatz dazu war die Gestaltung der Augen sehr vielfältig: mit oder ohne Brauen, Pupillen oder Lidern, schwarz-weiß oder farbig. Aus einer Nutzerstudie zur Wahrnehmung der Gesichter ging der Roboter Yumi als beliebtester hervor, während der einäugige Jibo auf dem letzten Platz landete. Die Forschungen von Kalegina und ihrem Team sollen zukünftig zu einem "custom face editor" führen, der die Gestaltung von animierten Robotergesichtern vereinfachen könnte.

Einen weiteren Mix der Realitäten präsentierte Kwangmin Jeong von der südkoreanischen Yonsei University mit Fribo, dem "social networking robot". Der Roboter, dessen Name eine verkürzte Form von "friend robot" sei, ist in erster Linie für junge Leute im Alter von 18 bis 34 Jahren gedacht, die zunehmend in Ein-Personen-Haushalten lebten, sagte Jeong. Der unbewegliche Roboter könne die im Haushalt auftretenden Geräusche wahrnehmen, interpretieren und Freunden, die über den gleichen Roboter verfügten, mitteilen, ob der Bewohner gerade ein Essen zubereite, fernsehe oder womit er sonst gerade beschäftigt sei. Auf diese Weise könne ein virtueller Lebensraum geschaffen und ein Gefühl von Gemeinsamkeit erzeugt werden. Die Nutzer des Roboters könnten ihren Alltag teilen, als würden sie tatsächlich zusammen wohnen.

In einer vierwöchigen Nutzerstudie hätten sich die Teilnehmer überwiegend positiv geäußert, so Jeong. Der Roboter hätte zur Kommunikation angeregt und das Gefühl von Einsamkeit vermindert. Jeong räumte ein, dass die Aussagekraft der Studie begrenzt sei: Vier Wochen mit zwölf Teilnehmern, zudem begrenzt auf die koreanische Kultur, erlaubten noch keine belastbaren Aussagen, ermutigten aber, in dieser Richtung weiter zu forschen. (olb)