Navigieren in überfüllten Räumen: Roboter nutzen Menschen als "Sensoren"

Für Roboter ist das Bewegen in Menschenmengen eine Herausforderung. Aber er kann das Verhalten, der Menschen analysieren, um kollisionsfrei durchzukommen.

In Pocket speichern vorlesen Druckansicht

Der Roboter erkennt aus dem Ausweichverhalten der Personen vor ihm, dass sich vor ihnen ein Hindernis in Form einer anderen Person befindet.

(Bild: Ye-Ji Mun u. a. (Screenshot))

Lesezeit: 3 Min.

Ein Forschungsteam der University of Illinois und der Stanford University haben ein auf Deep Reinforcement Learning basierendes Verfahren entwickelt, mit dem sich Roboter auch zwischen mehreren Menschen bewegen können, ohne mit ihnen zusammenzustoßen. Dabei analysieren die Roboter das Verhalten der Menschen in ihrer Umgebung und bestimmen so, wo mögliche Hindernisse sein könnten, selbst wenn diese verdeckt sein sollten.

"Die wichtigste Erkenntnis ist, dass wir durch die Beobachtung interaktiver menschlicher Verhaltensweisen Rückschlüsse auf die räumliche Umgebung ziehen können, indem wir Menschen als Sensoren behandeln. Wenn wir beispielsweise beobachten, dass ein Autofahrer scharf abbremst, können wir daraus schließen, dass ein Fußgänger vor diesem Autofahrer auf die Straße gelaufen sein könnte", erläutert Masha Itkina, eine der beteiligten Forscherinnen an der in Arxiv Studie "Occlusion-Aware Crowd Navigation Using People as Sensors".

Ähnliche Ansätze habe es bereits für autonome Fahrzeuge gegeben, schreiben die Wissenschaftlerinnen und Wissenschaftler. Das Navigieren in Menschenmengen sei jedoch ungleich komplexer, weil der Straßenverkehr deutlich strukturierter abläuft, als bei Personen, die sich unstrukturiert beispielsweise auf einem Platz in einer Stadt bewegen. Deren Verhalten sei unvorhersehbarer, deshalb ist für den Roboter eine kollisionsfreie Bewegung in der Menschenmenge schwieriger.

Das Forschungsteam erstellte ein Modell, das ein Modul für Verdeckungen enthält. Dieses Modul wurde darauf trainiert, spezifische soziale Verhaltensweisen zur Vermeidung von Zusammenstößen mit anderen Personen oder Hindernissen zu extrahieren. Unter diese Verhaltensweisen fallen beispielsweise das Verlangsamen des Gangs oder ein Richtungswechsel. Diese Informationen nutzt der Roboter für eine Vorhersage, wo sich beispielsweise für ihn nicht sichtbare, also verdeckte Menschen oder Objekte befinden, sodass er mit diesen zusätzlichen Wahrnehmungsinformationen darauf reagieren und seine eigene Bewegung anpassen kann.

Das Wissenschaftsteam testete das Modell in einer simulierten Umgebung sowie in der realen Welt mit einem mobilen Roboter, dem Turtelbot 2i. Dabei zeigte sich, dass die Kollisionsvermeidung besser funktionierte und auch die Navigationsleistung des Roboters zunahm. Ganz genau können die exakten Standorte der Menschen und Hindernisse mit dieser Methode aber nicht vorhergesagt werden. Das Modul konzentriert sich in überfüllten Umgebungen zunächst auf die "kritischen Agenten" in unmittelbarer Nähe.

Die Forscherinnen und Forscher sehen in dieser Methode erhebliches Potenzial, um die Kollisionen in sehr vollen Umgebungen verringern zu können. Dabei sei es möglich, ihr Modell auch in bereits vorhandene Roboter integrieren zu können. Das Team sieht den Einsatz vor allem bei Robotern in Supermärkten und Flughäfen, grundsätzlich dort, wo sich Roboter in belebten Umgebungen fortbewegen sollen. Im nächsten Schritt wollen die Wissenschaftlerinnen und Wissenschaftler ihre Methode verfeinern und auf andere Einsatzbereiche ausdehnen, etwa auf Assistenz- und Lagerroboter.

(olb)