Humanoider GR-1-Roboter nimmt Umwelt nur über Kameras wahr

Weniger Sensoren bedeutet auch billiger – und besser, behauptet Fourier Intelligence. Das Unternehmen setzt bei dem humanoiden GR-1-Roboter nur auf Kameras.

In Pocket speichern vorlesen Druckansicht 10 Kommentare lesen
Der humanoide GR-1-Roboter von Fourier Intelligence als Rendering.​

(Bild: Fourier Intelligence (Screenshot))

Lesezeit: 3 Min.

Das Robotik-Unternehmen Fourier Intelligence hat seinen humanoiden Roboter GR-1 überarbeitet und dessen Wahrnehmungssystem vereinfacht. Der Roboter kommt nun ohne ein großes Sensorpaket aus, um seine Umwelt erfassen zu können. Fourier setzt stattdessen auf ein Kamera-Array, um einen 360-Grad-Rundumblick zu ermöglichen – und auf ein neuronales Netzwerk zur Auswertung und Übersetzung der Kamerabilder in verwertbare Umgebungsdaten.

"Pure Vision" nennt Fourier das neue Wahrnehmungssystem, das den humanoiden GR-1-Roboter dazu befähigt, seine Umwelt ähnlich wahrzunehmen wie ein Mensch. Auf Radar- und Lidar-Sensoren hat das Robotik-Unternehmen bewusst verzichtet, um die gesamte Technik nicht unnötig kompliziert zu machen und die Kosten senken zu können.

Pure Vision im überarbeiteten GR-1 setzt auf sechs RGB-Kameras auf, die einen 360-Grad-Rundumblick ermöglichen. Der Roboter erfasst seine Umgebung so aus allen Blickwinkeln. Das Kamera-Array sitzt im Kopf des humanoiden Roboters und ermöglicht aus dieser erhöhten Position die Erstellung einer Karte aus einer "niedrigen" Vogelperspektive. Die Umgebung kann der Roboter so als Ganzes wahrnehmen, damit besser etwa Objekte verfolgen und analysieren, um so fundierte Entscheidungen treffen zu können.

Mithilfe eines neuronalen Netzwerks wandelt das Pure-Vision-System die komplexe Umgebung der 360-Grad-Ansicht durch Transformatormodelle in dreidimensionale räumliche Merkmale um. Die ermöglichen es dem GR-1, den Aufbau seiner Umwelt zu verstehen und etwa von Objekten belegte Bereiche zu erkennen. Dazu werden die Daten durch ein Belegungsnetzwerk in ein dreidimensionales Belegungsraster übersetzt. Der GR-1 kann so erkennen, welche Bereiche etwa begehbar und welche unpassierbar sind und damit sicher autonom in seiner Umgebung navigieren.

Der GR-1 ermittelt mit einem neuronalen Netzwerk aus visuellen Informationen, welche Bereiche er etwa begehen kann.

(Bild: Fourier Intelligence)

Das System habe laut Fourier umfangreiche Tests bestanden. Die Erkennung von bewegten Fahrzeugen und Fußgängern gelinge sehr genau. Zudem arbeite das System sehr effizient, sodass eine Umgebungskartierung sowie die Verfolgung von Objekten in Echtzeit möglich sei. Ähnlich wie beim Elektrofahrzeughersteller Tesla, der bei seinem Autopilot-System seit 2021 ausschließlich auf Kameras und Bildverarbeitungssysteme setzt, kann Fourier damit die Herstellungskosten erheblich senken. Zugleich, heißt es von Fourier, soll sich die Umgebungswahrnehmung des GR-1 verbessert haben. So lasse sich ein sicherer und effizienter Betrieb "mit menschenähnlicher Präzision" erreichen.

Das aktuelle Modell des GR-1 hat weitere Überarbeitungen erfahren. Der offene, skelettartige Körper ist nun einem geschlossenen Körper gewichen. Der humanoide Roboter soll mit seinen 54 Freiheitsgraden im gesamten Körper in der Lage sein, menschenähnlich zu gehen und sicher über verschiedene Oberflächen zu laufen. Dabei helfen adaptive Gleichgewichtsalgorithmen.

Der vormals leere Kopf enthält nun neben dem Pure-Vision-System Lautsprecher und Mikrofone sowie ein Display als Gesicht.

(olb)