Gegen den "Uncanny Valley"-Effekt: KI-Vision-System macht Roboter lebensechter

Humanoide Roboter, die wie ein Mensch aussehen, haben etwas Gruseliges an sich. Um das zu minimieren, baut Realbotix ein KI-Vision-System in seine Roboter.

vorlesen Druckansicht 10 Kommentare lesen
Gleich aussehender Mensch und Roboter nebeneinander

Ein Roboter von Realbotix sieht dem menschlichen Original schon sehr ähnlich.

(Bild: Realbotix (Screenshot))

Lesezeit: 2 Min.
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Realbotix, Entwickler hyperrealistischer humanoider Roboter, hat ein visuelles Erkennungssystem auf Basis Künstlicher Intelligenz (KI) für humanoide Roboter gebaut, das Gesichter und Objekte erkennen und Gesichter verfolgen kann sowie eine Echtzeit-Szeneerkennung ermöglicht. Das soll es Robotern ermöglichen, auf ihre Umgebung genauer zu reagieren, besser sozial mit Menschen zu interagieren und als menschenähnlicher wahrgenommen zu werden.

Das Robotic AI Vision System von Realbotix kann die Anwesenheit von Menschen erkennen. Über eine Gesichtserkennung nimmt das System die mutmaßliche Gefühlslage ihres Gegenübers wahr und passt die eigenen Reaktionen darauf auf natürliche Weise an. Dadurch wollen die Entwickler den "Uncanny Valley"-Effekt mindern, den künstliche Menschen bei echten Menschen auslösen können. Der Effekt, der aufgrund eines Gruselfaktors die Akzeptanz menschlich aussehender Roboter beeinträchtigt, wurde 1970 von dem japanischen Robotiker Masahiro Mori beschrieben.

Je natürlicher und menschenähnlicher ein Roboter auf einen Menschen wirkt, desto eher soll der Roboter als soziales Wesen wahrgenommen und akzeptiert werden können. Das öffnet die Türen für Einsatzmöglichkeiten eines Roboters jenseits der industriellen Nutzung und somit etwa für Anwendungen im Gesundheitswesen, Kundenservice oder als sozialer Begleitroboter – also überall dort, wo der Schwerpunkt des Umgangs mit dem Roboter auf dem Menschen liegt.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Das von Realbotix entwickelte visuelle Erkennungssystem kann jedoch nicht nur menschliche Mimik erkennen und interpretieren. Es kann auch Objekte und Szenen in Echtzeit erfassen, also ganze Situationen verstehen. Das System aktualisiert dazu mithilfe Cloud-basierter multimodaler KI sein Verständnis über Abläufe, kann Objekte, Personen und Verhaltensweisen bestimmen und so adaptiv kontextbezogene Antworten generieren. Das System soll es dem Roboter zusätzlich ermöglichen, sich an bereits zurückliegende Interaktionen mit Personen zu erinnern.

Eine natürlichsprachliche Unterhaltung mit einem humanoiden Roboter erreicht das System über die Echtzeit-Vision-Verarbeitung in Kombination mit großen KI-Sprachmodellen (Large Language Model – LMM). Das soll den Roboter in die Lage versetzen, intelligentere, kontextuell nuanciertere Gespräche zu führen.

Videos by heise

Ein weiterer Baustein des Robotic AI Vision Systems ist eine realistische Augapfelsteuerung, die natürliche Augen passend zur Sprache und Szene bewegt. Das Realbotix Robotic AI Vision System sei bereits in neuen Realbotix-Robotern erhältlich. Bestehende Modelle können mit dem System nachgerüstet werden. Erste Roboter mit dem KI-Vision-System sollen 2025 ausgeliefert werden.

(olb)