Exakt erweitert

Anwendungen für Augmented Reality, also um virtuelle Elemente angereicherte Bilder der echten Welt, sind oft noch etwas ungenau positioniert. Mit maschinellem Sehen will ein Start-up jetzt für Besserung sorgen.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Lesezeit: 3 Min.
Von
  • Rachel Metz
Inhaltsverzeichnis

Wenn Sie schon einmal eine Augmented-Reality-(AR)-App für Smartphones wie zum Beispiel Pokémon Go ausprobiert haben, wissen Sie, dass das Spaß machen kann. Sie dürften aber auch wissen, dass die virtuellen Bilder, die Sie durch das Auge Ihres Telefon-Displays sehen, nicht immer recht zur realen Welt im Hintergrund zu passen scheinen.

Zum Teil kommt das daher, dass AR-Apps zumeist eine Kombination aus GPS und dem Kompass auf dem Telefon nutzen, um herauszufinden, wo sich der Nutzer befindet und damit auch, wo auf dem Bildschirm die zusätzlichen Elemente angezeigt werden sollten. Doch GPS ist nicht immer genau genug, zum Beispiel beim Bewegen in vollen Städten. Die Folge kann sein, dass virtuelle Objekte wackelig wirken und am falschen Ort erscheinen, statt sauber in die reale Umgebung integriert zu sein.

Mehr Infos

Das Start-up Blippar entwickelt deshalb eine andere Methode, die AR-Apps viel besser aussehen lassen soll: Es nutzt maschinelles Sehen, um Position und Blickrichtung des Nutzers in einem belebten städtischen Umfeld zu bestimmen. Das Ergebnis soll dann viel genauer sein als mit GPS.

Laut Omar Tayeb, Mitgründer und Chief Technology Officer von Blippar, lizenziert das Start-up dazu reichlich Bilddaten für größere Städte – im Grunde Google Street View, nur von einem anderen Anbieter, dessen Namen Tayeb aber nicht verrät. Die Bilder werden indexiert und dann mit dem abgeglichen, was ein Smartphone-Nutzer durch die Kamera seines Telefons sieht (zusätzlich kann das Telefon zur Positionsbestimmung GPS oder Triangulation mit Mobilfunkmasten nutzen). Bislang, so Tayeb, hat Blippar das Konzept in San Francisco, London und Mountain View in Kalifornien getestet.

Dank der Bilddaten zu den Städten, erklärt Tayeb, hat Blippar Bilder von Gebäuden aus unterschiedlichen Blickwinkeln, was dabei hilft herauszufinden, wie weit entfernt davon ein Nutzer sich befindet und aus welcher Richtung er darauf blickt. Damit lässt sich auch präziser bestimmen, wo ein virtuelles Zeichen oder anderes Bild platziert werden sollte.

Ein Gefühl dafür, wie das Ergebnis aussehen kann, vermittelt ein Video (unten), aufgenommen mit einem iPhone, auf dem ein interner Prototyp der Blippar-App installiert ist. Die Bilder in dem Video sehen etwas grob aus. Fahrradfahrer fahren durch farbige Balken, die über die Straße gelegt wurden, und die virtuelle Werbetafel schwebt merkwürdig über dem Boden.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Aber die Zusatzelemente erscheinen rasch, und ihre Platzierung scheint sinnvoll zu sein. Laut Tayeb hat die Lokalisierungsmethode von Blippar im Durchschnitt eine Genauigkeit von acht Metern und in den meisten Fällen unter drei Metern. Die Genauigkeit bei GPS im Telefon liegt auf offenem Gelände üblicherweise bei fünf Metern, wird in einem Umfeld mit vielen Gebäuden, Bäumen usw. aber schlechter.

Blippar plant, in den nächsten Monaten Apps für Android und iOS zu veröffentlichen, sagt Tayeb. Sie sollen demonstrieren, wie die Positionierungstechnik mit Inhalten wie Immobilien-Anzeigen oder Restaurant-Kritiken, die über die realen Objekte gelegt werden, funktionieren könnte. Später sollen auch andere Unternehmen die Technologie für eigene Apps lizenzieren.

(sma)