Retusche für Google Street View

Eine neue Software will automatisch Passanten aus den umstrittenen Straßenansichten von Google entfernen. Das kann zuweilen lustige Nebenwirkungen haben.

In Pocket speichern vorlesen Druckansicht 5 Kommentare lesen
Lesezeit: 4 Min.
Von
  • Duncan Graham-Rowe

Straßenszene vor und nach dem Herausrechnen eines Fußgängers.

(Bild: UCSD)

Um die entstehenden Lücken zu füllen, werden Informationen über den Hintergrund aus Bildern ausgewertet, die von der Szene aus anderen Winkeln aufgenommen wurden.

(Bild: UCSD)

Eine neue Software will automatisch Passanten aus den umstrittenen Straßenansichten von Google entfernen. Das kann zuweilen lustige Nebenwirkungen haben.

An Google Street View scheiden sich die Geister. Während der Datenkonzern den Dienst als höchst sinnvolle Ergänzung zu Google Maps und Google Earth noch in diesem Jahr starten will, befürchten Datenschützer und Bürger einen weiteren Einbruch in die Privatsphäre. Bereits 2008 hatte Google begonnen, die Gesichter von Passanten, die seine Kamerawagen bei ihren Fahrten mit aufgenommen hatte, unkenntlich zu machen. Forscher der Universität von Kalifornien in San Diego (UCSD) wollen die nachträgliche Bereinigung der Straßenansichten nun mit Hilfe von Software automatisieren.

Dieser Ansatz schütze die Privatsphäre der Passanten und liefere zugleich ein besseres Bild, sagt Arturo Flores, Informatikstudent in der Künstliche-Intelligenz-Gruppe der UCSD. „Selbst wenn Sie die Gesichtskonturen verwischen, können Sie die Person immer noch identifizieren“, kritisiert Flores. Das sei anhand der Kleidung, der Statur und Körpergröße sowie des Ortes nicht allzu schwer. Zusammen mit seinem Betreuer Serge Belongie hat Flores die Software kürzlich auf dem IEEE International Workshop on Mobile Vision in Chicago vorgestellt.

Die Street-View-Aufnahmewagen von Google sind jeweils mit neun Kameras ausgerüstet, die während der Fahrt eine Straßenszenerie festhalten. Später werden die Einzelbilder dann zu nahtlosen Straßenpanoramen zusammengesetzt. In denen tummeln sich womöglich Tausende von Passanten, die das Unternehmen wieder unkenntlich machen muss.

Die Software von Flores und Belongie identifiziert Personen mit Hilfe eines Standard-Algorithmus aus der Bilderkennung, dem so genannten Implicit Shape Model (ISM). Dieses wurde 2005 an der ETH Zürich entwickelt. „Die Idee dahinter ist, zunächst einmal den groben Umriss von Fußgängern zu ermitteln“, erläutert Bastian Leibe, einer der ISM-Entwickler, der jetzt an der RWTH Aachen forscht. Weil die Kontur eines Menschen enorm variieren kann, arbeitet der Algorithmus statistisch: Er muss zunächst mit Hunderten von Fußgänger-Bildern trainiert werden.

Hat die Software einen Passanten erkannt und aus dem Bild entfernt, muss sie das zurückbleibende Loch füllen. Dazu wertet sie Aufnahmen aus, die das Google-Fahrzeug kurz vor und kurz hinter der entsprechenden Einzelszene gemacht hat. Sie unterscheiden sich zwar leicht im Kamerawinkel. Der Algorithmus kann diesen Unterschied aber herausrechnen und so das Loch auffüllen.

Manche Bilder seien für das Programm aber noch zu kompliziert, räumt Flores ein. So produziert es immer wieder seltsame Artefakte beim Auffüllen der Leerstellen, die aus den vor- und nachgelagerten Referenzbildern stammen. Da könne es durchaus passieren, dass plötzlich ein Hund auftaucht, dessen Leine ins Nichts führt, weil der Halter aus dem Referenzbild abgeschnitten ist.

Schwierigkeiten bereitet der Software auch der Fall, dass ein Fußgänger sich in dieselbe Richtung wie der Kamerawagen von Google bewegt. „Es ist dann nicht möglich, eine ungehinderte Sicht auf den Hintergrund zu bekommen“, sagt Flores.

Insgesamt seien die technischen Verfahren, die Flores nutzt, schon lange bekannt, sagt Andrew Blake, Spezialist in Computerbild-Technologien und stellvertretender Direktor von Microsoft Research Cambridge in Großbritannien. Einige Durchbrüche der letzten Jahre hätten es aber einfacher gemacht, Teilbilder zu nahtlosen Ansichten zusammenzufügen. „Mit den derzeit besten Panorama-Verfahren kann ein Fotograf auch aus einem beliebigen Bilderhaufen einer Szene ein hervorragendes Panorama anfertigen“, sagt Blake.

Flores’ Software könnte nicht nur für Google interessant sein. Bastian Leibe kann sie sich auch in Autonavigationssystemen vorstellen. Anstatt wie jetzt auf computergenerierte abstrakte Straßenansichten zu schauen, könnte ein Autofahrer dann echte Straßenansichten präsentiert bekommen. Flores und Belongie wollen sich nun darauf konzentrieren, ihre Software auch für Szenen auszubauen, in den sich sehr viele Passanten oder einzelne Personen zu nahe an der Hausfassade befinden.

Das Paper:
Arturo Flores & Serge Belongie, „Removing pedestrians from Google Street View images“, IEEE International Workshop on Mobile Vision. (nbo)