Wenn Google wüsste, was Google alles weiß

Die App „Google Lens“ soll eigentlich Informationen zu Fotos liefern. Wirklich unschlagbar ist sie allerdings in einer völlig anderen Disziplin.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Lesezeit: 3 Min.

Schön, dass Google immer wieder mal Sachen auf den Markt wirft, die nicht ganz ausgereift sind. So kann man nach Lücken in der glatten Oberfläche suchen, um zu beobachten, wie die dahinterliegende Maschine ächzt und knirscht. Das kann höchst unterhaltsam sein.

Ein Beispiel dafür ist „Google Lens“, ein neues Feature der Bilderverwaltungs-App „Google Photos“. Wer die Systemsprache seines Smartphones auf Englisch stellt und Fotos mit dieser App öffnet, findet am unteren Bildrand das Lens-Symbol. Klickt man es an, sollten eigentlich ergänzende Informationen zum Inhalt des Fotos erscheinen. Meist aber erscheint die Nachricht: „Hmm, not seeing this clearly yet“. Google kocht eben auch nur mit Wasser. Wie beruhigend.

Richtig lustig wird es, wenn die Künstliche Intelligenz völlig daneben liegt. Ein Foto zeigt beispielsweise eine geschwungene Steintreppe am Meer. Und was glaubt die automatische Bilderkennung darin zu sehen? Wahlweise einen Moschusochsen, ein Murmeltier, eine Bisamratte oder einen nordamerikanischen Fischotter. Bräunliche Farbe plus geschwungene Linie gleich Tierrücken, viel tiefer scheint die Verarbeitung nicht zu gehen.

Bei häufigen Motiven spuckt die App aber dann doch noch die passende Wikipedia-Beschreibung aus und bietet eine Google-Suche nach dem entsprechenden Begriff an. Doch solche Treffer sind Glücksache. Für den Ficus Benjamini im Heise-Foyer bot die App alle möglichen Beschreibungen an – von der Schwarzbirke über Pinie und Ahorn bis zur Hemlocktanne, Hauptsache irgendwas mit Ästen. Bei zwei verschiedenen Aufnahmen der gleichen Pflanze erschienen zwei völlig unterschiedliche Trefferlisten. Ein Ficus war in beiden Fällen nicht dabei.

Manchmal lässt sich bei solchen Fehlleistungen erahnen, wie fadenscheinig die Google-Dienste untereinander vernetzt sind. So kann Lens das Foto einer Klosterruine nicht zuordnen und schlägt stattdessen eine Bildersuche vor. Dabei taucht dann plötzlich doch noch der korrekte Name des Klosters auf – allerdings garniert mit dem Hinweis „Location unavailable“. Vielleicht sollte Google öfter mal googlen? Dann nämlich bekäme es nämlich auch den Ort heraus. Wenn Google wüsste, was Google alles weiß…

In einem anderen Fall ist die Lage genau umgekehrt: Hier macht der Algorithmus einen Schritt zu viel statt zu wenig. So verlinkt Google Lens das Bild eines Wildschwein-Frischlings, der mit einem Hundewelpen schmust, mit dem Song „Echte Freunde“ des deutschen Hiphop-Duos SDP. Hat die KI hier vielleicht neue Einblicke in das Wesen speziesübergreifender Freundschaft erlangt? Die Wahrheit dürfte weit prosaischer sein: Das Schmusebild stammt aus einem Kalender mit dem Titel „Echte Freunde“, was die Software offenbar auch korrekt erkannt hat. Aus irgendeinem Grund hat sie es aber nicht dabei belassen, direkt auf den Kalender zu verweisen, sondern eine weitere Suche nach „echte Freunde“ angestoßen und ist dabei auf den gleichnamigen Song gestoßen.

Das Ganze kommt mir vor, also würden die Informationsbröckchen durchs Google-Universum geschossen wie Kugeln durch einen wildgewordenen Flipper: Manchmal treffen sie zufällig auf einen Bumper, werden zurück ins Spiel geschleudert und erzielen weitere Treffer, manchmal gehen sie irgendwo verloren. Als Tool zur automatischen Verschlagwortung von Fotos ist Google Lens damit völlig unbrauchbar. Aber um Buzzwörtern wie „Deep Learning“ oder „neuronale Netze“ den Stöpsel zu ziehen, ist die App unschlagbar.

(grh)