Meta kennzeichnet echte Fotos als KI-generiert – und vice versa

Bei Facebook, Instagram und Threads sind Fotos als KI-generiert markiert worden – dabei sind sie echt. Vielen KI-Bildern fehlt der Hinweis.

In Pocket speichern vorlesen Druckansicht 10 Kommentare lesen
Futuristisch verfremdete Darstellung des Gesichts einer schönen Frau mit blauen Augen, die sich auf die Unterlippe beißt.

Garantiert nicht KI-generiert. Oder doch?

(Bild: sakkmesterke/Shutterstock.com)

Lesezeit: 3 Min.

Anfang des Jahres hatte Meta angekündigt, Fotos mit einem KI-Label zu versehen, wenn diese KI-generiert oder mittels KI bearbeitet worden sind. Anscheinend kommt es aber zu zahlreichen False Positives, also falschen Übereinstimmungen beziehungsweise Einschätzungen. Was die KI-Hinweise bekommt, entscheidet freilich ebenfalls unter anderem eine KI. Die erkennt allerdings auch tatsächlich KI-generierte Bilder nicht sonderlich gut.

KI-Update abonnieren

Werktägliches Update zu den wichtigsten KI-Entwicklungen, freitags immer mit Deep Dive.​

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.

Fotografen und Menschen, die Fotos bei Facebook, Instagram und Threads hochladen, beschweren sich, dass ihre Bilder mit "Made with AI" markiert wurden, obwohl es ganz normale Aufnahmen seien sollen. Betroffen ist unter anderem der ehemalige Fotograf des White House in Washington, Pete Souza, bei Instagram. Er hat dem Magazin TechCrunch erzählt, Instagram habe ihn quasi gezwungen, den KI-Hinweis für seine Bilder zu verwenden, obwohl sie nicht mal KI-bearbeitet waren. Souza vermutet eine Änderung bei Adobe, wenn man Bilder als JPEG speichert als Grund für die falsche Annahme. Immerhin hat Meta offenbar das fälschlicherweise hinterlegte Label entfernt – sucht man Souzas Bilder, taucht es nicht mehr auf.

Metas Absichten sind freilich nur gut. Vor allem fotorealistische Bilder sollen das KI-Label bekommen, damit Menschen nicht getäuscht werden können. Bei der Einführung schrieb Nick Clegg, Meta-Manager: "Unsere User haben uns gesagt, dass sie Transparenz rund um diese neue Technik schätzen." Den Hinweis "Made with AI" sollten zunächst alle Bilder bekommen, die bereits in den Metadaten eben jene Information tragen. Meta hat sich dazu der Coalition for Content Provenance and Authenticity (C2PA) angeschlossen und nutzt deren sowie den International Press Telecommunications Council (IPTC) Standard.

Doch es gibt nicht nur fälschliche Hinweise auf KI bei echten Fotos. Auch offensichtlich KI-generierte und fotorealistisch wirkende Bilder stehen auf den Plattformen nach wie vor ganz ohne Hinweis auf die Erzeugungsart da. Es gibt ganze Seiten und Gruppen, die nahezu ausschließlich aus KI-generierten Bildern bestehen. Beispielsweise nutzen Betrüger die Aufmerksamkeit, die durch möglichst auffällige Bilder entsteht: Krabbenjesus und Co sind klassische Scam-Versuche.

Daneben gibt es aber auch Seiten, die schlicht auf Interaktionen und Werbeeinnahmen aus sind. Beispielsweise gibt es zahlreiche Gruppen und Fotos von Tiny Houses. Nur, dass man bei genauerem Hinschauen ein Spiel mit Freunden spielen kann: Wer findet mehr Fehler. Seltsame Treppen, unterschiedlich große Fliesen im Fliesenspiegel, Geschirrspüler unterm beziehungsweise im Waschbecken, Fenster, von denen man nicht weiß, ob sie Fenster oder Lampe sein wollen. Fotorealistisch, aber ohne KI-Hinweis.

Vermeintlich echtes Foto eines Tiny Houses.

(Bild: mst)

(emw)