Meta kennzeichnet echte Fotos als KI-generiert – und vice versa
Bei Facebook, Instagram und Threads sind Fotos als KI-generiert markiert worden – dabei sind sie echt. Vielen KI-Bildern fehlt der Hinweis.
Anfang des Jahres hatte Meta angekündigt, Fotos mit einem KI-Label zu versehen, wenn diese KI-generiert oder mittels KI bearbeitet worden sind. Anscheinend kommt es aber zu zahlreichen False Positives, also falschen Übereinstimmungen beziehungsweise Einschätzungen. Was die KI-Hinweise bekommt, entscheidet freilich ebenfalls unter anderem eine KI. Die erkennt allerdings auch tatsächlich KI-generierte Bilder nicht sonderlich gut.
KI-Update abonnieren
Werktägliches Update zu den wichtigsten KI-Entwicklungen, freitags immer mit Deep Dive.​
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
Fotografen und Menschen, die Fotos bei Facebook, Instagram und Threads hochladen, beschweren sich, dass ihre Bilder mit "Made with AI" markiert wurden, obwohl es ganz normale Aufnahmen seien sollen. Betroffen ist unter anderem der ehemalige Fotograf des White House in Washington, Pete Souza, bei Instagram. Er hat dem Magazin TechCrunch erzählt, Instagram habe ihn quasi gezwungen, den KI-Hinweis für seine Bilder zu verwenden, obwohl sie nicht mal KI-bearbeitet waren. Souza vermutet eine Änderung bei Adobe, wenn man Bilder als JPEG speichert als Grund für die falsche Annahme. Immerhin hat Meta offenbar das fälschlicherweise hinterlegte Label entfernt – sucht man Souzas Bilder, taucht es nicht mehr auf.
Meta und der Krabbenjesus
Metas Absichten sind freilich nur gut. Vor allem fotorealistische Bilder sollen das KI-Label bekommen, damit Menschen nicht getäuscht werden können. Bei der Einführung schrieb Nick Clegg, Meta-Manager: "Unsere User haben uns gesagt, dass sie Transparenz rund um diese neue Technik schätzen." Den Hinweis "Made with AI" sollten zunächst alle Bilder bekommen, die bereits in den Metadaten eben jene Information tragen. Meta hat sich dazu der Coalition for Content Provenance and Authenticity (C2PA) angeschlossen und nutzt deren sowie den International Press Telecommunications Council (IPTC) Standard.
Lesen Sie auch
KI-Update Deep-Dive: KI in der Heise Gruppe
Microsoft 365 fĂĽr Privatkunden: Preisschock und BeglĂĽckung mit Copilot
Apple Intelligence halluziniert: iOS 18.3 mit Behebungsversuchen
400 Millionen Menschen an einem Ort: Indien setzt auf KI zur Vermisstensuche
Viele Regeln, wenig Nutzen: Deutsche Betriebe bei KI-Investitionen zurĂĽckhaltend
Doch es gibt nicht nur fälschliche Hinweise auf KI bei echten Fotos. Auch offensichtlich KI-generierte und fotorealistisch wirkende Bilder stehen auf den Plattformen nach wie vor ganz ohne Hinweis auf die Erzeugungsart da. Es gibt ganze Seiten und Gruppen, die nahezu ausschließlich aus KI-generierten Bildern bestehen. Beispielsweise nutzen Betrüger die Aufmerksamkeit, die durch möglichst auffällige Bilder entsteht: Krabbenjesus und Co sind klassische Scam-Versuche.
Daneben gibt es aber auch Seiten, die schlicht auf Interaktionen und Werbeeinnahmen aus sind. Beispielsweise gibt es zahlreiche Gruppen und Fotos von Tiny Houses. Nur, dass man bei genauerem Hinschauen ein Spiel mit Freunden spielen kann: Wer findet mehr Fehler. Seltsame Treppen, unterschiedlich groĂźe Fliesen im Fliesenspiegel, GeschirrspĂĽler unterm beziehungsweise im Waschbecken, Fenster, von denen man nicht weiĂź, ob sie Fenster oder Lampe sein wollen. Fotorealistisch, aber ohne KI-Hinweis.
(emw)