KI-Update Deep-Dive: Kunst oder KI?

Generative KI stellt die Bilderwelt auf den Kopf. Um echte Fotos von generierten zu unterscheiden, muss man lernen, genau hinzuschauen.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 3 Min.

Im September 2022 löste ein Wettbewerb in Colorado einen Aufschrei in der Kunstszene aus, weil das Gewinner-Bild mit dem KI-Bildgenerator Midjourney erstellt wurde. Nur ein paar Monate später sind Bildgeneratoren und ihre Nutzung Alltag für viele von uns. Auch wir bei heise online greifen hin und wieder für die Bebilderung unserer Artikel auf die Tools zurück. In unserem Deep-Dive zum Wochenende spreche ich mit c't-Redakteur André Kramer sowohl über KI-Tools, die Fotografen und Grafikerinnen in der Bildbearbeitung einsetzen, als auch über die rasend schnelle Entwicklung im Bereich der generativen KI.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Innerhalb weniger Monate hat sich die Qualität von Dall-E, Midjourney, Stable Diffusion und Co so verbessert, dass es sich für André Kramer gar nicht mehr lohnt, große Vergleichstests durchzuführen. "Die sind innerhalb weniger Wochen komplett überholt", sagt er in unserem Gespräch. Während vor wenigen Monaten diese Tools noch völlig entstellte Bilder ausspuckten, in denen die Gesichter der Menschen verzerrten Fratzen glichen, und die KI mit der Anzahl von Fingern und Beinen häufig daneben lag, muss man heute schon sehr viel genauer hinschauen, um generierte Bilder zu erkennen.

"Wenn uns irgendetwas an einem Bild komisch vorkommt, müssen wir uns auf die Suche machen und auf Details achten", erklärt André Kramer. Wenn wir uns das Beispiel vom Papst im Luxus-Daunenmantel in Erinnerung rufen, dann sollte uns der Kontext stutzig machen: Würde der Papst solche Mäntel überhaupt tragen? Wohl eher nicht. Uns rät der c't-Experte einen Blick auf die Hände: "Wie hält er seine Hände, hat er Ringe am Finger, sind das vollständige Ringe oder verlieren die sich in Unschärfe, verwächst das Brillengestell vielleicht mit der Augenbraue." Solch filigrane Details verraten eine KI hinter dem Bild.

Ein Ansatz gegen Falschinformationen vorzugehen, ist die Content Authenticity Initiative, die Adobe gemeinsam mit Microsoft, Truepic, Arm, Intel und der BBC ins Leben gerufen hat. "Diese versieht jedes Bild, das mit KI erstellt wurde, mit Metadaten, in denen steht 'generated with Firefly'", erklärt André Kramer. Dieser Initiative haben sich inzwischen auch Kamerahersteller wie Nikon oder Canon, Bildagenturen und Publikationen wie das Wall Street Journal angeschlossen. "Über so eine Datenbank kann man dann einen Weg finden, um Bildern einen glaubwürdigen Echtheitsstempel aufzudrücken. Und in diese Datenbank kann man auch Bilder hochladen, um deren Echtheit zu verifizieren oder herauszufinden, mit welchem Tool sie erstellt wurden."

Dies sind erste Schritte, die uns aber nicht die Arbeit abnehmen werden, kritischer als ohnehin schon mit Bildern umzugehen, die uns durch unsere Timelines in Social-Media-Kanälen gespült werden. (igr)