c't 20/2023
S. 112
Wissen
Fake News mit Bild-KI
Bild: KI generiert von Santa Al, Eliot Higgins | Bearbeitung: c‘t

Wenn Bilder lügen

Gefahren generativer Bild-KI: Fake News erkennen

Bildretusche gibt es mindestens seit Erfindung der Fotografie, aber Bildgeneratoren wie Midjourney haben die Bildfälscherei demokratisiert: Jeder kann sie einsetzen. Generative KI lernt stetig dazu, und so dürfte es künftig schwer werden, dokumentarische Fotos von digitalen Träumereien zu unterscheiden. Noch entlarven KI-Bilder sich aber meist selbst.

Von André Kramer

Bildgeneratoren wie Midjourney, Dall-E 2, Stable Diffusion und Firefly haben in kürzester Zeit gelernt, täuschend echte Bilder zu erzeugen. Diese finden sich zum Beispiel auf Instagram-Profilen oder in Reddit-Foren wieder. Weltweit wird fleißig probiert, was mit der neuen Technik alles geht. Auch Fake-News-Kampagnen machen sich das Potenzial generativer KI zunutze, nämlich um Vorgänge zu zeigen, die nie stattgefunden haben. Die Zielpersonen sind oft dieselben: Donald Trump, Papst Franziskus, Elon Musk, Angela Merkel, aber auch Bundeskanzler Olaf Scholz, US-Präsident Joseph Biden und der französische Staatspräsident Emmanuel Macron. Je mehr echte Fotos von der Person existieren, desto überzeugender gerät das KI-Resultat.

Eine Reihe mit Midjourney generierter Bilder zeigten Joe Biden, Ron DeSantis und andere Politiker mit imaginären Affären in Hotelzimmern. Solche Bilder können den Karrieren der Betroffenen erheblichen Schaden zufügen. Midjourney schloss den dafür verantwortlichen Satiriker Justin T. Brown von seinem Dienst aus. Auf Twitter, neuerdings X, erklärte er, auf das zerstörerische Potenzial von KI-generierter Desinformation hinweisen zu wollen.

Nicht immer steckt also böse Absicht hinter den KI-Kreationen. Wer den Papst im Balenciaga-Daunenmantel oder Donald Trump in Handschellen und Sträflingsoverall zeigt, möchte einen Witz machen, eine Diskussion anstoßen oder schlicht Internetruhm ernten – oft gespickt mit einer politischen Botschaft im Subtext. Die Bilder können aber leicht als Zeitdokumente missverstanden werden, zumal nicht selten ein Körnchen Wahrheit drinsteckt, sich der ehemalige US-Präsident beispielsweise tatsächlich schon in mehreren Verfahren vor Gericht verantworten musste.

In einer Zeit zunehmender gesellschaftlicher Polarisierung nutzen politisch extreme Gruppen solche Bilder auf sozialen Medien für ihre Zwecke. Umso wichtiger ist es, Fake-Bilder zu erkennen, auch den Beweis für Fake News erbringen zu können, und dafür zu sensibilisieren, dass es kein Kavaliersdelikt ist, dokumentarische Fotografie zu fälschen.

Echte Revolution, falsche Bilder

Der Fotojournalist Michael Christopher Brown hatte keine politische Intention, als er Midjourney für das Kunstprojekt „90 miles“ nutzte (diese und die folgenden Projekte: siehe ct.de/y75n). Er illustrierte die Flucht kubanischer Staatsbürger von Havanna nach Florida in den Fünfzigerjahren – eine Strecke von etwa 90 Meilen. Von den Folgen der Rebellenbewegung unter Führung von Fidel Castro in Kuba existieren kaum Fotos. Brown, der unter anderem für National Geographic und die New York Times arbeitet, nennt seine Arbeit „post-photography“ – das, was nach der Fotografie kommt. 400 Bilder der Serie hat Brown als NFTs zum Kauf angeboten. Fans des Fotografen nennen die Arbeit auf Instagram „verstörend“ und „unethisch“. Brown erklärte seine Bilder mit den Worten: „Ich sehe die Bilder als Storytelling, nicht mehr und nicht weniger.“

Die Kuba-Bilder von Michael Brown stellen keinen Täuschungsversuch dar, sondern sollen lediglich Ereignisse illustrieren, deren Bilder im Dunkel der Geschichte untergingen. Solange der Urheber das Narrativ kontrolliert, können Kunstkenner auf Vernissagen bei einem Glas Sekt über die ethischen Aspekte des Projekts diskutieren. Das Internet beweist aber immer wieder, dass sich digitale Medien sehr leicht verselbstständigen, und dann steht kein Künstler mehr parat, der den Kontext aufklärt. Mit einer Portion Pech schafft es so ein Bild in ein Schulbuch.

Der Fotojournalist Michael Christopher Brown illustrierte mit Midjourney die kubanische Revolution – und erntete damit nicht nur Applaus., Bild: Michael Christopher Brown mit KI-Unterstützung
Der Fotojournalist Michael Christopher Brown illustrierte mit Midjourney die kubanische Revolution – und erntete damit nicht nur Applaus.
Bild: Michael Christopher Brown mit KI-Unterstützung

Spielerischer Umgang

Im Fotojournalismus bedeuten KI-generierte oder gestellte Bilder ein Problem: Sind KI-Bilder erstmal in Umlauf, sinkt das Vertrauen in den dokumentarischen Charakter von Fotos. Unliebsame Wahrheiten können wiederum mit Leichtigkeit als Fake-News desavouiert werden und damit vom eigentlichen Thema in eine Nebendebatte über die Echtzeit des Gezeigten ablenken.

Viele Fotografen und Digitalkünstler gehen auf Instagram und Reddit indes eher spielerisch mit dem Thema um, ohne jemanden täuschen zu wollen. Der Fotograf Julian van Dieken zeigt in seinem Instagram-Profil KI-generierte Bilder, unter anderem den Papst in schicker Sonnenbrille und Merkel mit Obama am Strand. Auch der Spiegel druckte auf seinem Titelbild von 8. Juli 2023 Merkel am Strand als prominentes Beispiel für Fake News. Bei van Dieken hüpfen seit Juli Elon Musk und Mark Zuckerberg in trauter Zweisamkeit durch die Brandung – deren Rivalität ist die neueste Spielwiese der Erzeuger paralleler Realitäten.

Instagrammer Julian van Dieken geht eher spielerisch mit der Bild-KI um. Der Beschreibungstext weist auf den Einsatz von KI hin: „This is #satire“. Ein Wasserzeichen verweist auf den Urheber., Bild: Instagram mit KI-Unterstützung
Instagrammer Julian van Dieken geht eher spielerisch mit der Bild-KI um. Der Beschreibungstext weist auf den Einsatz von KI hin: „This is #satire“. Ein Wasserzeichen verweist auf den Urheber.
Bild: Instagram mit KI-Unterstützung

Nicht alle machen den Ursprung ihrer Arbeit aber kenntlich. Der Instagram-Fotograf Jos Avery hat seit Oktober 2022 ausdrucksstarke Porträts gepostet, die nach seinen Angaben mit einer Nikon-Spiegelreflexkamera des Typs D810 und einem 24-70-mm-Objektiv entstanden. Im Februar 2023 ließ er den Schwindel selbst auffliegen: Er habe die Leute hereinlegen wollen. „Geben fotografierte Leute zu, dass sie Make-up tragen? Wie sieht es mit kosmetischer Chirurgie aus? Jedes kommerzielle Modefoto kommt mit einer starken Dosis Photoshop.“ In den Kommentaren auf Instagram zeigt sich, dass Avery Lob gerne einheimst, aber Hinweise auf den KI-Ursprung der Bilder ignoriert. Damit hat sein Projekt ein Geschmäckle, seine fadenscheinigen Argumente über Make-up hin oder her.

Der Fotograf Jos Avery zeigt auf Instagram fotorealistische, aber künstlich generierte Porträts. Sie als Werk der KI zu entlarven, überlässt er der Kommentarspalte., Bild: Instagram mit KI-Unterstützung
Der Fotograf Jos Avery zeigt auf Instagram fotorealistische, aber künstlich generierte Porträts. Sie als Werk der KI zu entlarven, überlässt er der Kommentarspalte.
Bild: Instagram mit KI-Unterstützung

Fake News erzeugen

Die bislang mächtigste Bild-KI Midjourney 5.2 wurde mit etwa fünf Milliarden Datensätzen trainiert und erzeugt damit nahezu fotorealistische Bilder – weniger als ein Jahr, nachdem solche Dienste öffentlich verfügbar sind. Stable-Diffusion-Hersteller Stability AI hat Ende Juli SDXL 1.0 vorgestellt und damit seinen Bildgenerator noch einmal weiterentwickelt. Es besteht aus einem Basismodell, das auf 3,5 Milliarden Parametern gründet, und dem neuen Refiner, trainiert mit 6,6 Milliarden Parametern. Midjourney und SDXL 1.0 erzeugen über Prompts Bilder von Politikern, Schauspielern und anderen öffentlichen Personen. Dazu genügt es, deren Namen einzugeben.

Stable Diffusion (hier auf DreamStudio.ai) und Midjourney sind wenig zimperlich und zeigen Tech-CEOs beim Boxkampf oder den Bundeskanzler im Schützengraben., Bild: KI Stable Diffusion | Bearbeitung c't
Stable Diffusion (hier auf DreamStudio.ai) und Midjourney sind wenig zimperlich und zeigen Tech-CEOs beim Boxkampf oder den Bundeskanzler im Schützengraben.
Bild: KI Stable Diffusion | Bearbeitung c't

Dalle-E 2 von OpenAI und Adobe Firefly unterbinden das Generieren prominenter Gesichter. Bing Chat, das Dall-E 2 einbindet, weist beim Versuch, Mark Zuckerberg und Elon Musk boxen zu lassen, darauf hin, dass es einige Stichwörter blockiert. Anscheinend geht es um die prominenten Namen, denn die beiden CEOs lassen sich auch nicht mit der KI an einen Schreibtisch setzen. Auch Adobe Firefly weist beim gleichen Prompt darauf hin, dass einige Stichwörter gegen die Richtlinien verstoßen. Adobe hat Firefly nur mit Bildern aus der Datenbank von Adobe Stock trainiert. Der Ursprung eines generierten Bildes ist damit nachvollziehbar. Adobe verfolgt das Ziel, die Nutzung zu monetarisieren und auch die Fotografen der ursprünglichen Trainingsbilder zu berücksichtigen.

Dalle-E 2 (in diesem Fall integriert in Bing Chat) und Adobe Firefly blockieren Stichwörter, die auf prominente Personen verweisen.
Dalle-E 2 (in diesem Fall integriert in Bing Chat) und Adobe Firefly blockieren Stichwörter, die auf prominente Personen verweisen.

Bereits vor Jahren sorgten Deepfakes für Schlagzeilen. Dabei werden Gesichter in Videos – nicht selten pornografischen – mit den Konterfeis von Politikern oder Schauspielern ausgetauscht. Diese Deepfakes setzen Videomaterial in großer Menge voraus, beispielsweise um eine digitale Variante von Barack Obama zu erzeugen, der man alles Mögliche in den Mund legen kann. Das nutzt man auch in Hollywood: Disney nutzte die aufwendige Technik, um Harrison Ford für Indiana Jones 5 zu verjüngen.

Ein Midjourney-Plug-in tauscht nach wenigen Handgriffen Gesichter in Bildern aus. Viel Know-how braucht man nicht dafür. Man erstellt einen eigenen Discord-Kanal und registriert ein Gesicht über den Befehl /saveid. Anschließend generiert man ein Bild über den /imagine-Befehl. Über das Kontextmenü kann man nun das Plug-in INSwapper auswählen und auf Basis des generierten Bilds das registrierte Gesicht einfügen. Am besten funktioniert es mit frontal aufgenommenen Porträts ohne Brillen oder ähnliche verdeckende Accessoires.

KI-Bilder erkennen

Ein geschultes Auge kann die meisten KI-Kreationen relativ schnell überführen. Anomalien wie Unregelmäßigkeiten im Hintergrund oder bei der Komposition der Personen im Bild weisen auf eine Fälschung hin. Meistens steckt der Teufel im Detail, also lohnt es sich heranzuzoomen. Was in der Vollansicht noch blendend aussieht, entlarvt sich bei näherem Betrachten meist wie von selbst.

Porträts, die nur Gesichter vor einem unscharfen Hintergrund zeigen wie bei Avery, kommen bereits nahezu perfekt aus der KI. Überführen kann man sie kaum, höchstens als Verdachtsfall markieren. Die Merkmale sind eine allzu makellose Haut und perfekt ebenmäßige Augenbrauen. Das würden erfahrene Retuscheure auch mit Photoshop hinbekommen; das Resultat wäre dann aber ebenfalls unnatürlich. Ein weiterer Hinweis auf KI sind die auf charakteristische Weise gewellten Haare, die beinahe wirken, als befinde sich das Model unter Wasser.

Alles, was mehr als ein Gesicht zeigt, ist relativ leicht überführt. Ein Blick auf die Hände lohnt immer. Zwar haben die Bildgeneratoren seit der Zeit des Memes „AI accepting the job“ hinzugelernt: Die meisten KI-generierten Hände haben mittlerweile fünf Finger. Allerdings stimmen oft immer noch die Proportionen zwischen den Fingergliedern nicht. Auch eine unnatürliche Haltung der Hand kann den Fake verraten. Midjourney mag mittlerweile reproduzieren können, wie eine Hand aussieht, setzt sie aber nicht immer in passende Relation zum Körper.

Szenen mit mehreren Personen beeindrucken durch eine sehr expressive, beinahe barocke Bildsprache, die aber zugleich als erster Hinweis dienen kann. Trump würde vermutlich nicht schreiend und von drei Polizisten festgehalten aus der Gerichtsverhandlung geführt werden. Bei näherem Hinsehen passen einige Beine, Arme oder Köpfe zu keinem Körper. Dienstmarken und Wappen tragen keine lesbare Schrift, sondern wie bei den Klingonen nur die grafische Imitation von Buchstaben.

Erster Verdacht auf eine KI-Kreation: die barock wirkende, expressive Natur des Bilds. Auf den zweiten Blick entdeckt man unten abgetrennte Beine, rechts neben Trump ein amorphes Jackenmonster, schräg darüber ein schwebendes Ohr und darüber ein augenloses Gesicht wie von einer Muppet-Figur., Bild: Eliot Higgins mit KI-Unterstützung
Erster Verdacht auf eine KI-Kreation: die barock wirkende, expressive Natur des Bilds. Auf den zweiten Blick entdeckt man unten abgetrennte Beine, rechts neben Trump ein amorphes Jackenmonster, schräg darüber ein schwebendes Ohr und darüber ein augenloses Gesicht wie von einer Muppet-Figur.
Bild: Eliot Higgins mit KI-Unterstützung

Ein Auge für Details

Noch mehr als Körperteile verraten Accessoires wie Brillen und Schmuck ein Fake-Bild. Fingerringe hören in der Realität nicht plötzlich auf, sondern umschließen den gesamten Finger. Auch sind sie regelmäßig geformt, statt dicker oder dünner zu werden. Brillen haben eine feingliedrige, ebenmäßige Struktur, die eine KI nicht perfekt reproduziert – zumindest noch nicht. Die Nähte von Handtaschen oder Lederjacken sind bei Midjourney & Co. nicht so regelmäßig, wie sie mit einer industriellen Nähmaschine geraten würden. Muster in Blusen und Röcken, Jacketts und Hosen wiederholen sich in KI-Bildern nicht perfekt, sondern weisen leichte Abweichungen auf, die eine Fertigung in der Fabrik nicht zulässt.

Strukturen wie eine Fensterfront oder eine Säulenreihe entlarven KI-Bilder, selbst wenn sie unscharf dargestellt sind. Architekten arbeiten mit klarer Formensprache, Ingenieure mit industriell gefertigten Bauteilen. Die Leisten eines Bilder- oder Fensterrahmens sind somit in der Realität üblicherweise perfekt gerade und parallel. Wenn eine Leiste verwischt in eine Kurve führt, ist mit hoher Wahrscheinlichkeit generative KI am Werk gewesen. Getränkeflaschen im Automaten sind mal kleiner und mal größer? Jedes Fenster hat eine andere Höhe? Die Deckenlampen sind alle unterschiedlich hell? Nachtigall, ick hör dir trapsen.

Erster Verdacht: Papst Franziskus vermutlich kein Balenciaga-Model. Beweisführung: Linksseitig geht das Brillengestell direkt in die Pupille über. Unten links schwebt neben einer dreifingrigen Faust eine Mischkonstruktion aus Plastiktüte und Kaffeebecher., Bild: Midjourney
Erster Verdacht: Papst Franziskus vermutlich kein Balenciaga-Model. Beweisführung: Linksseitig geht das Brillengestell direkt in die Pupille über. Unten links schwebt neben einer dreifingrigen Faust eine Mischkonstruktion aus Plastiktüte und Kaffeebecher.
Bild: Midjourney

Technische Hilfsmittel

Mit den Werkzeugen zur Manipulation von Bildern entstehen auch technische Mittel, solche Mauscheleien aufzudecken. Dieses Katz-und-Maus-Spiel kann man seit den Anfängen der Fotografie über den Siegeszug von Photoshop bis zur Allgegenwart sozialer Medien beobachten. Einige Online-Tools schlagen sich erstaunlich gut darin, KI-generierte Bilder zu entlarven – auch bei den eingangs gezeigten Bildern der kubanischen Revolution, die auf den ersten Blick makellos wirken. Für Stichproben lassen sich die Web-Apps kostenlos ohne Registrierung nutzen und steuern so im Social-Media-Disput eine neutrale, dritte Meinung bei (siehe ct.de/y75n).

Der AI-image-detector von Matthew Maybe (umm-maybe) steht auf der Community-Plattform für KI-Entwickler huggingface.co online als Web-App zur Verfügung. Sie trägt den Hinweis „proof-of-concept“. Maybe modifizierte für das Tool zunächst den „NSFW detection bot“ von Reddit und nutzte später das Modell zur Bildklassifizierung AutoTrain von Hugging Face. Nach Upload einer Bilddatei gibt der AI-image-detector eine prozentuale Einschätzung zwischen „human“ und „artificial“. In zehn Fällen lag das Tool zweimal falsch und konnte sich in einem weiteren zwischen 52 % und 48 % nicht recht entscheiden.

Matthew Maybe's „AI Art Detector“ gibt auf der Plattform Hugging Face eine recht verlässliche Einschätzung, ob ein Bild KI-generiert ist.
Matthew Maybe's „AI Art Detector“ gibt auf der Plattform Hugging Face eine recht verlässliche Einschätzung, ob ein Bild KI-generiert ist.

Ähnlich arbeitet die kommerzielle Web-App Illuminarty: Nach Upload eines Bilds gibt sie eine prozentuale Einschätzung, ob das Bild echt oder künstlich ist. Eine Anmeldung per E-Mail-Adresse ist für einen kostenlosen Bildtest nicht nötig. Bis auf das schwer einzuschätzende Jos-Avery-Porträt und das Spiegel-Porträt von Merkel am Strand lag Illuminarty in allen Stichproben richtig. Das Tool steht unter app.illuminarty.ai kostenlos zur Verfügung. Für 10 US-Dollar monatlich versucht es auch, Bildbestandteile zu erkennen und das genutzte KI-Modell zu identifizieren. Außerdem stellt der Hersteller eine API für bis zu 10.000 Anfragen pro Tag zur Verfügung. Nach eigenen Angaben speichert Illuminarty keine personenbezogenen Informationen und hält Bilddateien nur so lange vor, wie es nötig ist, um den Dienst bereitzustellen.

Die Web-App Illuminarty deckt Fälschungen kostenlos auf und steht außerdem für 10 US-Dollar monatlich als API zur Verfügung.
Die Web-App Illuminarty deckt Fälschungen kostenlos auf und steht außerdem für 10 US-Dollar monatlich als API zur Verfügung.

Auch die Web-App „A.I. or Not“ von Optic arbeitet nach diesem Modell und irrte sich als einziger der drei Kandidaten in unseren zehn Stichproben nie. Anders als die beiden zuvor genannten Tools liefert sie aber keine Tendenz in Prozent, sondern wie der Name schon sagt nur eine absolute Einschätzung, ob ein Bild KI-generiert sein könnte oder nicht. Nach Angaben der Entwickler kann es Bilder von Stable Diffusion, Midjourney und Dall-E erkennen. Das Tool ist außerdem als Browsererweiterung im Chrome Web Store und als Telegram-Bot erhältlich. Ähnlich wie Illuminarty stellt Optic sein Tool kostenfrei zur Analyse einzelner Bilder zur Verfügung und verkauft für größere Nutzungsszenarien eine API. Im Zweifel nutzt man am besten alle drei Tools, um ein Bild auf Echtheit zu prüfen.

Optics „AI or Not“ klinkt sich auf Wunsch als Browsererweiterung und Telegram-Bot ein, um schnell griffbereit zu sein.
Optics „AI or Not“ klinkt sich auf Wunsch als Browsererweiterung und Telegram-Bot ein, um schnell griffbereit zu sein.

Metadaten als Echtheitsnachweis

Adobe hat die Content Authenticity Initiative ins Leben gerufen, eine Plattform, die die Authentizität von Bildern bestätigen kann. Sie soll den Ursprung von Bildern künftig über ihre Metadaten ausweisen. Die „Coalition for Content Provenance and Authenticity“ (C2PA) formuliert technische Standards der CAI unter der Creative Commons Lizenz CC BY 4.0. Zu der Initiative gehören namhafte internationale Bild- und Nachrichtenagenturen, Vertreter der Musikindustrie, Kamerahersteller sowie große Magazine und Zeitungen. Auch Stability AI ist mit von der Partie. Das Ziel ist, eine Datenbank zu schaffen, um die Urheberschaft digitaler Werke zurückverfolgen zu können.

Die aktuelle Betaversion der Bildbearbeitung Adobe Photoshop bindet dafür bereits „Content Credentials“ in die Metadaten von Bildern ein. Sie weisen den Urheber aus, nennen die bearbeitende Software und enthalten einen Hinweis, wenn es mit der integrierten Bild-KI Firefly entstanden ist.

Unter verify.contentauthenticity.org kann man Bilder hochladen und prüfen lassen. Sie erkennt Bilder auch, wenn sie nur als Screenshots vorliegen oder jemand die Metadaten entfernt hat. Allerdings findet CAI-Verify derzeit offenbar nur Bilder, die mit Adobe Firefly entstanden sind. Den Balenciaga-Papst konnte die Funktion nicht zuordnen. Selbst beim Upload eines aktuellen und unbearbeiteten Pressefotos von den Nachrichtenagenturen Associated Press und dpa zeigt sie sich – sowohl bei den Metadaten als auch nach Bildanalyse – ratlos, obwohl die Agenturen selbst im Dateinamen angegeben waren. Auch bei einem mit DreamStudio.ai generierten Bild, der Web-App von CAI-Mitglied Stability AI, fand die Verify-Funktion nichts. Damit hat das Tool zumindest derzeit nur wenig praktischen Nutzen.

Unter der Content Authenticity Initiative (CAI) versammelt Adobe auch die Nachrichtenagenturen AP und dpa als Partner. Die Verify-Funktion auf der CAI-Webseite kann deren Fotos aber nicht zuordnen.
Unter der Content Authenticity Initiative (CAI) versammelt Adobe auch die Nachrichtenagenturen AP und dpa als Partner. Die Verify-Funktion auf der CAI-Webseite kann deren Fotos aber nicht zuordnen.

Regeln und Gesetze

Die Europäische Union bereitet einen „AI Act“ vor, ein Regelwerk für künstliche Intelligenz. Anfang des Jahres hatte das Sekretariat des KI-Ausschusses Grundprinzipien skizziert: KI-Systeme dürften demnach nicht diskriminieren und keine Menschen- und Freiheitsrechte verletzen. Noch ist aber nicht abschließend geklärt, was die Richtlinie konkret umfasst. Die Abgeordneten des Europa-Parlaments sehen unter anderem ein Verbot von Technik zu biometrischer Überwachung mit Gesichtserkennung, Emotionserkennung und Vorhersagesysteme für die Polizeiarbeit vor. Ob generative KI wie Midjourney und ChatGPT auch als Hochrisikotechnik gelten soll, diskutiert das Parlament noch. Es könnte einen Rahmen vorgeben, der missbräuchlicher Nutzung von Bild-KI vorbeugt. So weit ist es aber noch nicht.

Für einen wirksamen Schutz gegen Fake-News-Bilder müssen die Betreiber von generativer KI selbst aktiv werden, indem sie ihre Produkte bei der Eingabe der bildsteuernden Prompts einschränken. Dall-E und Firefly machen es vor. Midjourney und Stable Diffusion sind da weniger zimperlich und öffnen politischen Aktivisten Tür und Tor, Politiker und andere Prominente in falsche Szenen zu setzen. Eine Einschränkung bildgebender KI würde die künstlerische Freiheit beschneiden, lautet ein bekanntes Argument. Einschlägige Stichwörter zu blockieren, würde aber ein großes Gefahrenpotenzial aus der Welt schaffen. Solange nicht alle an Bord sind, wird es weiterhin Fake News mit KI-generierten Bildern geben. (akr@ct.de)

KI-Bots gegen Fake News
Testbild Maybe's AI Art Detector, huggingface.co Illuminarty, app.illuminarty.ai Optic AI or Not, aiornot.com
Deutung für ein KI-generiertes Bild
Balenciaga-Papst KI (69 %) KI (86,4 %) KI
Trumps Verhaftung KI (67 %) KI (94,8 %) KI
Merkel am Strand Foto (6 %) Foto (7,9 %) KI
Michael Browns Castro KI (92 %) KI (94,3 %) KI
Jos-Avery-Porträt Foto (25 %) Foto (3 %) KI
Dall-E-Porträt KI (100 %) KI (90,4 %) KI
Stable-Diffusion-Porträt KI (56 %) KI (75,7 %) KI
Deutung für ein echtes Foto
Porträt Foto (15 %) Foto (2,3 %) Foto
Urlaubsfoto KI (48 %) Foto (15,9 %) Foto

Alle genannten Kunstprojekte und KI-Tools: ct.de/y75n

Kommentieren