Der KI-Papst im Daunenmantel sollte eine Warnung sein

Bilder des Papstes mit Daunenjacke gehen viral. Die Kirche bekräftigt, KI gutzuheißen – sofern sie ethisch ist. Doch da hapert es. Eine Analyse.

In Pocket speichern vorlesen Druckansicht 157 Kommentare lesen

Ging viral: Hipster-Papst Franziskus.

(Bild: erstellt mit einer KI)

Lesezeit: 4 Min.

Trägt der Papst Balenciaga? Oder Moncler? Oder ist dieser gigantische Daunenmantel in strahlendem Weiß etwa eine Sonderanfertigung? Ja, aber eine, die mittels Künstlicher Intelligenz geschaffen wurde. Das Bild, das seit dem Wochenende viral geht, zeigt Papst Franziskus sehr hip mit Mantel und Kreuzkette darüber, auch die Binde um den Bauch fehlt nicht. Schaut man genau hin, hängt das Kreuz allerdings nur einseitig an der Kette. Typisch für KI-generierte Bilder ist auch eine nicht ideal gelungene Hand. Das Finger-Problem ist zwar mit dem letzten Update von etwa Midjourney (V5) deutlich besser geworden, dennoch scheinen Hände nicht nur für uns Menschen äußerst schwierig zu zeichnen zu sein. Man nennt es Artefakte, wenn bei KI-Bildern Dinge nicht zusammenpassen.

Nun könnte man meinen, dem Papst missfällt sein modernes Antlitz, aber nein, die Katholische Kirche Österreich schreibt, der Papst erwarte, dass KI zu einer positiven Zukunft der Menschheit beitragen könne – sofern die Entwickler ethisch und verantwortungsbewusst handeln. Die Presseagentur zitiert nach eigenen Angaben aus dem Kirche-Technik-Gesprächsformat "Minerva Dialogues". Dort habe der Papst den Einsatz internationaler Organisationen gewürdigt, neue Technologien zu regulieren. Meint er damit wohl Google und Microsoft oder Regierungen, die bisher mehr fordern als schaffen? Kathpress schreibt zu den KI-Bildern, dass viele den Stil des Papstes gelobt hätten, auch wenn sie erkannten, dass diese Bilder Fake seien.

Ob der Papst ein Hipster ist oder nicht, tut keinem weh. Ob Donald Trump tatsächlich verhaftet wird, könnte schon eher Auswirkungen auf das Weltgeschehen haben. Und noch offensichtlicher wird die Problematik, schaut man sich Bilder an, die zeigen, wie Wladimir Putin vor dem chinesischen Präsidenten Xi Jinping auf die Knie fällt. Auch diese beiden Beispiele sind echt beziehungsweise echte Fakes, die für Aufruhr im Netz sorgten. Eliot Higgins, der den Blog Bellingcat betreibt, hatte Fotos von Trumps Verhaftung, einer Gerichtsverhandlung und Bilder des Ex-Präsidenten im Gefängnis getwittert, die allesamt mittels KI entstanden und ausgesprochen real wirkten. In seinem Blog schreibt Higgins auch über ein gefälschtes Video, das von der russischen Botschaft in Großbritannien verbreitet werden. Es zeigt einen mehr als unrühmlichen Umgang der ukrainischen Truppen gegenüber einer Mutter mit Baby. Solche Propaganda gibt es nicht erst, seit es Bildgeneratoren gibt, aber sie wird noch leichter und schneller zu erstellen.

Der abgedroschene Spruch "Ein Bild sagt mehr als tausend Worte" muss hier insoweit angewendet werden, als dass diese generierten Bilder wirken und in unseren Köpfen Spuren hinterlassen. Es kann nicht ungesehen gemacht werden. Und die Aussagekraft ist enorm. Putin kniet also vor China, dann muss er doch auch und so weit und so fort. Selbst wenn uns klar ist, dass die Bilder nicht echt sind, verdrahtet das Gehirn diese Informationen. Waren geschriebene Missinformationen bereits ein Problem für Wahlkämpfe, so können diese neu geschaffenen Bilder mindestens ebenso großen Schaden anrichten.

Wenn die Bildgeneratoren auch Hände können, wird es noch schwerer den Fake zu erkennen. Wenn der Mantel nur halb so puffig gewesen wäre, mehr Menschen hätten länger geglaubt, es wäre ein echtes Foto. Zu hoffen, die Entwickler handelten ethisch und verantwortungsbewusst, greift also eventuell zu kurz.

Bisher stecken die Anbieter von Bildgeneratoren schon verschiedene Grenzen aus, etwa das Verbot bestimmter Wörter, um die Generierung pornografischer Inhalte zu verhindern oder zumindest zu erschweren. Wer wiederholt dagegen verstößt, wird gesperrt. Drumherum lassen sich freilich dennoch ausreichend Szenarien erstellen, die unerwünscht sind und missbraucht werden können.

(emw)