KI in der Politik: AfD zeigt falschen Goldschatz und erklärt es nicht

Die AfD hat Gold geerbt. Auf ihrem Parteitag wird davon angeblich ein Bild gezeigt – doch ein Mann darauf hat sechs Finger. Das Bild ist künstlich erstellt.

In Pocket speichern vorlesen Druckansicht 224 Kommentare lesen

Goldbarren auf einem Tisch.

(Bild: Erzeugt mit Stable Diffusion von emw.)

Lesezeit: 3 Min.

Erneut hat die AfD Künstliche Intelligenz genutzt – und nicht gekennzeichnet. Diesmal musste ein Bildgenerator herhalten, um einen vermeintlichen Goldschatz zu demonstrieren. Die Partei hat von einem niedersächsischen Ingenieur und Erfinder das gesamte Vermögen geerbt – samt Immobilien, einem Porsche und dem Goldschatz. Wobei der Verbleib und die Echtheit noch ungeklärt sind.

Das Gold wollte die AfD auf dem eigenen Parteitag in Magdeburg präsentieren. Auf dem vermeintlich echten Foto sind Goldbarren auf einem Tisch zu sehen und Männer, die drumherum stehen. Um mit Gold zu hantieren, bedarf es, so scheint es auf dem Foto, eines Jeanshemds und weißen Haaren, aber auch zu viele Finger sind offensichtlich praktisch: Einer der Herren auf dem Bild hat sechs davon. Auch ansonsten wirkt das Bild recht Comichaft. Ein Foto davon hat die Bild bei dem Parteitag machen können. Laut der hat niemand vor Ort erklärt, dass das Bild von einer KI generiert sei. Die Parteikollegen wurden zunächst in dem Glauben gelassen, es sei der echte Schatz. Erst später soll ein Sprecher eingeräumt haben, dass das Bild ein Fake sei.

Es ist nicht das erste Fake-Bild, das in den vergangenen Monaten von Parteien genutzt wurde – und nicht sofort als solches gekennzeichnet. Der AfD-stellvertretende Fraktionsvorsitzende im Bundestag, Norbert Kleinwächter, fiel bereits mit KI-Bildern auf, die junge aggressive Männer zeigten. Dazu der Slogan: "Nein zu noch mehr Flüchtlingen."

Auch die FDP in der Schweiz hat mit einem KI-Bild Wahlkampf gemacht. Zu sehen sind Klimaaktivisten, die auf der Straße sitzen und offensichtlich eine Ambulanz am Durchkommen hindern. Während es zahlreiche Bilder davon gibt, wie Aktivisten auf der Straße sitzen und sich dort auch festgeklebt haben, gibt es bisher kein Foto, auf dem sie einen Krankenwagen behindern. Immerhin steht sehr klein auf dem Wahlplakat geschrieben, dass es sich um ein mithilfe von KI generiertes Bild handelt.

Und auch Amnesty International hat bereits eine Schelte dafür bekommen, KI-Bilder genutzt zu haben, um auf Menschenrechtsverletzungen der kolumbianischen Polizei aufmerksam zu machen. Die Bilder sind nach harscher Kritik schnell aus den sozialen Medien entfernt worden. Auch hier gab es eine kleine Bildunterschrift, die auf die KI-Erstellung hinwies.

Während es noch lustig ist, den Papst in einem Fake-Daunenmantel oder auf einem Skateboard zu sehen, können andere KI-Bilder eingesetzt werden, um Menschen zu manipulieren. Das Auge ist noch wenig darauf trainiert, so echt wirkende Bilder als Fake zu erkennen oder auch nur skeptisch zu sein. Um das Bild von einem Goldschatz zu erstellen, sind kaum noch Bildbearbeitungsfähigkeiten nötig. Selbst kostenlose Bildgeneratoren können mit nur wenigen Eingaben Bilder erzeugen, die täuschend echt aussehen – sofern man eben nicht die Finger zählt.

KI wurde auch bereits genutzt, um Reden im Parlament zu halten, ein ganzes Magazin mit Kochrezepten zu produzieren und Menschen über Fake-Anzeigen auf betrügerische Webseiten zu bringen.

(emw)