Deepfakes: Kostenloses KI-Tool erkennt gefälschte Bilder, Audios und Videos

Das kostenlose KI-Tool der gemeinnützigen Organisation TrueMedia.org soll über 90 Prozent der Deepfakes erkennen. US-Journalisten etwa können es bereits nutzen.

In Pocket speichern vorlesen Druckansicht 22 Kommentare lesen
Deepfake-Schriftzug vor Handy in Menschenhand

Deepfakes überschatten schon jetzt die Wahl des US-Präsidenten. TrueMedia.org will eine Lösung für US-Journalisten haben.

(Bild: Skorzewiak/shutterstock.com)

Lesezeit: 4 Min.
Inhaltsverzeichnis

Die gemeinnützige Organisation TrueMedia.org veröffentlichte am Dienstag ein KI-Tool zur Erkennung von Deepfakes. Das zusammen mit Forschern, Technologieanbietern und Laboren entwickelte Deepfake Detektor Tool soll über 90 Prozent der manipulierten Bilder, Audio- und Videoaufnahmen erkennen. Registrierte Nutzer können Falschinformationen in den sozialen Medien erkennen und kennzeichnen. Aktuell steht das Tool eine Mitteilung zufolge "Regierungsbeamten, Faktenprüfern, Wahlkampfmitarbeitern, Universitäten, gemeinnützigen Organisationen und Reportern akkreditierter Nachrichtenorganisationen in den USA zur Verfügung – von progressiv bis konservativ und allen dazwischen".

Desinformationen können demnach im Vorfeld der US-Präsidentschaftswahl auf TikTok, X (vormals Twitter), Mastodon, YouTube, Reddit, Instagram, Google Drive oder Facebook ausfindig gemacht werden. Zur Identifizierung müsse lediglich die zugehörige URL eingegeben werden. TrueMedia.org spricht von einem "hochpräzisen und einfach zu bedienenden Tool, das ein noch nie dagewesenes, auf KI-Technologie basierendes Modell nutzt, das bisher nicht für die Öffentlichkeit zugänglich war". Die Veröffentlichung erfolge zu einer Zeit, in der Deepfakes aufgrund der breiten Verfügbarkeit von generativer Künstlicher Intelligenz – die eine Manipulation von Bild-, Audio-, Video- und Textinhalten erleichtert – stark zunehmen.

Ziel von TrueMedia.org ist nach eigenen Angaben die Unterstützung von Nachrichtenredaktionen in ganz Amerika bei der Wahlberichterstattung. Das Tool soll den Redaktionen dabei zu helfen, Deepfakes zu identifizieren und dessen Verbreitung zu stoppen, erklärt der TrueMedia.org-Gründer Dr. Oren Etzioni. "Es ist unsere Aufgabe, so vielen Reportern wie möglich zu helfen, da die Redaktionen immer weniger Personal haben, die Fristen immer kürzer werden und die Lawine der gefälschten Inhalte in den sozialen Medien exponentiell wächst. Es geht nicht darum, einen bestimmten Kandidaten oder eine bestimmte Agenda zu unterstützen – es geht darum, Reportern ein hochmodernes Tool zur Erkennung von Fälschungen zur Verfügung zu stellen."

Vor den anstehenden US-Wahlen habe TrueMedia.org etwa ein angebliches Foto der Verhaftung von Donald Trump oder Präsident Biden mit hochrangigen Militärs als Fälschung identifiziert. In beiden Fällen habe man erhebliche Beweise für eine Manipulation gefunden. Die Identifizierung bedarf der Bilder zufolge jedoch je nach Inhalten eine gewisse Zeit. Den Angaben nach benötigt die Erkennung mit vielen dicht beieinanderstehenden Personen deutlich mehr Zeit.

Präsident Biden mit hochrangigen Militärs. Die von TrueMedia.org erkannte Fälschung hat dem Bild zufolge 20 Minuten gedauert.

(Bild: TrueMedia.org)

Das angebliche Foto der Verhaftung von Donald Trump ist ebenfalls ein Deepfake. Die Berechnung dauerte laut Angaben auf dem Bild mit über 5491 Minuten jedoch erheblich länger gegenüber dem oberen Bild.

(Bild: TrueMedia.org)

TrueMedia.org verweist auf eine Studie des Pew Research Centers, laut der 43 Prozent der erwachsenen TikTok-Nutzer in den USA ihre Nachrichten über den Kurzvideodienst beziehen. Auch deshalb sei das Timing zur Erkennung von Deepfakes und dessen Offenlegung in dem US-Wahljahr wichtig. Auf anderen Social-Media-Seiten ging der Nachrichtenkonsum der Studie zufolge in den vergangenen Jahren zurück oder blieb gleich. TikTok steht derzeit in den USA schwer unter Beschuss: Das US-Repräsentantenhaus stimmte Mitte März für den Zwangsverkauf TikToks an einen US-Betreiber.

Viele KI-Forscher warnen davor, dass die Bedrohung immer größer wird. Im Februar haben mehr als tausend Menschen – darunter TrueMedia.org-Gründer Etzioni und mehrere andere prominente KI-Forscher – einen offenen Brief unterzeichnet. Darin fordern sie Gesetze, die die KI-Entwickler und -Vertreiber haftbar machen, wenn ihre Technologie einen einfachen Zugang zur Erstellung schädlicher Deepfakes biete, berichtet die New York Times.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Auf einer Veranstaltung der Columbia University am Donnerstag interviewte die ehemalige Außenministerin Hillary Clinton der Times zufolge den ehemaligen Google-Chef Eric Schmidt, der davor warnte, dass Videos, auch gefälschte, "das Wahlverhalten, das menschliche Verhalten, die Stimmung und alles andere beeinflussen" könnten. "Ich glaube nicht, dass wir bereit dafür sind", sagte Schmidt. Dieses Problem werde in den nächsten Jahren noch viel schlimmer werden.

Die Technologiebranche sei sich der Bedrohung bewusst. Während die Unternehmen generative KI-Systeme vorantreiben, bemühen sie sich gleichzeitig um eine Begrenzung des Schadens, den die Technologien anrichten könnten. Anthropic, Google, Meta und OpenAI haben laut NYT angekündigt, die Nutzung ihrer Dienste für künstliche Intelligenz im Zusammenhang mit Wahlen einzuschränken oder kennzeichnen zu wollen. Im Februar haben 20 Technologieunternehmen – darunter Amazon, Microsoft, TikTok und X – eine freiwillige Verpflichtung unterzeichnet, um zu verhindern, dass betrügerische KI-Inhalte die Wahlen stören.

(bme)