Neues Werkzeug gegen Fake-Bilder

Ein neues Werkzeug soll beim Erkennen von gefälschten Medien helfen, dürfte aber längst nicht ausreichen. Exaktere Verfahren wären möglich – bringen aber wieder eigene Probleme mit sich.

In Pocket speichern vorlesen Druckansicht
«Fake News»

(Bild: dpa, Jens Kalaene)

Lesezeit: 3 Min.
Von
  • Karen Hao
  • Angela Chen
Inhaltsverzeichnis

Gefälschte Bilder können effektiv in die Irre führen. Jigsaw, ein Technologie-Inkubator bei der Google-Muttergesellschaft Alphabet, hat deshalb jetzt eine experimentelle Plattform namens Assembler vorgestellt, die Journalisten und Fakten-Checkern dabei helfen soll, Fotos rasch zu verifizieren.

In Assembler kommen mehrere bekannte wissenschaftliche Verfahren zur Aufdeckung verbreiteter Manipulationstechniken parallel zum Einsatz. So wird häufig die Helligkeit von Bildern verändert und kopierte Pixel werden an anderen Stellen eingefügt, um Informationen mit ähnlichen Texturen zu überdecken. Außerdem erkennt das Werkzeug mit dem Algorithmus StyleGAN erstellte Deep-Fakes mit künstlich erzeugten Gesichtern. Alle Detektionstechniken fließen in ein Master-Modell ein, das angibt, mit welcher Wahrscheinlichkeit ein Bild manipuliert wurde.

Derlei automatisierte Hilfsmittel sind eine wichtige Unterstützung für die Arbeit von Journalisten und Fakten-Checkern, denn diese haben immer weniger Zeit für eine Reaktion, bevor sich Falschinformationen weit und schnell verbreiten. Gleichzeitig wird es schwieriger, gefälschte Bilder zu erkennen, weil sie mit Hilfe von künstlicher Intelligenz immer realistischer werden.

Assembler ist ein wichtiger Schritt in diesem Wettrüsten um manipulierte Medieninhalte und ihre Bekämpfung. Viele weitere Manipulationstechniken werden damit aber nicht erkannt, beispielsweise solche für Videos. Wenn das Team wirklich helfen möchte, wird es also sein Werkzeug ergänzen und angepasst an die weitere Entwicklung aktuell halten müssen.

Noch existiert es zudem gänzlich getrennt von den Kanälen, über die manipulierte Bilder meist verbreitet werden. Nach Empfehlungen von Experten sollen Technologieriesen wie Google und Facebook Erkennungsfunktionen aber direkt in ihre Plattformen einbinden. Auf diese Weise würden sich die Prüfungen nahezu in Echtzeit erledigen lassen, noch während Fotos oder Videos hochgeladen und geteilt werden.

Helfen könnten auch andere Ansätze. So experimentieren einige Start-ups mit Verifizierungstechnologien. Dabei wird die Position von Pixeln auf einem Foto während der Aufnahme erfasst, was allerdings ebenfalls nicht problemlos ist. Laut einer Studie der Organisation Witness bringen solche raffinierten Technologien sogar wieder eigene Gefahren mit sich – insgesamt wurden 14 Möglichkeiten identifiziert, wie sie Schaden anrichten können.

So könnten Anti-Fake-Werkzeuge auch genutzt werden, um Menschen zu überwachen, und andersherum könnten sie aufgrund der Hardware-Anforderungen genau dort nicht funktionieren, wo sie am dringendsten gebraucht werden.

Mehr Infos

Auf Geräten mit Jailbreak des Betriebssystems wäre es zudem nicht mehr möglich, verifiziertes Material aufzunehmen, warnt Witness; auf der anderen Seite könnten die Hersteller von Geräten verifizierte Daten löschen oder den Zugriff darauf erschweren. Und ein fünftes Beispiel für eine mögliche unerwünschte Folge: Wenn vor Gericht zunehmend verifizierte Medien verlangt werden, würde das Prozess länger und teurer machen.

Eine einfache Lösung für diese Probleme sieht Witness-Programmleiter Sam Gregory nicht. Unternehmen, die an solchen Technologien arbeiten, müssten diese Punkte beachten und überlegen, welche Personen am ehesten dadurch gefährdet sind.

Eine weitere Möglichkeit wäre, Werkzeuge zur Erstellung künstlicher Medien von vornherein ethischer auszulegen. Der Technologie-Experte Aviv Ovadya zum Beispiel hat Ideen für die Produktion von verantwortungsbewussten Werkzeugen für Deep-Fakes veröffentlicht. Unternehmen könnten zudem genauer prüfen, welchen Kunden sie diese in die Hand geben, und explizit Strafen für Verstöße gegen Vorgaben androhen.

Synthetische Medien aller Art werden immer verbreiteter werden. Um unschöne Folgen zu verhindern, dürften viele unterschiedliche Taktiken erforderlich sein.

(sma)