Mozilla fordert Strategien für Governance von KI-Inhalten

Von Belästigung bis Wahlmanipulation: Mozilla analysiert Gefahren durch KI und empfiehlt maschinenlesbare Kennzeichnungen zur Risikominderung.

In Pocket speichern vorlesen Druckansicht
Mozilla forscht an Methoden, KI zu erkennen

(Bild: Mozilla)

Lesezeit: 3 Min.
Inhaltsverzeichnis

Die Mozilla Foundation hat in einer Studie mit dem Titel "In Transparency We Trust? Evaluating the Effectiveness of Watermarking and Labeling AI-Generated Content" die Herausforderungen und Möglichkeiten der Kennzeichnung von KI-generierten Inhalten untersucht.

Mozilla nennt als Gründe für die Studie die zunehmende Fähigkeit von KI, realistische Inhalte zu erstellen, die neue Wege für Belästigungen und die Verbreitung schädlicher Inhalte eröffnen. Dazu gehören insbesondere die Erstellung und Verbreitung nicht einvernehmlicher pornografischer Bilder und Material zum sexuellen Missbrauch von Kindern. Ferner erhöhen KI-Technologien laut Mozilla das Risiko von Identitätsdiebstahl und Sicherheitslücken durch Phishing und Identitätsdiebstahl.

Auch demokratische Prozesse würden durch die Verbreitung von Fehlinformationen und manipulierten Inhalten wie Deepfakes gefährdet. Besonders kritisch sei dies vor dem Hintergrund des bevorstehenden "Superwahljahres 2024", in dem in 64 Ländern Wahlen stattfinden, die mehr als die Hälfte der Weltbevölkerung repräsentieren.

Mozilla sieht großes Missbrauchspotenzial durch Wahlmanipulation: 64 Länder wählen im Jahr 2024 neue Regierungen oder Landesvertretungen.

(Bild: Mozilla)

Mozilla will in seinem Report das Bewusstsein für diese Herausforderungen schärfen, um Risiken zu minimieren und die digitale Sicherheit und Integrität durch effektive Governance-Strategien und Offenlegungsmechanismen zu stärken.

Die Autoren kommen zu dem Schluss, dass direkte Offenlegungsmethoden, wie sichtbare Markierungen und akustische Warnsignale, wegen Manipulationsanfälligkeit und technischem Fortschritt begrenzt effektiv sind und soziale Spannungen durch Informationsüberflutung verschärfen können. Im Gegensatz dazu bieten maschinenlesbare Methoden, etwa unsichtbare Wasserzeichen, eine sicherere Alternative, deren Erfolg allerdings von der Qualität und Unvoreingenommenheit der Erkennungswerkzeuge abhängt.

Die Analyse unterstreicht die Notwendigkeit eines ganzheitlichen Ansatzes für die Governance von KI-generierten Inhalten, der technologische, regulatorische und bildungspolitische Maßnahmen kombiniert, um die Risiken nicht offengelegter KI-generierter Inhalte wirksam zu mindern. Ein solcher Ansatz erfordert die Integration maschinenlesbarer Methoden mit barrierefreien Erkennungssystemen und die Aufklärung der Nutzer über die Natur und die Implikationen synthetischer Inhalte.

Durch schnell erzeugte äußerst realistische synthetische Inhalte durch KI-Generatoren verschärft sich das Risiko für Fehlinformationen.

(Bild: Mozilla)

Mozilla empfiehlt eine umfassende Strategie, die über die Politik hinausgeht und ethische Überlegungen sowie die Entwicklung von Rahmenbedingungen und Strategien umfasst, um Transparenz, Sicherheit, Robustheit der Systeme, Fairness, Schutz der informationellen Selbstbestimmung und der Privatsphäre, Anpassungsfähigkeit und Verantwortlichkeit zu gewährleisten.

Die Autoren haben eine eingehende Analyse verschiedener maschinenlesbarer Methoden zur Kennzeichnung von KI-Inhalten durchgeführt und dabei die Vor- und Nachteile einer Reihe von Wasserzeichentechniken bewertet, unter anderem kryptografische Wasserzeichen, Frequenzwasserzeichen und Metadaten-Wasserzeichen.

Daraus leiten die Autoren Empfehlungen ab, die die Priorisierung von maschinenlesbaren Methoden und die Entwicklung von "Slow AI"-Lösungen umfassen, einem Ansatz, der Nachhaltigkeit und Ethik über schnelles Wachstum stellt. Sie betonen auch die Bedeutung der Balance zwischen Transparenz und Privatsphäre, fordern die Verbreitung und Standardisierung unvoreingenommener Erkennungsmechanismen und regen die Erforschung von Open-Source-Wasserzeichenmethoden an.

Ferner wird die Bedeutung rechtlicher Rahmenbedingungen und die Notwendigkeit, die Verantwortlichkeit für die Kennzeichnung an der Quelle zu verankern, hervorgehoben. Die Analyse schlägt vor, regulatorische Sandkästen zu nutzen, um Technologiepolitik zu testen und zu verfeinern, und den Einsatz von Legal Tech zur Durchsetzung von Technologiepolitik zu untersuchen. Abschließend wird die Bedeutung der Aufklärung und Sensibilisierung der Nutzer hervorgehoben, um das Bewusstsein und das Verständnis für KI-generierte Inhalte zu erhöhen.

(mack)