Interne Dokumente: Meta lässt künftig lieber die KI Risiken bewerten
Meta ersetzt laut eines Berichts menschliche Risikoprüfer weitgehend durch KI. Es geht um Themen wie KI-Sicherheit, Falschinformationen und Jugendschutz.
(Bild: JarTee/Shutterstock.com)
Meta plant, die Risikobewertung für neue Funktionen und Updates seiner Plattformen Facebook, Instagram und WhatsApp weitgehend zu automatisieren. Laut internen Dokumenten, die dem US-Sender NPR vorliegen, sollen künftig bis zu 90 Prozent aller sogenannten Privacy- und Integrity-Reviews von KI-Systemen statt von menschlichen Prüfern vorgenommen werden. Eine Ausnahme gelte für die Europäische Union, da hier die rechtlichen Vorgaben strikter sind.
Bislang mussten alle neuen Funktionen und Algorithmus-Änderungen ein mehrstufiges Prüfverfahren durchlaufen, bei dem Teams aus Sicherheitsexperten potenzielle Risiken bewerteten. Die Prüfer analysierten etwa, ob Features die Privatsphäre verletzen, Minderjährigen schaden oder die Verbreitung von Falschinformationen begünstigen könnten. Erst nach deren Freigabe durften Updates an die Milliarden Nutzer ausgerollt werden.
Fragebogen statt Diskussionen
Das neue System funktioniert laut NPR anders: Produktteams füllen einen Fragebogen aus und erhalten eine "sofortige Entscheidung" von einem KI-System. Dieses identifiziert Risikobereiche und definiert Anforderungen, die vor dem Start erfüllt werden müssen. Die Entwicklerteams sind dann selbst dafür verantwortlich, zu bestätigen, dass sie diese Vorgaben umgesetzt haben.
Meta wolle damit die Produktentwicklung beschleunigen und Entscheidungsprozesse vereinfachen. Kritiker sehen darin jedoch eher eine Gefahr. Entwicklern fehle der manchmal nötige Gegenwind. Problematische Änderungen könnten damit häufiger nach außen dringen.
“Keine Datenschutzexperten”
Besonders problematisch sehen Fachleute, dass nun die Entwicklerteams selbst über Risiken entscheiden sollen. "Die meisten Produktmanager und Ingenieure sind keine Datenschutzexperten", erklärt Zvika Krieger, bis 2022 Direktor für verantwortliche Innovation bei Meta. Produktteams würden primär daran gemessen, wie schnell sie Features launchen – auch dies könnte dazu führen, dass eher mal ein Auge zugedrückt wird.
Videos by heise
Nutzer in der Europäischen Union könnten von den Änderungen teilweise verschont bleiben. Laut internen Dokumenten soll die Entscheidungsfindung für EU-Produkte und Nutzerdaten weiterhin bei Metas europäischer Zentrale in Irland liegen. Grund sind die strengeren EU-Regulierungen wie der Digital Services Act, der Plattformen zu schärferer Überwachung schädlicher Inhalte verpflichtet.
Teil der Neuausrichtung Metas
Die Automatisierung der Risikobewertungen soll Teil einer umfassenderen Neuausrichtung bei Meta sein, die nach dem Wahlsieg von US-Präsident Donald Trump begann. Meta-Chef Mark Zuckerberg sprach Anfang des Jahres von einer kulturellen Zeitenwende und lockerte unter anderem die Regeln zur Bekämpfung von Hassrede und beendete menschengemachte Faktenchecks. Der stärkere Einsatz von KI-Automatisierungen wird bei Meta allerdings auch als nötig angesehen, um im Wettbewerb mit TikTok, OpenAI und anderen bestehen zu können.
Die schrittweise Einführung der KI-basierten Bewertungen läuft den Dokumenten zufolge seit April und Mai 2025. Im März sei sie intern angekündigt worden. Ziel sei es, 90 Prozent aller Risikobewertungen zu automatisieren. Bei komplexen Fällen sollen vorerst weiterhin menschliche Prüfer zum Einsatz kommen, erklärte Meta laut NPR. Es ginge bei der Automatisierung nur um “risikoarme Entscheidungen”. Zudem betonte das Unternehmen, dass es Milliarden US-Dollar in die Privatsphäre der Nutzer investiert habe.
(mki)