OpenAI: Fünf Operationen zur verdeckten Einflussnahme mittels KI verhindert

Mit KI-Werkzeugen von OpenAI haben Verantwortliche aus Russland und anderen Staaten versucht, online verdeckt Einfluss zu nehmen. OpenAI habe das verhindert.

In Pocket speichern vorlesen Druckansicht 8 Kommentare lesen
ChatGPT-App auf einem Smartphone

(Bild: Tada Images/Shutterstock.com)

Lesezeit: 2 Min.

OpenAI hat in den vergangenen drei Monaten nach eigenen Angaben fünf verdeckte Operationen zerschlagen, für die Akteure aus Russland, China, dem Iran und Israel auf die hauseigene KI-Technik zurückgegriffen haben sollen. Das teilte das US-Unternehmen jetzt mit. Demnach hat OpenAI beobachtet, dass die Verantwortlichen vor allem Text, aber teilweise auch Bilder, in einer Menge KI-generieren ließen, die für Menschen nicht möglich gewesen wäre. Dabei hätten die Akteure die generierten Inhalte mit anderen gemischt und dann auf verschiedenen Seiten im Internet verbreitet. Viel Aufmerksamkeit hätten die Beiträge aber nicht bekommen. Es handelt sich demnach um Versuche, auf Debatten zum Ukraine-Krieg, zum Krieg in Gaza, zu den Wahlen in Indien und damit politischen Einfluss zu nehmen.

Insgesamt schreibt OpenAI die entdeckten Versuche zur Einflussnahme in zwei Fällen Verantwortlichen in Russland zu. Aus den anderen Staaten wurde OpenAI zufolge jeweils eine der Operationen ausgeführt. Laut der Zusammenfassung wurden KI-Modelle von OpenAI unter anderem dafür genutzt, um automatisiert "politische Kommentare" für Telegram und mehrsprachige Beiträge für verschiedene Seiten zu generieren. In einem Fall wurde die KI-Technik auch für Programmieraufgaben eingesetzt. Gemein war den unbekannten Verantwortlichen außerdem, dass sie die KI-Technik benutzt haben, um ihre Identität zu verschleiern. Auch OpenAI macht dazu keine genaueren Angaben. Erfolgreich war demnach keine der fünf Kampagnen.

Das KI-Unternehmen erklärt, mit der Offenlegung für mehr Transparenz rund um den Missbrauch von generierten Inhalten sorgen zu wollen. In einem ausführlichen Bericht erläutert OpenAI, wie die Operationen entdeckt wurden und führt auch Beispiele der KI-generierten Inhalte auf. Zudem versichert das Unternehmen, an Maßnahmen zu arbeiten, um solche Kampagnen zu erschweren. Schon jetzt habe man beobachtet, dass die eigenen KI-Modelle "wiederholt" Anfragen der Akteure verweigert hätten. Gleichzeitig würde es die eigene KI-Technik ermöglichen, Untersuchungen solcher Operationen viel schneller abzuschließen, als das früher möglich gewesen sei. Man fühle sich verpflichtet, auch künftig gegen solche Operationen vorzugehen, heißt es zudem.

(mho)