Überwachung: Big-Data-Firmen nutzen ChatGPT als übermächtigen Hilfssheriff

Die Amsterdamer Firma Social Links baut auf ChatGPT zur Analyse von Stimmungen in sozialen Netzwerken, um etwa aufkommende Protestbewegungen früh zu erkennen.

In Pocket speichern vorlesen Druckansicht 54 Kommentare lesen
Chatgpt,Chat,With,Ai,Or,Artificial,Intelligence.,Young,Businessman,Chatting

(Bild: CHUAN CHUAN/Shutterstock.com)

Lesezeit: 4 Min.

Unternehmen, die auf die Analyse großer Datenmengen und digitale Forensik spezialisiert sind, setzen verstärkt auf ChatGPT und andere Systeme mit Künstlicher Intelligenz (KI) zur Überwachung von Social-Media-Nutzern. Social Links etwa führte auf der Messe Milipol in Paris, die auf den Bereich innere Sicherheit ausgerichtet ist, ein einschlägiges Instrument zur "Stimmungsanalyse" vor. Es könne Empfindungen von Mitgliedern sozialer Netzwerke wie X (vormals Twitter) oder Facebook erkennen sowie häufig diskutierte Themen hervorheben, berichtet das US-Magazin Forbes. Ziel sei es, etwa aufkommende Protestbewegungen auszumachen und Strafverfolgungsbehörden in Alarmbereitschaft zu versetzen.

Zu den Gründern von Social Links zählt der russische Unternehmer Andrey Kulikov. Das 2017 ins Leben gerufene Unternehmen mit rund 600 Kunden allein in Europa und den USA hat seinen Hauptsitz in Amsterdam, inzwischen aber auch eine Niederlassung in New York. Meta bezeichnete die Firma Ende 2022 in einem Bericht als Spyware-Anbieter und sperrte 3700 Facebook- und Instagram-Konten, die sie angeblich zum wiederholten Ausspähen der beiden Plattformen des US-Konzerns missbraucht habe. Social Links weist dies genauso zurück wie Vorwürfe über Verbindungen zu russischen Geheimdiensten.

In einer in Paris gezeigten Demo beauftragte ein Anwender laut Forbes das Werkzeug von Social Links, auf sein Interessengebiet relevante Beiträge aus sozialen Netzwerken abzurufen. Diese kann der User demnach anschließend über die Benutzeroberfläche des Programms analysieren, wobei die Daten auf seinem Computer gespeichert werden. Der Social-Links-Analyst Bruno Alonso habe die Software eingesetzt, um die Online-Reaktionen auf den umstrittenen Deal auszuwerten, mit der sich der spanische Ministerpräsident Pedro Sánchez mithilfe von Zusagen an die katalanische Unabhängigkeitsbewegung an der Macht hielt. Das Tool durchsuchte demnach X nach Beiträgen mit Schlüsselwörtern und Hashtags wie "Amnestie" und übermittelte sie automatisiert an ChatGPT.

Der Bot habe dann die Stimmung der Postings als positiv, negativ oder neutral bewertet und die Ergebnisse in einem interaktiven Diagramm angezeigt, heißt es in dem Bericht. Das Tool sei auch in der Lage, Online-Diskussionen auf anderen Plattformen wie Facebook schnell zusammenzufassen und bewegende Themen auszumachen. Laut der Präsentation könnten Fahnder zusätzlich auf integrierte Fähigkeiten zur biometrischen Gesichtserkennung setzen, um etwa Personen ausfindig zu machen, die sich negativ zu einer Angelegenheit geäußert haben sollen. Alonso habe betont: "Die Möglichkeiten sind wirklich endlos." Jay Stanley von der Bürgerrechtsorganisation American Civil Liberties Union (ACLU) warnt dagegen, solche KI-Agenten ermöglichten eine nie dagewesene automatisierte Form der Überwachung von Individuen und Gruppen, die weit über menschliche Fähigkeiten hinausgehe.

Der ChatGPT-Hersteller OpenAI wollte sich nicht dazu äußern. Er untersagt in seinen Geschäftsbedingungen eigentlich "Aktivitäten, die die Privatsphäre von Personen verletzen" einschließlich der "Verfolgung oder Überwachung" ohne Einwilligung. "Wir halten uns strikt an die OpenAI-Richtlinien", beteuerte ein Social-Links-Sprecher gegenüber Forbes. Man verwende das System letztlich nur zur Textanalyse und zur Zusammenfassung von Inhalten. Andy Martin von der israelischen Forensik-Firma Cellebrite meinte auf der Milipol, dass große Sprachmodelle wie GPT für alle Arten von Strafverfolgungsmaßnahmen von großem Nutzen seien. Die Palette reiche von der Durchsuchung mitgeschnittener Anrufe, um etwa Anomalien im "Lebensmuster" einer Person zu finden, bis hin zu technologisch unterstützten Befragungen. Dabei könne die KI Ermittler während eines Verhörs mit zusätzlichen Informationen versorgen. Er räumte aber ein, dass KI immer voreingenommen sei.

(bme)