MIT Technology Review 8/2022
S. 88
Report
Künstliche Intelligenz
Screenshot: MIT Technology Review / https://geo-not-available.blenderbot.ai/

Die großen Sprachmodelle hinter Chatbots werden mit Unmengen persönlicher Daten aus dem Internet trainiert. Das kann aus Politikern Terroristen machen und aus unserer Autorin eine Schönheitskönigin.

Melissa Heikkilä (Übersetzung: Wolfgang Stieler)

Für einen Reporter, der sich mit Künstlicher Intelligenz befasst, ist eine der spannendsten Entwicklungen dieser Zeit der scheinbar unaufhaltsame Aufstieg der großen Sprachmodelle. KIs, die Texte produzieren, die ein Mensch geschrieben haben könnte – manchmal so überzeugend, dass die Maschinen den Menschen vorgaukeln, sie seien empfindungsfähig (siehe TR 6/22 S.48). Die Leistungsfähigkeit dieser Modelle beruht auf dem Training mit riesigen Textmengen aus dem Internet. Das hat mich zum Nachdenken gebracht: Welche Daten haben diese Modelle über mich? Und könnten sie missbraucht werden?

Die Frage hat einen ernsten Hintergrund: Eine wachsende Zahl von Forschenden warnt genau davor – dass KIs gehackt und gezwungen werden können, ihre Trainingsdaten wieder auszuspucken. Auch sensible, private Daten. Und seit einem einschneidenden Erlebnis vor etwa zehn Jahren bin ich ein wenig paranoid, wenn es darum geht, etwas über mein Privatleben öffentlich zu machen. Meine Bilder und persönlichen Informationen wurden damals in einem Online-Forum verbreitet und dann von Leuten lächerlich gemacht, denen meine Kolumne für eine finnische Zeitung nicht gefiel.