Philosoph: KI ist kein Werkzeug, sondern ein Machtinstrument

Experten zeigen, wie KI Machtverhältnisse verstärkt und soziale Ungleichheit vertieft. Regulierung könne helfen.

vorlesen Druckansicht 45 Kommentare lesen
Rainer MĂĽhlhoff

Rainer Mühlhoff ist Philosoph und Mathematiker und Professor an der Universität Osnabrück.

(Bild: LfDI BW)

Lesezeit: 7 Min.
Inhaltsverzeichnis
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Auf der KI-Woche des baden-württembergischen Datenschutzbeauftragten sprach der Philosoph und Ethiker Rainer Mühlhoff, Professor für "Ethik und kritische Theorien der Künstlichen Intelligenz", über die gesellschaftlichen, politischen und ideologischen Dimensionen aktueller KI-Entwicklungen. Mühlhoff zeichnete ein umfassendes kritisches Bild, das die scheinbare Neutralität von KI infrage stellt und die Technologie als komplexes sozioökonomisches Machtinstrument versteht.

Schon seit der Antike, so Mühlhoff, habe es die Faszination gegeben, "das Menschliche zu mechanisieren". Doch während die Fantasie der Technik immer größer werde, gingen "die futuristischen Visionen der KI […] oft mit einem erstaunlichen sozialen Konservatismus einher". Auch die Visualisierungen von KI – etwa als "denkendes Gehirn aus Licht" – zeigen nach Mühlhoff eine problematische Anthropomorphisierung und Mythologisierung der Technologie.

Er plädierte dafür, KI nicht länger als "maschinelle Intelligenz" im Sinne eines autonomen Systems zu verstehen, sondern als "menschengestützte KI", die erheblich auf menschliche Beteiligung beruht – über Datenspuren, Klickarbeit oder alltägliche Interaktionen. "In allen KI‑Systemen steckt menschliche Mitarbeit, menschliche kognitive Leistung", sagte Mühlhoff. Mit den Systemen entstehe eine neue Form digitaler Ausbeutung, die sich nicht nur durch global ungleich verteilte Klickarbeit auszeichnet, sondern auch enormem Wasser- und Energieverbrauch bei der Modellentwicklung erfordert.

Als aktuellste Form von Datenmacht nannte Mühlhoff die Vorhersagemacht – also die Fähigkeit, "über beliebige Individuen unbekannte Informationen vorherzusagen". Das Spektrum reiche von personalisierter Werbung bis hin zur Diagnose psychischer Erkrankungen aus Sprachmustern. Das ginge weit über klassische Datenschutzvorstellungen hinaus, denn die Vorhersagen beträfen nicht nur jene, deren Daten zur Entwicklung der Systeme verwendet wurden, sondern auch Dritte, über die sich auf Basis der Modelle Aussagen treffen lassen und die dazu keine Einwilligung gegeben haben. Vom geltenden Datenschutzrecht werde dieser Aspekt bisher kaum erfasst.

Anhand mehrerer Beispiele zeigte Mühlhoff, wie aus Marketingkampagnen oder medizinischer Forschung Modelle hervorgehen können, die dann für völlig andere Zwecke genutzt werden – etwa zur Bewertung von Bewerberinnen und Bewerbern. Hier entstehe eine gefährliche Sekundärnutzung, die mit klassischen Prinzipien wie Anonymisierung nicht mehr kontrolliert werden könne.

In Forschungsprojekten schlägt Mühlhoff gemeinsam mit der Juristin Hanna Ruschemeier vor, das Zweckbindungsprinzip des Datenschutzes auch auf trainierte Modelle auszuweiten: Wenn ein KI-System in einem medizinischen Kontext entstehe, dürfe es nicht unbegrenzt in andere Kontexte "wandern". Die Forscher fordern daher eine Registrierung von Modellen, die ihre ursprüngliche Zweckbindung dokumentiert und kontrollierbar macht.

KI-Systeme tragen maßgeblich zur politischen Machtausübung und Propaganda bei, erklärte Mühlhoff. Generative Modelle ermöglichten neue Formen symbolischer Gewalt und Desinformation. "Fake News" im klassischen Sinn würden dabei von "hyperreellen Bildern" abgelöst – ästhetisch überhöhten Darstellungen, die nicht täuschen, sondern bewusst zeigen, dass sie künstlich erzeugt sind. Gerade diese superreellen Bilder fungierten nach Mühlhoff als Machtdemonstrationen, die unter anderem Überlegenheit und Autorität zeigen.

Darüber hinaus erklärte Mühlhoff die ideologischen Wurzeln der KI-Eliten, die er im Transhumanismus und Longterminismus verortet. Bei diesen Weltbildern wird der technologische Fortschritt als evolutionäre Kraft gesehen, die den Menschen "über sich hinausheben" solle. Dabei zeigten sich laut Mühlhoff eugenische, elitäre und antidemokratische Tendenzen. Besonders kritisch seien Unternehmer wie Elon Musk oder Peter Thiel, deren Denken zwischen Heilsversprechen technologischer Erlösung und politischem Autoritarismus schwanke. "In der Verquickung technologischer Heilsversprechen und politischer Machtwünsche liegt einiges faschistoides Potenzial", so Mühlhoff.

Er ist nicht der Ansicht, dass Konzepte wie der "Human in the Loop" wirksamen Schutz bieten. In der Praxis fehle den Menschen dazu vor allem die Zeit. "KI ist eine neue Form von Einhegung in Ausnutzungsapparate", sagte Mühlhoff. Sie führe weniger zur Ersetzung als zur Einhegung menschlicher Arbeit. Das wiederum ermögliche mehr Kontrolle und größere Austauschbarkeit.

Oft ist auch von KI als "bloßem Werkzeug" die Rede, das ist Mühlhoff zufolge nicht so. Technologie präge die Zwecke ihres Einsatzes selbst mit und sei nicht neutral. Transparenz sei wichtig, aber keine Garantie – denn in komplexen Gesellschaften könne nicht jeder die inneren Mechanismen verstehen. Entscheidend sei vielmehr Prüfbarkeit durch unabhängige Akteure und Institutionen.

Gerade bei Themen wie Web-Scraping und Datenextraktion plädierte Mühlhoff für eine machtsensible Perspektive. Die Frage sei nicht nur, ob die Verarbeitung verhältnismäßig sei, sondern wer sie durchführe und welche Interessen dabei im Spiel seien. Solange die Produktion und Nutzung großer KI-Modelle praktisch nur kapitalstarken Konzernen offen stünden, bleibe von "Gemeinwohlorientierung" kaum etwas übrig. Laut Mühlhoff könne Datenschutz vor Machtmissbrauch, Ungleichheit und digitalem Autoritarismus schützen und damit die Grundlagen einer offenen, demokratischen Gesellschaft sichern.

Große Systeme wie ChatGPT lernen aus riesigen Datenmengen und speichern dabei auch persönliche Informationen. Datenschutzrechtlich ist das laut Juniorprofessorin Paulina Jo Pesch von der FAU Erlangen-Nürnberg brisant, wie sie in einem weiteren Vortrag ausführte, weil Modelle "mehr speichern als man will und dann die Extraktion von Informationen auf den Trainingsdaten erlauben".

Besonders kritisch werde es, wenn sogenannte Halluzinationen zu falschen oder diffamierenden Aussagen über reale Personen führten. "Das ist ein ziemlich eindrücklicher Fall von unrichtigen Daten, die aus einem Large Language Model kommen", sagte Pesch mit Blick auf ein bekanntes Beispiel aus 2024, bei dem ein Journalist von ChatGPT fälschlicherweise als Straftäter bezeichnet wurde. Gleichzeitig will Big Tech immer mehr Daten zum Training seiner KI-Modelle. "Meta möchte, dass persönliche Informationen verwendet werden für das Training," betonte Pesch.

Besonders schutzwürdige Gruppen wie Kinder und Jugendliche können Pesch zufolge ebenfalls vom Datentraining betroffen sein – ohne wirksame technische Schutzmechanismen oder niedrigschwellig umsetzbare Widerspruchsmöglichkeiten. Zwar habe Meta behauptet, keine Inhalte von Minderjährigen für das Training zu verwenden, allerdings verlaufe diese Zusicherung ins Leere. Oft würden Jugendliche ihre Accounts bei Instagram oder Facebook mit falschem Alter anlegen. Das werde von Meta nicht effektiv kontrolliert. Damit würden auch ihre Inhalte als Daten Erwachsener gelten und könnten potenziell ins KI‑Training einfließen. Viele Menschen nehmen ihren Widerspruch gegen die Nutzung ihrer Daten für Metas KI‑Training laut Pesch nicht wahr, weil Meta den Vorgang absichtlich kompliziert und intransparent gestaltet habe.

Videos by heise

Gegen Metas Vorgehen hatte die Verbraucherzentrale NRW geklagt, blieb jedoch vor dem Oberlandesgericht Köln erfolglos. Laut Pesch habe das Gericht zentrale technische Sachverhalte ausgeblendet. Besonders problematisch sei, "dass das Gericht offenbar nicht wusste, was da eigentlich trainiert werde und dass das nicht nur für Übersetzungen, Transkriptionen in WhatsApp und Instagram und Facebook eingesetzt wird, sondern dass da so ein KI-Modell für allgemeine Verwendungszwecke entsteht".

In ihrem Blogbeitrag auf CR-online "AI hot mess – Meta at German courts and the troubling state of EU regulation" kritisiert Pesch das Vorgehen in Köln als Beispiel für ein grundsätzliches Vollzugsproblem unter dem Druck des KI-Hypes. Es bestehe die Gefahr der unzureichenden Durchsetzung und Aushöhlung rechtlicher Schutzmechanismen. Ein Gericht, das seine Rolle ernst nehmen, würde Metas Sprachmodell Llama zumindest zum aktuellen Zeitpunkt nicht mit persönlichen Daten trainieren lassen.

(mack)