Solidarität in der KI-Ära: Das ethische Dilemma der Zivilgesellschaft
Eine Initiative für "demokratische KI" zeigt, wie gemeinwohlorientierte Organisationen dem von Tech-Giganten dominierten KI-Markt Werte entgegensetzen können.
Das vom netzpolitischen Verein D64 geleitete Projekt "Code of Conduct Demokratische KI" hat gemeinsam mit knapp 20 zivilgesellschaftlichen Organisationen wie der Arbeiterwohlfahrt, der Bundesarbeitsgemeinschaft für Seniorenorganisationen (BAGSO) und dem FrauenComputerZentrumBerlin am Montag ein Weißbuch zur "solidarischen Praxis entlang der Nutzung von KI" veröffentlicht. Die Macher wollen damit NGOs einen praxisnahen Leitfaden zur Hand geben.
Dies soll bei dem Dilemma helfen, vor dem insbesondere NGOs stehen: Solidarität gilt als zentraler Wert gesellschaftlichen Handelns, doch im Kontext Künstlicher Intelligenz (KI) scheint dieser Anspruch kaum erfüllbar. Wenige globale Unternehmen, insbesondere aus den USA und China, dominieren die Entwicklung großer KI-Modelle und die digitale Infrastruktur, wodurch digitale Räume von ungleichen Machtverhältnissen geprägt sind. Gemeinwohlorientierte Organisationen stecken daher in einer Zwickmühle: Sie sind oft gezwungen, kommerzielle Systeme zu nutzen, deren Entstehungsbedingungen sie nicht kontrollieren können – etwa in Bezug auf schlechte Arbeitsbedingungen, hohen Energieverbrauch und Monopolstrukturen.
Der Einsatz von KI-Systemen bringe grundlegende Herausforderungen mit sich, die dem Prinzip der Solidarität widersprechen, heißt es in dem Papier. Dazu gehörten die unsichtbare, oft ausbeuterische digitale Arbeit für das Erstellen von Metadaten und Annotationen, immense ökologische Kosten durch Energieverbrauch und Ressourcenabbau, der Mangel an Teilhabe vulnerabler Gruppen an Entscheidungen sowie die Verdrängung von Gemeinwohl durch vermeintliche Effizienznarrative. Zudem würden Journalisten, Autoren oder Künstler, deren Inhalte OpenAI, Google, Anthropic & Co. zum Training ihrer KI-Modelle nutzen, weder angemessen vergütet noch anerkannt.
Bewusster Verzicht auf ChatGPT & Co.
Das Ziel muss daher laut der Initiative sein, Solidarität als bewusstes Prinzip in der Gestaltung, Auswahl und im Einsatz von KI zu verankern. Die Zivilgesellschaft könne ihre Rolle als kritische Anwenderin und Gestalterin ausspielen, um durch bewusste Entscheidungen konkrete Handlungsräume zu öffnen. Dies gelte etwa für die Auswahl von Modellen und KI-Apps, den Kompetenzaufbau und die Arbeit an gemeinsamen Standards.
Solidarisches Handeln sollte dabei entlang des gesamten Nutzungszyklus von KI verankert werden, heißt es in dem White Paper. In der Entwicklungsphase bedeute dies, auf Transparenz über Datensets und Algorithmen zu pochen, diverse Trainingsdaten zur Reduktion von Voreingenommenheit zu gebrauchen und die Bedürfnisse marginalisierter Gruppen einzubeziehen. Ferner müsse die unsichtbare Arbeit von Clickworkern anerkannt werden. Auch für diese sollten faire Bedingungen gelten.
Videos by heise
Die Verfasser sehen die Wahl konkreter KI-Anwendungen als Hebel. Hier empfehlen sie, offene (Open Source) oder teiloffene (Open Weight) Modelle zu nutzen, um die Überprüfbarkeit zu erleichtern und technologische Abhängigkeiten zu reduzieren. Zugleich sei es essenziell, klare Grenzen und Nicht-Anwendungsbereiche festzulegen, etwa in sensiblen Bereichen wie der Personalauswahl oder bei ressourcenintensiver Bildgenerierung. Als Vorbild gelte der Verein Digitale Gesellschaft, der sich nach eingehender Abwägung bewusst gegen die Nutzung generativer KI wie ChatGPT entschieden hat. Denn die potenziellen Vorteile wögen die Risiken einer Reproduktion von Diskriminierungen und der Verfestigung ausbeuterischer Lieferketten nicht auf.
KI darf Menschen nicht ersetzen
In der Einsatzphase muss Solidarität durch die Befähigung von Mitarbeitenden und die gemeinsame Reflexion von Verantwortlichkeiten gesichert werden, lautet ein weiterer Appell. Die Einführung von KI erfordere den Aufbau von Datenkompetenz durch niedrigschwellige Bildungsangebote. Entstehende Effizienzgewinne sollten vorrangig dafür genutzt werden, Freiräume für Beziehungsarbeit, Fürsorge oder strategische Tätigkeiten zu schaffen. Menschliche Arbeit sollte nicht ersetzt werden.
Ein Beispiel für gemeinsames Lernen ist den Autoren zufolge das BAGSO-Projekt "KI für ein gutes Altern", in dem ältere Menschen an speziellen Lernorten Kompetenzen stärken und ihr Wissen weitergeben könnten. Im November unterzeichnete ein Bündnis aus der Zivilgesellschaft bereits unter dem Aufhänger "demokratische KI" eine Selbstverpflichtung für den Umgang mit der Technik.
(nie)