c't-Podcast: "Wir brauchen Faschismus-resistente Systeme"
Vor der Bundestagswahl warnt Technik-Ethikerin Anita Klingel, dass sich die Verwaltung darauf vorbereiten muss, dass KI-Systeme missbraucht werden können.
- Eva Wolfangel
- Svea Eckert
Künstliche Intelligenz kommt auch in der öffentlichen Verwaltung - und noch bevor die Technologie in großem Stil genutzt wird, könnte sie zur Gefahr werden: wenn sie von undemokratischen Kräften ausgenutzt wird.
Mit Blick auf die bevorstehende Wahl und angesichts des Erstarkens rechtsradikaler Parteien ist es von daher an der Zeit, sich mit Faschismus resistenten digitalen Systemen zu beschäftigen. Das fordert Anita Klingel im c't-Podcast "Frauen und Technik". Klingel ist Expertin für Technik-Ethik und berät die öffentliche Hand in Bezug auf Digitalisierung und künstliche Intelligenz. "Über Faschismus resistente Systeme wird meines Erachtens viel zu wenig nachgedacht", sagt Klingel.
Doch ein Beispiel zeigt, wie schnell gut gemeinte Lösungen nach hinten losgehen können, wenn sie in falsche Hände geraten. So gebe es beispielsweise ein System für deutsche Schulen, das Schülerinnen und Schülern aus anderen Ländern helfen soll, Mathe-Textaufgaben zu verstehen. Denn deren Problem ist oft nicht, dass sie die Mathematik dahinter nicht verstehen, sondern dass sie die Textaufgabe zunächst in ihre Muttersprache übersetzen müssen und ihnen dann die Zeit fehlt, die Aufgabe zu lösen. Das wird nun von diesem System erledigt, das automatisiert eine Version der Aufgabe in der jeweiligen Sprache erzeugt. "Dahinter liegt eine Datenbank, die verzeichnet, was die Muttersprache jedes Lernenden ist", erklärt Klingel. Mit diesen Daten lassen sich also Schülerinnen und Schüler mit Migrationshintergrund mit einem Klick heraussortieren. "Das ist eine Datenbank, die ich nicht in den Händen einer migrationsfeindlich eingestellten Partei haben will", sagt Klingel.
Die Folgen zeigen sich gerade auch in den USA, in denen Donald Trumps DOGE-Behörde Zugriff auf viele sensible Daten hat, die einst mit guter Absicht erhoben wurden. Eine solche Technologie lasse sich aber so umsetzen, dass sie nicht entsprechend missbraucht werden kann nach einem Machtwechsel, sagt Klingel: "Wir könnten diese Datenbank zum Beispiel so bauen, dass ein Datenfeld mit einem Klick gelöscht werden kann." Im Falle der Schul-Software wäre dann die Muttersprache einfach nicht mehr verzeichnet. Das heißt, sollten in Zukunft in manchen Behörden oder Ministerien nicht demokratische Kräfte einziehen, können die scheidenden Mitarbeitenden die Systeme entsprechend entschärfen. "Das wäre dann die letzte Aufgabe des demokratischen Beamten", erklärt Klingel.
Das sei übrigens in Afghanistan nach dem dortigen Abzug der deutschen Truppen ähnlich verlaufen: "Dort gab es ein ähnliches Register für die Übersetzerinnen, was vor dem Abzug gelöscht wurde." Ein solches Faschismus-resistentes System sollte intuitiv funktionieren: "Bestimmte Datenfelder sollten möglichst einfach entfernt werden können", so Klingel, damit auch technisch wenig bewanderte Personen diesen letzten demokratischen Klick tätigen können.
Der erste Schritt sei aber natürlich, sich bei jedem KI-System, das für die Verwaltung und Behörden entwickelt wird, zuerst die Frage zu stellen, was schiefgehen kann und wie dieses beispielsweise missbraucht werden könnte oder welche anderen problematischen Folgen dessen Nutzung haben könnte. Schließlich fallen KI-Systeme auch immer wieder durch rassistische oder sexistische Verzerrungen auf, was gerade im Bereich der öffentlichen Verwaltung schwerwiegende Folgen haben kann. Im Podcast stellt Klingel Methoden vor, wie Teams in Verwaltungen und Behörden KI-Systeme beispielsweise auf Verzerrungen überprüfen können. Sie erklärt, welche Prozesse dabei helfen, entsprechende Herausforderungen rechtzeitig aufzuspüren und zu entscheiden, wie mit diesen umgegangen werden soll.
Zusammenarbeit wichtig
Dabei sei es wichtig, dass verschiedene Disziplinen eng zusammenarbeiten. "Oft sprechen wir verschiedene Sprachen", erklärt die Expertin – und man nehme einander oft nicht ernst genug. Während die einen abfällig vom "Techie" sprechen, machen sich andere über die "Ethiktante" lustig. "Es dauert, bis daraus ein Verständnis geworden ist." Dieses Verständnis und diese Zusammenarbeit seien aber unabdingbar für eine gute Verwaltungsdigitalisierung. "Diejenigen, die Ethik und Philosophie studiert haben, haben oft wenig Ahnung von der konkreten Technologie. Und die von der Technik Ahnung haben, haben im Studium nie gelernt, darüber nachzudenken, ob das, was technisch geht, auch wirklich gemacht werden sollte." Deshalb brauche es gemischte Teams und interdisziplinäre Ausbildungen.
Noch gibt es aus Klingels Sicht viel zu wenige dieser gemischten Teams. "Die Wichtigkeit der jeweils anderen Rolle wird oft nicht wirklich ernst genommen." Und selbst wenn dann ein solches interdisziplinäres Team mit entsprechenden Methoden eine Lösung entwickelt hat – "dann übersehen wir gerne die menschlichen Entscheider." Also jene Personen, die das System am Ende für ihre tägliche Arbeit nutzen. "Ich kann ein noch so diskriminierungsarmes System bauen", sagt Klingel, "wenn dann am Ende ein Kollege einer bestimmten jetzt zur Wahl zugelassenen Partei dran sitzt, waren die ganzen Bemühungen umsonst."
Solche Themen müssten angesichts der Weltlage mehr diskutiert und umgesetzt werden – und dass das noch nicht der Fall ist, liege auch an mangelnder interdisziplinärer Zusammenarbeit. "Die Schnittmenge zwischen denen, die technisch Ahnung haben und politisch wissen, was auf sie zukommt, ist noch zu gering."
"Frauen und Technik" erscheint jede Woche am Mittwoch. Svea Eckert und Eva Wolfangel diskutieren ein Tech-Thema und treffen inspirierende Frauen aus und rund um die Tech-Welt.
Hier können Sie den Podcast abonnieren.
(mond)