Gut oder Böse?

Vor der Anwendung dieser KI lesen Sie das Kleingedruckte und fragen Sie Ihren Anwalt oder Philosophen.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 2 Min.

Vielleicht hätte ich doch Philosophie studieren sollen. Oder zumindest im Nebenfach mal ein Seminar zu Ethik belegen. Das Thema ist ja mittlerweile schwer in Mode. Wegen der KI.

Genauer gesagt: Aus Angst vor weiteren Erfolgen der KI-Forschung. Angesichts der Erfolge von Deepmind und Co. fürchten mittlerweile zumindest einige Politiker, dass KI-Systeme grundsätzlich aus dem Ruder laufen könnten.

Allenthalben wird deshalb über ethische Grundlagen für den Einsatz von KI diskutiert. Was nicht heißt, dass Diskussionen Folgen haben müssen: Zwar gibt es seit 2018 einen Vorschlag von Kanada und Frankreich, analog zum Weltklimarat eine Organisation namens "Global Partnership" zu bilden, die ethische Probleme im Zusammenhang mit KI untersuchen und diskutieren soll. Der Vorschlag liegt aber noch immer auf Eis, weil die USA fürchtet solch eine Organisation könne die technische Entwicklung durch Überregulierung bremsen.

Statt dessen setzt man lieber auf Selbstverpflichtung, wie zum Beispiel bei Google. Der Konzern hat zwar KI-Prinzipien veröffentlicht, die aber sehr allgemein gehalten sind. Dass das keinesfalls ein Versehen ist, glauben Kritiker wie Jack Poulson. Der Mathematiker hatte seinen Job bei Google Research hingeschmissen, nachdem öffentlich wurde, dass der Konzern klammheimlich an einer – natürlich zensierten – Such-App für China arbeitet. Jetzt leitet Poulson eine NGO, die Druck auf Konzerne wie Google ausüben will, damit die nicht von Menschenrechtsverletzungen profitieren.

In einem Interview für die nächste TR-Ausgabe (Spoiler ;-)) wies Poulson auch auf ein hübsches Beispiel für institutionelles Ethik-Whitewashing hin: Die KI-Prinzipien des US-Verteidigungsministeriums. Diese Vorschläge des Defense Innovation Board konzentrieren sich nämlich zum einen darauf, nur ethische Probleme zu diskutieren, die im Zusammenhang mit dem militärischen Einsatz von KI neu sind. Und sie konzentrieren sich darauf, das unbeabsichtigte Verursachen von zivilen Schäden zu vermeiden. Nach dem Motto: Wenn es beabsichtigt war, hatten wir schon unsere Gründe, und wir sind schließlich die Guten.

Je mehr ich zu dem Thema lese, desto mehr wächst in mir der Verdacht, dass die ganze Ethik-Debatte immer mehr zum Spielfeld lange arbeitsloser Geisteswissenschaftler wird, die jetzt plötzlich lukrative Jobs bekommen. Leute, die wissen, wie man Fußnoten in Fußnoten versteckt. Nach dem Motto: Bei Fragen oder Problemen mit dem Einsatz dieser Drohne fragen Sie Ihren Juristen oder Philosophen. Beruhigend ist das nicht. Ganz im Gegenteil.

(wst)