UN-Berichterstatter: "Welt stolpert wie Zombie in digitalen Anti-Sozialstaat"

Mit scharfen Worten warnt der UN-Sonderbeauftragte für extreme Armut, Philip Alston, vor "menschenrechtsfreien Zonen" im Algorithmen-gesteuerten Sozialstaat

In Pocket speichern vorlesen Druckansicht 45 Kommentare lesen
UN-Berichterstatter: "Die Welt stolpert wie ein Zombie in den digitalen Anti-Sozialstaat"

(Bild: HQuality/Shutterstock.com)

Lesezeit: 4 Min.
Von

Ein erschreckendes Bild zeichnet der UN-Sonderbeauftragte für extreme Armut und Menschenrechte, Philip Alston, in einem jetzt veröffentlichten Bericht vom Einsatz digitaler Techniken wie Künstliche Intelligenz (KI) oder Biometrie in der Sozialverwaltung. Der Australier warnt darin: "Während die Menschheit – möglicherweise unaufhaltsam – auf eine Zukunft der digitalen Wohlfahrt zusteuert, muss sie das Ruder rasch herumreißen, um zu verhindern, wie ein Zombie in einen Anti-Sozialstaat zu stolpern."

Viele Initiativen, die Sozialversorgung in den Ämtern mithilfe von algorithmischer Entscheidungsfindung zu digitalisieren, entpuppen sich laut Alston als "trojanische Pferde für eine neoliberale Feindseligkeit" gegenüber dem Schutz sozial schwächerer Bevölkerungsgruppen. Die Tatsache, dass selbst Regierungen in Ländern mit massiven Schwächen bei der Rechtsstaatlichkeit mit biometrischen Identifizierungssystemen ganz neue Möglichkeiten der Kontrolle und des Missbrauchs erhielten, sollte jedem, der sich auch nur entfernt für ein menschenfreundliches digitales Zeitalter einsetze, "einen Schauder über den Rücken laufen lassen".

Der digitale Wohlfahrtsstaat wird dem Bericht zufolge in der Regel als "altruistische und ehrenhafte Unternehmung" dargestellt, dank der alle Bürger von den neuen Technologien profitieren, eine effizientere Verwaltung erfahren und insgesamt besser leben können sollen. In der Praxis führe die Digitalisierung in diesem Bereich aber oft zu tiefen Einschnitten in das gesamte sozialstaatliche Budget, zu einem reduzierten Kreis an Hilfsempfängern und dem Wegfall von Leistungen. Oft würden die Bedingungen für staatliche Hilfe zudem hochgesetzt, an gewisse Verhaltensänderungen geknüpft sowie schärfere Sanktionsregeln eingeführt. Insgesamt laufe dies auf eine völlige Umkehr der traditionellen Vorstellung hinaus, dass der Staat den Bürgern dienen solle.

Soziale Schutzsysteme würden im Rahmen der "digitalen Transformation" zunehmend durch Big-Data-Analysen und weitere Technologien befeuert, bei denen es darum gehe, Entscheidungen zu automatisieren, menschliche Schwächen zu identifizieren sowie Individuen zu überwachen oder zu bestrafen, holt Alston weiter aus. Als "großen Grund zur Sorge" bezeichnet er dabei die "dominante Rolle der Privatwirtschaft" etwa auch in Teilen der Verwaltung in Deutschland, um wichtige Teile des digitalen Sozialwesens zu entwerfen oder gar zu betreiben: "Die meisten Regierungen haben es versäumt, Big-Tech-Firmen Menschenrechtsstandards zu unterwerfen."

Große IT-Konzerne selbst weigerten sich standhaft, ihre Aktivitäten mit Menschenrechten wie dem Schutz der Privatsphäre in Einklang zu bringen, beklagt der New Yorker Rechtsprofessor. Auch der Zivilgesellschaft sei es bislang nicht gelungen, Wirtschaft, Politik und Gesellschaft von den "desaströsen" Folgen einer technologiegetriebenen Zukunft zu überzeugen, die keinen Respekt gegenüber den Menschenrechten zeige und nicht auf dem Prinzip der Rechtsstaatlichkeit gründe. Das ganze Ausmaß der Bedrohungen gerade durch KI sei noch gar nicht aufgezeichnet worden.

Auf der Basis von 60 Stellungnahmen von zivilgesellschaftlichen Organisationen, Wissenschaftlern oder Unternehmen sowie Vor-Ort-Besuchen in diversen Ländern führt Alston auf den 19 Seiten zahlreiche Beispiele an. Er geht dabei etwa auf den Versuch Kenias ein, die gesamte Bevölkerung biometrisch zu erfassen, oder auf ein System zur automatisierten Risikoerkennung niederländischer Behörden.

Diese wollen damit etwa herausfinden, ob und welche Bürger den Staat möglicherweise betrügen, indem sie zu Unrecht Wohngeld, Arbeitslosengeld oder sonstige Sozialleistungen beziehen, Steuerbetrug begehen oder schwarz arbeiten. Mit dieser "System Risk Indication (SyRI)" errichten die Niederlande nach Ansicht Alstons einen "Überwachungsstaat für die Armen". Er unterstütze daher eine Klage von Menschenrechtsgruppen und besorgten Bürgern gegen das gesellschaftliche Scoring-Verfahren.

Der Sonderbeauftragte wird seinen Bericht am Freitag vor der UN-Generalversammlung in New York vorstellen. Die Schärfe des Berichts verweist nach Einschätzung von AlgorithmWatch auf "einen wachsenden Konsens unter Akademikern", dass "automatisierte Entscheidungsfindung im öffentlichen Sektor bei weitem kein neutrales Instrument ist". Die Organisation hat Alston eigene Erkenntnisse in diesem Bereich zugeliefert. Gemeinsam mit anderen zivilgesellschaftlichen Vereinigungen wie Access Now, Amnesty International Human Rights Watch oder Privacy International fordert sie, dass Regierungen bei einschlägigen Technologien Transparenz, Zurechenbarkeit und den Schutz von Menschenrechten gesetzlich verpflichtend machen. (siko)