Sensoren, Daten, Algorithmen: Regieren nach Zahlen oder das Ende des Politischen

Kann das politische Geschäft, kann staatliches Handeln von denselben disruptiven Ansätzen und Techniken profitieren, die den privaten Sektor bereits teilweise transformiert haben? Diese Frage wird derzeit in der Wissenschaft intensiv diskutiert.

In Pocket speichern vorlesen Druckansicht 66 Kommentare lesen
Sensoren, Daten, Algorithmen: Regieren nach Zahlen oder das Ende des Politischen

(Bild: dpa / Ole Spata, Archiv)

Lesezeit: 12 Min.
Von
Inhaltsverzeichnis

Wie können beziehungsweise müssen Verwaltung, Politik und Demokratie fit für das datengetriebene, "smarte" Zeitalter gemacht werden – diese Frage wird in Wissenschaft und Praxis intensiv diskutiert. Kann das politische Geschäft, kann staatliches Handeln von denselben disruptiven Ansätzen und Techniken profitieren, die den privaten Sektor bereits teilweise transformiert haben? Selbst dabei, die Potenziale von Daten-Analyse, Automatisierung, Steuerung und künstlicher Intelligenz einzuschätzen, gehen in der Wissenschaft die Meinungen weit auseinander.

Die Diskussion der Digitalisierung und Automatisierung von Verwaltungshandlungen wird anhand von zwei Beispielen greifbar. In Deutschland wird der Bewohnerparkausweis mittlerweile automatisiert ausgestellt. In Österreich gibt es die Familienbeihilfe vollautomatisiert und ohne Antragstellung der Berechtigten: Die standesamtliche Neuanmeldung eines Kindes löst gleich den Prozess zur Auszahlung des Kindergeldes aus. Automatisierte staatliche (Dienst-)Leistungen, ohne Nummernziehen.

Wer stellt diesen Nutzen allen Ernstes in Frage? Wenn erst die für Automatisierungsprozesse notwendigen digitalen Infrastrukturen und Basistechniken implementiert wurden, lassen sich je nach Bedarf Anwendungen "draufsetzen". Eine Aufgabe der nächsten Bundesregierung könnte sein, die Routineprozesse in der Verwaltung zu lokalisieren, auf ihre Automatisierungspotenziale zu prüfen und darauf basierend diese umzusetzen. Wie weit die hochfrequentieren Standardprozesse dabei auf Autopilot geschaltet werden können, wird die Umsetzung zeigen.

Ein Gastbeitrag von Resa Mohabbat Kar

Resa Mohabbat Kar (@mo_resa) ist wissenschaftlicher Mitarbeiter am Kompetenzzentrum Öffentliche IT (ÖFIT), das am Fraunhofer Institut für offene Kommunikationssysteme (FOKUS) in Berlin angesiedelt ist. Dort forscht er zu technologischen und gesellschaftlichen Aspekten der Digitalisierung im öffentlichen Raum und den staatlichen Handlungsfeldern und Regulierungsanforderungen, die sich daraus ergeben.

Die Möglichkeiten des algorithmischen Verwaltens und Regierens liegen aber nicht nur in der automatischen Ausstellung von Bewohnerparkausweisen. Die auf Verwaltungsseite im Backend arbeitende künstliche Intelligenz soll Effizienzpotenziale offenlegen, durch Mustererkennung die individuelle Fallbearbeitung revolutionieren, schnellere Services für Bürger und Unternehmen ermöglichen. Die Interaktionen mit dem Maschinenraum des Staates könnten so beiläufig und intuitiv werden wie die Wetterabfrage über unsere mobilen Endgeräte.

Aber eignen sich diese Instrumente auch zur politischen Steuerung? Können sie die Entscheider in Politik und Verwaltung bei der Entscheidungsfindung unterstützen, zum Beispiel bei der inneren Sicherheit, bei der Infrastruktur-, Bildungs- und Sozialpolitik? Datengetriebene Technik soll politische Eingriffe evidenzbasiert machen. In der Utopie liefern vorhersagende Algorithmen eine genaue Modellierung von Maßnahmen und Gesetzgebungsvorhaben, noch bevor Menschen die Probleme erkennt haben und Regulierungen in Kraft treten.

Ob zum Beispiel das politisch ausgegebene Ziel eines umweltfreundlichen Verkehrs mit einer nördlichen oder südlichen S-Bahn-Trasse verfolgt werden sollte, könnten – nach der Vorstellung von Technik-Utopisten – Systeme zur algorithmischen Entscheidungsfindung bestimmen. Von der Software-Entscheidung versprechen sie sich das Optimum für das Gemeinwesen, die mechanische Objektivität der nüchternen Berechnung von unzähligen Datenpunkten und quantifizierbaren Gemeinwohlkriterien soll die Schwächen menschlicher Entscheider korrigieren. Dabei "saugen" die Algorithmen die Unübersichtlichkeit und Komplexität der Zielkonflikte und Wechselwirkungen auf und lassen sie in nicht mehr nachvollziehbaren Rechenoperationen verschwinden.

(Un)berechnbar? Algorithmen und Automatisierung

Immer stärker prägen Algorithmen und datenbasierte Technologien die Prozesse, Dienstleistungen und Infrastrukturen in Staat und Gesellschaft. Algorithmische Entscheidungssysteme stehen im Mittelpunkt einer kontrovers geführten Debatte, in der künstliche Intelligenz und Automatisierung mal als Verheißung, mal als Dystopie wahrgenommen werden. Am 23. November 2017 diskutieren am Fraunhofer FOKUS internationale Expert*innen über Auswirkungen, Nutzen und Risiken der algorithmischen Automatisierung in Staat und Gesellschaft. Für die Teilnahme an der Konferenz ist eine Registrierung erforderlich. heise online überträgt die Konferenz im Livestream.

Politik, also das Erkennen und Lösen komplexer gesellschaftlicher Probleme, erscheint plötzlich als mathematische Rechenaufgabe. Sie zu lösen, soll so einfach werden wie eine Suchanfrage bei Google. Kann diese Rechnung aufgehen? Wenn Unglück tatsächlich von mangelhaften Berechnungen stammt (Berthold Brecht), dann scheint die Lösung fürs Erste klar: Der Staat am Steuer braucht lediglich genug Daten und entsprechende Rechenwerkzeuge, um die Gesellschaft Richtung Glück zu steuern. Angesichts von wachsendem Entscheidungsstress, zunehmender Komplexität globaler Entwicklungen und immer größerer Unsicherheit über zukünftige Entwicklungen fragen Staatswissenschaften und, moderner, die Governance-Forschung nicht erst seit gestern nach effizienten Methoden und Werkzeugen zur Steuerung.

Die Kunst des Regierens und die Steuerung gesellschaftlicher Prozesse ist historisch betrachtet eng verbunden mit den jeweiligen Möglichkeiten von Statistik, Wahrscheinlichkeitsrechnung und Informationsverarbeitung. Hier verschiebt der technische Fortschritt kontinuierlich die Grenzen des Berechen-, also Machbaren. Für die Regierungstätigkeit öffnen sich mit neuer Technik daher auch immer neue Möglichkeiten der Regulierung, Intervention und Kontrolle.

Vor allem die gescheiterten Steuerungsutopien der politischen Kybernetik erscheinen angesichts beobachtbarer Techniktrends wieder seltsam aktuell. Der Politikwissenschaftler Karl W. Deutsch hatte Anfang der 1960er Jahre mit seiner faszinierenden Studie "The Nerves of Government. Models of Political Communication and Control" die aus der Nachrichten- und Regelungstechnik stammende Lehre von der Steuerung komplexer Systeme für den Gegenstandsbereich der Politik(wissenschaft) übersetzt. Für Deutsch waren Aufbau und Funktionsweise des Staates identisch mit informationsverarbeitenden Maschinen: Beide seien feedbackbasiert und würden über Rezeptoren Informationen entgegennehmen, analysieren, mit gespeicherten Informationen abgleichen und je nach Zielvorgabe (über "Aktoren") einen Output veranlassen, dessen Wirkung wieder vermessen wird.

Politische und soziale Prozesse wurden so zu einer Frage der Koordination von Informationsströmen, die sich mathematisch genau berechnen und modellieren ließen. Es brauche keine unfähigen Herrscher mehr, die die Gesellschaft sehenden Auges ins Unglück steuern: Die "richtig" programmierte Maschine würde Kurs halten und sich wie auf Autopilot selbst steuern, wenn Daten und Informationen nur ungestört gesammelt würden und fließen könnten.

Im Kontext von Smart City und IoT wirkt diese abstrakte, streng formale Beschreibung von Politik und Gesellschaft plötzlich praxistauglicher denn je, sie wird tatsächlich machbar: Wenn jedes Ding, das uns umgibt, plötzlich "intelligent", "vernetzt" und "steuerbar" wird, dann kann jedes Ding sowohl End- als auch Ausgangspunkt von Steuerungsanweisungen sein. Die algorithmische Regulierung ordnet nicht mehr nur die Online-Welt, sondern über die Aktoren auch die physische Welt und menschliches Verhalten.

Die in Code gegossenen Anweisungen treten nun neben die rechtlichen Ge- und Verbote und bestimmen, was geht und was nicht. Wo sie von privaten Unternehmen geschrieben werden, können sie die staatliche Rechtsordnung aushebeln. Es geht bei der algorithmischen Regulierung jedoch nicht mehr um ein Sollen, wie bei Rechtsnormen, die dem Menschen ja erstmal die freie Wahl lassen. Die Vorschriften des Algorithmus führen sich ad hoc und selbstständig aus, sie brauchen also keine Ordnungshüter.

Wo totale Kontrolle herrscht, braucht es keine Wächter. Das zu schnell fahrende Auto bremst sich selbst aus oder veranlasst die automatische Abbuchung eines Bußgeldes. Vielleicht können die normierten Regeln auch gar nicht mehr übertreten werden. Eine normkonforme Gesellschaft, die durch programmierte, immer korrekt agierende Objekte und zwingende Architekturen gesteuert wird – Utopie oder Dystopie?

Für die perfekte Regulierung unserer Gesellschaft und ihrer Subsysteme bräuchte es nur noch die Vorgabe von Zielen, etwa im Gesundheitssystem, auf dem Arbeitsmarkt, beim Klima oder der inneren Sicherheit. Dann müsste nur noch in Echtzeit gemessen und datenbasiert gesteuert werden, Sensoren und Daten sind da, jede Regung wird erfasst, Algorithmen übernehmen die Steuerung. Das sind die Vorstellungen von Tim O‘Reilly, einflussreicher Technologe und Medienunternehmer. O’Reilly spricht hier stellvertretend für eine ganze Generation von einflussreichen Pionieren und Gründern aus dem Techniksektor. Für viele dieser Innovatoren und Technikutopisten erscheinen Bürokratie und Demokratie als veraltete Techniken. Sie propagieren neue staatliche Regierungstechniken, die unter anderem auch in Konzepten wie Open Government, Open Data und Smart City angelegt sind.

Keine Frage, der Einsatz algorithmischer Datenverarbeitungssysteme zur Erreichung von Zielen verspricht kaum vorstellbare Effizienzsteigerungen und Prozessoptimierung. Das Wie der Politik ist jedoch mindestens so entscheidend wie die Ziele. Auf welche Art und Weise wir die Zahl von Verkehrstoten senken, innere Sicherheit herstellen oder öffentliche Gesundheit erhalten wollen – welche Kosten wir in Kauf nehmen wollen, welche Risiken wir zu akzeptieren bereit sind oder welche Lasten wir vergemeinschaften sollten – das sind explizit politische Fragen, die gesellschaftlich verhandelt werden müssen und nicht algorithmischer Prozessoptimierung überlassen werden können. Rechtsstaatliches Handeln ist nicht erst dann wertvoll, wenn sich damit besonders effizient gesellschaftliche Probleme lösen lassen. Politische Prozesse in einer Demokratie müssen nicht wie eine App nützlich sein. Denn: Das Design von Rechtsstaat und Demokratie sind bewusst und zu Recht auf Legitimität ausgelegt, nicht auf Disruption.

Auch die Wissensgrundlagen, auf denen Entscheidungen beruhen, verändern sich. Bereits jetzt haben die Möglichkeiten der Datenerfassung und -analyse die üblichen wissenschaftlichen Modelle der Entscheidungsfindung auf den Kopf gestellt. Deduktive Verfahren und Theoriebildung erscheinen plötzlich nicht notwendig, einzelne Phänomene brauchen nicht mehr verstanden zu werden – es wird davon ausgegangen, dass die schiere Masse an Daten ein exaktes Abbild der Realität liefert.

In einer Fortentwicklung regelbasierter Systeme entscheidet nun eine neue Klasse von Algorithmen für maschinelles Lernen, wie das Datenbild aus hereinströmenden Signalen zu interpretieren ist. Sie generieren alle möglichen Regeln und Verhältnismäßigkeiten zwischen den Datenpunkten selbst und entscheiden dann, welche Regelmäßigkeiten unsere Aufmerksamkeit verdienen und welche Signale im Rauschen verschwinden können. Politik auf dieser Wissensgrundlage muss die Ursachen eines sozialen oder wirtschaftlichen Phänomens nicht mehr verstehen, Regulierungen und politische Programme brauchen nur noch auf die messbaren Wirkungen zu zielen.

Die Versprechen datenbasierter Entscheidungsfindung und Evidenz haben sich in der Praxis jedoch immer wieder als trügerisch herausgestellt und wurden von unterschiedlichen Forschungsdisziplinen bereits kritisiert. Wir konnten bisher nachvollziehen, dass die Annahme der Neutralität von algorithmisch berechneten Ergebnissen nicht zutreffen muss, dass die Anwendung entsprechender Datenverarbeitungssysteme gesellschaftliche Diskriminierung wie unter einem Brennglas verstärken kann, dass die Validität der Ergebnisse und die Sicherheit der Systeme anfällig sind, und dass die Annahme von datenbasierter Evidenz und zuverlässigen Prognoseverfahren problematisch sein kann. Es gibt noch keine standardisierten Prüfverfahren für KI und datenbasierte Technik, trotzdem werden auch in immer mehr Bereichen des öffentlichen Sektors Systeme eingesetzt, die in sensiblen Fragen Entscheidungen treffen beziehungsweise vorbereiten.

Keine Frage, der Staat ist geradezu prädestiniert, um gemeinwohlorientierten Nutzen aus dieser Technik zu ziehen. Er erhebt und verfügt über enorme Datenmengen und ist verantwortlich für die öffentlichen Infrastrukturen. Mit Sensorik ausgestattete öffentliche Infrastrukturen und Dinge können dem Staat und Kommunen bei der nachhaltigen Erfüllung der Gewährleistungsverantwortung und Daseinsvorsorge helfen. Datenanalyse kann institutionelle Diskriminierung ans Licht bringen und Chancengerechtigkeit fördern. Wenn die menschlichen Experten, die über domänenspezifisches Wissen verfügen, nicht aus dem Entscheidungskreislauf herausgenommen werden, dann liegen in der Zusammenarbeit mit datenbasierter Technik enorme Potenziale, vor allem für den öffentlichen Sektor.

Gerade deswegen muss der Staat die bereits jetzt erkennbaren Risiken datengetriebener Technik adressieren, indem er gemeinwohlorientierte Gestaltungsprinzipien definiert und Prozesse für die sichere Entwicklung und Implementierung entsprechender Systeme einfordert. Ebenso wichtig ist es, dass die öffentliche Hand eigene Kapazitäten und Erfahrungen mit datenbasierter Technik aufbaut, um nicht in noch größere Abhängigkeit zu den kommerziellen Technikanbietern zu geraten.

Bereits jetzt ist die Wissenslücke zum privaten Sektor im Bereich der KI schwindelerregend groß. Wenn die öffentliche Hand die gemeinwohlorientierten Gestaltungsprinzipien für die Digitalisierung des kommunalen Zusammenlebens nicht pro-aktiv setzt, verliert sie sukzessive die Organisation und Administration des Gemeinwesens aus der Hand.

Mit dem Ziel der kommerziellen Monetarisierung gestaltet das Alphabet-Unternehmen (ehemals Google) Sidewalk Labs einen ganzen "intelligenten" Statteil in Toronto, Microsoft-Gründer Bill Gates verfolgt ähnliche Pläne im US-Bundesstaat Arizona. Sicherheits- und Strafverfolgungsbehörden in den USA haben sich sukzessive in ein proprietäres Ökosystem der Datenanalyse-Firma Palantir hineinmanövriert, in dem sich bereits erste Abhängigkeiten bemerkbar machen.

Wo die öffentliche Hand datenbasierte Technik zur Entscheidungsfindung und Steuerung einsetzt, soll beziehungsweise muss sie über die Gestaltung und Funktionsweise verfügen können – insbesondere wenn es sich um Bereiche mit herausgehobener Bedeutung für das Gemeinwesen handelt und externe Dienstleister und private Unternehmen involviert sind. Die langfristigen praktischen und demokratietheoretischen Auswirkungen einer Algorithmisierung der Prozesse und Wissensgrundlagen staatlichen Handelns sind noch kaum absehbar. Hier geht es nicht nur um Transparenz und Nachvollziehbarkeit.

Überall wo Entscheidungsbefugnisse und der Zugang zu Wissen ineinandergreifen, geht es auch immer um Machtfragen. In rechtsstaatlichen Demokratien werden diese Fragen mit Verfahren zur Herstellung von Legitimität beantwortet. Wenn sich an diesen Verhältnissen etwas ändert, wenn gewählte Vertreter und mit hoheitlichen Befugnissen ausgestattete Entscheider die Entscheidungsgenese nicht mehr einsehen und nachvollziehen können oder aus der Hand geben, dann ist das keine triviale Sache. (anw)