Predictive Policing: "Falsches" Facebook-Posting führt in Israel oft zu Haft

Seite 2: Algorithmische Entscheidungen in die öffentliche Diskussion bringen

Inhaltsverzeichnis

Konrad Lischka von der Bertelsmann-Stiftung warf nicht nur für diese Gemengelage und Predictive Policing die Frage auf, "welche Ziele wir eigentlich mit algorithmischer Entscheidungsfindung verfolgen wollen". Damit der Mensch nicht länger schlicht als Objekt etwa von Vorhersagesoftware oder Scoring zur Bonitätsprüfung gelte, sollten einschlägige Systeme "gemeinwohlfördernd" gestaltet werden.

Konkret schlug Lischka etwa vor, frei verfügbare Allmenden für Trainingseinheiten für Algorithmen und lernende Maschinen zur Verfügung zu stellen. So ließe sich verhindern, dass die gleichen Sets für verschiedene Fälle angewendet würden und schon die grundlegende Operationalisierung mit Vorbehalten belastet sei, meinte der Journalist. Eine größere Vielfalt der Ausgangsinformationen könnte helfen, algorithmische Entscheidungen zu verbessern. Denkbar sei es auch, Trainingsdaten unter ein Open-Access-Modell zu stellen oder öffentliche Förderprogramme für gemeinwohlstärkende Algorithmen-Projekte aufzulegen. Zivilgesellschaftliche Beobachter für maschinelle Entscheidungen könnten ebenfalls hilfreich sein.

Künstliche Intelligenz (KI) oder Maschinenlernen verlieren ihre Bedrohlichkeit mit der Zeit: Jeanette Hofmann vom Wissenschaftszentrum Berlin für Sozialforschung (WZB)

Auf die gesellschaftliche Aufnahme technischer Entwicklungen allgemein ging Jeanette Hofmann vom Wissenschaftszentrum Berlin für Sozialforschung (WZB) ein. "Wir leben in der Technik wie in der Sprache, wer sie nutzen will, verschreibt sich ihren Regeln", erläuterte die Politikwissenschaftlerin. Dabei würden die menschlichen Erwartungen im Rahmen der Nutzung immer stärker geprägt. Auch aktuelle "epochale Technologien" wie Künstliche Intelligenz (KI) oder Maschinenlernen "erscheinen uns anfangs als etwas Einzigartiges, Fremdes, Bedrohliches, Unbeherrschbares". Dieses Gefühl gebe sich aber mit der Zeit.

In dem Maße, wie sich Nutzer KI aneigneten, verlöre auch diese ihre Fremdheit, prognostizierte Hofmann. Sie werde "Schritt für Schritt eingemeindet in unser Alltagshandeln" und damit "positiver konnotiert". Generell sei das Digitale schon "Bestandteil unseres Weltbezugs geworden". Ohne diesen technischen Rahmen sei der persönliche Lebensbereich kaum mehr vorstellbar.

Wenig Hoffnung machte die Co-Direktorin des von Google initiierten Instituts für Internet und Gesellschaft Politikern, die derlei Prozesse beeinflussen wollen: "Die Aneignung verläuft meist als verteilter Prozess, an dem alle im täglichen Umgang damit teilhaben." Eine Regulierung im "Top-Down-Verfahren" funktioniere meist nicht, die Steuerung erfolge auch hier ähnlich wie bei der Sprache eher durch Normen und informelle Regeln. Seltene Ausnahmen seien bewusste Verbote einzelner Technologien wie der Atomkraft oder umfassende Eingrenzungen wie bei der Embryonenforschung. Es empfehle sich daher, "Technik als Medium wahrzunehmen, das alles Handeln durchzieht". Dabei gelte es immer wieder zu überlegen, wer steuere und was gesellschaftliche, demokratische Selbstbestimmung bedeute.

Zu Predictive Policing siehe auch:

(map)