Justizministerin: Automaten können objektiver sein als Menschen

Justizministerin Katarina Barley hat sich für ein Prüfverfahren für Algorithmen und KI ausgesprochen. Pseudonymisierungssysteme müssten zuverlässiger werden.

In Pocket speichern vorlesen Druckansicht 63 Kommentare lesen
Justizministerin: Automatisierte Entscheidungen können objektiver sein als menschliche

Katarina Barley

(Bild: hub.berlin)

Lesezeit: 2 Min.

Ein hohes gesellschaftliches Potenzial misst Bundesjustizministerin Katarina Barley Systemen zur automatisierten Entscheidungsfindung bei. Algorithmen "können objektiver sein" als vergleichbare menschliche Verfahren, erklärte die SPD-Spitzenkandidatin zur Europawahl am Mittwoch auf der Hub-Konferenz des IT-Branchenverbands Bitkom. Dies sei etwa im Bankensystem oder bei der Bewerberauswahl feststellbar. Bei letzterer etwa hätten Arbeitgeber viele Vorurteile: Schon die Hautfarbe oder Nachnamen könnten sich negativ auswirken.

"Automated Decision-Making" (ADM) sieht Barley so durchaus als "Chance" für fairere Verfahren. Dafür müssten die Entwickler aber sicherstellen, dass die Programmierweise beziehungsweise die Trainingsdaten nicht selbst wieder Vorurteile in sich trügen, sonst drohe eine "unechte Objektivität". Für maschinelle Diskriminierungen gebe es schon zahlreiche Beispiele. Da die meisten IT-Spezialisten männlich seien, würden sie auch in automatischen Auswahlverfahren bevorzugt. Es sei auch vorgekommen, dass ADM-Systeme weiblichen Bewerbern weniger Gehalt angeboten hätten.

Barley plädierte daher für Prüfverfahren für Algorithmen und vor allem für lernende Maschinen sowie andere Spielarten der Künstlichen Intelligenz (KI), die zumindest teilweise durch eine öffentliche Einrichtung kontrolliert werden sollten. Als wichtige Regel müsse gelten: Je größer der Grundrechtseingriff und die Auswirkungen eines Systems seien, desto höher müssten auch die Standards gesetzt werden.

Wenn ein Algorithmus eine Prognose anstelle, ob jemand künftig ein Verbrechen begehen könnte, sei dies ganz anders zu bewerten als eine gezielte Anzeigenplatzierung. Zudem müssten die Verantwortlichkeiten geklärt sein, wobei Parallelen zur analogen Welt helfen könnten: Wenn ein Mitarbeiter einen Schaden verursache, hafte der Unternehmer dafür nur, wenn er etwa Fehler bei dessen Einstellung oder Kontrolle gemacht habe.

Ihre frühere Einschätzung, dass es wohl keine globalen Regeln für KI-Systeme geben werde, revidierte Barley zum Teil wieder. Die Datenschutz-Grundverordnung (DSGVO) zeige gerade, dass es doch möglich sei, von Europa aus Rahmenwerke mit internationaler Beachtung zu schaffen. Die Menschen seien nicht zu unterschätzen: Wenn sie wirklich Datenschutz einforderten, seien Übereinkünfte möglich in Gesellschaften, die auf Vertrauen und Kapital beruhen.

Mit Blick auf China zeigte sich Barley aber skeptisch, da die Regierung in Peking zu sehr auf die Kontrolle der eigenen Bevölkerung aus sei und eine übergreifende Übereinkunft höchstens auf einer "oberflächlichen, offiziellen Basis" unterstützen dürfte. In China drohten Möglichkeiten, selbstbestimmt zu leben, mit dem geplanten Social-Scoring-System weiter zu schwinden. (anw)