Niemand hat die Absicht, einer KI Entscheidungen zu überlassen

Industrie und Politik haben von der Diskussion um Datenschutz und Bürgerrechte eine Menge gelernt. Die Orwell-Fraktion gibt sich dialogorientiert und bürgernah wie nie.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 3 Min.

Ich weiß, die Datenschutzgrundverordnung ist nicht beliebt. In manchen Kreisen gilt sie als bürokratisches Monster, als Sieg für die Datenschutz-Taliban. Aber sie enthält – mal abgesehen von der nützlichen Idee des Standortprinzips – auch ein paar brauchbare Regelungen. Zumindest im Ansatz. Laut Artikel 22 beispielsweise hat die betroffene Person das Recht, nicht einer ausschließlich auf Automatisierung basierenden Entscheidung unterworfen zu werden, die ihr gegenüber "rechtliche Wirkung entfaltet, oder sie in ähnlicher Weise erheblich beeinträchtigt."

Der Artikel ist höchstwahrscheinlich aufgenommen worden, um dem ausufernden Gebrauch von Scoring-Systemen wie zum Beispiel bei der Schufa einen Riegel vorzuschieben. Schaut man sich die Fortschritte in der Anwendung von Maschinenlernen und Künstlicher Intelligenz an, könnte man hoffen, dass die Regelung auch auf diesem Feld greift, denn die automatisierte Beurteilung von Daten – und damit auch von Menschen – ist schwer angesagt.

  • Das Unternehmen Precire beispielsweise bietet Recruiting mit Hilfe Künstlicher Intelligenz an. Das Precire-System analysiert in einem standardisierten Interview die Sprache eines Bewerbers und erstellt daraus ein Persönlichkeitsprofil.
  • Mannheim testet jetzt eine verhaltensbasierte Videoüberwachung – eine Software, die darauf achtet, ob im zu analysierenden Videostream "hektische oder untypische Bewegungen" auftauchen.
  • Und schließlich will die britische Polizei laut New Scientist durch eine groß angelegte Datenanalyse potenzielle Straftäter erkennen, bevor sie ein Verbrechen begehen, und im Vorfeld auf die Täter einwirken.

In all diesen Fällen greift die DSGVO allerdings nicht. Preciere-CEO Peter Klingspohr erklärte auf Nachfrage, die Software selbst treffe ja gar keine Entscheidung über die Eignung oder Nichteignung eines Bewerbers für eine ausgeschriebene Stelle. Sie liefere dem Kunden lediglich eine Analyse seiner Bewerber. Entscheiden würde letztendlich der Personaler.

Das Mannheimer System löst keineswegs selbstständig Alarm aus, oder schickt gar eine Streife los. Vielmehr alarmiert es menschliches Personal, und der Bediener vor Ort schaut sich die Szene an, und beurteilt, ob es sich tatsächlich um polizeilich relevantes Geschehen handelt. Und auch die britische Polizei, die sich mit EU-Gesetzgebung ja bald nicht mehr herumschlagen muss, betont in einer Stellungnahme gegenüber Datenschützern, man arbeite nach "strengen ethischen Grundlagen" und es sei doch ein Fortschritt, dass neue technische Methoden es der Polizei erlauben würde, im Vorfeld aktiv zu werden – und dennoch auf der Basis von Tatsachen zu handeln.

Die Beispiele zeigen, dass Industrie und Politik eine Menge aus den Diskussionen der vergangenen 20 Jahre gelernt haben. Man ist offen, dialogorientiert und diskursiv – wir können ja über alles reden. Keiner will Macht, oder gar Kontrolle – alle wollen, dass die Welt friedlicher, besser und effizienter wird. Warum nur beruhigt mich das nicht?

(wst)