Datenschützer: KI-Einsatz bei Polizei muss vollumfänglich nachvollziehbar sein

Der Bundesdatenschutzbeauftragte Ulrich Kelber sieht nach einer Konsultation zu Künstlicher Intelligenz in der Strafverfolgung den Gesetzgeber gefordert.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen

(Bild: Skorzewiak/Shutterstock.com)

Lesezeit: 5 Min.
Inhaltsverzeichnis

Angesichts des zunehmenden Einsatzes von Systemen der Künstlichen Intelligenz (KI) zu Zwecken der Strafverfolgung und Gefahrenabwehr ruft der Bundesdatenschutzbeauftragte Ulrich Kelber nach dem Gesetzgeber. Oft seien in diesem Bereich "grundlegende rechtliche Fragen" noch nicht beantwortet, erklärte er am Montag. Die Legislative sei daher in Bund und Ländern bereits aufgrund ihrer "grundrechtlichen Schutzpflichten" aufgerufen, zeitnah tätig zu werden und "die notwendigen Entscheidungen" zu treffen.

Kelber beruft sich bei seinem Appell auf die jetzt von seiner Behörde veröffentlichten Ergebnisse einer Konsultation zu dieser Thematik. Er hatte dazu im September sieben grundlegende Thesen zur Diskussion gestellt. Die Auswertung der Antworten zeige, "dass eine umfassende, empirische und interdisziplinäre Bestandsaufnahme durch den Gesetzgeber notwendig ist".

Dreizehn Stellungnahmen sind bei der Aufsichtsbehörde eingegangen. Ein Großteil davon entfällt mit acht Eingaben auf die Innenressorts des Bundes und der Länder sowie auf Polizeibehörden. Kritischer äußerten sich einzelne Bürger und Wissenschaftler sowie der netzpolitische Verein Load, der der FDP nahesteht.

Im Konsultationsbereich heißt es: "Bei der KI handelt es sich um eine in vielerlei Hinsicht zukunftsweisende Technologie, deren Einsatz allerdings mit der Gefahr einhergeht, sich nachhaltig auf die Freiheiten der Bürgerinnen und Bürger, Demokratie und Rechtsstaatlichkeit auszuwirken." Unter den Teilnehmern habe zumindest weitestgehend geherrscht, dass dieses Feld "einer breiten öffentlichen Debatte bedarf".

Die Auswerter stellten einen breiten Konsens fest, dass unter Verweis auf das Potenzial der Technik "eine generelle Skepsis oder Ablehnung" gegenüber dem Einsatz von KI bei der Polizei nicht angebracht sei. Prinzipiell stehe fest: In diesem Sektor müssten allgemeine Datenschutzgrundsätze beachtet und garantiert werden. Nötig sei in der Regel eine spezifische gesetzliche Vorschrift, wobei für deren Ausgestaltung "die spezifischen Ausprägungen der im Einzelfall eingesetzten KI-Technologie maßgeblich sind".

Die Kontrollinstanz legte schon bei der Auswahl der Thesen ein besonderes Augenmerk auf die Erklärbarkeit von KI. Dieser Ansatz "stieß grundsätzlich auf Zustimmung", ist dem Bericht zu entnehmen. Es sei etwa argumentiert worden, dass unzureichende Informationsgrundlagen und technische Konzeptionen zu einer verzerrten Datenbasis und falschen beziehungsweise falsch gelernten Entscheidungen führten. Die Trainingsphase des KI-Systems sei daher elementar und mit "hohen Hürden" zu versehen.

Dies ist der Zusammenfassung zufolge notwendig, "um die Sorgen der Replizierung menschlicher Fehler bei der Informationsverarbeitung weitestgehend auszuschließen". Denn hieraus könnten möglicherweise "Probleme der Diskriminierung, notwendige Richtigkeitsgewähr, Überschätzung der Verlässlichkeit der Datenverarbeitung sowie fehlende Transparenz und Nachvollziehbarkeit der angewendeten Methoden erwachsen".

"Die Gewährleistung der Transparenz der Datenverarbeitung ist eine der größten Herausforderungen im Umgang mit KI", bewertet die Behörde die Stellungnahmen dazu. Insbesondere neuronale Netze würden aufgrund ihrer enormen Komplexität als Blackbox angesehen, "deren Transparenz einer Quadratur des Kreises zu gleichen scheint". In bestimmten Fällen mit hoher Eingriffstiefe könnte es so nötig sein, "dass auch eine Entscheidung im Einzelfall vollumfänglich nachvollziehbar sein muss". Ferner sei vorab eine umfassende Datenschutz-Folgeabschätzung erforderlich.

Mit Verweis auf die Rechtsprechung des Bundesverfassungsgerichts verweisen die Autoren des Berichts auf Antworten, wonach KI-gestützte Ermittlungsmaßnahmen, die zu einer vollständigen "Durchleuchtung" einer Person führen, mit dem Grundgesetz unvereinbar seien. Ein Konsultationsteilnehmer habe sich zwar vorstellen können, dass es Fallbeispiele gibt, die eine Emotionsbewertung erforderlich machen könnten. Eine solche KI-Analyse kann laut dem Papier die betroffene Person aber zum Objekt der Datenverarbeitung machen und das überkommene Schreckbild vom "gläsernen Menschen" massiv verstärken.

Die Verfasser erinnern an die Haltung des Europäischen Datenschutzausschusses (EDSA), wonach die Verwendung von KI zur Erkennung von Emotionen von Personen unter keinen Umständen wünschenswert ist und verboten werden sollte. Dies gelte auch für Systeme zur automatischen Erkennung personenbezogener Merkmale im öffentlichen Raum. Eine einschlägige Datenerhebung müsse im Vorfeld zumindest rechtmäßig erfolgen. Ein unbeabsichtigtes Eindringen in den Kernbereich der intimen Lebensgestaltung sei zu verhindern.

Teils legten Konsultationsteilnehmer nahe, dass bei der empirischen Bestandsaufnahme der praktische Bedarf der Sicherheitsbehörden an dem Einsatz von KI kritisch hinterfragt werden sollte. In welchem Bedrohungsszenario und mit welchen Mitteln KI im Bereich der Gefahrenabwehr konkreten Mehrwert erbringen kann, sei bislang nicht belegt.

Die Konsultation hat zudem ergeben, dass Strafverfolger bereits heute Softwarewerkzeuge verwenden, "die unter den Begriff der KI zu subsumieren sind". Dies gelte vor allem für Verfahren des maschinellen Lernens. Laut einer Stellungnahme hätten Ermittler etwa den Gesamtdatenbestand der Panama Papers unter Zuhilfenahme eines neuronalen Netzes ausgewertet.

(fds)