Interview zum Einsatz von Palantir-Software: Politik unterschätzt Risiken massiv
Zu einschneidende polizeiliche Datenanalysen gefährden Grundrechte. Warum die GFF eine Verfassungsbeschwerde gegen den Einsatz von VeRA in Bayern erhoben hat.
(Bild: Shutterstock.com/Who is Dan)
Im Streit um die Nutzung von Datenanalyse-Software durch die Polizei haben Gerichte und Zivilgesellschaft immer wieder verfassungsrechtliche Bedenken angemeldet. Wir haben mit Franziska Görlitz von der Gesellschaft für Freiheitsrechte (GFF) gesprochen, die kürzlich eine Verfassungsbeschwerde gegen den Einsatz der verfahrensübergreifenden Recherche- und Analyseplattform von Palantir in Bayern eingelegt hat – auch gegen Hessendata wurde bereits erfolgreich Beschwerde eingelegt.
(Bild:Â Bernhard Leitner (GFF))
Das Thema polizeiliche Datenanalysen wird seit Jahren diskutiert. Inzwischen stehen Hersteller europäischer Alternativen in den Startlöchern, die einen verfassungskonformen Einsatz ihrer Tools einsetzen. Aber ist so etwas überhaupt möglich?
Theoretisch ja, praktisch aber nicht in der Weise, wie es momentan gehandhabt wird. Wir klagen nicht gegen die Hersteller selbst, sondern gegen die jeweiligen Gesetze, die der Polizei automatisierte Datenanalysen ermöglichen. In Hessen, Nordrhein-Westfalen und Bayern erfüllen die gesetzlichen Grundlagen nicht die verfassungsrechtlichen Vorgaben. Der Gesetzgeber müsste klare Grenzen setzen – zum Beispiel, dass nicht zu umfangreiche Daten in solche Systeme einfließen dürfen, wie Fehler vermieden werden, wie Diskriminierung ausgeschlossen wird und wie eine wirksame Kontrolle sichergestellt wird. All das fehlt bislang.
Das Bundesverfassungsgericht hat 2023 doch erklärt, dass Datenanalysen prinzipiell verfassungskonform sein können.
Das stimmt. Das Gericht hat grundsätzlich bejaht, dass so etwas möglich ist. Aber es hat gleichzeitig deutlich gemacht: Je umfassender und komplexer ein Analyse-Tool ist, desto strenger müssen die Schutzmechanismen sein. Je invasiver die Technik, desto höher die Hürden. Gerade bei künstlicher Intelligenz gibt es bisher keine klare Rechtsprechung, da ist vieles noch offen.
Wer gerät besonders leicht in solche Analysen hinein?
Besonders gefährlich ist, dass man schon mit banalen Anlässen in diesen Systemen landen kann. Wer Zeuge eines Verkehrsunfalls ist oder ein gestohlenes Fahrrad meldet, dessen Daten landen im polizeilichen Vorgangssystem. Diese Daten werden dann regelmäßig ohne große Hürden in die Analysen eingespeist. Dadurch können Menschen erfasst werden, die nie selbst Anlass für ein polizeiliches Vorgehen gegeben haben.
Videos by heise
Besonders betroffen sind Menschen mit vielen Kontakten zu anderen Personen, die häufiger in Polizeidateien auftauchen. Denken Sie an Sozialarbeiter:innen zum Beispiel in der Fanhilfe oder Erzieher:innen in Einrichtungen für schwer erziehbare Jugendliche. Diese stehen berufsbedingt ständig mit Menschen in Kontakt, die mehrfach polizeilich auffällig sind. Obwohl diese Menschen nichts Falsches tun, geraten sie mit hoher Wahrscheinlichkeit durch ihre Arbeit in Datenanalysen. Ähnliches gilt für Journalist:innen und Strafverteidiger:innen, die regelmäßig mit Menschen sprechen, die in Ermittlungen auftauchen. Genau diese Gruppen, die eine wichtige gesellschaftliche Aufgabe erfüllen, laufen Gefahr, plötzlich selbst in das Netz der Analyse-Software zu geraten.
Werden Ihre Bedenken auch in der Politik gehört?
Ja, wir bringen uns aktiv in Gesetzgebungsverfahren ein. Zuletzt in Baden-Württemberg und Sachsen-Anhalt, wo wir Stellungnahmen abgegeben haben. Es ist uns wichtig, nicht nur im Nachhinein zu klagen, sondern schon im Vorfeld auf Probleme hinzuweisen und mögliche Korrekturen einzufordern.
Gibt es inzwischen ĂĽberhaupt irgendwo eine rechtlich haltbare Grundlage fĂĽr den Einsatz solcher Tools?
Unserer Ansicht nach nicht. Die bisherigen Gesetze erlauben, dass zu viele Daten unter zu laschen Voraussetzungen in die Analyse einbezogen werden und dabei zu mächtige Instrumente zum Einsatz kommen. Gleichzeitig fehlen wirksame Schutzmechanismen gegen Fehler und Diskriminierung.
Handelt es sich bei diesen Schwächen um Unwissenheit oder eher um Ignoranz?
Von Unwissenheit kann man nicht sprechen. Spätestens seit dem ersten Urteil sind die grundlegenden Maßstäbe jedem Gesetzgeber bekannt, auch wenn spezifische Details noch nicht geklärt sind. In den Gesetzesbegründungen wird auch ausdrücklich darauf Bezug genommen. Aber anstatt im Sinne eines vorsichtigen und grundrechtskonformen Vorgehens zu handeln, versucht man regelmäßig, möglichst nahe an die äußersten Grenzen zu gehen – das führt dazu, dass diese Grenzen auch überschritten werden.
Warum wird dann trotzdem eingekauft?
Ein Beispiel ist Baden-Württemberg, wo argumentiert wurde, man habe „wegen einer Preisbindungsfrist“ sehr kurzfristig zugeschlagen. Das zeigt eindrücklich die Gefahr, wenn ein Anbieter als alternativlos dargestellt wird. Obwohl es Konkurrenz gibt, gilt die Vorstellung: Nur dieser eine kann liefern. Dadurch entsteht eine Abhängigkeit, die dem Staat am Ende die Verhandlungsmacht nimmt. Und je länger man bei einer so spezifischen Softwarelösung bleibt, desto schwieriger wird es, sich wieder zu trennen.
Hilft es, dass Journalisten sich die Systeme stellenweise vorfĂĽhren lassen?
Nein. Zum einen kann man nie sicher sein, ob auch die tatsächliche Version gezeigt wird oder eine abgespeckte Variante. Zum anderen haben die Datenschutzaufsichtsbehörden die Software bislang in keinem Bundesland im Echtbetrieb geprüft. Die Ergebnisse der einzigen bekannten Überprüfung in Bayern sind geheim, und sie erfolgte einmalig, obwohl die Software laufend Updates erhält. Da solche Systeme laufend verändert und aktualisiert werden, kann diese Prüfung Risiken von Datenabflüssen, Fehlern oder Manipulation nicht ausschließen.
Was ist ihr Fazit?
Dass Datenanalysen durch die Polizei rechtlich zulässig sein können, hat das Bundesverfassungsgericht klargestellt. Aber nur unter sehr hohen Voraussetzungen. Momentan werden diese nirgendwo eingehalten. Besonders problematisch ist, dass gerade Menschen, die beruflich Schutz, Aufklärung und soziale Arbeit leisten, durch die Nähe zu polizeilich auffälligen Personen in den Strudel geraten können.
Tatsächlich besteht aber für jede Person das Risiko, durch die Datenanalysen unberechtigt erfasst zu werden. Das unterschätzt die Politik massiv. Massenhafte Datenanalysen gerade durch künstliche Intelligenz sind fehlerbehaftet und führen zu diskriminierenden Ergebnissen – sie sind deswegen eine große Gefahr für die Grundrechte.
(mack)