„Umdenken erst, wenn ein Datenskandal ganz viele Leute empfindlich betrifft“
Den Einsatz von Palantirs Software bei der Polizei kritisiert die LDI NRW, Bettina Gayk. Sie spricht im Interview mit heise online von ausufernder Überwachung.
Überwachungskamera an einem Bahnhof (Symbolbild).
(Bild: Marie-Claire Koch / heise medien)
Die Liste der Gesetze und Möglichkeiten, mit denen der Staat auf immer mehr Daten zugreifen will, wird länger. Bei der Überwachung kommen auch umstrittene Systeme von Palantir zum Einsatz. Gleichzeitig wird die Transparenz gegenüber den Bürgerinnen und Bürgern eingeschränkt.
(Bild: LDI NRW / Caroline Seidel)
Bettina Gayk, die Landesbeauftragte für Datenschutz und Informationsfreiheit in Nordrhein-Westfalen, erklärt im Gespräch die Risiken für unsere Freiheit und warum sie die neuen KI-Regeln im Polizeigesetz für besorgniserregend hält.
In letzter Zeit gibt es eine Flut an neuen Gesetzesvorhaben – von den Polizeigesetzen der Länder bis hin zu Änderungen der Strafprozessordnung. Alle zielen darauf ab, mehr Daten, auch aus dem Internet, für Sicherheitsbehörden nutzbar zu machen. Warum sehen Sie das kritisch?
Das ist so pauschal ganz schwer zu beantworten, weil es immer darauf ankommt: Für welchen Zweck will ich welche Daten nutzen? Und ist es für diesen Zweck eine geeignete Nutzung, ist es verhältnismäßig? Woher stammen die Daten, wie seriös sind die Daten? Was wir im Moment beobachten ist, dass sehr viele zusätzliche Sicherheitsbefugnisse in die Welt gesetzt werden, aber nicht gründlich und sorgfältig ausgearbeitet wird, für welche Situation, für welche Straftatenverfolgung, für welche Gefahrenabwehrmaßnahmen diese Daten notwendig sind und ob da auch der Nutzen in einem Verhältnis steht zu den Freiheitsgrundrechten der Betroffenen.
Je mehr und je offener wir Daten nutzen und durchsuchen, kann jeder davon betroffen werden, kann auch durch falsche Daten in falsche Verdachtsmomente geraten oder in ganz andere schwierige Situationen. Es ist schon richtig, in der digitalen Welt passieren auch Straftaten, deshalb muss ich auch da ermitteln können, aber nicht grenzenlos. Auch da ist für unsere Ermittlungsbehörden die Verfassung relevant, und die gebietet eine Verhältnismäßigkeit der Mittel in Bezug auf die Grundrechte der Bürgerinnen und Bürger.
Ein konkretes Beispiel ist der Einsatz von KI und Analyse-Software wie der von Palantir bei der Polizei. In NRW wurde das Polizeigesetz entsprechend geändert, die Polizei darf nun KI mit ihren Daten trainieren. Welche Risiken sehen Sie da?
Das ist alles sehr global galaktisch geregelt. Da steht ganz allgemein im Gesetz, die Polizei darf Daten für KI-Training nutzen. Sie sollte es anonymisiert tun, aber wenn es unverhältnismäßigen Aufwand erzeugt, kann sie auch mit Klardaten arbeiten. Welche Auswirkungen ein Training mit Klardaten im Ergebnis für Betroffene hat, kann ich so überhaupt nicht beurteilen. Wenn es mir nur auf die Texte eines Schreibens ankommt, mag es vielleicht angemessen sein, auch mit nicht anonymisierten Daten zu arbeiten, wenn als Ergebnis der KI nur ein schöner Text ohne Bezug zu Personen erzeugt wird. Aber wenn ich anfange, das System mit Daten zu trainieren, um damit vermeintlich bessere Gefahrenabwehr zu erzeugen, kommt das an Grenzen.
Videos by heise
Wenn ich also das ganze Polizeidatensystem sehe, was wir ja schon durch das System DAR, beziehungsweise Palantir, suchfähig gemacht haben, und da setze ich jetzt noch eine KI drauf, dann kann das uferlos sein. Wenn die KI mögliche, aber nicht zwingend richtige Schlussfolgerungen aufgrund personenbezogener Daten aus dem Training zieht, ist überhaupt nicht mehr nachvollziehbar wem aufgrund welcher Daten, berechtigt oder unberechtigt, der Vorwurf gemacht wird, eine drohende Gefahr zu erzeugen. Dabei muss man im Hinterkopf haben, dass Polizeidatenbestände alles andere als solide sind. Löschfristen werden nicht immer präzise eingehalten. Auch die inhaltliche Richtigkeit von Daten ist vielfach nicht gewährleistet, weil Zeugenaussagen falsch sein können, weil es Missverständnisse gab, und dadurch Daten fehlerhaft erfasst wurden, oder weil sich ein Verdacht im Verfahrensverlauf nicht bestätigt hat, aber noch in den Polizeiakten vorhanden ist, und so weiter.
Zudem sind in Polizeiakten nicht nur Daten von Straftätern oder sogenannten Gefährderinnen, sondern auch von Zeuginnen und Zeugen, Anwältinnen und Anwälten oder Personen, die eine Anzeige erstatten oder den Polizeinotruf nutzen. Allein die Masse an Daten, über die die Polizei verfügt, kann mit hoher Wahrscheinlichkeit dazu führen, dass sich die Polizei auf die Unverhältnismäßigkeit der Datenanonymisierung beruft und all das ungefiltert in KI-Training einfließen könnte. Welche Rückschlüsse dann KI aus veralteten, teils unrichtigen Daten zieht, ist fast ein Glücksspiel. Besonders kritisch wird es, wenn auch Daten von Personen in das Training einfließen, die gar keiner Straftat oder Gefährdung jemals verdächtig waren. KI erzeugt nur mögliche und teils fantasierte Ergebnisse. Es gibt keine Garantie für objektiv richtige Ergebnisse. Die Aussagekraft von KI wäre zudem durch die nicht solide Datengrundlage in Frage zu stellen.
So eine Norm, ganz global, Polizei darf ihre Verfahren mit KI trainieren, die ist nutzlos, weil sie die Grundrechte nicht ausreichend schützt und insbesondere die möglichen nachteiligen Auswirkungen zu Unrecht Verdächtigter nichts entgegensetzt. Da muss viel genauer hingesehen und gesetzlich festgelegt werden, welche Daten unter welchen konkreten Voraussetzungen in das Training von welcher Art von KI einfließen dürfen und welche Maßnahmen zum Schutz der Betroffenen ergriffen werden. Wenn ich anfange, mit ungefilterten Datenbeständen KI-Systeme zu trainieren, um daraus Erkenntnisse zur Gefahrenabwehr zu gewinnen, kann das ganz furchtbar sein für Menschen, die durch falsche Schlussfolgerungen und aufgrund falscher Daten verfolgt werden. Ich will nicht sagen, dass KI in der Polizei nie geht, aber das muss für gravierende Straftaten vorbehalten bleiben und kann nicht zum Standardinstrument in der Polizei werden. Und da rutscht es aber immer mehr hin.
Haben Sie als Aufsichtsbehörde denn die Möglichkeit, dieses System im Echtbetrieb zu prüfen? Bisher gab es Kritik, dass das kaum jemand von außen gesehen hat.
Das wurde uns nicht angeboten, aber das muss man uns auch nicht anbieten. Wir können das einfach tun. Und in diesem Jahr haben wir mindestens Gespräche mit dem LKA vorgesehen, weil wir auch wissen wollen, was jetzt konkret geplant ist, nachdem die Erweiterung auf KI auch auf ein System wie DAR/Palantir zugelassen worden ist. Also das werden wir uns sehr genau angucken. Hierzu ist es wahrscheinlich auch sinnvoll, dass wir uns die Arbeit an Einzelfallanfragen an das System exemplarisch mal wirklich im Livebetrieb zeigen lassen. Wir haben das bisher nur in Präsentationen gesehen, bevor das Verfahren in den Livebetrieb gegangen ist. Aber jetzt ist es in Betrieb und da werden wir uns sicherlich stichprobenartig anschauen, was mit dem System möglich ist.
Neben Sicherheitsbehörden sammeln vor allem Unternehmen massenhaft Daten. Viele Nutzer geben ihre Einwilligung, etwa bei Zahlungsdiensten wie PayPal oder in Apps, ohne die Details zu kennen. Wie problematisch ist das?
Wir haben einen aktuellen Fall von einer App, den wir gerade prüfen, da waren so um die 300 Anbieter überall in Europa. Und wie seriös die sind, was dort mit den Daten passiert, das kann derjenige, der das übermittelt, kaum noch überprüfen. Einzelne Nutzer erst recht nicht. Wenn ich also eine Liste von Unternehmen bekomme, die schier unendlich ist, fragt man sich: Was machen die alle mit meinen Daten?
Facebook etwa hat dazu in den Datenschutzbestimmungen so globale oder allgemeine Beschreibungen über die Zwecke oder die Nutzergruppen. Da kann sich alles und nichts hinter verbergen. Es ist nicht so, dass ich als Betroffene wirklich verstehen kann, wo gehen meine Daten jetzt hin, was machen diese 300 bis 600 Unternehmen mit diesen Daten? Das Kernmerkmal des Datenschutzes, das die Kontrollierbarkeit von Daten sichern soll, ist Zweckbestimmung. Man darf die Daten regelmäßig nur für den Zweck nutzen, für den man sie erhoben hat. Das ist bei Verarbeitungen aufgrund von Einwilligung in unverständliche Datenverarbeitungen kaum noch kontrollierbar.
Die EU plant derzeit diverse Datenräume, zum Beispiel den European Health Data Space (EHDS) für Gesundheitsdaten, aber auch für Mobilität, Finanzen und mehr als zehn weitere Lebensbereiche. Macht Ihnen diese Entwicklung Sorgen?
Ja, absolut. Schon die Gesetzentwürfe gehen da teilweise über Grenzen hinaus. Etwa der Gesundheitsdatenraum ermöglicht eine breite Nutzung von sehr sensiblen Daten. Die Nutzung durch sogenannte Gesundheitsdienstleister etwa ging hier genauso über das Ziel hinaus, wie der Schutz von Daten über die psychische Gesundheit, zu gering war. Oder der Mobilitätsdatenraum, der in Fragen von Steuerung von Verkehren sicher viele komfortable Anwendungen hervorbringen kann, birgt andererseits die Gefahr, dass Bewegungsprofile über VerkehrsteilnehmerInnen möglich werden. Hier gilt es, den Schutz von Daten im Blick zu behalten, aus denen Rückschlüsse auf die Bewegungen Einzelner möglich sind.
Und ja, das ist ein Trend, gegen dessen Ausuferung wir ankämpfen. Weil es so viel Datenverarbeitung gibt, weiß man allerdings kaum, wo man kämpfen muss und welche Gefahren sich aus den vorliegenden Daten für die Privatsphäre ergeben können. Es gibt ja auch für alles gute Gründe, es sinnvoll zu nutzen, aber es gibt bei fast allem auch Möglichkeiten, es für die Betroffenen nachteilig zu nutzen. Und die Gefahr ist recht groß, dass das passiert. Das besorgt mich sehr wohl. Oft sind auch die Menschen, die wir schützen wollen, selbst zu unbesorgt und die Sorgen der Datenschützerinnen und Datenschützer sind in der breiten Öffentlichkeit oft nicht mehrheitsfähig. Ich befürchte, dass wir in der Öffentlichkeit erst ein Umdenken erfahren, wenn mal etwas passiert, ein Datenskandal, der ganz viele Leute empfindlich betrifft.
Ein weiteres EU-Projekt ist die digitale EUDI-Wallet. Damit sollen sich Bürger sicher ausweisen können. Private Anbieter wie Google wollen hier aber auch mitmischen. Wo sehen Sie die Gefahren?
Wir sind da einbezogen, weil wir eine in die Wallet einzubindende Beschwerdeinstanz sind. Wenn jemand Datenmissbrauch befürchtet, soll er aus der Wallet direkt zu uns geleitet werden können. Aber das Entscheidende ist die Frage, wie es am Ende geregelt wird, auf welche Daten darf ich als Unternehmen zugreifen? Da ist noch große Unsicherheit. Vorgesehen sind eigentlich Zertifikate, in denen die Unternehmen festlegen, auf welche Daten sie für welche Zwecke zugreifen wollen und die dann genehmigt werden. Aber die Genehmigung ist jetzt in der neuesten Regelung der EU nur noch fakultativ, also nicht mehr verpflichtend festgelegt, sondern der Freiwilligkeit überlassen. Und dann ist es ganz schwer, das zu kontrollieren. Das ist für uns eine missliche Situation. Selbst wenn Deutschland dieses Zertifikat vorsieht, was ich hoffe, andere Mitgliedstaaten aber nicht und der Anbieter sitzt in Italien oder Irland, ist es kaum mehr wirklich zu kontrollieren, ob Daten berechtigt abgegriffen wurden oder nicht.
Parallel zu diesen Datenerfassungen gibt es eine gegenteilige Tendenz: die Einschränkung der Informationsfreiheit, wie zuletzt in Berlin. Wie passt das zusammen?
Die Informationsfreiheit hat in Deutschland nicht so eine lange Tradition wie der Datenschutz. Bis in die 2000er Jahre gab es die Lehre vom "Arkan-Bereich", wonach der Staat manches geheim halten darf, um nach außen glaubwürdig zu sein. Da rein gebrochen ist die Informationsfreiheit mit dem Argument: Ihr seid von uns gewählt, ihr habt unsere demokratische Legitimation, dann müsst ihr uns natürlich sagen, wie seid ihr zur Entscheidung gekommen, was waren die Grundlagen? Das ist eine Pflicht der Regierenden, transparent zu machen, was ihre Entscheidungsgrundlagen waren. Das fußt auf einer alten und guten Tradition in Skandinavien und angelsächsischen Staaten.
Solche Tendenzen zur Einschränkung und Rückkehr zu unnötigen und dann undemokratischen Amtsgeheimnissen im Sinne des überkommenen Arkan-Bereichs beobachtet man zunehmend. Das hat natürlich auch damit zu tun hat, dass die Politik sich immer mehr unter Druck sieht, Sorge hat, bloßgestellt zu werden. Ich finde nicht, dass das der richtige Weg sein kann. Speziell in Berlin sind Einschränkungen unter dem Vorwand der Sicherheitsgewährleistung eingeführt worden. Das war nicht notwendig, denn eine Gefährdung der Sicherheit ist in allen Informationsfreiheitsgesetzen ein Grund zur Ablehnung eines Informationszugangs. Die konkreten Änderungen am Berliner Informationsfreiheitsgesetz sind so vielfältig, dass eine neue Geheimnistuerei einzieht, wo demokratisch gewählte Regierungen ihren Wählerinnen und Wähler durchaus Rechenschaft über ihre Arbeit ablegen sollten.
Wenn Sie all diese Entwicklungen zusammennehmen – die Datensammelwut von Staaten und Konzernen, die Intransparenz auf der anderen Seite –, wie ist Ihr persönliches Fazit?
Es macht mir nicht unbedingt Angst, aber es macht mir Sorgen, das auf jeden Fall, weil ich nicht so richtig den Hebel sehe, das einzugrenzen. Dadurch, dass immer mehr Daten vorhanden sind, wird es zu schnell zu einem Automatismus, die Daten unbegrenzt zu nutzen. Wir haben eine einigermaßen stabile Gesetzgebung in Europa, aber die Grenzen im Netz halten nicht an Landesgrenzen. Wir haben die amerikanische Gesetzgebung, die sich vorbehält, auch in hier vorhandene Daten einzusehen. Wir haben einen Fall, bei dem Werbedaten einschließlich Standortdaten in den Handel gegangen sind. Die sind dann bei einem Datenbroker in den USA gelandet. Und dann sind die Daten außerhalb unserer Kontrolle. Diese können an Geheimdienste verkauft werden und an ich weiß nicht wen. Das ist durchaus beängstigend, weil es im Detail auch nicht mehr kontrollierbar ist.
Gleichzeitig steigt die Arbeitslast bei uns enorm. Die Last der Beschwerden ist so, dass wir viele Dinge, wo wir systematisch herangehen müssten, kaum schaffen. Wir haben einen Beschwerdeanstieg von 68 Prozent von 2024 auf 2025 gehabt. Und das ist echt anstrengend und behindert ein systematisches Vorgehen. Insofern ist es auch völlig absurd, dass manche Politiker nun über die Abschaffung der Landesdatenschutzbeauftragten und einen reduzierten Datenschutz nachdenken. Der gegenteilige Weg ist der richtige.
(mack)