Missing Link: KĂĽnstliche Intelligenz - Justitias Freund und Helfer?
Seite 3: Mahnwelle zur DSGVO
Die Pandemie hat das Geschäft mit den Flugrückerstattungen nochmal angeheizt und RightNow pickte sich während des Lockdowns auch noch das Thema Rückerstattungen von Gebühren in Fitnessstudios heraus. Neben dieser Anpassung an den Bedarf liegt der Erfolg mit den Flugrückerstattungen aber wohl auch an der mittlerweile mit über 80 Millionen Datensätzen gefütterten Datenbank. Die erlaubt sehr treffsichere Prognosen über die Erfolgschancen der Fälle und eine scharfe Kalkulation, welches Angebot man den geschädigten Flugreisenden machen kann.
Ein neuer Schlager, so hofft Quarch, könnte das neu aufgenommene Produkt "Durchsetzung von Schadenersatzansprüchen nach Datenschutzgrundverordnung" (§82) gegen die großen Plattformen werden. Im Falle eines Datenlecks haben die Nutzer Anspruch auf Schadenersatz. Die Mühe, den Anspruch einzuklagen, mache sich derzeit kaum jemand. Das will RightNow gerne ändern. Eine Art Abmahnwelle gegen Google, Facebook und Konsorten? Zur Durchsetzung der DSGVO vielleicht nicht übel. Um die Höhe werde zwar derzeit noch gerungen bei den Gerichten – 0 bis 5.000 Euro haben die Gerichte bereits zugesprochen.
Mehr Automatisierung an den Gerichten würden die Legal Tech-Unternehmen begrüßen, macht es doch ihre Arbeit noch effektiver, und wäre es nicht gut, fragt Quarch, wenn Deutschland mit den Legal Tech Anwendungen mal selbst Unicorns stellt?
Kriminalpolizeiliche KI
Fürs zivilrechtliche Kleinvieh seien die Legal Tech Ansätze natürlich nicht schlecht, mein Richter Hamann. Wo es aber um den Versuch gehe, Bußgeldzahlungen zu beschneiden oder ganz abzubiegen – auch dafür gibt es spezielle Legal Tech Anbieter – wird es aus seiner Sicht unerfreulich "und für die Mandanten der Legal Techs manchmal eher unerfreulich". Hier funktioniert natürlich das Abkaufen nicht, der Falschparker oder Raser bleibt der (Bußgeld-)Sünder. Dadurch ergeben sich übrigens auch für die Legal Techs spezielle Anforderungen, denn eigentlich ist die Vertretung durch Nichtanwälte und Dinge wie Erfolgshonorare im Gesetz nicht vorgesehen. Ob der Gesetzgeber der neuen Branche durch eine Liberalisierung der Bestimmungen entgegenkommt, ist vorerst noch nicht absehbar.
Mehr Sorgen als der Ansturm der Kleinstverfahren, wenn auch in gebündelter Form, bereitet Hamann der Einsatz von KI-Hilfsmittel auf Ermittler Seite. Bei den Polizeibehörden ist man weniger zimperlich mit dem Einsatz von Algorithmen, deren intrinsische Wertungen und effektive Wirksamkeit man nicht so genau kennt. Wie soll der Richter mit Beweismitteln umgehen, die mittels KI gewonnen wurden?
Ist etwa eine vermeintlich kleine Hand auf dem Bild eines masturbierenden Torsos ein tragfähiger Beweis, dass es sich um Jugendpornographie handelt, fragt Hamann aus seiner Praxis.
"Waffengleichheit"
Was, wenn Unschärfen dieser oder anderer Art sich in die KI-Lösung wie ZAC-AIRA einschleicht, die gemeinsam von Microsoft, dem Land NRW, der Zentral und Ansprechstelle Cybercrime (ZAC), dem EDV Gerichtstag und der Universität des Saarlandes NRW entwickelt wurde.
Muss der Richter auch hier im Verfahren darauf drängen, dass eingehende Bewertungen und Kriterien offen gelegt werden? Oder gilt dieses Transparenz- und Nicht-Willkür-gebot nur für den Einsatz von KI direkt bei Gericht?
Mit dieser Frage werden sich die Gerichte wohl früher und mehr herumschlagen müssen als mit dem eigenen KI-Einsatz, denn der Markt für smarte Ermittlertools ist fast schon unüberschaubar groß. Aufgemerkt haben die Strafverteidiger. Sie müssen sich fit halten, um durch mehr oder weniger smarte Software gewonnene Beweismittel nachträglich zu überprüfen und vielleicht Fehler oder Schwächen zu finden. Uwe Ewald, Rechtsanwalt und Analyst, warnte beim Strafverteidigertag Ende vergangenen Jahres, dass Strafverteidigern sich mit den analytischen Grundlagen der digitalen Beweismittelanalyse befassen und Kompetenzen in der eigenständigen Auswertung entwickeln müssen, um der geballten digitalen Power der Anklage-Seite zu begegnen. Zugleich erhob er auch die Frage, ob den Strafverteidigern für Waffengleichheit nicht auch Lizenzen überlassen werden müssten.
Wie viele Tools im Einsatz sind, ohne dass darüber die Öffentlichkeit, aber auch die Experten und Strafverteidiger ausreichend informiert sind, zeigte Monika Simmler in einer Fallstudie der Universität St. Gallen zum Einsatzes von KI Werkzeugen in der Schweiz. In Interviews bestätigten Praktiker aus Polizei und Justiz, dass in allen Kantonen algorithmische Werkzeuge eingesetzt werden, schreibt Simmler in ihren Schlussfolgerungen und empfiehlt dringend Know-How über die Funktionsweise aufzubauen und die Software durch Evaluationen zu überprüfen. Zum Einsatz von Precobs, dem zur Identifizierung von Einbruchsschwerpunkten auch in Deutschland eingesetzten Softwaretool, gibt es mittlerweile ernüchternde Einschätzungen bezüglich der Wirksamkeit. Zudem müsse beim Einsatz von Algorithmen die Rechtsstaatlichkeit gewahrt werden. Algorithmen dürften "weder zu einer Diffusion von Verantwortung noch zu Intransparenz oder Diskriminierung führen". Simmler rät zu einem aktiven öffentlichen Dialog über den Einsatz.
Den verdienen auch die Projekte der deutschen Polizeibehörden, von der Berliner Precobs-Alternative KrimPo, NRWs Skala, Hessens KLB-operativ oder das vom BMBF geförderte Zitis Forschungsprojekt KIRSTA, mit dem künftig anhand von Hasspostings im Netz auf künftige Straftaten geschlossen werden soll.
Zurück zur falschen Gesichtserkennung wie im Fall des US-Amerikaners Williams. Richter Hamann kennt aus der eigenen Praxis einen Fall, der, wenn auch einer süddeutschen Kleinstadt angepassten Rahmen passiert ist. Ein Fahrkartenkontrolleur des Tübinger Stadtbusses fotografierte einen vermeintlichen Schwarzfahrer, der sich bei einer Kontrolle aus dem Staub machte. Auf Basis eines Abgleichs mit einer "polizeilichen Gesichtserkennungssystem-Recherche" beantragte die Staatsanwaltschaft Anklage gegen einen Mann, der sich in dem Foto gar nicht wiedererkennen wollte. Der Richter in dem Fall verwahrte sich gegen eine "nicht nachvollziehbare Methode" und eine "nicht ansatzweise erklärte Technik, wohl unter Anwendung eines jedenfalls dem Gericht nicht bekannten Algorithmus zur Gesichtserkennung". So nicht, entschied der Richter, und das war wohl auch im Sinne der Verhältnismäßigkeit. Der Schaden hatte 2,50 Euro betragen.
(bme)