Anlasslose Massenüberwachung: Warum mathematische Gesetze dagegen sprechen

Seite 3: Fazit

Inhaltsverzeichnis

Es ist verlockend: Man installiert ein paar Screening-Tools, die Verbrecher und lebensbedrohliche Krankheiten erkennen, bevor sie Schaden anrichten, und fortan hat die Gesellschaft ein paar Probleme weniger. In vielen Fällen ist das ein unrealistischer Traum, wie es Vera Wilde in ihrem Aufsatz auf den Punkt bringt: "Technology can’t escape maths" (Die Technik kann den mathematischen Gesetzmäßigkeiten nicht entkommen). Viele Hersteller wissen das, wenn ähnlich wie im Krieg lapidar von Kollateralschäden die Rede ist, wenn Hunderte bis Tausende beim Versuch sterben, ein "strategisches Ziel" zu zerstören, so werden auch die verheerenden Auswirkungen der Massenüberwachung kleingeredet: Meist nennen Hersteller und Befürworter von Überwachungssoftware nur eine allgemeine Erkennungsquote (Accuracy) und differenzieren nicht zwischen Falsch-Positiven und Falsch-Negativen. Absolute Zahlen veröffentlichen sie ohnehin nicht, die wären ja beunruhigend hoch. Stattdessen operieren sie mit akzeptabel wirkenden, nicht nachprüfbaren Zahlen, die das wahre Ausmaß des Flurschadens, den ihre Systeme anrichten, verschleiern.

Risikomanagement-Experten wie Gerd Gigerenzer und Vera Wilde fordern deshalb, dass der Gesetzgeber strenge Anforderungen für Massenscreenings auf seltene Probleme definiert: Hersteller müssten vor der Implementierung nachweisen können, dass die Technik mehr Nutzen als Schaden anrichtet und unabhängige Experten sollten Kosten, Nutzen sowie Risiken der Systeme evaluieren. Außerdem müssten alle relevanten Daten veröffentlicht werden, nebst Angaben, wie sie analysiert und interpretiert wurden.

Leider wurden Regularien im AI Act, die genau in diese Richtung zielten, während der jüngst abgeschlossenen Trilogverhandlungen aufgeweicht: Nun steht doch eine Hintertüre für solch fragwürdige Techniken offen.


(atr)