Edit Policy: Uploadfilter mit KI – EU-Pläne bergen große Risiken

Seite 2: Diskriminierung durch Technik

Inhaltsverzeichnis

Die Kommission räumt in ihrem Weißbuch zur künstlichen Intelligenz durchaus ein, dass automatisierte Entscheidungssysteme anfällig für Diskriminierung sind, indem sie gesellschaftliche Vorurteile lernen und verstärken. So wird etwa auf Probleme automatischer Gesichtserkennung verwiesen, wenn es darum geht, weibliche oder nicht-weiße Gesichter zu erkennen. Besonders gefährlich ist diese maschinelle Diskriminierung deshalb, weil viele an die Neutralität und Objektivität der Technik glauben. Die Kommission will das Problem dadurch beheben, dass im Ausland entwickelte KI-Anwendungen in besonders risikoreichen Anwendungsbereichen mit europäischen Datensätzen trainiert werden sollen, die auf Repräsentativität geprüft wurden. Besonders überzeugend ist diese Lösung nicht, es sei denn, man glaubt daran, in Europa finde keine Diskriminierung statt.

Technik kann zudem nicht neutral sein, wenn sie in einem sozio-kulturellen System eingesetzt wird. Eine Studie über die Sperrung von Urheberrechtsverletzungen hat beispielsweise ergeben, dass Frauen ihr Nutzungsverhalten stärker einschränken als Männer, nachdem einer ihrer Inhalte automatisch gesperrt wurde. Es findet also eine Selbstzensur statt, die nicht alle gleich stark trifft. Besonders von Rassismus betroffene Gruppen haben außerdem den durchaus berechtigten Einwand, dass es gar nicht in ihrem Interesse ist, von KI-Systemen zuverlässig erkannt zu werden, wenn diese am Ende doch nur dafür eingesetzt werden, sie zu überwachen und zu kriminalisieren.

Das bedeutet nicht, dass man angesichts von Radikalisierung über Online-Plattformen die Hände in den Schoß legen muss. Seit Jahren liegt die geplante ePrivacy-Verordnung auf Eis, die durch neue Regeln für das Tracking von Nutzungsverhalten die Macht großer Technologiekonzerne eindämmen könnte. Auch der Digital Services Act birgt durchaus das Potenzial, sinnvolle Regeln für die größten und meinungsstärksten Plattformen einzuführen. Notwendig für eine sinnvolle Regulierung ist aber die Einsicht, dass sich das Hochladen illegaler Inhalte nicht vollständig verhindern lässt und Verpflichtungen zum Einsatz von Uploadfiltern den größten Plattformen im Zweifel nur noch mehr Macht verschaffen, weil sie die nötigen Technologien und Trainingsdatensätze kontrollieren.

Illegale Inhalte im Netz sind nichts Neues und werden nur dann zu einem strukturellen Problem, wenn Facebook oder YouTube diesen Inhalten ein riesiges Publikum verschaffen. Deren Empfehlungsalgorithmen priorisieren die wirtschaftlichen Interessen der Plattformanbieter über die Vorlieben der Nutzer*innen. Es werden die Inhalte empfohlen, die besonders starke Reaktionen hervorrufen und deshalb zu einem längeren Verbleib auf der Plattform führen, damit den Nutzer*innen mehr Werbung angezeigt werden kann. Dabei handelt es sich oft um Inhalte, die Hass und gesellschaftliche Spaltung befördern.

Anstatt die Meinungsfreiheit durch fehleranfällige Uploadfilter einzuschränken, könnte die EU-Kommission große Plattformen verpflichten, ihren Nutzer*innen mehr Kontrolle darüber zu geben, welche Inhalte sie zu sehen bekommen. Offene APIs könnten einen Wettbewerb verschiedener Drittanbieter für Nutzungsoberflächen ermöglichen, die uns selbst entscheiden lassen, was wir auf Facebook & Co. zu sehen bekommen, und nicht mehr die Werbewirtschaft. Wer gezielt nach terroristischen Inhalten sucht, würde sie vermutlich nach wie vor finden, aber die Gefahr eines graduelles Abrutschens in die Radikalisierung durch automatische Empfehlung immer kontroverserer Inhalte würde mit einem solchen Ansatz abgeschwächt.

Die Texte der Kolumne "Edit Policy" stehen unter der Lizenz CC BY 4.0. (mho)