Algorithmen vs. Corona: Übertreibung, Hype und mehr Überwachung

AlgorithmWatch zieht ein zwiespältiges Fazit über das "globale soziale Experiment", KI im Kampf gegen Covid-19 einzusetzen. Die Blackbox müsse geöffnet werden.

In Pocket speichern vorlesen Druckansicht 19 Kommentare lesen

(Bild: Alexander Kirch / Shutterstock.com)

Lesezeit: 5 Min.
Inhaltsverzeichnis

Große Hoffnungen waren und sind mit dem Einsatz automatischer Entscheidungsfindungssysteme (ADM) inklusive Künstlicher Intelligenz (KI) verknüpft, um die seit zwei Jahren andauernde Corona-Pandemie unter Kontrolle zu bringen. Doch Regierungen und Unternehmen führten die vielversprechende Technik oft allenfalls mit gemischten Ergebnissen sowie "ohne jegliche Transparenz, ohne Nachweis ihrer Wirksamkeit, ohne angemessene Sicherheitsvorkehrungen und ohne ausreichende demokratische Debatte ein". Zu diesem Ergebnis kommt die gemeinnützige Organisation AlgorithmWatch in ihrem am Donnerstag veröffentlichten Abschlussbericht zu ihren Untersuchungen mit dem Titel "Tracing the Tracers".

ADM sollten demnach unter anderem helfen, Infektionen einzudämmen, Krankenhäuser zu entlasten, sicheres Reisen und zwischenmenschliche Begegnungen zu ermöglichen und Impfstoffe für die Bedürftigsten vorrangig bereitzustellen. Viel davon sei aber nicht erreicht worden.

Einige Algorithmen-gestützte Maßnahmen hätten durchaus zur Bekämpfung von Covid-19 beigetragen, verweisen die Autoren etwa auf den nachgewiesenen positiven Beitrag zum Eindämmen von Infektionen durch Tracing-Apps in England und Wales. Es gebe bisher meist aber keine ausreichenden wissenschaftlichen Belege dafür, dass digitale Anwendungen zum Ermitteln von Kontaktpersonen, digitale Covid-Zertifikate oder KI "für eine wirksame Reaktion auf die Pandemie von zentraler Bedeutung, grundlegend oder sogar notwendig waren".

Bislang seien die von Künstlicher Intelligenz erzielten Ergebnisse "stark übertrieben, überbewertet und sogar für gefährliche Propaganda im Stil des Kalten Krieges" zwischen verfeindeten Supermächten wie den USA und China ausgenutzt worden, unterstreicht Fabio Chiusi in seiner Zusammenfassung. Vor allem außerhalb Europas seien immer wieder "dystopische Anwendungen" getestet und genutzt worden.

Besser laufe es in der Impfstoffforschung, bei der Covid-19-Frühdiagnose, der Bewertung des Risikos schwerer Verläufe, der Entwicklung effizienter Teststrategien und der Unterstützung von Ärzten bei der Entscheidungsfindung.

Als besorgniserregendsten Trend hat der Forscher ausgemacht, dass die Krise als Vorwand genutzt wurde, "um die Überwachung, Kontrolle, Messung und Vorhersage einer zunehmenden Anzahl täglicher Aktivitäten" für Gesundheitszwecke zu festigen und zu normalisieren. Dabei sei zu bedenken, wie viele Fehler, Datenlecks und Funktionseinschränkungen bei ADM-Werkzeugen weltweit schon aufgetreten seien. Chiusi erinnert etwa an einen Bug im Tracing-Rahmenwerk von Apple und Google, den ein portugiesischer Student entdeckt hatte. Damit wäre es möglich gewesen, Datentransfers via Bluetooth zu unterbrechen, wodurch die Apps effektiv unbrauchbar geworden wären.

In der umstrittenen hiesigen Check-in-App Luca sei zudem eine Sicherheitslücke gefunden worden, über die Angreifer ganze Gesundheitsämter hätten lahmlegen können. Die malaysische Tracing-App wiederum sendete dem Verfasser zufolge aufgrund "bösartiger Skripte" sogar unaufgefordert Einmalpasswörter an zufällige Telefonnummern. Dies habe dazu geführt, dass Nutzern per E-Mail mitgeteilt wurde, dass sie positiv auf Covid getestet worden seien.

In vielen Ländern hätten ferner selbst Strafverfolgungsbehörden auf Daten zum Nachverfolgen von Kontaktpersonen zugreifen können. "Die Pandemie hat dazu beigetragen, biometrische Kontrollen als Voraussetzung für sichere internationale Reisen voranzutreiben", führt Chiusi aus.

In Indien sei automatisierte Gesichtserkennung zum Überprüfen von Impflingen verwendet worden, obwohl es dafür keine Rechtsbasis gegeben habe. Behörden in Südaustralien und Polen hätten mit Quarantäne-Apps mehrfach täglich stichprobenartige Standortkontrollen mit Live-Gesichtsverifizierung durchgeführt. Die chinesische Stadt Yunnan habe das biometrische Verfahren mit persönlichen Gesundheitscodes verknüpft und für die soziale Kontrolle missbraucht.

Das weltweite Bestreben, die Erwartungen an ADM-Systeme zu erfüllen, betraf laut dem Wissenschaftler nicht nur den Gesundheits- und Mobilitätssektor. "Es veränderte auch die Art und Weise, wie grundlegende menschliche Aktivitäten wie Lernen und Arbeiten abliefen." Die Furcht vor einem nie dagewesenen und nicht zu rechtfertigenden Eingriff in das Leben und das Zuhause von Millionen von Studenten weltweit habe zu Warnungen vor einem neuen "1984" geführt. Auch Arbeitgeber hätten nicht gezögert, möglichst viel aus den neuen Überwachungsmöglichkeiten herauszuholen.

In der Geschichte der KI scheinen dem Bericht zufolge "überzogene Versprechungen" die Regel zu sein. Der Cambridge-Forscher Michael Roberts und seine Kollegen etwa hätten eine Übersicht über Anwendungen des maschinellen Lernens zur Erkennung von Covid-19 anhand von Röntgenaufnahmen des Brustkorbs und CT-Scans publiziert. In allen zwischen Januar und Oktober 2020 veröffentlichten Arbeiten zu diesem Bereich fanden sie demnach keine Hinweise auf Instrumente, "die für den klinischen Einsatz gut genug wären".

"Die Pandemie ist ein komplexes Problem mit enormen wirtschaftlichen, gesellschaftlichen, normativen, technologischen und gesundheitspolitischen Folgen", lautet die Schlussfolgerung. Technik allein könne dafür keine Lösung bieten. In einer Zeit, in der ADM-Systeme zu potenziell lebensrettenden Entscheidungen beitragen könnten, sei es noch dringender, die "Blackbox" der eingesetzten Verfahren zu öffnen und diese demokratisch zu legitimieren. Massenüberwachung etwa durch biometrische Erkennungsmethoden müsse verboten werden. Europa sollte eine Führungsrolle rund um einschlägige Praktiken und Normen einnehmen.

(kbe)