Wie rassistisch sind unsere Algorithmen?

Gesichtserkennung, Kontaktverfolgung und soziale Medien können Minderheiten benachteiligen. Mit den Entwicklungen zur Corona-Bekämpfung muss es anders laufen.

In Pocket speichern vorlesen Druckansicht 206 Kommentare lesen
Wie rassistisch sind unsere Algorithmen?

(Bild: Photo by Spenser on Unsplash)

Lesezeit: 7 Min.
Von
  • Charlton McIlwain
Inhaltsverzeichnis

McIlwain ist Professor fĂĽr Medien, Kultur und Kommunikation an der New York University. Er ist Autor des Buches "Black Software: The Internet & Racial Justice, From the AfroNet to Black Lives Matter".

Die USA werden gerade von zwei Pandemien erdrückt: vom Coronavirus und der weit verbreiteten Polizeigewalt. Beides hinterlässt physische und psychologische Schäden. Und beide Katastrophen schwächen insbesondere Minderheiten, besonders People of Color. Sie führen die Sterbestatistik überproportional an. Gleichzeitig werden diese Krisen durch technische Einsatzmitteln verschärft, die von Menschen gestaltet, umfunktioniert oder zur Anwendung gebracht werden – sei es nun Kontaktverfolgung, Gesichtserkennung oder soziale Medien.

Der Mensch entwickelt Technik mit dem Auftrag, Probleme für ihn zu lösen. Doch wenn in einer Gesellschaft People of Color als "das Problem" definiert, dargestellt oder repräsentiert werden, dann schaden diese Lösungsansätze mehr, als dass sie helfen. Gesichtserkennungsverfahren wurden schon so programmiert, dass Tatverdächtige aufgrund ihrer Hautfarbe ermittelt werden. Automatisierte Profiling zur Risikoabschätzung identifiziert überproportional häufig Menschen mit lateinamerikanischem Erscheinungsbild als illegale Migranten. Algorithmen zur Bewertung der Kreditwürdigkeit identifizieren manchmal dunkle Hautfarbe als Risikofaktor und hindern schwarze Menschen daran, Häuser zu kaufen, Kredite zu erhalten oder Jobs zu finden.

Es darf nicht weiterhin programmiertes Ziel dieser Technologie sein, rassistische Interessen im Sinne einer White Supremacy zu bedienen. Doch neu ist die Problemstellung nicht.

In den USA standen Demokraten 1960 vor einem Problem: Wie würde es ihnen gelingen, die schwindende Zustimmung der schwarzen Bevölkerung und anderer Minderheiten für ihren Präsidentschaftskandidaten John F. Kennedy zu stoppen. Ein geschäftstüchtiger Politikwissenschaftler am MIT, Ithiel de Sola Pool, brachte einen Lösungsansatz. Er würde Daten früherer Präsidentschaftswahlen sammeln, diese in ein neues digitales Verarbeitungssystem werfen und dann einen Algorithmus entwickeln, der Modelle zum Wählerverhalten je nach politischer Haltung darstellen und somit voraussagen konnte, welche Positionierung der Politik zu den vorteilhaftesten Ergebnissen führen würde. Entsprechend der Resultate sollte das Team der Kennedy-Kampagne beraten werden. Pool gründete eine neue Firma, die Simulmatics Corporation, und setzte seine Idee um. Mit Erfolg: Kennedy wurde gewählt. Das zeigt, wie mächtig diese Modellierungsmethoden sein können.

Doch Spannungen zwischen den verschiedenen ethnischen US-Bevölkerungsgruppen eskalierten in den Sechzigerjahren. Es folgte der lange, heiße Sommer von 1967. Städte in ganz Amerika brannten, von Birmingham, Alabama über Rochester, New York bis hin zu Minneapolis in Minnesota. Schwarze Amerikaner demonstrierten gegen ihre Unterdrückung und Diskriminierung im amerikanischen Justizsystem. Präsident Johnson bewertete die Bewegung als "zivile Unordnung" und formte die sogenannte Kerner-Kommission, um die Ursachen der "Ghetto-Aufstände" nachzuvollziehen. Die Kommission wandte sich an Simulmatics.

Als Pools Unternehmen als Projektpartner der Militärforschungsbehörde DARPA darum bemüht war, den Gang der Ereignisse im Vietnam-Krieg zu beeinflussen, arbeitete es daran, massive Propaganda und psychologische Kampagnen gegen den Vietkong vorzubereiten. Präsident Johnson hatte sich vorgenommen, Simulmatics verhaltensbeeinflussende Technologie nicht nur einzusetzen, um die ausländische Bedrohung zu bekämpfen, sondern auch die im Inneren des Landes. Unter dem Deckmantel einer sogenannten Medienstudie baute Simulmatics ein Team auf, das letztlich zu einer großangelegten Überwachungskampagne in den "von Aufständen betroffenen Regionen" führte, die im Sommer 1967 in den Fokus der Nation rückten.

Dreiköpfige Teams begaben sich in Gegenden, in denen Unruhen in diesem Sommer stattgefunden hatten. Sie identifizierten und interviewten schwarze Menschen, die für die Bewegung strategisch bedeutsame Positionen innehatten. Aber dabei blieb es nicht: Sie sprachen auch mit anderen Afroamerikanern, an jedem Ort – vom Barber-Shop bis zur Kirche. Sie befragten Einwohner, was sie von der Medienberichterstattung über die "Aufstände" hielten. Viele weitere Daten wurden gesammelt: die Aufenthaltsorte der Menschen innerhalb und außerhalb der Stadt während der Unruhen, Namen der Kontaktpersonen davor und währenddessen sowie Informationen dazu, wie Menschen sich auf die Auswirkungen der Proteste vorbereitet hatten. Es wurden Daten gesammelt zur Nutzung von Mautstellen, zu Absatzzahlen von Tankstellen und zu Buslinien.

Unter dem Vorwand herausfinden zu wollen, inwieweit Mediendarstellungen die "Aufstände" entfacht hatten, schaffte Simulmatics sich Zugang zu diesen Gemeinschaften. Doch Johnson und weitere politische Entscheidungsträger versuchten eigentlich, ein anderes Problem zu lösen. Sie wollten die von Simulmatics bereitgestellten Daten nutzen, um Wege der Informationsübermittlung während des Protestes nachzuverfolgen, einflussreiche Persönlichkeiten zu identifizieren und die führenden Köpfe der Protestbewegung zu attackieren oder auszuschalten. Das wurde in dieser Form nicht erreicht. Explizit ermordet wurde niemand, es kam zu keinen Verhaftungskampagnen wie in Südamerika, wo Menschen plötzlich "verschwinden".

Doch gegen Ende der Sechzigerjahre half diese Art der Information beim Entwurf von etwas, was später als "Criminal Justice Information Systems" bekannt wurde, mit dem das FBI Verhaftungs- und Justizdaten auswerten kann. Diese Taktik der Informationsbeschaffung und -verwendung verbreitete sich über Jahrzehnte. Sie legte den Grundstein für Racial Profiling, Polizeikontrollen speziell von Minderheiten und eine gezielt rassistische Überwachung. Die Strategie der Sechziger hinterließen ein Vermächtnis: Millionen Menschen landeten in den Gefängnissen, die sich vor allem aus Minderheiten rekrutierten.

Das Schwarzsein und schwarze Menschen – das wird in dieser Nation noch immer als Problem betrachtet, vom Rest der Welt ganz zu schweigen. Als die Kontaktverfolgung zu Beginn der Pandemie erstmalig zum Einsatz kam, war es leicht, sie als notwendiges, durchaus positives Instrument der Gesundheitsüberwachung wahrzunehmen. Das Coronavirus war ein gesellschaftliches Problem und wurde mit neuen Überwachungsverfahren in Form von Contact Tracing, Temperaturmessung und Warn-Apps angegangen.

Doch dann geschah etwas gleichermaßen Eigenartiges wie Tragisches. Es wurde bekannt, dass sich Menschen afroamerikanischer, lateinamerikanischer und indigener Herkunft überproportional häufig mit dem Virus infizieren beziehungsweise von dessen wirtschaftlichen Folgen betroffen sind. Damit waren People of Color plötzlich auch ein neues nationales Problem: Sie stellten eine erhöhte Bedrohung dar, das Virus zu verbreiten. Verstärkt wurde dieser Eindruck, als die tragische Ermordung von George Floyd durch einen weißen Polizeibeamten Tausende von Demonstranten auf die Straße brachte. Mit Beginn des Plünderns und Randalierens wurden People of Color wieder als eine Bedrohung von Gesetz und Ordnung betrachtet, als Bedrohung eines Systems, das weiße, rassistische Macht aufrechterhält. Da muss man sich schon die Frage stellen, wie lange es für die Vollzugsbehörden dauern wird, bis sie die Verfahren, die ursprünglich zur COVID-19-Bekämpfung entwickelt wurden, dazu nutzen, um die angebliche Bedrohung der Nation durch die afroamerikanische Bevölkerung zu bezwingen.

Damit Technik nicht zur Erhaltung rassistischer Strukturen beiträgt, muss sichergestellt werden, dass soziale Probleme wie Kriminalität, Gewalt und Krankheit nicht automatisch mit Menschen schwarzer Hautfarbe zusammengedacht werden. Geschieht dies dennoch, besteht das Risiko, genau diese Menschen zu einem Problem, zu einer Bedrohung zu erklären, die mit dem Einsatz menschengemachter Technik beseitigt werden muss.

(bsc)