Kritik an Google: "Sogenannte KI basiert von Natur aus auf einer Machtbeziehung"

Seite 2: "Es ist ungleich verteilt, wer von maschinellen Entscheidungen betroffen ist"

Inhaltsverzeichnis

Was genau ist in Michigan passiert?

Das System sollte überwachen, ob Menschen, die eine Ersatzleistung erhielten, weil sie arbeitslos geworden waren, nicht betrogen. Das Geld steht diesen Menschen zu, sie hatten es mit ihren Steuern bezahlt. Nun waren sie arbeitslos und brauchten es. Die KI hatte einen Fehler und Zehntausende wurden fälschlich als Betrüger klassifiziert. Das hatte Auswirkungen auf deren weiteres Leben: Als angebliche Kriminelle standen ihnen auch andere Leistungen nicht zu. Es gab Selbstmorde deshalb.

Aktivistin Whittaker: Sie ist Co-Organisatorin des Google Walkout for Real Change am 1. November 2018. Mehr als 20 000 Google-Angestellte in über 50 Städten streiken an diesem Tag und protestieren gegen Sexismus, Rassismus und eine intransparente Firmenkultur. 

(Bild: Picture alliance/AP Photo)

Inwiefern zeigt dieses Beispiel Machtstrukturen auf?

Das System wurde von einem Gouverneur eingeführt, der sparen wollte. Er hatte die Menschen entlassen, die das System überwachen sollten. Es ist ungleich verteilt, wer von solchen maschinellen Entscheidungen in existenzieller Weise betroffen ist – nämlich vor allem die, die ohnehin schon benachteiligt sind. Das ist ein konkretes Beispiel dafür, dass algorithmische Systeme ein Machtinstrument sind.

Weil sich die Betroffenen nicht wehren können?

Wir wissen von diesem Fall überhaupt nur, weil es einen Anwalt gab, der sich bereit erklärt hat, den Fall zu übernehmen. Die Betroffenen haben kein Geld, um sich zu verteidigen – und auch das hat System: Wenn sie sich gegen diese mächtigen Konzerne wehren wollen, die von KI profitieren, dann kämpfen sie gegen unendlich viel Geld und Anwälte. Hier kann es keine Gerechtigkeit geben. Wir müssen hier sehr klar und präzise sein und diese Mechanismen transparent machen und aufzeigen, wie Menschen gezielt entmündigt und entmachtet werden. Sogenannte KI basiert von Natur aus auf einer Machtbeziehung: Es gibt Menschen, die entscheiden, wie und welche Daten gesammelt werden und was sie bedeuten, und Menschen, über die diese Daten etwas aussagen sollen.

Sehen Sie denn nicht auch positive Anwendungsfälle für KI, die diese Dynamiken ausgleichen könnten? Wenn wir zum Beispiel an algorithmisches Management denken, also ein System, das ein Unternehmen organisiert und Angestellte steuert: Kann das nicht auch so eingesetzt werden, dass es die Arbeitnehmerrechte stärkt und sie vor Ausbeutung schützt?

Theoretisch vielleicht ja, aber wir müssen hier unseren Blick erweitern, anstatt hypothetische technische Debatten zu führen. Wenn wir auf die Geschichte der Arbeit blicken, sehen wir, dass es schon immer Bestrebungen gab, Arbeitnehmer und Arbeitnehmerinnen zu überwachen und auszubeuten. Schon in der Sklaverei wurde ein Buchführungssystem entwickelt, damit die Besitzer aus der Ferne die Produktivität ihrer Sklaven überwachen konnten. Die Ausbeutung hat sich im Laufe der Jahre intensiviert, man denke nur an den Taylorismus, in dessen Folge Arbeiter gezwungen wurden, sich dem Tempo der Maschine anzupassen. Es gab schon immer den Willen, so viel Arbeit wie möglich aus den Menschen zu extrahieren. Algorithmisches Management ist die logische Folge davon. KI ist nicht die Ursache, aber diese Technologie wird diese Tendenz nur verstärken. Die Technologie erfüllt ein Bedürfnis – nämlich das nach mehr Profit. Solange es Kapitalismus gibt, wird sich das nicht ändern.

Das heißt, Sie sind nicht besonders optimistisch, dass KI auch für das Gute eingesetzt werden kann?

Ich bin Optimistin, aber Optimismus ist eine Einladung zu handeln, kein Versprechen. Natürlich könnte man rein theoretisch ein KI-System bauen, das Misshandlungen von Arbeitskräften trackt. Aber das braucht massive Ressourcen, die wir nicht haben. Hier herrschen ungleiche Startbedingungen: Die Bosse haben das Geld, nicht die Angestellten.