Kritik an Google: "Sogenannte KI basiert von Natur aus auf einer Machtbeziehung"

Meredith Whittaker ist die erste Präsidentin des Messengers Signal und wird nicht müde, vor den gesellschaftlichen Folgen von KI zu warnen. Ein Interview.

In Pocket speichern vorlesen Druckansicht 379 Kommentare lesen
, Dina Litovsky/Redux/laif

(Bild: Dina Litovsky/Redux/laif)

Stand:
Lesezeit: 11 Min.
Von
  • Eva Wolfangel
Inhaltsverzeichnis

Meredith Whittakers Lebenslauf ist bemerkenswert: Sie hat 13 Jahre bei Google gearbeitet, heute ist sie eine der schärfsten Kritikerinnen des Unternehmens – vor allem, wenn es um KI geht. Als sie 2006 bei Google anfing, war sie schlicht auf das Geld angewiesen. Sie hatte gerade ihren Bachelor in Literatur und Rhetorik abgeschlossen. "Ich war pleite, ich brauchte Arbeit, und Google war die erste Firma, die mir ein Angebot machte", sagte sie in einem Gespräch mit dem Magazin "Republik".

Dieser Text stammt aus: MIT Technology Review 6/2022

Was genau hat Künstliche Intelligenz mit Macht, Herrschaft und Kolonialismus zu tun? Dieser Frage gehen wir in der aktuellen Ausgabe nach. Das neue Heft ist ab dem 18.8. im Handel und ab dem 17.8. bequem im heise shop bestellbar. Highlights aus dem Heft:

Bei Google startete sie mehrere Initiativen, unter anderem die Google Open Research Group, die komplexe Probleme gemeinsam mit externen Wissenschaftlerinnen und Open-Source-Aktivisten lösen will, oder das M-Lab, ein global verteiltes Netzwerkmesssystem, das die weltweit größte Quelle für Open Data zur Internetleistung darstellt. Schon 2013 kritisierte sie die Praxis, KI-Systeme mit Daten zu trainieren, die diskriminieren – weil sie aus dem Internet stammen. Mit der KI-Forscherin Kate Crawford gründete sie 2017 das Forschungsinstiut AI Now. Es gilt als erstes akademisches Institut, das zu den sozialen Implikationen von Künstlicher Intelligenz forscht.

Damals war Whittaker noch bei Google beschäftigt. Das Unternehmen unterstützte die Institutsgründung. Es passte in jener Zeit einfach sehr gut zum Image eines weltoffenen und fairen Konzerns, der sich auch um die Belange der Menschen kümmert. Als sie allerdings vom Projekt Maven erfuhr, schrieb sie einen Brief an Google-CEO Sundar Pichai mit der Forderung, aus dem Projekt auszusteigen. Hinter Maven verbarg sich ein Militärprojekt für das amerikanische Verteidigungsministerium. 3.000 Mitarbeiter und Mitarbeiterinnen unterschrieben den Brief. Einige Wochen später gab Google bekannt, den Vertrag mit dem Verteidigungsministerium nicht zu verlängern. 2018 war Whittaker zudem eine der Initiatorinnen der Google Walkouts, bei denen 20.000 Google-Mitarbeiterinnen und -Mitarbeiter gegen Sexismus und Rassismus am Arbeitsplatz protestierten.

2019 schließlich kündigte sie bei Google. Seitdem konzentriert sie sich auf ihre akademische und beratende Tätigkeit im Umfeld des AI Now Institute. Seit November 2021 ist sie beratendes Mitglied der US-Handelskommission (FTC). Seit dem 6. September 2022 ist sie Präsidentin des Messengers Signal.

Frau Whittaker, Sie betonen immer wieder, dass maschinelles Lernen und sogenannte Künstliche Intelligenz ein Machtthema seien und dass wir es aus dieser Perspektive betrachten und beurteilen müssen. Aber sprechen wir nicht schon seit Jahren darüber, dass KI Ungleichheiten verschärft – und das, ohne dass sich etwas verändert?

Ich beobachte schon Veränderungen in unseren Debatten seit 2015. Das ist das Jahr, in dem die Idee für AI Now entstand, weil ich zunehmend besorgt war, was diese sogenannte KI mit sich bringen würde. Damals war KI ein Hype, der vor allem von der Tech-Industrie genährt wurde. Die langsam wachsende kritische Community sprach damals aber noch nicht von Macht. Die Kritik dreht sich um Big Data, also um das Sammeln großer Datenmengen. Später kam der Bias in den Fokus, rassistische Verzerrungen zum Beispiel, von denen man dachte, sie aus der KI entfernen zu können, um dann eine schöne "reine" Technologie zu haben. Wir lernten, dass wir nicht über den Bias reden können, ohne über strukturellen Rassismus in der Gesellschaft zu sprechen.

Aber spätestens jetzt kommt man am Thema der Machtdynamiken nicht mehr vorbei. Was fehlt Ihnen in der gegenwärtigen Diskussion?

Ich vermisse, dass wir nicht nur abstrakt von Macht sprechen, sondern klarmachen, wer hier profitiert. Wir müssen die Namen der Unternehmen nennen, die Systeme entwickeln und nutzen, die Namen derer, die sie anwenden und davon profitieren. Es muss klar werden, dass diese "Unfälle" wie der des Algorithmus in Michigan, der über 40.000 Arbeitslosengeld-Berechtigte fälschlicherweise als Betrüger klassifizierte, keine tragischen Einzelfälle sind. Hier steckt ein Machtsystem dahinter.

Was genau ist in Michigan passiert?

Das System sollte überwachen, ob Menschen, die eine Ersatzleistung erhielten, weil sie arbeitslos geworden waren, nicht betrogen. Das Geld steht diesen Menschen zu, sie hatten es mit ihren Steuern bezahlt. Nun waren sie arbeitslos und brauchten es. Die KI hatte einen Fehler und Zehntausende wurden fälschlich als Betrüger klassifiziert. Das hatte Auswirkungen auf deren weiteres Leben: Als angebliche Kriminelle standen ihnen auch andere Leistungen nicht zu. Es gab Selbstmorde deshalb.

Aktivistin Whittaker: Sie ist Co-Organisatorin des Google Walkout for Real Change am 1. November 2018. Mehr als 20 000 Google-Angestellte in über 50 Städten streiken an diesem Tag und protestieren gegen Sexismus, Rassismus und eine intransparente Firmenkultur. 

(Bild: Picture alliance/AP Photo)

Inwiefern zeigt dieses Beispiel Machtstrukturen auf?

Das System wurde von einem Gouverneur eingeführt, der sparen wollte. Er hatte die Menschen entlassen, die das System überwachen sollten. Es ist ungleich verteilt, wer von solchen maschinellen Entscheidungen in existenzieller Weise betroffen ist – nämlich vor allem die, die ohnehin schon benachteiligt sind. Das ist ein konkretes Beispiel dafür, dass algorithmische Systeme ein Machtinstrument sind.

Weil sich die Betroffenen nicht wehren können?

Wir wissen von diesem Fall überhaupt nur, weil es einen Anwalt gab, der sich bereit erklärt hat, den Fall zu übernehmen. Die Betroffenen haben kein Geld, um sich zu verteidigen – und auch das hat System: Wenn sie sich gegen diese mächtigen Konzerne wehren wollen, die von KI profitieren, dann kämpfen sie gegen unendlich viel Geld und Anwälte. Hier kann es keine Gerechtigkeit geben. Wir müssen hier sehr klar und präzise sein und diese Mechanismen transparent machen und aufzeigen, wie Menschen gezielt entmündigt und entmachtet werden. Sogenannte KI basiert von Natur aus auf einer Machtbeziehung: Es gibt Menschen, die entscheiden, wie und welche Daten gesammelt werden und was sie bedeuten, und Menschen, über die diese Daten etwas aussagen sollen.

Sehen Sie denn nicht auch positive Anwendungsfälle für KI, die diese Dynamiken ausgleichen könnten? Wenn wir zum Beispiel an algorithmisches Management denken, also ein System, das ein Unternehmen organisiert und Angestellte steuert: Kann das nicht auch so eingesetzt werden, dass es die Arbeitnehmerrechte stärkt und sie vor Ausbeutung schützt?

Theoretisch vielleicht ja, aber wir müssen hier unseren Blick erweitern, anstatt hypothetische technische Debatten zu führen. Wenn wir auf die Geschichte der Arbeit blicken, sehen wir, dass es schon immer Bestrebungen gab, Arbeitnehmer und Arbeitnehmerinnen zu überwachen und auszubeuten. Schon in der Sklaverei wurde ein Buchführungssystem entwickelt, damit die Besitzer aus der Ferne die Produktivität ihrer Sklaven überwachen konnten. Die Ausbeutung hat sich im Laufe der Jahre intensiviert, man denke nur an den Taylorismus, in dessen Folge Arbeiter gezwungen wurden, sich dem Tempo der Maschine anzupassen. Es gab schon immer den Willen, so viel Arbeit wie möglich aus den Menschen zu extrahieren. Algorithmisches Management ist die logische Folge davon. KI ist nicht die Ursache, aber diese Technologie wird diese Tendenz nur verstärken. Die Technologie erfüllt ein Bedürfnis – nämlich das nach mehr Profit. Solange es Kapitalismus gibt, wird sich das nicht ändern.

Das heißt, Sie sind nicht besonders optimistisch, dass KI auch für das Gute eingesetzt werden kann?

Ich bin Optimistin, aber Optimismus ist eine Einladung zu handeln, kein Versprechen. Natürlich könnte man rein theoretisch ein KI-System bauen, das Misshandlungen von Arbeitskräften trackt. Aber das braucht massive Ressourcen, die wir nicht haben. Hier herrschen ungleiche Startbedingungen: Die Bosse haben das Geld, nicht die Angestellten.

Das klingt jetzt wieder sehr pessimistisch.

Ich halte es da mit der Science-Fiction-Autorin Ursula K. Le Guin, die sagte: "Wir leben im Kapitalismus. Seine Macht scheint unausweichlich zu sein. Genauso wie das göttliche Recht der Könige. Jede menschliche Macht kann von Menschen bekämpft und verändert werden." Wir können das Wort "Kapitalismus" durch all diese Themen ersetzen. Die Menschheit hat immer wieder Lösungen für Probleme gefunden. Das ist die Basis für meinen Optimismus. KI ist eine Technologie der Mächtigen, sie werden uns nicht helfen, das zu ändern. Das müssen wir schon selbst tun, dafür ist es nie zu spät.

Was konkret sollen wir denn tun?

Eine robuste soziale Bewegung wäre ein Anfang. Das ist die einzige Option für Benachteiligte, die sich ja keine teure Lobbyarbeit leisten können, um die Politik auf sich aufmerksam zu machen. Viel zu viele Politiker schauen noch weg, weil sie Angst haben, dass sie sich nicht gut genug auskennen mit der Technologie. Das nutzen die Lobbyisten der Tech-Unternehmen aus. Wir müssen die systematische Ausbeutung thematisieren und klarmachen, dass KI eine Machttechnologie ist.

Apropos die Mächtigen: Meta hat kürzlich eine Offensive angekündigt, um 200 seltene Sprachen besser in automatische Sprachsysteme zu integrieren. "No languages left behind" heißt der Marketing-Slogan. Das ist Marketing, aber vielleicht nutzt es nebenbei auch den Sprechenden seltener Sprachen. Gleichzeitig zeigt es die Macht, die Meta hier hat. Was halten Sie davon?

Darauf gibt es keine einfache Antwort. Natürlich kann es für Menschen extrem wichtig sein, dass ihre Sprache von maschinellen Systemen gut verarbeitet wird, wenn sie beispielsweise von solchen Systemen abhängig sind, weil ihr Job daran hängt. Aber wie zur Hölle sind wir in die Situation gekommen, dass ein riesiger Privatkonzern die Macht hat, zu bestimmen, welche Sprachen hier gefördert werden? Ich will marginalisierten Menschen nicht den Zugang zu diesen Technologien verwehren. Gleichzeitig stelle ich mich ganz bestimmt nicht in die erste Reihe und fordere, alle Daten von allen Sprachen und allen Gesichtsphänotypen in das Metaverse zu integrieren, sodass wir alle gut von der Überwachungstechnologie von Meta erkannt werden können.

Wie kommen wir aus dieser Schleife denn heraus? Wie können wir unabhängig werden von den großen Tech-Konzernen, wenn diese schier endlose Mittel haben?

Ich sitze im Board von Signal, und ich finde, das ist ein gutes Beispiel. Kurz erklärt: KI ist ja abhängig von Überwachung, denn sie braucht Daten. Überwachung ist die Basis des Geschäftsmodells der Tech-Unternehmen: Auf Basis dieser Daten werden Modelle erstellt, um diese zu verkaufen oder um den Zugang zu ihnen zu verkaufen, für gezielte Werbung und so weiter. Signal ist einer der Zufluchtsorte vor dieser Überwachung. Signal ist "non-profit", es macht nicht mit beim Geschäftsmodell der Überwachung. Aber solche Infrastrukturen, die ein weltweit nutzbarer Messenger braucht, sind teuer und werden teurer, umso größer er wird. Die Frage ist, wie wir solche Systeme unterstützen können. Wir brauchen solche freien Orte, an denen wir offen sprechen – auch über revolutionäre Ideen, wie wir in Zukunft anders leben können.

(wst)