Bomben im Code
Algorithmen sind zu Waffen geworden, die unsere Gesellschaft erschüttern. Das sollten wir dringend ändern, fordert Cathy O’Neil.
![](/scale/geometry/500x500/q60/select/tr/2017/10/1506273892581067/tn_image-1504858392906647.jpg)
Von Algorithmen hängt es ab, ob man einen Kredit für sein Haus erhält, wie viel man für die Krankenversicherung bezahlt, ob man den gewünschten Job bekommt und welche Nachrichten man morgens bei Facebook sieht. Die Mathematikerin Cathy O’Neil erklärt, wie diese Algorithmen zwar theoretisch objektive Entscheidungen treffen, in der Praxis aber oft nur mächtigen Interessen folgen.
Cathy O’Neil weiß, wovon sie spricht. Sie hat in Harvard promoviert, zunächst als Dozentin, dann als Hedgefonds-Managerin gearbeitet und während der sich entwickelnden Finanzkrise das Risiko von Kreditausfällen analysiert – was allerdings niemanden in der Branche interessiert hat. „Mathematik wurde benutzt, um Leute zu beeindrucken und zu verdummen, und nicht, um Zusammenhänge zu verstehen und zu erklären“, schreibt O’Neil. Sie stieg aus, engagierte sich in der globalisierungs-kritischen Bewegung und begann zu beschreiben, was schiefläuft.
Mit „Angriff der Algorithmen“ liegt nun die deutsche Übersetzung ihres Buches vor, das im Herbst 2016 auf Englisch erschien – unter dem eigentlich viel besseren Titel „Weapons of Math Destruction“ in Anlehnung an die „Weapons of Mass Destruction“.
Obwohl „Angriff der Algorithmen“ nun wirklich nicht das kritische erste Buch über die Macht der Algorithmen ist, kann man es rundheraus empfehlen. Denn O’Neil besitzt die seltene Gabe, Mathematik zu erklären, ohne Mathematik zu benutzen. Vielmehr beschreibt sie anhand zahlreicher Beispiele, wie diese Welt funktioniert.
Es sind Beispiele wie das der Lehrerin Sarah Wysocki, die Opfer des Impact-Beurteilungssystems wurde. Die Software urteilt aufgrund von Schülerdaten am Ende jedes Schuljahrs, wie gut die Lehrkräfte die Schüler unterrichten. Wysocki, die von Kollegen und Eltern für eine gute Pädagogin gehalten wurde, war sich sicher, damit keine Probleme zu haben – bis sie ihre Kündigung erhielt. Ihr Impact-Score war angeblich zu gering. Denn was die Software nicht berücksichtigt hatte: Weil alle Lehrer daran interessiert waren, dass ihre Schüler gut abschneiden, halfen sie offensichtlich immer wieder nach. Wysocki hatte das nicht getan, und so waren ihre Schüler nach einem Jahr plötzlich scheinbar schlechter geworden.
„Weder Daten noch Computer – und erst recht nicht die Mathematik – werden jemals wieder aus unserem Leben verschwinden“, fasst O'Neil zusammen. „Wenn wir vor ihnen zurückweichen und mathematische Modelle als neutrale oder unvermeidliche Macht behandeln, gleichsam wie das Wetter oder die Gezeiten, entziehen wir uns unserer Verantwortung“. Es müsse unbedingt gelingen, die Algorithmen „zu überwachen, zu bändigen und zu entschärfen“, schreibt sie. Bleibt nur zu hoffen, dass es dafür noch nicht zu spät ist. WOLFGANG STIELER