Apple Card am Sexismus-Pranger

Die anfängliche Freude über die Apple-Kreditkarte wurde für den Nutzer David Heinemeier Hansson und seine Frau bald getrübt.

In Pocket speichern vorlesen Druckansicht
Apple Card

(Bild: Apple)

Lesezeit: 3 Min.
Von
  • Veronika Szentpetery-Kessler
  • Niall Firth

David Heinemeier Hanssons Frust-Tweet verbreitete sich mit viraler Geschwindigkeit. "Die @AppleCard ist ein so verf**** sexistisches Programm“, schäumte der Gründer und Technische Direktor der Projektmanagement-App Basecamp Anfang November. "Meine Frau und ich werden steuerlich gemeinsam veranlagt, leben in einem Bundesstaat, der Gütergemeinschaft anerkennt, und sind schon lange verheiratet. Trotzdem glaubt Apples Black-Box-Algorithmus, dass ich einen zwanzigfach höheren Kreditrahmen verdiene als sie."

Ursprünglich hatte sich das Ehepaar sehr auf die Apple-Kreditkarte gefreut. Schließlich versprach das Unternehmen, keine finanziellen Daten an Dritte weiter­zugeben. Doch das war wohl auch schon alles, was hinter dem Slogan „Created by Apple, not a bank“ steckte. Zu dem von Hansson angezettelten Tweet-Sturm schweigt Apple und verweist auf die Partnerbank Goldman Sachs, die den Algorithmus programmiert hat.

Die Bank wiederum zucke nur mit den Schultern, der Algorithmus habe eben so entschieden, berichtet Hansson seither auf diversen Online- und TV-Kanälen. Der Hinweis, dass der Computer nur Individuen und nicht Paare betrachte, sei laut Hansson ebenfalls kein Erklärungsansatz, da seine Frau eine höhere Kreditwürdigkeit besitze als er. Es gebe zudem keine Möglichkeit, den Entscheidungsprozess einzusehen oder der Bank klärende Unterlagen einzureichen. Schließlich hat Goldman Sachs nach diesem PR-Desaster den Kreditrahmen von Jamie Hansson manuell auf jenen ihres Mannes angehoben und betonte, das Geschlecht würde bei der Bestimmung der Kreditwürdigkeit nicht berücksichtigt.

Das muss ein Algorithmus aber auch gar nicht, um diskriminierende Entscheidungen zu fällen. Experten vermuten, dass die Trainingsdaten einen versteckten systematischen Fehler enthalten. Für eine falsche Einschätzung reicht es schon aus, wenn das Programm nicht mit neuen Nutzerdaten gefüttert wird, sondern mit älteren Daten aus gemeinsamen Verträgen. Wenn etwa der Ehemann – zufällig – früher einmal eine Kreditkarte beantragt hat und eine Zweitkarte für seine Frau, wird ihm automatisch eine höhere Kreditwürdigkeit zugeschrieben, schreibt das KI-Beraterunternehmen „Sonder Scheme“ in den USA in seinem Blog.

Die Geschichte der Hanssons ist kein Einzelfall. Selbst Apple-Mitgründer Steve Wozniak meldete per Twitter, dass sein Kreditrahmen auf das Zehnfache seiner Frau taxiert wurde. Und bei Paaren, bei denen die Ehefrau nach mensch­licher Einschätzung kreditwürdiger ist als ihr Mann, wurden ihre Kreditanträge durch die KI zuweilen ganz abgelehnt.

Inzwischen hat das New Yorker Finanzministerium eine Untersuchung gegen Goldman Sachs eingeleitet. Superintendentin Linda Lacewell erklärte in einem Blog-Beitrag, man werde „untersuchen, ob der Algorithmus, mit dem diese Kreditlimit-Entscheidungen getroffen werden, gegen staatliche Gesetze verstößt, die Diskriminierung aufgrund des Geschlechts verbieten“.

Derweil nutzt das dänisch-ame­rikanische Ehepaar Hansson seine ­Bekanntheit, um auf die Probleme ­aufmerksam zu machen, die solche Fehleinschätzungen mit sich bringen: Für Frauen, die ein Geschäft gründen oder aus einem Missbrauchsverhältnis ausbrechen wollen, mache es etwas aus, wenn „die Welt immer noch zu denken scheint, dass Frauen nicht so erfolgreich oder kreditwürdig sein können wie Männer“.

(bsc)