Weniger Bias bei der Jobsuche: Wie Plattformen die KI besser machen wollen

Die weltweit größten Jobseiten ordnen die Stellenangebote Bewerbern mit KI-Hilfe zu. Aber die Algorithmen sind nicht immer fair.

In Pocket speichern vorlesen Druckansicht 17 Kommentare lesen

Person beim Vorstellungsgespräch.

(Bild: Tim Gouw / Unsplash)

Lesezeit: 6 Min.
Von
  • Sheridan Wall
  • Hilke Schellmann
Inhaltsverzeichnis

Bereits vor einigen Jahren entdeckte das berufliche Vernetzungsportal LinkedIn, dass seine KI-Algorithmen, mit denen es Bewerbern Stellenangebote empfiehlt, verzerrte Ergebnisse liefern. Das System stufte Kandidaten teilweise auf der Grundlage der Wahrscheinlichkeit ein, mit der sie sich auf eine Stelle bewerben oder auf einen Personalvermittler reagieren würden. Als Konsequenz empfahl das System mehr Männer als Frauen für offene Stellen, einfach weil Männer oft nachdrücklicher bei der Suche nach neuen Möglichkeiten sind.

Nachdem LinkedIn das Problem entdeckt hat, entwickelte es eine weiteres KI-System, um diesen Verzerrungen entgegenzuwirken. Unterdessen verfolgen einige der weltweit größten Jobsuchseiten wie CareerBuilder, ZipRecruiter und Monster sehr unterschiedliche Ansätze, um Voreingenommenheit auf ihren eigenen Plattformen zu bekämpfen. Da diese Plattformen jedoch nicht genau offenlegen, wie ihre Systeme funktionieren, ist es für Arbeitssuchende schwer zu wissen, wie effektiv die Maßnahmen tatsächlich Diskriminierung verhindern.

Jobsuchen werden mit großer Wahrscheinlichkeit von KI beeinflusst. Sie kann ermitteln, welche Stellenausschreibungen man auf Jobsuchplattformen sieht und entscheiden auch, ob sie einen Lebenslauf an die Recruiter eines Unternehmens weitergeben. Einige Unternehmen bitten möglicherweise darum, dass man KI-gestützte Videospiele spielt, die Persönlichkeitsmerkmale messen und beurteilen, ob man für bestimmte Rollen gut geeignet ist.

Immer mehr Unternehmen verwenden KI, um neue Mitarbeiter zu rekrutieren und einzustellen, und KI fließt oft in so gut wie jede Phase des Einstellungsprozesses ein. Die Covid-19-Pandemie löste eine verstärkte Nachfrage nach diesen Technologien aus. Die Unternehmen Curious Thing und HireVue, die sich auf KI-gestützte Interviews spezialisiert haben, berichteten von einem Anstieg des Geschäfts während der Pandemie.

Die meisten Jobsuchen beginnen mit einer einfachen Suche. Jobsuchende wenden sich an Plattformen wie LinkedIn, Monster oder ZipRecruiter, wo sie ihren Lebenslauf hochladen, Stellenausschreibungen durchsuchen und sich auf offene Stellen bewerben können. Die Webseiten versuchen dann, qualifizierte Kandidaten verfügbaren Stellen zuzuordnen und verwalten beide Gruppen oft mithilfe von KI-gestützte Empfehlungsalgorithmen. Diese werden manchmal auch Matching-Engines genannt und verarbeiten Informationen sowohl von den Arbeitssuchenden als auch den Arbeitgebern, um für jeden eine Liste mit Empfehlungen zu erstellen. „Man hört oft die Anekdote, dass ein Personalvermittler sechs Sekunden damit verbringt, Ihren Lebenslauf zu betrachten, stimmt‘s?“ sagt Derek Kan, Direktor für Produktmanagement bei Monster. „Mit unserer Empfehlungs-Engine können Sie diese Zeit auf Millisekunden reduzieren.“

Die meisten Matching-Engines seien für die Generierung von Bewerbungen optimiert, sagt John Jersin, ehemaliger Direktor für Produktmanagement bei LinkedIn. Diese Systeme stützen ihre Empfehlungen auf drei Datenkategorien: Informationen, die der Benutzer der Plattform direkt zur Verfügung stellt, Daten, die dem Benutzer basierend auf anderen Nutzern mit ähnlichen Fähigkeiten, Erfahrungen und Interessen zugewiesen werden, und Verhaltensdaten, zum Beispiel wie oft ein Benutzer auf Nachrichten antwortet oder mit Stellenausschreibungen interagiert.

Im Fall von LinkedIn schließen diese Algorithmen den Namen, das Alter, das Geschlecht und die Rasse einer Person aus, da die Einbeziehung dieser Merkmale zu Verzerrungen in automatisierten Prozessen beitragen kann. Aber Jersins Team fand heraus, dass die Algorithmen des Dienstes trotzdem Verhaltensmuster von Gruppen mit bestimmten Geschlechtsidentitäten erkennen können.

Während sich beispielsweise Männer eher auf Stellen bewerben, die über ihre Qualifikationen hinausgehende Berufserfahrung erfordern, entscheiden sich Frauen eher für Stellen, deren Qualifikationen den Anforderungen der Stelle entsprechen. Der Algorithmus interpretiert diese Verhaltensvariation und passt seine Empfehlungen so an, dass Frauen ungewollt benachteiligt werden. „Vielleicht empfiehlt er beispielsweise einer Personengruppe höherrangige Jobs als einer anderen, selbst wenn sie auf dem gleichen Niveau qualifiziert sind“, sagt Jersin. „Diese Leute haben möglicherweise nicht die gleichen Chancen.“ Männer schreiben auch mehr Fähigkeiten in ihren Lebenslauf bei einem niedrigeren Kompetenzgrad als Frauen, und sie treten oft nachdrücklicher mit Personalvermittlern auf der Plattform in Kontakt.

Das LinkedIn- Team um Jersin hat bereits 2018 eine neue KI implementiert, die repräsentativere Ergebnisse erzielen soll. Der neue Algorithmus soll Empfehlungen entgegenwirken, die zugunsten einer bestimmten Gruppe verzerrt sind und sicherstellen, dass das Empfehlungssystem eine gleichmäßige Verteilung der Benutzer nach Geschlechtern enthält, bevor die von der ursprünglichen Engine kuratierten Treffer weitergeleitet werden. Derek Kann von Monster sagt, das der Dienst mit etwa fünf bis sechs Millionen Joblistings auch Verhaltensdaten in seine Empfehlungen einbezieht, diese aber nicht auf die gleiche Weise wie LinkedIn korrigiert. Stattdessen konzentriert sich das Marketingteam darauf, Benutzer mit unterschiedlichem Hintergrund zum Registrieren gewinnen. Das Unternehmen verlässt sich dann darauf, dass die Arbeitgeber Bericht erstatten und Monster mitteilen, ob es eine passende Gruppe von Kandidaten weitergegeben hat oder nicht.

CareerBuilder-Geschäftsführerin Irina Novoselsky versucht, mithilfe den von ihrem Dienst gesammelten Daten Arbeitgeber darin zu schulen, wie sie Vorurteile in ihren Stellenausschreibungen beseitigen können. Wenn etwa „ein Kandidat eine Stellenbeschreibung mit dem Modewort ‚Rockstar‘ liest, gibt es wesentlich weniger Frauen, die sich bewerben“, sagt sie.

ZipRecruiter-Geschäftsführer und -Mitgründer Ian Siegel zufolge berücksichtigen die Algorithmen des Unternehmens beim Ranking von Kandidaten bestimmte Erkennungsmerkmale wie Namen nicht. Stattdessen klassifizieren sie Menschen auf der Grundlage von 64 anderen Informationen wie geografischen Daten. Siegel will mit Hinweis auf geistiges Eigentum keine Details über seine Algorithmen verraten und glaubt, dass „wir sind einer leistungsbasierten Bewertung von Menschen so nahe sind, wie es derzeit möglich ist“.

Durch die Automatisierung bei jedem Schritt des Bewerbungs- und Einstellungsprozesses müssen Arbeitssuchende jetzt lernen, wie sie sowohl für den Algorithmus als auch bei den Einstellungsmanagern hervorstechen können. Ohne klare Informationen darüber, was diese Algorithmen tun, stehen die Kandidaten allerdings vor großen Herausforderungen.

„Ich glaube, die Leute unterschätzen die Auswirkungen von Algorithmen und Empfehlungsmaschinen auf Jobs“, sagt Kan. „Die Art und Weise, wie Sie sich präsentieren, wird höchstwahrscheinlich zuerst von Tausenden von Maschinen und Servern gelesen, bevor sie überhaupt vor ein menschliches Auge gelangt.“

(vsz)