Studie: Diskriminierung durch KI auch gesellschaftlicher Effekt

Darf Künstliche Intelligenz frei entscheiden, fallen die Ergebnisse oft diskriminierend aus. Ein Forschungsteam sagt nun, Vorbeugung fange in der Schule an.

In Pocket speichern vorlesen Druckansicht 57 Kommentare lesen
Eine Lehrerin steht vor einer Tafel mit projizierter Netzgrafik

Eine Studie hat untersucht, wie sich diskriminierende Entscheidungen durch KI vorbeugen lassen.

(Bild: Gorodenkoff/ Shutterstock.com)

Lesezeit: 4 Min.
Inhaltsverzeichnis

Künstliche Intelligenz (KI) entscheidet schnell diskriminierend. Ein Forschungsteam der Hochschule Bielefeld hat untersucht, wie geschlechterdiskriminierende Effekte nicht so schnell entstehen. Schon bei der Entwicklung von Künstlicher Intelligenz könnten diversere Teams gegen diskriminierende Effekte helfen.

Praxisbeispiele rückten die Entscheidungsfähigkeit Künstlicher Intelligenz in ein schlechtes Licht: So habe etwa ein Roboter im Recruiting Lebensläufe von Frauen aussortiert. Auch im Fall von Stellenanzeigen auf Social Media unterschied eine KI offenbar zwischen den Geschlechtern: Technische Anzeigen spielte sie häufiger Männern aus. "Offensichtlich hatte die KI das zahlenmäßige Übergewicht von Männern in technischen Berufen zur Annahme verleitet, dass dies auch für die Zukunft so gewünscht sei", schreibt das Team.

"In vielen Wirtschaftsbereichen, insbesondere in großen Technologieunternehmen, ist eine geschlechtsspezifische Voreingenommenheit von KI-Technologien zu beobachten, da hier vorwiegend Männer die Entwicklungsteams bilden", sagt Studienleiter Sascha Armutat, Professor im Fachbereich Wirtschaft. So wirke sich die geringere Anzahl von Frauen in den Trainingsdaten etwa auf die Leistungsfähigkeit von Stimm-, Sprach- und Gesichtserkennungssystemen aus. Diese funktionierten bei Männern häufig zuverlässiger.

Die Forschenden kamen durch die Analyse von Diskussionen in Fokusgruppen mit Studierenden auf fünf Kategorien, die KI gerechter und gleichberechtigter machen könnten: "Freiheit von Diskriminierung", "Wissen und Bildung, "Geschlechterunterschiede (Sozialisierung und Stereotype)", "Kommunikation und Benutzerfreundlichkeit" sowie "Transparenz und Regelungen". Zugleich erfahre die Technologie dadurch potenziell eine größere Akzeptanz.

Die Fokusgruppen diskutierten am intensivsten über die sogenannten "Gender Bias, also eine systematische Verzerrung, die durch geschlechtsbezogene Stereotypisierungen und Vorurteile in den Trainingsdaten entsteht. Die Forderung nach mehr Transparenz, eine Kennzeichnungspflicht und eine KI-Regulierung erfüllt der AI-Act der Europäischen Union bereits weitestgehend – und dürfte auch einige Ursachen für die schlechte öffentliche Wahrnehmung beseitigen: fehlende Transparenz, Regulierung sowie Unsicherheiten beim Datenschutz. KI werde derzeit nicht als vertrauenswürdig wahrgenommen, so das Team.

Die Fokusgruppen hätten KI oft als "männerdominiert" gesehen. Untersuchungen hätten ebenfalls gezeigt, dass das Wissen über KI ungleich verteilt sei: Männer beschäftigten sich mehr als Frauen tiefergehend mit dem Thema und schätzten ihre Kompetenzen höher ein. "Diese Ungleichheiten beeinträchtigen nicht nur die Möglichkeiten und Karriereaussichten für Frauen, sondern haben auch erhebliche Auswirkungen auf die Art und Weise, wie Technologien, einschließlich KI, entwickelt und genutzt werden", heißt es in der Untersuchung. Zudem führten ein schlechtes Bild von KI und geringe Aufklärung dazu, sich weniger mit KI auseinanderzusetzen und diese auch seltener zu nutzen. In der Folge verhindere dies weibliche Beteiligung an Entwicklungsprozessen: Die Geschlechterkluft bleibe bestehen.

Das Interesse an KI sei oft vom Wissen darüber abhängig. Vorurteile, Frauen und Mädchen interessierten sich nicht für Technik und seien weniger begabt, sorgten vermutlich dafür, dass Frauen sich seltener für eine Technik-Karriere entschieden – was zu weniger Frauen in Entwicklungsteams führe. "Das macht die Gefahr latent, dass KI-Anwendungen auch in Zukunft dies als gegeben oder sogar wünschenswert hinnehmen und entsprechend agieren", schreibt das Team. Schon in der Schule müssten Lehrende daher sensibler mit Stereotypen umgehen, Frauen in Technik besser gefördert werden. "Zudem sollten Frauen frühzeitig in die Entwicklung von KI-Anwendungen einbezogen und klare Regeln geschaffen werden, um die Gleichberechtigung am Arbeitsplatz sicherzustellen", heißt es weiter.

Unternehmen sollten zudem beachten, dass der Zugang von Mitarbeiterinnen zu KI-Systemen ein anderer sein könne als der der Mitarbeiter. "Daraus folgt unter anderem, dass es geschlechterparitätisch besetzte Projektgruppen zur Einführung von KI geben sollte, und dass eine substanzielle, gendersensible inhaltliche Aufklärung betrieben werden muss."

(are)