Gibt man bei der Google Suche "Frauen sollten" ein, wird die Anfrage automatisch vervollständigt zu Formulierungen wie "Frauen sollten nicht studieren", "Frauen sollten keine Hosen tragen", "Frauen sollten keine Rechte haben".
Wenn man falsch interpretiert, was die Autocompletefunktion tun soll, dann kann man zu dieser Interpretation kommen.
Sie soll dem, der die Suche formuliert, Tipparbeit abnehmen, und das tut sie, in dem sie am besten prognostiziert, was der Fragesteller fragen wird, und die naive Lösung dafür ist, dass man aus allen Suchen, die mit "Frauen sollten" beginnen, die häufigsten auswählt und vorschlägt.
Deshalb könnten die angezeigten Suchbegriffe "seltsam oder überraschend" wirken. Eine andere Bezeichnung dafür wäre diskriminierend.
Nein, wäre es nicht. Denn über die Intention desjenigen, der solch eine Suche anstellt, ist ja damit noch gar nichts gesagt. Vielleicht suchen v.a. Feministinnen mit den Phrasen nach Chauvisprüchen, um Diskriminierung zu belegen.
Ich meine, welche Frau gibt bei Google "Frauen sollten" ein, um zu erfahren, was sie soll? Für wie blöd muss man Frauen halten, um so zu argumentieren?
Die Organisation UN Women kritisierte diese angebliche "Autocomplete-Wahrheit" schon 2013 in einer großen Kampagne: Frauen sollten heutzutage überall als gleichberechtigt angesehen werden - auch auf Google.
Wer bezeichnet denn die Suchfunktion als Autocomplete-Wahrheit?
Soll die Autocompletefunktion jetzt "mehr Fußballspielen" als Ergänzung vorschlagen? "katholischer Papst werden dürfen"? Soll ein Frauenkonsortium jede Komplettierung vorab prüfen?
Wer hindert die Frauen ein Woomle zu gründen, das ganz gendergerecht arbeitet und pädagogische Weisheiten alter Frauen implementiert?
Eine Untersuchung der Carnegie Mellon University zeigt, dass Frauen bei Google weniger Anzeigen für gut bezahlte Jobs mit Führungspositionen angezeigt bekommen als Männer.
Und, kann es sein, dass das daran liegt, das Frauen auch seltener danach suchen und bevorzugt nach Teilzeitjobs suchen? Gut bezahlte Führungsjobs sind auch anstrengend. Könnte da ein Zusammenhang bestehen? Woher weiß Google eigentlich, dass da eine Frau sucht? Weil sie zuvor nach Mode, Wellness und ihrem Horoskop gesucht hat?
Google-Suchen nach Namen, die afroamerikanisch klingen, werden häufiger mit Anzeigen verknüpft, die einen Eintrag im Vorstrafenregister implizieren, so eine Studie von Harvard-Professorin Latanya Sweeney aus dem Jahr 2013.
Wahrscheinlich weil sich diese Namen häufiger in Zusammenhang mit solchen Vorstrafenregistern finden. Google bildet wohl den empirischen Istzustand von indizierbaren Dokumenten ab. Anhand welcher Kriterien soll Google denn den empirischen Ist-Zustand beschönigen?
Bei der Suche nach dem Wort Hand zeigt Google größtenteils Bilder von Händen mit heller Hautfarbe.
Welche Handbilder werden hochgeladen und mit "Hand" getagged? Muss jeder Uploader in Zukunft Quoten erfüllen oder nur Google, kontrafaktisch, potjemkinsche Dörfer malen? Was würde das ändern? Wo soll das aufhören?
Die Programmierer sind oft weiße Männer, also Mitglieder einer sehr homogenen Gruppe.
Die Frauen machen lieber Webdesign oder Tierarzt oder, oder, oder. Junge Technologien werden immer von jungen Leuten gemacht. Hier sind es aber weniger die Algorithmen, als die empirischen Daten, die ein einseitiges Bild der Welt zeichnen.
Außerdem haben Entwickler oft keine realen Personen im Kopf, sondern Stereotype. So entstehen etwa für Senioren geeignete Telefone mit besonders großen Tasten - schließlich können alte Menschen oft nicht mehr gut sehen. Dabei ist alt sein nicht ausschließlich mit Fehlsichtigkeit gleichzusetzen. Auch andere gesundheitliche Probleme wie Demenz oder Hörprobleme beeinflussen, wie alte Menschen Telefone nutzen und welche Funktionen für sie relevant sind. Doch das ist vielen Programmierern nicht bewusst.
Programmierer entwickeln also Telefone. Dass alte Menschen schlechter sehen ist ein Stereotyp. Dass sie schlechter hören nicht? Alte Menschen können das für sie beste Telefon kaufen. Händler können lernen alte Menschen besser zu beraten. Bei einer vergreisenden Gesellschaft würde ich mir darüber noch am wenigsten Sorgen machen.
Der Algorithmus wurde bei der Entwicklung mit Informationen und Beispielen gefüttert, sodass er alle möglichen Kategorien von sich aus erkennen kann, so das Versprechen. Doch nicht immer funktioniert das: So wurden Fotos von schwarzen Personen von Flickr mit dem Schlagwort Affe und von Google mit dem Schlagwort Gorilla versehen. Weiße Menschen wurden nicht mit Tieren verwechselt. Nach Protesten entschuldigte sich Google - und entfernte das Gorilla-Label komplett.
Wir erfahren nicht, ob der Algorithmus an der dunklen Haut gescheitert ist, oder an der böswilligen Etikettierung durch Rassisten. Interessiert das Frau Bath überhaupt?
Die Bildersuche nach Steuerhinterziehung zeigt, wenn Menschen gezeigt werden, vorwiegend weiße Männer.
Wenn Algorithmen nicht so vorurteilsbehaftet handeln sollen wie Menschen, gibt es nur eine Lösung: Die Entwickler selbst müssen sich des Problems bewusst werden - und zwar schon in ihrer Ausbildung.
Es geht also darum Genderlehrstühle in der Informatik zu besetzen, mit Frauen, die fachlich wenig Ahnung haben, aber hohe Ansprüche an die Männerwelt herantragen können und unliebsame Kritiker rechtzeitig aussondern können.
Die Computer sollen die Gesellschaft umerziehen, schwarze CEOs zeigen, Frauen in Führungspositionen, bis überall 50% Frauenquote erreicht ist, und jede Minderheit überall proportional repräsentiert ist.
Cartoonlink: https://demystifikation.wordpress.com/2016/05/18/empowerment/
Das Posting wurde vom Benutzer editiert (09.07.2017 03:43).