Kommentar: Die KI-Entwicklung muss nichtwestliche Perspektiven einbeziehen

Unzählige Gremien diskutieren Ethik-Standards für die KI. Da die Experten oft aus EU oder USA stammen, ­drohen sich Muster des Kolonialismus zu wiederholen.

In Pocket speichern vorlesen Druckansicht 16 Kommentare lesen
Darknet

(Bild: whiteMocca/Shutterstock.com)

Lesezeit: 4 Min.
Von
  • Abhishek Gupta
  • Victoria Heath

Abhishek Gupta ist Gründer des Instituts für KI-Ethik in Montreal und Experte für Maschinenlernen bei Microsoft. Victoria Heath ist Forscherin am Institut für KI-Ethik in Montreal und Forschungsstipendiatin bei der Nato Association of Canada.

Internationale Organisationen und Unternehmen beeilen sich derzeit, globale Richtlinien für den ethischen Einsatz künstlicher Intelligenz zu entwickeln. Deklarationen, Manifeste und Empfehlungen überschwemmen das Internet. Allerdings werden diese Bemühungen vergeblich sein, wenn sie die kulturellen und regionalen Zusammenhänge, in denen KIs operieren, nicht berücksichtigen.

Es hat sich wiederholt gezeigt, dass KI-Systeme Probleme verursachen, von denen Minderheiten unverhältnismäßig stark betroffen sind, während ihr Nutzen nur wenigen Privilegierten zugute kommt. Die derzeitigen Bemühungen um eine globale KI-Ethik zielen darauf ab, alle von dieser Technologie profitieren zu lassen, und zu verhindern, dass sie Schaden anrichtet. Im Allgemeinen geschieht dies durch die Schaffung von Richtlinien und Prinzipien.

Die Bemühungen sind gut gemeint, und die Gruppen leisten lohnende Arbeit. Aber ohne eine stärkere internationale Orientierung werden sie eine KI-Ethik hervorbringen, die die Vorstellungen der Menschen in nur wenigen Regionen der Welt widerspiegelt, und zwar insbesondere jenen in Nordamerika und Nordwesteuropa. Wir müssen anfangen, den Stimmen aus Ländern mit niedrigem und mittlerem Einkommen (insbesondere aus den Ländern des „Globalen Südens“) Vorrang einzuräumen; ebenso wie denen aus historisch marginalisierten Gemeinschaften.

Diese Aufgabe ist nicht einfach. „Fairness“, „Privatsphäre“ und „Voreingenommenheit“ bedeuten an verschiedenen Orten unterschiedliche Dinge. Die Menschen haben auch unterschiedliche Erwartungen an diese Konzepte, die von ihren eigenen politischen, sozialen und wirtschaftlichen Realitäten abhängen. Dementsprechend ist auch die Sicht auf die Chancen und Risiken von KI je nach Wohnort unterschiedlich.

Wenn Organisationen dies nicht anerkennen, riskieren sie die Entwicklung von fehlerhaften Standards, die bestehende Vorurteile aufrechterhalten und keine Rücksicht auf andere Kulturen nehmen.

Im Jahr 2018 zum Beispiel führte die Verbreitung von Fehlinformationen durch soziale Netzwerke in Myanmar letztendlich zu Menschenrechtsverletzungen. Facebook handelte trotzdem nur zögerlich. Eine vom Unternehmen bezahlte Studie ergab, dass dieses Versäumnis zum Teil auf die Richtlinien von Facebook zurückzuführen war. Die Vorgaben zur Inhaltsmoderation wurden den politischen und sozialen Realitäten des Landes nicht gerecht.

TR 11/2020

Dieser Beitrag stammt aus Ausgabe 11/2020 der Technology Review. Das Heft ist ab 8.10.2020 im Handel sowie direkt im heise shop erhältlich. Highlights aus dem Heft:

Um einem solchen Missbrauch vorzubeugen, müssen Unternehmen Nutzer aus der ganzen Welt einbinden. Sie müssen sich auch darüber im Klaren sein, was ihre Richtlinien in verschiedenen Kontexten bewirken.

Leider gibt es in vielen KI-Beratungsgremien, die von führenden internationalen Organisationen eingesetzt werden, einen deutlichen Mangel an regionaler Vielfalt. In der Expertengruppe für das Unicef-Projekt „KI für Kinder“ zum Beispiel sitzen keine Vertreter aus dem Nahen Osten, aus Afrika und Asien. Das neu gegründete „Global AI Ethics Consortium“ hat keine Gründungsmitglieder, die akademische Institutionen oder Forschungszentren aus dem Nahen Osten, Afrika oder Lateinamerika vertreten.

Dieser Mangel an regionaler Vielfalt spiegelt sich auch in der gegenwärtigen Konzentration der KI-Forschung wider: 86 Prozent der 2018 auf KI-Konferenzen veröffentlichten Beiträge werden Autoren aus Ostasien, Nordamerika oder Europa zugeschrieben. Und weniger als zehn Prozent der Referenzen in KI-Papieren, die in diesen Regionen veröffentlicht wurden, beziehen sich auf Arbeiten aus einer anderen Region. Auch die Patente sind stark konzentriert: 51 Prozent aus dem Jahr 2018 entfielen auf Nordamerika.

Die gute Nachricht ist, dass es viele Experten und Führungskräfte aus unterrepräsentierten Regionen gibt, die in solche Beratungsgruppen einbezogen werden können. Gruppen wie die „Partnerschaft zur künstlichen Intelligenz“ (Partnership on AI) haben Änderungen der Visagesetze empfohlen und Richtlinien vorgeschlagen, die es Forschern erleichtern, zu reisen und ihre Arbeit zu teilen. Masakhane, eine Graswurzelorganisation, bringt Forscher aus Afrika zusammen, um maschinelle Übersetzungsarbeit für Sprachen umzusetzen, die bisher vernachlässigt wurden.

Fortschritte in der Technologie haben dem Westen oft Vorteile gebracht, während sie wirtschaftliche Ungleichheit, politische Unterdrückung und Umweltzerstörung andernorts verschärft haben. Die Gefahr ist groß, dass sich diese kolonialen Muster wiederholen. Die Einbeziehung nichtwestlicher Länder in die KI-Ethik ist der beste Weg, um eine Wiederholung dieses Musters zu vermeiden.

(bsc)