KI-Update Deep-Dive: Wie der AI Act die Menschenrechte schützen kann
KI beeinflusst unser Leben, mal offensichtlich, mal versteckt. Wie transparent damit in der EU umgegangen wird, wird auch vom AI-Act abhängen.
Ein zentrales Problem vieler KI-Anwendungen ist der sogenannte Bias. Künstliche Intelligenz kann durch die Daten, mit denen sie trainiert wurde, Vorurteile entwickeln. Eine medizinische KI zur Diagnostik, die in erster Linie mit Daten männlicher Patienten trainiert wurde, könnte zum Beispiel Frauen schlechter oder gar falsch diagnostizieren. Gesichtserkennung oder KI-gesteuerte Recruiting-Apps können aufgrund eines solchen Bias ebenfalls falsch urteilen. Das kann weitreichende Konsequenzen für die Betroffenen haben und ist darum auch ein wichtiger Aspekt, der mithilfe des AI-Acts in der Europäischen Union reguliert werden soll.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung [1].
Im Deep-Dive des KI-Updates erzählt Lena Rohrbach, Referentin für Menschenrechte im digitalen Zeitalter bei Amnesty International, wo KI in Europa angewendet wurde und teils großen Schaden verursacht hat. So hatte die niederländische Steuerbehörde mittels eines KI-Algorithmus nach Familien gefahndet, die zu Unrecht Kindergeld erhalten haben. "Das Ergebnis war, dass insgesamt 20.000 Familien Briefe erhalten haben, dass sie zu Unrecht teilweise hohe Summen, Hunderttausende Euro an Kindergeld bekommen hätten und dass sie das zurückzahlen müssten. Und die allerwenigsten dieser Familien sind auf die Idee gekommen, das könnte unrechtmäßig sein." Laut Rohrbach war an keiner Stelle in dem Schreiben erkennbar, dass eine KI diese Entscheidung getroffen hatte. Darum setzt Amnesty International sich auch dafür ein, dass es eine Transparenzpflicht geben muss [2], damit Menschen wissen, wann und wo KI eingesetzt wird.
Mit großer Sorge beobachtet die Menschenrechtlerin die Bestrebungen einiger Staaten, die Regulierung durch Ausnahmeregeln auszuhöhlen. Dazu gehört der Wunsch einiger Regierungen, dass Sicherheits- und Migrationsbehörden künstliche Intelligenz anwenden dürfen, ohne das transparent darzustellen. "Das sind ja Behörden, die auch sehr weit in Grund- und Menschenrechte eingreifen dürfen", gibt Rohrbach zu bedenken. "Eine Polizeibehörde zum Beispiel darf Zwangsmaßnahmen anwenden. Und ich glaube, gerade da ist es wichtig zu wissen, ob hier beispielsweise eine Predictive-Policing-KI verwendet wurde und darüber mitentschieden hat."
Der AI-Act soll KI innerhalb der EU auf der Grundlage ihrer Fähigkeit, Schaden anzurichten, regulieren. Der Entwurf befindet sich derzeit in der letzten Phase des Gesetzgebungsverfahrens mit sogenannten Trilog-Verhandlungen zwischen dem EU-Rat, dem Parlament und der Kommission. Aktuell stocken die Verhandlungen jedoch, da Parlament und Mitgliedstaaten sich uneins darüber sind, ob sogenannte Basismodelle wie GPT-4 von OpenAI oder PaLM 2 von Google im AI Act reguliert oder davon ausgenommen werden sollen. Es ist also noch offen, ob es bis zum Ende des Jahres eine Einigung geben wird.
(igr [9])
URL dieses Artikels:
https://www.heise.de/-9530236
Links in diesem Artikel:
[1] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[2] https://www.amnesty.de/allgemein/pressemitteilung/kuenstliche-intelligenz-eu-verordnung-offener-brief-bundesregierung-menschenrechte
[3] https://podcasts.apple.com/de/podcast/ki-update-ein-heise-podcast/id1691536182
[4] https://podcasts.google.com/subscribe-by-rss-feed?feed=aHR0cHM6Ly9raXVwZGF0ZS5wb2RpZ2VlLmlvL2ZlZWQvbXAz
[5] https://kiupdate.podigee.io/feed/mp3
[6] https://open.spotify.com/show/1rm6gMybQWnHePvY2eCpzp
[7] https://www.heise.de/newsletter/anmeldung.html?id=ki-update
[8] https://the-decoder.de/
[9] mailto:isabel.gruenewald@heise.de
Copyright © 2023 Heise Medien