USA regulieren KI-Nutzung in Behörden: Bürger und Infrastruktur schützen

Wie US-Behörden künftig KI-Tools nutzen, reguliert ein neues Dekret. Die erste Regel: Die Tools dürfen die Rechte und Sicherheit von US-Bürgern nicht gefährden.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Ai(artificial,Intelligence),Concept.,Holographic,Earth,And,Digital,Pattern.

(Bild: metamorworks/Shutterstock.com)

Lesezeit: 3 Min.

Die US-Regierung hat eine Richtlinie veröffentlicht, die den Einsatz von KI-Tools in US-Behörden reguliert. Unter anderem müssen die Behörden Wege finden, um Biases in Algorithmen zu entschärfen. Sie müssen außerdem sicherstellen, dass die KI-Tools, die sie nutzen, die Rechte und Sicherheit der US-Bürger nicht gefährden.

Bis zum 1. Dezember haben die Behörden Zeit, entsprechende Sicherheitsvorkehrungen zu treffen. Tun sie dies nicht, dürfen sie die KI-Tools nicht mehr nutzen – es sei denn, die Verantwortlichen können begründen, dass dies "nicht vertretbare" Auswirkungen auf kritische Abläufe hätte.

.

Wie das Portal Engadget berichtet, gilt ein KI-System als sicherheitsrelevant, wenn es (voraussichtlich) eingesetzt wird, um „die Ergebnisse [bestimmter Aktivitäten und Entscheidungen] zu kontrollieren oder wesentlich zu beeinflussen.“ Das betreffe Bereiche wie Wahlen, kritische Infrastruktur und autonome Fahrzeuge, aber auch den Betrieb von autonom fahrenden Robotern am Arbeitsplatz, in der Schule, in der Wohnung, im Verkehr oder in der Medizin.

Die neue Richtlinie solle auch den Einsatz von KI bei den Strafverfolgungsbehörden regulieren, darunter die vorausschauende Polizeiarbeit, die Überwachung sozialer Medien für die Strafverfolgung, das Aufdecken von Plagiaten an Schulen, das Aufspüren oder Messen menschlicher Emotionen und das anlasslose Vorab-Screening bei neuen Arbeitsverhältnissen sowie "die Ähnlichkeit oder Stimme einer Person ohne ausdrückliche Zustimmung".

Ämter und Ministerien werden dazu verpflichtet, regierungseigene KI-Codes, -Modelle und -Daten zu veröffentlichen, oder, sofern Sicherheitsgründe dagegen sprechen, zumindest die genutzten Metriken zu melden. Vor dem Einsatz generativer KI müsse zudem der potenzielle Nutzen bewertet und sichergestellt werden, dass ihr Einsatz kein unangemessenes Risiko darstelle.

Vizepräsidentin Kamala Harris erklärte laut Engadget in einem Pressegespräch, sie glaube, dass die Verantwortlichen aus Regierung, Zivilgesellschaft und Privatwirtschaft eine gemeinsame Pflicht hätten: Sie müssten dafür sorgen, dass KI in einer Art und Weise genutzt und weiterentwickelt wird, „die die Gesellschaft vor potenziellem Schaden schützt und zugleich sicherstellt, dass jeder in den Genuss ihrer Vorteile kommt.“

Die neue Richtlinie folgt auf ein Dekret, das Joe Biden im November vergangenen Jahres unterzeichnet hat und das KI-Unternehmen in den USA reguliert. Anfang Februar hatte die US-Regierung dann ein Institut für KI-Sicherheit gegründet (US Artificial Intelligence Safety Institute, USAISI), das Standards für die Nutzung von KI erarbeiten soll.

Der Mitte März von der EU-Komission verabschiedete AI Act verfolgt einen risikobasierten Ansatz: Nur KI-Systeme, die als hochriskant eingestuft werden, müssen Sicherheitsanforderungen erfüllen. Dies gilt etwa für Medizinprodukte oder kritische Infrastrukturen. KI-Anwendungen, die die Rechte der Bürger bedrohen, werden darin ebenfalls verboten. Vorausschauende Polizeiarbeit wird zwar eingeschränkt, doch Hintertüren etwa für automatisierte Gesichtserkennung durch Strafverfolger bleiben offen.

Auf Basis des Digital Services Act (DSA) hatte die EU-Komission zudem Leitlinien für Maßnahmen herausgegeben, die sehr große Online-Plattformen und Suchmaschinen mit über 45 Millionen aktiven europäischen Nutzer ergreifen sollen, um systemische Online-Risiken rund um die Integrität von Wahlen zu reduzieren. Diese sollen potenzielle Schäden durch schwerwiegende Probleme wie manipulierte Bilder, Stimmen oder Deepfakes etwa von politischen Akteuren verringern. (gref)