"Secure by design": 18 Staaten unterzeichnen neue KI-Richtlinien

Deutschland und 17 weitere Länder wollen KI von Grund auf sicher machen. Die Vereinbarung gilt auch für Produkte, die andere KI-Systeme nutzen.

In Pocket speichern vorlesen Druckansicht 11 Kommentare lesen
KĂĽnstliche Intelligenz, KI

(Bild: Gerd Altmann, gemeinfrei)

Lesezeit: 3 Min.

Es gibt neue Richtlinien, die KI-Systeme schon während der Entwicklung sicher machen sollen. Unterzeichnet wurde die Vereinbarung von 18 Ländern; darunter Deutschland, den USA und Großbritannien. Letztgenannte Staaten sollen die Richtlinien maßgeblich ausgearbeitet haben. Der Auftakt dafür wurde beim UK Safety Summit vor wenigen Wochen gelegt. Das Manko: Die neuen Richtlinien sind nicht bindend. Dafür sollen sie auch für solche Dienste und Anwendungen gelten, die KI-Systeme anderer Unternehmen nutzen.

Die britische Regierung nennt die Vereinbarung die "weltweit ersten Richtlinien, um eine sichere KI-Entwicklung sicherzustellen". Entsprechend sollen KI-Anwendungen mit Fokus auf die Sicherheit "gestaltet, entwickelt und angewendet" werden. Es wird nicht unterschieden, welche Art von KI sie betreffen: "Sie sollen Entwicklern jeder Art von System helfen, die KI nutzen, informierte Entscheidungen hinsichtlich der Cybersicherheit zu treffen." Das gilt explizit auch für solche Anwendungen, die auf einem bereits bestehenden KI-Modell aufsetzen. Dadurch könnten auch Entwickler kleiner KI-Dienste in die Pflicht genommen werden, die beispielsweise eigene GPTs oder Plugins für ChatGPT anbieten, und damit an OpenAIs Systeme andocken.

Konkret ausgearbeitet haben die Richtlinien das UKs National Cyber Security Centre (NCSC) und die US Cybersecurity and Infrastructure Security Agency (CISA) gemeinsam mit Vertretern aus der Industrie und nationalen Behörden weiterer 21 Länder – von denen sich dann offensichtlich aber nur 16 dazu entscheiden konnten, die Vereinbarung zu unterzeichnen. In einer Erklärung zur Vereinbarung beschreibt die britische Regierung den Ansatz als "secure by design".

Am Montagnachmittag soll eine Vorstellung der Richtlinien folgen, bei der auch die Unterzeichner anwesend sein sollen. Angekündigt ist eine Panel-Diskussion, bei der Gäste erwartet werden, wie Microsoft, das Alan Turing Institut und Vertreter deutscher Behörden. NCSC-CEO Lindy Cameron warnt in der Ankündigung, man dürfe nicht in eine Art Nachrüsten geraten, wenn es um die Sicherheit von KI-Systemen geht.

Während die "Richtlinien für eine sichere Entwicklung von KI-Systemen" keinen bindenden Charakter haben, sondern als Hilfestellung und Empfehlung gelesen werden können, stocken derzeit die Verhandlungen um den AI Act. Offensichtlich wollen Deutschland, Frankreich und Italien keine verpflichtenden Regulierungen für sogenannte Basismodelle. In einem veröffentlichten Positionspaper heißt es, man sei gegen "die Einführung von unerprobten Gesetzen und schlage deshalb vor, zunächst eine verpflichtende Selbstregulierung durch einen Verhaltenskodex zu ersetzen". Auch Sanktionen soll es nach Meinung der drei Länder nicht geben. Nicht ganz überraschend sitzen mit Aleph Alpha in Deutschland und Hugging Face in Frankreich die großen Hoffnungsträger von KI-Unternehmen in den sich jetzt quer stellenden Ländern. Italien hatte ChatGPT kurz nach der Einführung verboten, dort gab es Gerangel um die Sicherheit der Daten.

Weniger strittig waren auf EU-Ebene bisher der Umgang mit biometrischen Daten und anderen als Hochrisiko-KI eingestuften Systemen.

Wir aktualisieren die Meldung, sofern es Neuigkeiten von der Präsentation der Richtlinien gibt.

(emw)