BSI und weitere Cybersicherheitsbehörden veröffentlichen KI-Richtlinien

Das BSI veröffentlicht Richtlinien für sichere KI-Systeme in Zusammenarbeit mit Partnerbehörden aus Großbritannien und den USA.

In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen
Cybersicherheitssymbolbild. Mann an einem Laptop, auf dem Bild ein Schloss

(Bild: Thapana_Studio/Shutterstock.com)

Lesezeit: 2 Min.

Damit Künstliche Intelligenz zum Einsatz kommen kann, etwa bei autonomen Transportmitteln oder medizinischen Diagnosen, müssen die Systeme "nicht nur sicher geplant und entwickelt, sondern auch sicher eingeführt und betrieben werden". Dafür hat das Bundesamt für Sicherheit in der Informationstechnik (BSI) in Zusammenarbeit mit Partnerbehörden aus Großbritannien und den USA Guidelines for Secure AI System Developments" veröffentlicht (PDF). Diese Richtlinien sind nicht nur an Anbieter, Betreiber und Entwickler von KI-Systemen gedacht, sondern auch für Datenwissenschaftler, Manager, Entscheidungsträger. Demnach sollen die Systeme keine sensiblen Daten preisgeben und "erwartungsgemäß und zuverlässig" arbeiten.

Die Richtlinien verteilen sich auf vier Sicherheitsthemen innerhalb des Lebenszyklus der KI-Systementwicklung: die Sicherheit des Designs, die der Entwicklung und die sichere Bereitstellung sowie den Betrieb und die Wartung der KI-Systeme. Dabei orientieren sich die Richtlinien an denen des UK National Cybersercurity Centre und dem Secure Software Development Framework des NIST. Wichtig sind unter anderem das Verständnis von Risiken, Bedrohungsmodellierung, sichere Lieferkette und die Dokumentation.

Mit bestehenden Sicherheitsprinzipien wie "security-by-design" und "security-by-default" will das Dokument mit KI zusammenhängende Sicherheitsrisiken aufzeigen und mögliche Gegenmaßnahmen. Allerdings seien "nicht alle Richtlinien auf alle Organisationen anwendbar", da die Angriffsmethoden je nach Gegner variieren. Sofern eine Kompromittierung des Systems etwa zum Verlust sensibler oder vertraulicher Informationen führen könnte, müssten die möglichen KI-Cybersicherheitsrisiken als kritisch betrachtet werden.

Die Richtlinien zeigen, dass die einfache Situation mit einem Anbieter und einem Nutzer immer seltener wird. Anbieter integrieren beispielsweise von Dritten bereitgestellte Software, Daten, Modelle oder Remote-Dienste. Für den Endverbraucher wird es daher schwieriger, die Verantwortlichkeiten zu verstehen. Endnutzer verfügen daher nicht über das notwendige Fachwissen, um die mit dem Einsatz der Systeme verbundenen Risiken bewerten zu können.

"Endnutzer haben meist keine Einblicke, um die Risiken nachzuvollziehen, die mit KI verbunden sind", heißt es vom BSI. Daher sollen Betreiber der Systeme Transparenz schaffen und über mögliche Nutzungsrisiken informieren, wie aus den "Guidelines for Secure AI System Developments" hervorgeht, die 23 internationale Cybersicherheitsbehörden aus 18 Ländern unterstützen – unter anderem die National Security Agency (NSA) und das Federal Bureau of Investigations (FBI). Fragen zur Sicherheit von KI-Systemen lassen sich laut BSI "nur im Verbund mit gleichgesinnten internationalen Partnern" lösen. Dabei bestehe "dringender Handlungsbedarf".

(mack)