Google gründet Arbeitskreis für sichere KI

​Die Coalition for Secure AI soll Grundlagen und Standards ausarbeiten, um von KI ausgehende Gefahren zu reduzieren. Zu Beginn gibt es 3 Arbeitskreise.​

In Pocket speichern vorlesen Druckansicht 9 Kommentare lesen
Grobe Skizze eines Gehirns aus Leuchtpunkten, rechts davon die Buchstaben "AI", beides mit blauem Licht von links angestrahlt

(Bild: incrediblephoto / Shutterstock.com)

Lesezeit: 2 Min.

"Künstliche Intelligenz braucht einen sicheren Rahmen (framework) und angewandte Standards, die mit dem raschen Wachstum Schritt halten können", sagt Google. Diesen Herausforderungen soll sich eine neue Organisation widmen: die am Donnerstag aus der Taufe gehobene Coalition for Secure AI (CoSAI). Gründungsmitglieder sind neben Google Amazon, Anthropic, Chainguard, Cisco, Cohere, GenLab, IBM, Intel, Microsoft, NVIDIA, OpenAI, Paypal und Wiz. (Wiz ist ein Start-up für IT-Sicherheit, an dessen Übernahme Google interessiert ist.)

Die CoSAI möchte mit Wissenschaft, anderen Organisationen sowie der IT-Branche generell zusammenarbeiten und zunächst drei Arbeitskreise führen: Für die Absicherung der KI-Lieferkette (software supply chain security for AI systems), für die Vorbereitung von IT-Sicherheit auf die sich durch KI verändernden Bedrohungsszenarien sowie für das Management von KI-Sicherheit (AI security governance).

Letztere Gruppe soll beispielsweise ein System aus Begriffsdefinitionen ausarbeiten, damit die Leute in der Branche weniger an einander vorbei reden. Auf der Aufgabenliste stehen auch Checklisten und standardisierte Bewertungssysteme für das Assessment der Vorbereitung auf Sicherheitsprobleme von AI-Anwendungen, deren Management und Monitoring, sowie die Berichterstattung über Sicherheitsprobleme.

Zur Stärkung der IT-Sicherheit im Kampf gegen KI-beflügelte Angreifer soll der zweite CoSAI-Arbeitskreis ein Framework erstellen, das IT-Verteidigern dabei hilft, über Investitionen in Milderungsmaßnahmen zu entscheiden. Der erste Arbeitskreis soll, ausgehend von Erfahrungen mit klassischer Software, Anleitungen ausarbeiten. Diese Anleitungen sollen dabei helfen, herauszufinden, wie eine bestimmte KI entstanden ist (Herkunft und Erarbeitung), und wie sie mit Angeboten Dritter interagieren könnte, um daraus auf Bedrohungen schließen zu können.

Im Herbst hat Google sein Bug-Bounty-Programm auf KI-Produkte ausgedehnt, um Dritte zur Jagd auf KI-Sicherheitslücken anzuspornen. Im Juni des Vorjahres hat der Datenkonzern sein eigenes Secure AI Framework veröffentlicht und gemeinsam mit Partnern aus der Branche freiwillige KI-Verpflichtungen herausgegeben.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Umfrage (Opinary GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Opinary GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(ds)