"AI Trust Label": VDE legt Standardentwurf für vertrauenswürdige KI vor

Der Nachweis, dass KI-Systeme vorgegebene Werte einhalten, gilt als globale Herausforderung. Ein Technikverband arbeitet mit Partnern an einer Lösung.

In Pocket speichern vorlesen Druckansicht 20 Kommentare lesen

(Bild: everything possible/Shutterstock.com)

Lesezeit: 5 Min.
Inhaltsverzeichnis

Das Mantra ist überall zu hören: Systeme mit Künstlicher Intelligenz (KI) müssen vertrauenswürdig sein, damit sie in der Breite Akzeptanz finden und eingesetzt werden. Schlüsselfragen gelten dabei bislang als ungelöst: Wie kann Vertrauen in die Entscheidungen von Algorithmen entstehen, auf denen KI aufbaut? Wie lässt sich dafür nachweisen, dass sich die Technik an vorgegebene Werte hält? Der VDE hat als einer der größten europäischen Verbände für Elektronik und IT dafür nun einen Lösungsvorschlag vorgestellt.

Laut dem VDE können Hersteller und Systembetreiber nur über einen klar definierten Standard nachweisen, bis zu welchem Grad KI-Systeme bestimmte ethische Anforderungen einhalten. Der Verband hat dafür am Montag mit dem Entwurf für die Spezifikation VDE Spec 90012 einen Ansatz veröffentlicht. An der Entwicklung waren Bosch als Mitinitiator sowie Siemens, der TÜV Süd, SAP und BASF involviert. Auf wissenschaftlicher Seite sind das iRights.Lab, das Karlsruher Institut für Technologie (KIT), das Ferdinand-Steinbeis-Institut sowie die Universitäten Tübingen und Darmstadt vertreten.

Bereits aus der Breite an Teilnehmern werde deutlich, dass das Konsortium mit dem geplanten "AI Trust Label" auf einen allgemeinverbindlichen, international anerkannten Standard hinarbeite, betont der VDE. In der wissenschaftlichen Systematik stützen sich die Projektpartner auf das sogenannte VCIO-Modell. Es basiert auf vier Parametern: Auf der obersten Ebene werden Werte (Values) definiert, deren Einhaltung über festgelegte Kriterien (Criteria) überprüfbar sein soll. Dies wird ermöglicht über die Beschreibung von Indikatoren (Indicators) und Beobachtungsmerkmalen (Observables).

"Das klingt sehr kompliziert, ist aber ganz praktisch vorstellbar", erläutert Sebastian Hallensleben, KI-Experte im VDE und Leiter der einschlägigen Projektgruppe. "Für den Wert Transparenz gibt es verschiedene Kriterien, zum Beispiel Herkunft und Charakteristika der Trainingsdaten, die eine KI nutzt, oder die Durchschaubarkeit und Verständlichkeit des Algorithmus." Solche Eigenschaften würden über die in der Spezifikation vorgestellte Systematik "mess- und quantifizierbar in Einklang gebracht".

"Die Produktcharakterisierung nach diesem Standard kann in einer Vielzahl von Kontexten verwendet werden", heißt es in dem Entwurf. Endverbraucher, Unternehmen und staatliche Organisationen seien damit in der Lage, "Anforderungen zu definieren oder verschiedene Produkte zu vergleichen". Dabei werde es auch möglich, die Einhaltung verschiedener Werte zu bewerten. So lasse sich etwa herausfinden, ob ein System besser die Anforderungen an den Datenschutz, ein anderes Transparenzkriterium, stärker erfülle.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Umfrage (Opinary GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Opinary GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

"Darüber hinaus können während der Entwicklung eines bestimmten Produkts Zielvorgaben festgelegt werden", führen die Verfasser aus. Diese würden dann im Entwicklungsprozess berücksichtigt, um eine gewünschte Wertekonformität zu erreichen. Die standardisierte Beschreibung sei unabhängig von der potenziellen Gefährdung von Verbrauchern durch das Produkt und definiere in diesem Zusammenhang keine Mindestanforderungen. Sie beschreibe vielmehr neutral die Einhaltung der vorgegebenen Werte. Dennoch könnten Unternehmen, Anwender oder staatliche Stellen in diesem Rahmen selbst die Latte etwa mit Vorgaben für ein zu erreichendes Mindestschutzniveau höher legen.

Die Kriterien, Indikatoren und Beobachtungsgrößen des geplanten Standards zielen auf Merkmale von KI-Systemen ab wie die zugrundeliegenden Datensätze, die genaue Definition des Anwendungsbereichs, die Entwicklung, die Anwendung, Prozesse und die klare Zuweisung von Verantwortlichkeiten. Darüber hinaus sollen allgemeinere Aspekte berücksichtigt worden sein, die notwendig seien, um die Vertrauenswürdigkeit von Künstlicher Intelligenz nachzuweisen.

"Das Thema brennt allen unter den Nägeln", weiß Hallensleben. Die Beteiligten hätten daher "eine Systematik entworfen, durch die man eine KI mit realistischem Aufwand prüfen und die Ergebnisse klar in Richtung Markt und Regulierer kommunizieren kann". Christoph Peylo, der bei Bosch das Thema "Digital Trust" verantwortet, versicherte: "Selbstverständlich bewegen wir uns dabei nicht im luftleeren Raum." Das Team habe Vorarbeiten etwa der AI Ethics Impact Group berücksichtigt. Natürlich laufe parallel "auch ein Abgleich mit den aktuellen Vorgaben der EU".

Die EU-Gesetzgebungsgremien arbeiten derzeit an einer Verordnung für vertrauenswürdige KI. Damit sollen einschlägige Systeme generell in verschiedene Risikoklassen eingeteilt und solche mit unannehmbaren Gefahren wie Social Scoring untersagt werden. Besonders umkämpft sind potenzielle Verbote für biometrische Massenüberwachung und Predictive Policing. Die für Digitales zuständige Vizepräsidentin der EU-Kommission, Margrethe Vestager, unterstrich jüngst: Ohne einschlägige Vorschriften könnten sich der öffentliche Sektor und der Gesundheitsbereich angesichts von Diskriminierungsskandalen nicht auf die Technik einlassen.

Die Projektpartner planen nun, bis zum Sommer das konkrete AI Trust Label auf Basis der Spezifikation vorzustellen. Das Kennzeichen soll – je nach Anwendungsfall – eine Eigenerklärung beziehungsweise eine Zertifizierung durch unabhängige Instanzen erlauben. Letzteres wäre bei besonders risikoreichen Anwendungen erforderlich. Das beteiligte iRights.Lab und die Bertelsmann-Stiftung hatten mit den "Algo.Rules" schon 2019 neun "goldene Regeln" für algorithmische Systeme präsentiert. Diese sollen damit stets nachvollziehbar und während des gesamten Einsatzes gestaltbar bleiben.

(tiw)