TÜV-Verband fordert Zulassungsverfahren für gefährliche KI-Anwendungen

Die Technikprüfer werben dafür, Künstliche Intelligenz in Risikoklassen einzuteilen und nach ihrem Gefährdungspotenzial mehr oder weniger streng zu regulieren.

In Pocket speichern vorlesen Druckansicht 32 Kommentare lesen
TÜV-Verband fordert Zulassungsverfahren für gefährliche KI-Anwendungen

(Bild: vs148/Shutterstock.com)

Lesezeit: 2 Min.

Der TÜV-Verband setzt sich für klare gesetzliche Regeln für Produkte und Anwendungen mit Künstlicher Intelligenz (KI) ein, um die Sicherheit von Menschen auch in der digitalen Welt gewährleisten zu können. KI-Systeme sollten dabei in Risikoklassen unterteilt und nach ihrem Gefährdungspotenzial reguliert werden. Die Maßnahmen könnten von einem vollständigen Regulierungsverzicht über formelle Vorgaben wie Transparenzpflichten und Zulassungsverfahren vor der Markteinführung bis zu einem Verbot bestimmter, besonders gefährlicher oder ethisch fragwürdiger KI-Anwendungen reichen.

Es sei klar, dass nicht alle Systeme die gleichen Anforderungen erfüllen müssten, schreibt der Verband in einem am Montag veröffentlichten Positionspapier. Automatisierte Fahrzeuge, automatisch erstellte medizinische Diagnosen, mit Menschen interagierende Roboter oder Entscheidungssysteme, die Personen betreffen, dürften aber nicht unreguliert eingesetzt werden. Dies gelte vor allem, wenn die Gesundheit oder elementare Grundrechte der Betroffenen in Gefahr geraten könnten. Nötig seien klare Leitlinien auf nationaler und internationaler Ebene.

Bei KI-gestützten Anwendungen mit hohem Risiko sollte "eine unabhängige Konformitätsbewertung erfolgen", schreibt das Gremium wohl auch im Interesse seiner Mitglieder. Dabei könne überprüft werden, ob die Anwendungen die gesetzlich formulierten Vorschriften erfüllten und sicher nutzbar seien. Der Verband unterstützt so im Kern auch das im Februar präsentierte Vorhaben der EU-Kommission, einen europäischen Rechtsrahmen für KI-Systeme zu schaffen. Vor allem die Industrie warnte hier dagegen bereits vor einer drohenden Überregulierung.

Laut einer repräsentativen Umfrage in neun EU-Ländern inklusive Deutschlands im Auftrag des europäischen Verbraucherdachverbands BEUC fordern viele Bürger einen besseren Schutz ihrer Privatsphäre und vor Diskriminierung bei KI-Systemen, auch wenn sie die Systeme in vielerlei Hinsicht für nützlich halten. So haben etwa 68 Prozent der deutschen Verbraucher bei Spracherkennungssystemen wenig Vertrauen in den Datenschutz. 52 Prozent gehen davon aus, dass Firmen KI zur Manipulation von Kaufentscheidungen verwenden. 41 Prozent aller Befragten berichteten von negativen Erfahrungen beim Einsatz der Technik bei der Kreditvergabe etwa durch Scoring-Verfahren. (olb)