Künstliche Intelligenz: Unvorhersehbare Risiken und Angriffsmethoden

Bedrohungen für Künstliche Intelligenz fasst ENISA zusammen. Die EU-Behörde warnt vor Herausforderungen in Bereichen wie Gesundheit, Kfz und Finanzen.

In Pocket speichern vorlesen Druckansicht 26 Kommentare lesen
2 Hände halte ein blaues Heft worauf das Symbol der EU und ein gelbes Vorhängeschloss gedruckt sind

(Bild: Tero Vesalainen/Shutterstock.com)

Lesezeit: 4 Min.
Inhaltsverzeichnis

Die Vorteile Künstlicher Intelligenz (KI) seien beträchtlich, konstatiert die europäische Behörde für IT-Sicherheit ENISA. KI könne bei der Sicherheit und beim Kampf gegen Onlinekriminalität unterstützen. Hilfreich seien hier Instrumente wie "intelligente Firewalls". Zugleich zeigt die Agentur in ihrem neuen Bericht über KI-Bedrohungsen auch große Probleme auf, die die "aufstrebende Technologie" für die IT-Sicherheit mit sich bringe.

Ihre Anwendung könne gerade bei sicherheitskritischen, auf automatisierte Entscheidungsfindung setzenden Anwendungen wie autonomen Fahrzeugen, intelligenter Fertigung und E-Health Individuen und Organisationen teils "unvorhersehbaren Risiken aussetzen", warnt ENISA in der Publikation. Die Technik eröffne potenziell neue Angriffsmethoden. Es sei zu befürchten, dass sie den Datenschutz aushöhle. Die ENISA soll die EU und ihre Mitgliedsstaaten in Fragen der Netzsicherheit und bei der Analyse von Sicherheitsproblemen unterstützen.

Künstliche Intelligenz durchläuft laut der Analyse viele Schritte in der Lieferkette und benötigt große Datenmengen, um effizient zu funktionieren. Die EU müsse daher "gezieltere und angemessenere Sicherheitsmaßnahmen" treffen, um die identifizierten Bedrohungen abzuschwächen. Es sei vor allem nötig, einen Einsatz der Technik in Sektoren wie Gesundheit, Automobil und Finanzen vorab eingehend zu prüfen. Die Komplexität und Weite der Herausforderungen erfordere ein EU-Ökosystem für sichere und vertrauenswürdige KI, das alle Elemente der Lieferkette umfassen müsse.

ENISA spricht hier von einem "Wettlauf", der für die EU angesichts ihrer langfristigen strategischen Ziele für KI "von besonderer Bedeutung ist". Gefragt sei neben einem gemeinsamen Verständnis für die Risiken eine "KI-Toolbox mit konkreten Abhilfemaßnahmen" für verschiedene Akteure. Ferner sei es entscheidend, "die vielfältigen Vermögenswerte des KI-Ökosystems und des Lebenszyklus" einschlägiger Anwendungen grenz- und branchenübergreifend zu sichern.

Im Bereich IT-Sicherheit könne die Technik etwa die Integrität, Vertraulichkeit und Authentizität sowie weitere Aspekte von IT-Systemen wie die Nicht-Abstreitbarkeit, die Verfügbarkeit und die Robustheit gefährden, heißt es in dem Bericht. Angreifer dürften es auch darauf anlegen, die geforderte Transparenz, Erklärbarkeit und Rechenschaftspflicht von KI-Lösungen zu unterwandern. Schon eine schlechte Datenqualität oder "verzerrte" Sätze an Eingabemesswerten könnten zu algorithmischen Entscheidungen führen, "die Personen fälschlicherweise klassifizieren und von bestimmten Diensten ausschließen oder ihnen ihre Rechte vorenthalten".

Im Allgemeinen sind KI-Systeme und -Anwendungen den Autoren zufolge imstande, die menschliche Kontrolle über personenbezogene Daten erheblich einzuschränken und so zu Rückschlüssen auf Personen zu führen, die sich direkt auf deren Grundfreiheiten auswirkten. Dies könne passieren, weil die Ergebnisse der Maschine von den von Menschen erwarteten Ergebnissen abweichen oder Vermutungen nicht erfüllen.

Die ausgearbeitete Bedrohungstaxonomie beginnt bei schadhaften Aktivitäten und gezieltem Missbrauch. Solche Praktiken könnten etwa darauf angelegt sein, die der Technik zugrundeliegenden IT-Systeme, Infrastrukturen und Netzwerke zu verändern oder zu zerstören. Die Szenarien spannen sich weiter über rechtswidriges Abhören von Datenkommunikation oder die Übernahme von Prozessen über physische Angriffe auf Hardware etwa nach unbefugten Zutritten in Einrichtungen bis hin zu unbeabsichtigten Schäden wie Zerstörung oder Beschädigung von Anlagen.

Fehlfunktionen von Hardware oder Software ventiliert ENISA ebenso wie die "unerwartete Unterbrechung" oder Qualitätsminderung eines Dienstes. Zu rechnen sei zudem mit einem Unfall oder einer Naturkatastrophe, "die großen Schaden oder den Verlust von Menschenleben verursacht". Nicht zuletzt zählt die Agentur rechtliche Handlungen von Dritten zu den denkbaren Bedrohungen, um Handlungen zu verbieten oder Schadenersatz zu fordern. Voriges Jahr hatte Europol bereits das Missbrauchspotenzial von KI im Bereich Kriminalität beleuchtet.

ENISA empfiehlt, rasch bestehende Lücken in den künftigen Forschungsrichtungen rund um KI und IT-Sicherheit auszumachen. Schon ersichtlich sei, dass weitere Arbeiten im Bereich der automatischen formalen Verifikation und Validierung, der Erklärbarkeit und neuartiger Sicherheitstechniken zur Abwehr aufkommender KI-Bedrohungen nötig seien. Nur so könnten in Europa vertrauenswürdige KI-Algorithmen und -Lösungen entstehen, die die industriellen und sicherheitstechnischen Abläufe sowie die Wettbewerbsfähigkeit des Binnenmarkts verbessern. Die Marke "KI made in Europe" müsse als Gütesiegel für ethische, sichere und hochmoderne Systeme stehen, um weltweit beachtet zu werden.

(ds)