Neuronale Netze: Wie sie angegriffen werden und wie man sie verteidigt

Seite 3: Lernprozesse und Wettrennen

Inhaltsverzeichnis

Obwohl künstliche neuronale Netze bei einer Vielzahl von Aufgaben wie Klassifikation, Objekterkennung oder semantischer Segmentierung immer neue Rekorde erreichen, lassen sie sich durch subtile Manipulationen austricksen, die für Menschen kaum sichtbar sind. Das ist ein Beleg dafür, dass neuronale Netze noch viel lernen müssen – insbesondere mit der Art und Weise des menschlichen Lernens als Vorbild.

Angriffs- und Verteidigungsmethoden werden sich in den nächsten Jahren deutlich weiterentwickeln. Viele Angriffe erfordern das Wissen der Modellparameter, den Besitz der Trainingsdaten, einen direkten Zugriff auf das KI-System, um die Eingangsdaten zu manipulieren, oder sind für spezielle Architekturen optimiert. Dadurch ist die Anwendung in der echten Welt deutlich komplexer.

Grundsätzlich gilt: Traue keiner KI, die du nicht selbst trainiert hast! Wie beim Ausführen fremden Programmcodes, müssen Entwicklerinnen und Entwickler die Quelle überprüfen, den Trainingsprozess validieren sowie auf die Qualität und Diversität der Trainingsdaten achten. Wer ein neuronales Netz auf Schwachstellen untersuchen möchtet, findet Werkzeuge wie Foolbox oder Adversarial Robustness Toolbox, die einige Methoden implementiert haben. MITRA hat zudem zusammen mit Firmen wie Microsoft, Nvidia, Bosch und IBM ein Framework für Bedrohungsanalysen als Adversarial ML Threat Matrix veröffentlicht.

Christoph Reinders
ist wissenschaftlicher Mitarbeiter am Institut für Informationsverarbeitung an der Leibniz Universität Hannover. Zu seinen Forschungsschwerpunkten gehören die Themen Bildverarbeitung und Machine Learning.

Bodo Rosenhahn
ist Professor am Institut für Informationsverarbeitung an der Leibnitz-Universität in Hannover. Er hat Computerwissenschaft mit Nebenfach Medizin an der Universität Kiel studiert. Insgesamt hat er mehr als 180 Artikel, Buchkapitel und wissenschaftliche Arbeiten veröffentlicht. In seinen Arbeiten hat er sich mit Video- und Bildanalyse sowie Deep Learning beschäftigt.

  1. Arne Grävemeyer; Autos sehen Gespenster; c’t 2020, Heft 17, S. 126.

(rme)