Künstliche Intelligenz lässt sich mit subtilen Daten-Manipulationen in die Irre führen

Kleinste Veränderungen an Datenmaterial, die von Menschen nicht wahrgenommen werden, können intelligente Maschinen massiv durcheinander bringen. Statt Autos sehen Computer dadurch schon mal Minion-Figuren.

In Pocket speichern vorlesen Druckansicht 150 Kommentare lesen
Künstliche Intelligenz lässt sich mit subtilen Daten-Manipulationen in die Irre führen
Lesezeit: 1 Min.
Von
  • Sascha Mattke

Forscher an der Bar-Ilan Universität in Israel und im KI-Team von Facebook haben gezeigt, dass sich Systeme für künstliche Intelligenz relativ leicht täuschen lassen. Beispielsweise konnten sie Audio-Aufzeichnungen mit einer leisen Schicht Rauschen so verändern, dass Menschen weiterhin alles richtig verstanden, das Google-System Google Voice bei der Transkription aber weitestgehend versagte. Das berichtet Technology Review online in "Wie man KI austrickst".

Mehr Infos

Die Arbeit der Forscher lässt sich auch auf andere Algorithmen für Maschinenlernen anwenden. Mit Veränderungen an Bildern von Menschen zum Beispiel kann man für die Erkennung der Körperhaltung ausgelegte Algorithmen dazu bringen, eine falsche Haltung zu erkennen. Durch Rauschen in einem Bild von einer Straßenszene ließ sich auch ein Algorithmus austricksen, der ansonsten für die Erkennung von Straßen und Schildern in autonomen Autos genutzt wird: Er sah stattdessen eine Minion-Figur.

Diese so genannten "Adversarial Examples" mögen als Forschungsgebiet merkwürdig wirken, doch sie lassen sich für Stresstests an Maschinenlern-Algorithmen nutzen. Beunruhigender ist, dass man sie auch mit böser Absicht einsetzen und KI-Systeme dazu bringen könnte, Dinge zu sehen oder zu hören, die gar nicht da sind – so könnte man autonomen Autos nicht existierende Fahrzeuge vorgaukeln oder intelligenten Lautsprechern falsche Anweisungen. Allerdings sind solche Angriffe in der Praxis deutlich schwieriger vorzunehmen als im Labor.

Mehr dazu bei Technology Review online:

(sma)