MIT Technology Review 10/2019
S. 72
Horizonte
10 Technologien
Ein paar kleine Streifen für einen Menschen – ein riesiger Unterschied für eine künstliche ­Intelligenz. Foto: Shutterstock

Die KI blickt nicht durch

„Adversarial Examples“ sind eine besonders perfide Attacke auf künstliche Intelligenz: Eine für das menschliche Auge unbedeutende Veränderung auf einem Straßenschild, und schon hält das autonome Auto ein Stoppsignal für eine Geschwin­digkeitsbegrenzung.

Von Boris Hänßler

Ein autonomes Auto fährt auf ein Stoppschild zu. Der Passagier lehnt sich entspannt zurück. Stoppschilder sind Routine. Das Auto kann sie gut erkennen. Aber plötzlich fährt es weiter, denn jemand hatte zwei schwarze und zwei weiße Striche auf das Schild gesprüht. Für das menschliche Auge sehen sie aus wie kleine Flecken. Die künstliche Intelligenz sieht allerdings statt dem Stopp nun eine 45, eine in den USA übliche Geschwindigkeitsbegrenzung. Und das bedeutet: weiterfahren. Diese Manipulation gelang Forschern um Kevin Eykholt von der Universität Michigan.

Solche „Adversarial Examples“, also irreführende Beispiele, sind gewissermaßen optische Täuschungen für Maschinen – und können sich zu einem ernsten Problem auswachsen. Sie beruhen auf minimalen Änderungen, die für eine künstliche Intelligenz aber eine völlig andere Bedeutung erzeugen.