KI auf dem Glatteis

Maschinen sind auch nur Menschen – sie sind sehr erfindungsreich, wenn es darum geht, es sich einfach zu machen und Abkürzungen für komplizierte Aufgaben zu finden.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Lesezeit: 4 Min.

Janelle Shane hat ein sehr spezielles Hobby: Sie führt Künstliche Intelligenz gerne aufs Glatteis – etwa, indem sie neuronale Netze darauf trainiert, neue Kochrezepte, Halloween-Kostüme oder Anmachsprüchen zu generieren (siehe TR 10/2018, S. 12). Ihre Ergebnisse hat sie in ihrem Buch „You look like a thing and I love you“ zusammengefasst. So schlägt eine KI beispielsweise Zutaten wie „geschälter Rosmarin“, „gewürfeltes Schwein“ oder „eine Handvoll Glasscherben“ vor; erfindet Grusel-Kostüme wie „Motten-Pferd“ oder „Hai-Kuh“; und macht fragwürdige Komplimente wie im Buchtitel.

Solcher Nonsens ist hochgradig unterhaltsam, hat aber einen ernsten Hintergrund – etwa, wenn es um die Diskriminierung von Bewerbern geht oder um die Sicherheit selbstfahrender Autos. Shane erklärt humorvoll und anschaulich, wie solche Fehlleistungen entstehen und wie sie sich verhindern lassen.

Oft sind es beispielsweise falsche oder unklar definierte Ziele oder Anreize, die Programmierer einem neuronalen Netz setzen. Dann nämlich sucht die KI gerne, wie ein fauler Mensch, nach Abkürzungen. Soll ein simulierter Roboter beispielsweise möglichst schnell von A nach B kommen, erkennen trickreiche Algorithmen schnell, dass Umfallen schneller ist als Laufen – Problem gelöst. „Wie sich herausstellt, lieben KIs es, umzufallen“, schreibt Shane. „Gib ihnen die Aufgabe, sich mit hoher Durchschnittsgeschwindigkeit fortzubewegen, und du kannst wetten, sie machen es, indem sie umfallen.“

Besonders gravierend sind solche Abkürzungen, wenn die KIs in simulierten Welten trainiert werden, etwa in Computerspielen. Früher oder später werden sie, so Shane, unweigerlich die mathematischen Lücken des Modells ausnutzen, um durch die Gegend zu schweben oder sonst etwas physikalisch völlig Unmögliches zu machen. „KIs sind nicht verpflichtet, sich an physikalische Gesetze zu halten, von denen du ihnen nichts erzählt hast“, schreibt Shane.

Ein klassischer Fehler sind auch falsche Trainingsdaten: Da Schafe gerne auf grünen Wiesen vorkommen, neigen Bilderkennungsalgorithmen dazu, solche Landschaften grundsätzlich als schafhaltig zu klassifizieren. Eine weitere Verzerrung ergibt sich daraus, dass Menschen – etwa auf einer Safari – öfter Tiere fotografieren als leere Landschaften, obwohl letztere in der realen Welt öfter vorkommen.

Beim „Visual Chatbot“, der Fragen zu Bildern beantworten soll, führte das zu einem bemerkenswerten Phänomen: Er vermutet auf praktisch jedem Bild eine oder mehrere Giraffen. Shane: „Der Effekt ist so verbreitet, dass die Sicherheitsexpertin Melissa Elliott den Term ,giraffing‘ für das Overreporting von relativ seltenen Sichtungen vorgeschlagen hat.“

Geradezu gruselig wird das Eigenleben schlechter trainierter KIs, wenn sich gewissermaßen aus dem Nichts Texte biblischer Wucht manifestieren. So geschehen 2018 beim Google Translator: Er übersetzte die Nonsens-Silben „ag ag ag ag ag ag ag ag ag ag ag ag ag ag ag ag ag ag ag ag ag“ vom Somalischen ins Englische mit „As a result, the total number of the members of the tribe of the sons of Gershon was one hundred fifty thousand“.

Lässt man ein paar ags weg, kommt ein ganz anderer Text heraus, aber ebenfalls in biblischem Stil. Kein Wunder: Der Algorithmus ist offenbar mit Bibelübersetzungen trainiert worden. „Unintentional Memorization“ nennt sich das Phänomen, wenn KIs einen Blick auf ihre Trainingsdaten werfen lassen. Auf diese Weise lassen sich auch Sozialversicherungs- und Kreditkartennummern extrahieren. (Mittlerweile hat Google den Bug offenbar behoben, er lässt sich jedenfalls nicht mehr nachvollziehen.)

Manchmal zeigen KIs allerdings auch gesunden Menschenverstand: „Ich habe einmal versucht, ein neuronales Netz zu schreiben, dass den Profit bei Pferdewetten maximiert“, zitiert Shane einen Programmierer. „Es hat festgestellt: Die beste Strategie ist – Trommelwirbel – einfach keine Wetten zu platzieren.“

(grh)