Überschätzte Technik
Mancher Manager verspricht sich von künstlicher Intelligenz (KI) schier grenzenloses Automatisierungspotenzial. Bei Licht betrachtet zeigen jedoch auch selbstlernende Systeme ihre Beschränkungen und Risiken. Janelle Shanes kompetente Darstellung bringt viel Lesevergnügen.
Im Rahmen ihres Blogs „AI Weirdness“ führt Janelle Shane schon lange Experimente mit KI durch. Unter anderem bastelt sie Systeme, die Kochrezepte, Anmachsprüche oder Namen für Metal-Bands erzeugen. Die Erkenntnisse, die sie dabei gewann, hat sie in ihr Buch „You look like a Thing and I love you“ einfließen lassen. Die vorzügliche Übersetzung von Jørgen W. Lang bildet den schrägen Humor der Autorin im Deutschen wunderbar nach.
Shane, die sich selbst als „Blogger - Speaker - Writer - Scientist - Not a Robot“ charakterisiert, ist keine KI-Gegnerin, aber sie kennt die Schwächen maschinellen Lernens. Geradezu spielerisch erklärt sie Grundlagen neuronaler Netze und Deep-Learning-Mechanismen. Mit einem eingängigen Beispiel erfasst sie alle Eigenschaften eines mehrschichtigen Netzes und die dazugehörigen Bewertungsfunktionen. Angesichts der inflationären Nutzung künstlich intelligenter Systeme zeigt die Autorin, wie man auf verschiedenen Wegen sinnvoll zu Voraussagen und Klassifizierungen kommen kann. Dabei setzt sie etwa Markov-Ketten und Random Forests sowie evolutionäre Algorithmen ein.
Im Blickpunkt des Buches stehen aber Unzulänglichkeiten künstlicher Intelligenz und deren Ursachen. Oft hapert es an der Qualität von Trainingsdaten, die manchmal zu weit gefasst oder schlichtweg falsch sind. Immer wieder gelingt es zudem Angreifern, KI-Systemen Auszüge der ursprünglichen Trainingsdaten zu entlocken – daraus können Sicherheitsprobleme entstehen. Detailliert behandelt die Autorin auch das schlagzeilenträchtige Problem kodierter Vorurteile. In den Medien heißt es oft, Entwickler würden ihre eigenen Einstellungen in ihre KIs hineinkodieren – dabei führen meist unabsichtlich einseitige Trainingsdaten, deren Implikationen Menschen oft gar nicht wahrnehmen können, zu Schieflagen bei selbstlernenden Systemen.
Shane zeigt, dass KIs nur bei eng gefassten Problemstellungen gut funktionieren. Sie macht deutlich, dass selbst dann oft nicht klar ist, was die Systeme denn tatsächlich gelernt haben. (Maik Schmidt/psz@ct.de)