"Man hofft einfach nur, dass der ML-Einsatz nicht auf Kosten der Menschen geht"

Die KI-Forscherin und Autorin Janelle Shane spielt gerne mit maschinellem Lernen – und warnt, dass Staat und Firmen damit übertreiben.

In Pocket speichern vorlesen Druckansicht 22 Kommentare lesen
"Man hofft einfach nur, dass der ML-Einsatz nicht auf Kosten der Menschen geht"

(Bild: whiteMocca/Shutterstock.com)

Lesezeit: 4 Min.

Künstliche Intelligenz (KI) und maschinelles Lernen (ML) gelten als Allheilmittel in der Informationstechnik. Angeblich stehen komplett selbstfahrende Autos kurz vor der Fertigstellung und Algorithmen können besonders gute Jobkandidaten aus großen Pools herausfischen, ohne dass es Menschen dafür braucht. Polizisten verlassen sich auf Bilderkennungsverfahren, Bewährungsausschüsse filtern Gefangene per App auf ihre Entlassungstauglichkeit und im Internet verfolgen KI-Programme Nutzer durchs halbe Web, nur um ihnen die bestmögliche Werbung auszuspielen.

Autorin und KI-Expertin Janelle Shane.

Die Optik-Forscherin und KI-Expertin Janelle Shane spielt gerne mit Künstlicher Intelligenz, weiß aber auch um ihre Schwächen. Und die werden von den vielen Start-ups und Konzernen, die die Technik mittlerweile anpreisen, nur selten erwähnt. "Man hofft einfach nur, dass der ML-Einsatz nicht auf Kosten der Menschen geht. Man veröffentlicht ein Produkt, das mit manchen Leuten gut funktioniert, weniger aber bei Angehörigen von Minderheiten. Amazon hat kürzlich das Release eines Armbands angekündigt, mit dem Unterhaltungen kontrolliert werden sollen und einem angeblich mitgeteilt wird, wenn der Tonfall ins Unfreundliche driftet." Schlecht sei nur, dass das beispielsweise mit Akzenten nicht funktioniert.

Es ist nur ein Beispiel von vielen. "Ich glaube, wir haben in Sachen Maschinenlernen so halb die Kontrolle. Die Anwendungen, die so in etwa funktionieren, die Situationen, in denen es einigermaßen klappt, die haben das Potenzial, Schaden anzurichten." In China gebe es etwa eine besorgniserregende Forschung, wo versucht wird, ethnische Minderheiten auf Fotos zu identifizieren. "Und wir wissen, dass viele ethnische Minderheiten in China zurzeit unterdrückt werden."

Shane, die mittlerweile ein vielbeachtetes – und erstaunlich unterhaltsames – Buch über KI geschrieben hat, das wiederum auf ihrem Blog "AI Weirdness" basiert, kam auf besondere Art zur KI. "In meinem ersten Jahr an der Uni habe ich eine Vorlesung besucht, wo ein Professor über seine Forschung an genetischen Algorithmen gesprochen hat. Und er sprach über die abgedrehten Dinge, die man damit anstellen kann und wie man dem System ein Problem geben kann und es mit einer bizarren Lösung herauskommt, auf die Menschen nie kommen würden."

Das war dann etwa ein Autostoßstange, die aussieht wie ein Alien und die sich im Falle eines Unfalls trotzdem genau richtig zerknautschen lassen würde. "Das hat meine Aufmerksamkeit geweckt, denn das war etwas, wovon ich noch nie vorher gehört hatte. Diese Vorstellung, dass man Anforderungen stellen kann, um dann etwas zu bekommen, was man nie erwarten würde, das erschien mir einfach sehr cool.“

Shane hat in ihrem Buch und in ihrem Blog diverse Beispiele genannt, wie man mit KI kreativ umgehen kann. So ließ sie beispielsweise Rezepte für Kuchen erstellen, Geschichten schreiben und bat ein Textvorhersagesystem unlängst, Warnungen für Atommüllendlagerstätten zu erstellen, die auch in 10.000 Jahren noch funktionieren. Dabei zeigt sie auf, was geht und was nicht mit der Technik.

Manchmal kommt aus KI-Systemen auch echter Schund heraus. So etwa aus dem vielgerühmten Textvorhersagesystem GPT-3 von Open AI. "Es hat gelernt, alle möglichen Arten von Texten zu schreiben, einschließlich wirklich scheußlichem, rassistischen Zeug. Man kann ihm ziemlich ungenaue Prompts vorgeben, und immer mal wieder wird ihm eine sehr unglückliche Antwort einfallen."

An Filtervorgaben beißen sich Entwickler immer noch die Zähne aus, denn GPT-3 & Co. lernen aus dem Web. Und da ist eben auch mal Rassismus zu finden. "Es gibt keinen Filter in der Welt, der nicht etwas vermasselt." Sie wisse, dass Open AI an einem Filter arbeitet und habe Versuche gesehen, in denen generierte Texte, mit denen sie gearbeitet habe, damit gefiltert wurden. "Und die waren ziemlich fehlerlastig." (bsc)