Cebit

Künstliche Intelligenz als Gefahr: Menschheit muss sich auf Regeln einigen

KI-Entscheidungen haben immer stärkere Auswirkungen auf das menschliche Leben. Daher braucht es dringend Regeln – eine Chance für Europa, Vorreiter zu werden.

In Pocket speichern vorlesen Druckansicht 107 Kommentare lesen
Künstliche Intelligenz: Die Menschheit muss sich auf Regeln einigen!

K.I. gewinnt immer mehr Einfluss auf das Leben -- wenn auch im Hintergrund. Gerade deshalb  müssen K.I.-Entscheidungen nachvollziehbar sein.

(Bild: Orlando , gemeinfrei (Creative Commons CC0))

Lesezeit: 3 Min.
Inhaltsverzeichnis

Experten für künstliche Intelligenz haben auf der Cebit die Risiken und Herausforderungen von Machine Learning thematisiert. Ein fundamentales Problem liegt demnach in der Qualität der Daten, die für das Training von neuronalen Netzwerken verwendet werden. Es gebe nicht genügend nutzbare, also ausreichend verschlagwortete Datensätze, wie Professor Christian Bauckhage vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme (IAIS) erklärte. Überdies seien neuronale Netzwerke eine Art "Black Box" – das Nachvollziehen von Berechnungen, die zu einer Entscheidungsfindung führen, sei überaus schwierig, wenn auch nicht unmöglich.

Die K.I. erkannte den Husky fälschlicherweise als Wolf. Der Grund: Auf allen zum Training eingesetzten Wolfsbildern war ebenfalls Schnee zu sehen.

(Bild: heise online/Martin Fischer)

Bauckhage zeigte an mehreren Beispielen das Versagen von KI in bestimmten Situationen auf. So sei etwa ein Husky von einer Bilderkennung als Wolf identifiziert worden – der Grund: Alle Wolfsbilder, mit denen jenes neuronale Netzwerk trainiert wurde, enthielten Schnee – wie auch das Husky-Bild. Der Professor führte auch ein Bilderkennungsproblem von Google Photos aus dem Jahre 2015 an, dessen Algorithmus dunkelhäutige Menschen als Gorillas kategorisierte. Bauckhage zufolge hätte dies unter anderem daran gelegen, dass die Bilderkennungssoftware hauptsächlich mit Bildern von Gesichtern hellhäutiger Menschen trainiert wurde.

Dr. Sandra Wachter: "Entscheidungen von K.I. müssen nachvollziehbar sein!"

(Bild: heise online/Martin Fischer)

Derartige Erkennungsprobleme können auf bestimmten Feldern allerdings schwerwiegende Auswirkungen haben. So erklärte der Professor, dass sich Erkennungsalgorithmen auch durch das Einfügen "feindseliger Inhalte" überlisten lassen. Denkbar wäre, dass man etwa die Erkennungsalgorithmen autonomer Autos durch Aufkleber auf Verkehrszeichen beeinflussen könne. Machine Learning brauche laut Bauckhage nicht Big Data als Grundlage, sondern vielmehr Thick Data in Kombination mit reichlich Forschung, um dem Ziel einer verstehbaren und interpretierbaren KI näher zu kommen.

Eben dies forderte auch Dr. Sandra Wachter von der Universität Oxford ein – für die Juristin ist es essentiell, dass die von KI getroffenen Entscheidungen beziehungsweise erzielten Ergebnisse nachvollziehbar sind. Nur dann ließen sich Entscheidungen auch hinterfragen – und künftige Entscheidungen beeinflussen. Jeder solle eine klare Antwort auf die Frage einfordern können, weshalb eine KI eine bestimmte Entscheidung auf genau diese Weise getroffen hat.

Die Gesellschaft muss sich dringend Regeln für das digitale Zeitalter überlegen – eben weil Maschinen mittlerweile auch kognitive Denkprozesse übernehmen. Entsprechend kann KI auch für feindselige Zwecke verwendet werden – etwa für automatisierte Waffensysteme oder für das Hacken von Computern. Die Kernfrage: Ist die Menschheit in der Lage sich darauf zu einigen, für welche Zwecke sie KI verwenden will und für welche nicht? Eine Diskussion über Regeln für künstliche Intelligenz ist dringend nötig – darüber waren sich die Experten auf der Cebit einig. Europa könnte hierfür eine Vorreiterrolle übernehmen.

Die Veranstaltungen rund ums Thema K.I. waren auf der Cebit gut besucht.

(Bild: heise online/Martin Fischer)

(mfi)