Künstliche Intelligenz als Gefahr: Menschheit muss sich auf Regeln einigen
KI-Entscheidungen haben immer stärkere Auswirkungen auf das menschliche Leben. Daher braucht es dringend Regeln – eine Chance für Europa, Vorreiter zu werden.
Experten für künstliche Intelligenz haben auf der Cebit die Risiken und Herausforderungen von Machine Learning thematisiert. Ein fundamentales Problem liegt demnach in der Qualität der Daten, die für das Training von neuronalen Netzwerken verwendet werden. Es gebe nicht genügend nutzbare, also ausreichend verschlagwortete Datensätze, wie Professor Christian Bauckhage vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme (IAIS) erklärte. Überdies seien neuronale Netzwerke eine Art "Black Box" – das Nachvollziehen von Berechnungen, die zu einer Entscheidungsfindung führen, sei überaus schwierig, wenn auch nicht unmöglich.
KI-Ergebnisse nur so gut wie das Trainingsmaterial
Bauckhage zeigte an mehreren Beispielen das Versagen von KI in bestimmten Situationen auf. So sei etwa ein Husky von einer Bilderkennung als Wolf identifiziert worden – der Grund: Alle Wolfsbilder, mit denen jenes neuronale Netzwerk trainiert wurde, enthielten Schnee – wie auch das Husky-Bild. Der Professor führte auch ein Bilderkennungsproblem von Google Photos aus dem Jahre 2015 an, dessen Algorithmus dunkelhäutige Menschen als Gorillas kategorisierte. Bauckhage zufolge hätte dies unter anderem daran gelegen, dass die Bilderkennungssoftware hauptsächlich mit Bildern von Gesichtern hellhäutiger Menschen trainiert wurde.
Thick Data statt Big Data
Derartige Erkennungsprobleme können auf bestimmten Feldern allerdings schwerwiegende Auswirkungen haben. So erklärte der Professor, dass sich Erkennungsalgorithmen auch durch das Einfügen "feindseliger Inhalte" überlisten lassen. Denkbar wäre, dass man etwa die Erkennungsalgorithmen autonomer Autos durch Aufkleber auf Verkehrszeichen beeinflussen könne. Machine Learning brauche laut Bauckhage nicht Big Data als Grundlage, sondern vielmehr Thick Data in Kombination mit reichlich Forschung, um dem Ziel einer verstehbaren und interpretierbaren KI näher zu kommen.
Eben dies forderte auch Dr. Sandra Wachter von der Universität Oxford ein – für die Juristin ist es essentiell, dass die von KI getroffenen Entscheidungen beziehungsweise erzielten Ergebnisse nachvollziehbar sind. Nur dann ließen sich Entscheidungen auch hinterfragen – und künftige Entscheidungen beeinflussen. Jeder solle eine klare Antwort auf die Frage einfordern können, weshalb eine KI eine bestimmte Entscheidung auf genau diese Weise getroffen hat.
Regeln für die Nutzung von Künstlicher Intelligenz erforderlich
Die Gesellschaft muss sich dringend Regeln für das digitale Zeitalter überlegen – eben weil Maschinen mittlerweile auch kognitive Denkprozesse übernehmen. Entsprechend kann KI auch für feindselige Zwecke verwendet werden – etwa für automatisierte Waffensysteme oder für das Hacken von Computern. Die Kernfrage: Ist die Menschheit in der Lage sich darauf zu einigen, für welche Zwecke sie KI verwenden will und für welche nicht? Eine Diskussion über Regeln für künstliche Intelligenz ist dringend nötig – darüber waren sich die Experten auf der Cebit einig. Europa könnte hierfür eine Vorreiterrolle übernehmen.
(mfi)