Missing Link: Wie KI das menschliche Handlungsvermögen untergräbt

Seite 2: Politik der Künstlichen Intelligenz

Inhaltsverzeichnis

(Bild: sdecoret/Shutterstock.com)

Ein Beispiel aus einem anderen Bereich bringt Louise Amoore, die als Professorin für Geographie an der britischen Durham-Universität den Einsatz von Big-Data-Analysen nicht nur im Bereich von Grenzkontrollen untersucht. "Einer der frappierendsten Momente in meiner jüngsten Forschung war, als eine erfahrene Chirurgin mir berichtete, dass der Einsatz eines chirurgischen Roboters beim Herausschneiden von Tumoren die Einschätzung der Grenzen ihrer eigenen Handlungsfähigkeit veränderte", berichtet die Wissenschaftlerin in einem Interview zur "Politik der Künstlichen Intelligenz".

Die Ärztin hat Amoore zufolge überhaupt nicht mehr unterschieden zwischen dem Hilfsgerät, den Algorithmen, die die Schnittstelle zu der Maschine lebendig wirken ließen, und ihren menschlichen Fähigkeiten. Alle drei Kategorien seien für sie völlig miteinander verwoben gewesen.

"Dieselbe Gruppe von Algorithmen wird in autonomen Waffen und autonomen Fahrzeugen verwendet", gibt die Forscherin zu bedenken. Neuronale Netzwerke orteten dabei die Enden des Krebsgeschwürs genauso wie Territorien, Gesichter und ähnliche Dinge durch die Datensets, mit denen sie trainiert worden seien. Da Techniken wie Bilderkennung und Sprachverarbeitung auf Deep Learning setzen, "redeten" intelligente Objekte in der Umgebung in ganz neuer Weise mit den Menschen.

"Dieses Phänomen sollte stärker berücksichtigt werden in Debatten über den Menschen 'in the loop'", fordert Amoore. Solche Diskussionen würden eh oft nur geführt, um autonome Systeme mit einem Hauch von Ethik zu versehen. Es gelte zu beachten, wie die Beziehungen dieser Anwender von KI-Systemen geprägt würden durch ihre Kollaboration mit Algorithmen.

Die Einwände der Datenforscherin beziehen sich keineswegs nur auf Operations- oder Killer-Roboter, sondern auch auf automatisierte Entscheidungssysteme wie Predictive Policing, Scoring bis hin zum chinesischen "Sozialkreditwesen" oder die in den USA im Justizwesen eingesetzte Technik Correctional Offender Management Profiling for Alternative Sanctions (Compas), die Rückfallwahrscheinlichkeiten von Kriminellen abschätzt. Der Mensch und seine Überlebenschancen werden ihr zufolge generell immer stärker von Algorithmen abhängig.

Ein Polizist, ein Grenzkontrolleur oder ein Richter könnten sich zwar irren und falsche Entscheidungen treffen, räumt Amoore ein. Dies zweifle aber auch kaum jemand an und deswegen gebe es einschlägige Beschwerde- und Berufungsmöglichkeiten. Komme ein neuronales Netz, das als Instrument zur Entscheidungshilfe beschrieben wird, dagegen zu einem Ergebnis, gehe mit diesem der Anspruch einer neutralen, korrekten Lösung einher. Von Unwägbarkeiten sei dabei meist keine Rede, obwohl das zugrundeliegende KI-System in der Regel eine Blackbox sei und der Weg hin zu einem Resultat ebenfalls im Dunkeln bleibe.

Für Elke Schwarz, Dozentin für politische Theorie an der Queen-Mary-Universität in London, ist ebenfalls nicht mehr klar, ob der Mensch noch selbst entscheidet, wenn er "vollends eingebettet ist in die Maschinenlogik" und selbst "hauptsächlich auch nur als Systemteil funktioniert". Dies gelte vor allem dann, wenn Algorithmen auf eine Art und Weise arbeiteten, "die der Mensch intellektuell und kognitiv nicht so richtig verstehen kann", erläuterte sie in einem Vortrag über KI, autonome Waffen und "politisch-moralische Verkümmerung" auf dem Jahreskongress 2019 des Forums InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF).

Angesichts omnipräsenter digitaler Systeme ist es Schwarz zufolge wichtig zu erkunden, "in welchem Maß wir überhaupt die Technologie als pures Instrument benutzen können, und inwieweit unser Handeln, Denken, unser Verlangen, unsere Ideen und auch unsere Rechtfertigungen von technologischen Strukturen geformt werden". Gerade wenn es gelte, umgeben von Netzwerken und digitalen Schnittstellen, unter Umständen in Sekundenschnelle zu handeln, "wird es problematisch mit der Kontrolle" und der Frage, wer verantwortlich sei für die Folgen etwa eines Knopfdrucks.

Die kognitive Psychologie bestätige, "dass wir im Umgang mit Maschinen dazu tendieren, nicht das kontrollierte Denken einzuschalten, sondern das automatische", weiß die Ethikexpertin. Ganz speziell in der Interaktion mit KI-Systemen neige der Mensch dazu, sich auf vorgelegte Daten und Beweise zu verlassen, keine alternativen Fakten mehr zu suchen und großes Vertrauen in die Technik zu legen. Dabei sei es hier besonders schwierig, Ergebnisse richtig einzuschätzen, wenn die Einsicht in die verwendeten Trainingsdatensätze und in die Funktionsweise der Algorithmen nur sehr begrenzt erfolgen könne.