Missing Link: Wie KI das menschliche Handlungsvermögen untergräbt

Wie steht es mit der Handlungsfähigkeit des Menschen, wenn ihn zunehmend Expertensysteme alias KI umgeben und seine Entscheidungen vorwegnehmen?

In Pocket speichern vorlesen Druckansicht 212 Kommentare lesen
Missing Link: Wie Künstliche Intelligenz das menschliche Handlungsvermögen

(Bild: PHOTOCREO Michal Bednarek/Shutterstock.com)

Lesezeit: 17 Min.
Inhaltsverzeichnis

Es ist das Mantra, das von Verfechtern der Künstlichen Intelligenz (KI) immer wieder als Beruhigungspille gereicht und von Datenethikern allseits gefordert wird: Die "letzte" Entscheidungsgewalt über auch noch so ausgefuchste Algorithmen-getriebene Systeme hat natürlich der Mensch. Ob es ums Töten mit Killer-Drohnen geht oder die brenzlige Situation beim Fahren mit Autopilot: ein vernunftbegabtes Wesen aus Fleisch und Blut soll immer eingriffsfähig sein und die Geschicke auf Basis der maschinellen Erkennungsmöglichkeiten im Endeffekt lenken.

"Missing Link"

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Vor allem im militärisch-industriellen Komplex, wo längst an autonomen tödlichen Waffen geforscht und gearbeitet wird, wird diese Zauberformel beschworen. Der Mensch bleibe auch bei weitgehend autonom agierenden Kampfsystemen "in the loop", lautet hier die Standardversicherung. Er bestimme also, welches Ziel die Maschine angreift, und löse innerhalb der Entscheidungskette dann auch die Hellfire-Rakete oder den Gewehrschuss aus.

"Wir haben nicht die Absicht, Systeme einzuführen, die autonom töten", betont der Leiter der Unterabteilung Zukunftsentwicklung bei der Bundeswehr, Gerald Funke. Die deutschen Streitkräfte müssten sich aber trotzdem damit beschäftigen, "was Autonomie von Waffensystemen bedeutet" und was "die andere Seite" möglicherweise damit anstellen könne.

Das Verteidigungsministerium habe zudem ein Interesse daran, etwa im Kampf gegen Hyperschallraketen "die Geschwindigkeit zu erhöhen", große Datenmengen mit KI besser zu bewältigen oder eine "möglichst hohe Durchsetzungsfähigkeit" beim eingesetzten Instrumentarium zu erreichen, weiß der Brigadegeneral. Es spreche nichts etwa gegen Drohnen, die autonom auch eine zerstörte Landebahn ansteuerten, oder gegen Roboter, die sich bei der Bergung Verwundeter selbst die ungefährlichste Route suchten. Bei einigen Systemen sei es also doch vorstellbar, "dass wir nicht mehr 'Human in the Loop' haben", solange schnelle und sachgerechte Entscheidungen gewährleistet würden.

So unterscheiden das Militär und Forscher bereits zwischen "in the Loop" und "on the loop". Beim zuletzt genannten Ansatz soll der Mensch zwar auch noch irgendwie das Sagen haben und die selbständig agierende Maschine zumindest überwachen und übersteuern können. Doch spätestens dabei ist für Beobachter kaum mehr erkennbar, ob eine tatsächliche Kontrolle noch möglich ist.

Die Göttinger Technikphilosophin Catrin Misselhorn erläutert dies in einem Gespräch mit der "Zeit": "Nominell bleibt der Mensch zwar verantwortlich. Doch muss er nicht davon ausgehen, dass die Maschine in einer besseren Entscheidungssituation ist als er selbst?" Diese sei so konstruiert und programmiert worden, dass sie dem Menschen "epistemisch überlegen", also in der speziellen Kampfsituation in einer besseren Erkenntnislage sei. Der Nutzer müsse ihr daher eigentlich vertrauen.

In solch einer Lage sei der Mensch zudem von der Zuarbeit der Maschine abhängig, führt die Professorin aus. Er bleibe ja bereits weitgehend außen vor, wenn die zugrundeliegenden Daten zusammengestellt, gefiltert und algorithmisch verarbeitet würden, auf deren Basis ein Ziel ausgesucht und beschossen werde. Der Anwender sei damit zumindest in einem Dilemma: "Erkennt er die Überlegenheit der Maschine an, kann er den Schuss eigentlich nicht verweigern." Von Kontrolle sei dann keine Rede mehr. Misstraue der Mensch dem System dagegen prinzipiell und folge er dessen Vorgaben nicht, "wäre die Maschine hinfällig im Sinne ihrer Erfinder".

Die Expertin für Roboterethik hat ihre Kritik zunächst nur auf ein "On the Loop"-Szenario bezogen. Doch sie lässt sich genauso auf Systeme übertragen, bei denen der Bediener am Ende des automatisierten Entscheidungsprozesse noch – mehr oder weniger symbolisch – einen Knopf drücken muss.