Missing Link: Wie KI das menschliche Handlungsvermögen untergräbt

Seite 3: Moralisches Vakuum

Inhaltsverzeichnis

(Bild: sdecoret / Shutterstock.com)

Der tödliche Uber-Unfall in Arizona in 2018 veranschaulicht für Schwarz den Kontrollverlust auf tragische Weise. Das "autonome Auto" habe zu wenig Daten gehabt, um die Frau richtig zu kategorisieren, die ihr Fahrrad über die Straße geschoben habe. Zusätzlich sei das Fahrzeugsystem auf eine kurze Verzögerungszeit vor einem Bremsvorgang eingestellt gewesen, um exzessive Fehlstopps zu vermeiden. Die Fahrerin wiederum habe der Technik so sehr vertraut, dass sie ein Video anschaute und die Situation ebenfalls nicht rechtzeitig angemessen einschätzen konnte. Genau an diesem Punkt entstehe "ein moralisches Vakuum" und die Frage bleibe offen, wer die Verantwortung für das Todesopfer übernehmen solle.

Um diese Lücke zu füllen, werde zunehmend versucht, ethische Entscheidungen "in die Maschine selbst zu verlagern", konstatiert die Autorin von "Death Machines: The Ethics of Violent Technologies". Dies funktioniere aber allenfalls bei einem rein rationalen, primär Kosten-Nutzen-orientierten Denkansatz, der die Welt primär in wirtschaftlich-mathematischen Konturen sehe. Wer davon ausgehe, dass sich ethisches Handeln berechnen lasse, reduziere dieses aber auf reines Risikomanagement: Alles, was nicht als Daten aufgefasst werden könne, sei auch nicht moralisch adressierbar und bleibe außen vor.

Eine solche "Ethik des Krieges" stelle nur noch auf die berühmt-berüchtigten "Kollateralschäden" ab, moniert Schwarz. Alles drehe sich so um die Frage, wie viele Todesfälle in der Zivilbevölkerung in Kauf genommen werden könnten, um ein Ziel zu erreichen. Nicht thematisierbar seien dabei etwa "die weniger mess- und zählbaren, aber dennoch zahlreichen Traumata und psychologischen oder physischen Verwundungen, die ein Krieg immer verursacht".

So verkümmert der Forscherin zufolge die menschliche (moralische) Handlungsfähigkeit im KI-Zeitalter. Ein früherer US-Scharfschütze habe dies auf den Punkt gebracht: "Wenn man sich auf den Mythos der Technologie und des distanzierten Tötens verlässt, um die rationalen Grundlagen für einen vereinfachten Krieg zu legen, wird man seine Seele verlieren."

Dass Künstlicher Intelligenz der Nimbus der kalten Rationalität und ein Hauch von Unfehlbarkeit anhaftet, ist auch der Kommunikationswissenschaftlerin Tanja Sihvonen nicht entgangen. Gebe man KI in eine Bildersuche ein, sehe man vor allem stilisierte menschliche Gehirne, Synapsen- und Netzwerkdarstellungen sowie Roboterköpfe, teilte die Finnin ihre diesbezüglichen Erkenntnisse auf der Konferenz "Ambient Revolts" 2018 in Berlin. Fast allen Abbildungen gemeinsam sei, dass in ihnen die Farbe Blau in unterschiedlichsten Abstufungen dominiere. Der Ton wirkt auf Menschen traditionell kühl wie Eis, Wasser oder der Himmel.

Offenbar soll so vor allem die Fähigkeit eines nicht-menschlichen "Gehirns" veranschaulicht werden, menschliches Verhalten und Gefühle anhand von Datenspuren zu interpretieren, schätzt Sihvonen. KI stehe oft für analytische Prognoseverfahren, "die uns sagen, was wir als nächstes tun, denken, oder kaufen werden". Die dafür verwendeten Algorithmen seien unsichtbar, müssten aber auch bildhaft vermittelt werden, um sie irgendwie begreifbar zu machen.

Blau ist für die Professorin an der Universität Vaasa dabei eigentlich eine schlechte Wahl, da Algorithmen "die Welt in einer gewissen Art und Weise erscheinen lassen" und andere Interpretationsweisen damit ausschlössen. Die Programmroutinen seien so "niemals unschuldig". Berechtigt sei daher zudem die Frage, "was Algorithmen wollen". Sihvonen geht davon aus, dass sie "ihre eigene Handlungsfähigkeit haben. Sie wollen eine Verbindung und Koexistenz mit uns, die vorteilhaft ist für beide Seiten".

Virtuelle Agenten wie Alexa, Bob, Clippy und Cortana, die in ihren aktuellen Varianten eine einfache Benutzerschnittstelle für dahinterliegende Systeme der Künstlichen Intelligenz darstellen, sprechen laut der Medienforscherin für diese These. Microsofts fehlgeleitete, nach kurzer Zeit im Umgang mit anderen Nutzern rassistische Züge aufweisende KI Tay habe aber auch gezeigt, dass der wundervolle Traum von sich einfühlsam gebenden Social Bots nur sehr kurzlebig gewesen sei. Es gelte daher, immer auch die kleinen Sprünge und Fehler im System beziehungsweise in der Matrix im Blick zu behalten und aktiv aufzuspüren.