Kann und darf KI ethische Bewertungen messen ?

Der Traum, qualitative Aussagen zählbar zu machen, um damit objektive Entscheidungen zu ermöglichen, geistert schon geraume Zeit durch die Diskussionen. Könnte KI hier eine Lösung bieten?

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Die Frage, wie sich ethische Kriterien mittels Algorithmen verarbeiten lassen können, tauchte zuletzt im Zusammenhang mit sogenannten autonomen Fahrzeugen auf, deren Technik im Konfliktfall zwischen unterschiedlichen Menschenleben entscheiden muss, zumindest wenn man den gemischten Verkehr nicht grundsätzlich technisch ausschließen will.

Aktuell könnte eine digital verarbeitbare ethische Bewertung auch im Falle der Intensivmedizin an Bedeutung gewinnen, indem durch sie eine bislang übliche subjektive Entscheidung eines oder mehrerer Ärzte zwischen einer Intensivbetreuung mit künstlicher Beatmung und der ebenfalls möglichen Sterbebegleitung einem Algorithmus überantwortet wird.

Unter dem Titel "From Principles to Practice. An interdisciplinarry framework to operationalise AI ethics" hat die AI Ethics Impact Group unter der Führung der Bertelsmann Stiftung im vergangenen April eine Studie veröffentlicht, die zeigen will, wie KI-Ethik messbar gemacht werden könnte.

Während man quantitative Aussagen einfach messen und die gewonnen Daten danach datentechnisch weiterverarbeiten kann, werden qualitative Aussagen üblicherweise im Kontext betrachtet und sind somit immer relativ. Hier aus einer qualitativen Bewertung eine zählbare quantitative Aussage zu generieren, erscheint nicht unproblematisch, nicht zuletzt weil sie eine Objektivität vorgibt, die sie faktisch nicht haben kann.

Quantifizierung qualitativer Aussagen

Wenn man die Bewertung dann auch noch einem Algorithmus überantwortet, der für die Mehrzahl der Menschen eine undurchschaubare Black-Box sein dürfte, könnte der Widerstand beachtlich werden. Dabei hat sich beispielsweise beim Scoring, wie es im Bankenbereich zur Bonitätsbewertung geläufig ist, die Quantifizierung qualitativer Aussagen inzwischen schon weitestgehend durchgesetzt. Wer auf der "falschen" Straßenseite wohnt, bekommt schlechtere Konditionen oder sogar gar keinen Kredit.

Auch im Bereich Human Ressource werden Bewerber mit Hilfe von Algorithmen bewertet. Wer nicht ins jeweilige Raster passt, hat keine Chance. Auch jeder, der sich heute im Internet bewegt, hat es mit Algorithmen zu tun, die ihm nur genau die Auswahl an Suchergebnisse anzeigen, die zu seinem Suchverhalten zu passen scheinen.

Dass dies in der Praxis durchaus erfolgreich ist, weil es die eigenen Interessen optimal zu bedienen scheint, birgt durchaus Risiken, weil es nur die eigene Linie verfolgt und den berühmten Blick über den Tellerrand erschwert. Fremde Meinungen und Ansichten werden damit vielfach umgangen.

Ethik der Algorithmen

In dem gleichnamigen Projekt will sich die Bertelsmann Stiftung mit den gesellschaftlichen Folgen algorithmischer Entscheidungsfindung auseinander setzen. "Wir wollen zu einer Gestaltung algorithmischer Systeme beitragen, die zu mehr Teilhabe für alle führt. Nicht das technisch Mögliche, sondern das gesellschaftlich Sinnvolle muss Leitbild sein - damit maschinelle Entscheidungen den Menschen dienen. Denn das übergeordnete Ziel unserer Stiftungsarbeit ist es, den digitalen Wandel in den Dienst der Gesellschaft zu stellen", bemerkt man bei der Stiftung in Gütersloh.

Man wolle Bewusstsein schaffen für "Chancen, Risiken und vor allem die Relevanz algorithmischer Prozesse" - "als notwendige Grundlage für einen gesellschaftlichen Werte-Konsens und die Bereitschaft, entsprechende Lösungsansätze zu erproben und zu skalieren".

Die Tatsache, dass Entscheidungsprozesse immer komplexer werden, fördert verständlicherweise den Wunsch nach einer objektiven Hilfestellung, die eine Beschleunigung einer Entscheidungsfindung ermöglicht, jedoch in der Praxis schnell überfordert sein kann, wenn man es mit einer möglicherweise in ihren Folgen und Auswirkungen unbekannten Herausforderung zu tun hat - wie im Falle der aktuellen Corona-Pandemie.

Die Algorithmen können nur dann erfolgversprechende Entscheidungen vorbereiten, wenn sie so programmiert sind, dass sie alle denkbaren Lösungen kennen, was bei Corona durchaus nicht der Fall war, weil man weder die genauen Verbreitungswege kannte, noch wirklich abschätzen konnte, wer außer den Betagten mit Vorerkrankungen zu den Risikogruppen zählte.

Dass neben den Vorerkrankungen auch die Blutgruppe eine Auswirkung auf die Schwere des Krankheitsverlaufs haben, wurde erst im Laufe der Corona-Welle bekannt. Vergleichbares gilt für die Schlachtindustriebtriebe und jubilierende Gottesdienstbesucher.

Ist die Übertragung ethisch begründeter Entscheidungen auf Algorithmen sinnvoll?

Deutschland hatte im Falle der aktuellen Corona-Pandemie das Glück, dass viele Krankenhäuser, die zur Schließung anstehen, weil sie Anforderungen hinsichtlich ihrer Ausstattung und der Zahl der jeweils geforderten Eingriffe, die eine bestimmte Routine zeigen sollen, nicht mehr erfüllen, noch in Betrieb waren.

Eine in erster Linie betriebswirtschaftlich begründbare, beabsichtigte Konzentration bei den Krankenhäusern wird wohl dafür sorgen, dass vor allem in ländlichen Regionen die einschlägige Versorgung reduziert wird. Welche Folgen eine gnadenlose Konzentration haben kann, sieht man aktuell an den Industrieschlachthöfen, die - nicht zuletzt aufgrund steigender Hygienevorgaben - die kleinen Schlachthöfe in der Region verdrängt haben.

Geht die Konzentration der Krankenhäuser ungebremst weiter und wird ihre Professionalisierung unter dem Einfluss der Betriebswirte fortgeführt, besteht durchaus die Chance, dass die Belegung der verbliebenen Zentralkrankenhäuser in Zukunft mit Hilfe KI-gestützter ethischer Algorithmen nach Kriterien erfolgt, die sich nur einem kleinen Bevölkerungskreis erschließen.

Dass sich eine messbare Ethik einem hippokratischen Eid unterworfen fühlt, ist durchaus zu bezweifeln. Viel wichtiger dürften ökonomische "Sachzwänge" werden, deren Auswirkungen man leichter auf einen Algorithmus auslagern kann.

Anmerkung: Der deutsche Begriff KI für Künstliche Intelligenz wird im Artikel synonym mit dem englischen AI für Artificial Intelligence genutzt.