Moral durch Unsicherheit

Maschinen werden zunehmend ethisch bedeutsame Entscheidungen treffen müssen, sind aber in ihrer jetzigen Form schlecht dafür geeignet. Ein Ausweg könnte in weniger eindeutigen Regeln für sie liegen.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Moral durch Unsicherheit

(Bild: MS. TECH)

Lesezeit: 5 Min.
Von
  • Karen Hao
Inhaltsverzeichnis

Algorithmen werden zunehmend eingesetzt, um moralische Entscheidungen zu treffen. Das vielleicht beste Beispiel dafür ist eine Hightech-Version des so genannten Trolley-Problems: Wenn ein autonomes Auto nicht mehr verhindern kann, einen von zwei Fußgängern zu überfahren, wie sollte seine Steuersoftware dann entscheiden, welcher von ihnen weiterleben darf?.

In der Realität ist dieses Rätsel keine sehr realistische Darstellung des Verhaltens von autonomen Autos. Viele andere Systeme, die es bereits gibt oder bald geben wird, werden aber tatsächlich unterschiedlichste ethische Abwägungen vornehmen müssen. So werden im Justizwesen technische Hilfsmittel zur Bewertung der Gefährlichkeit eingesetzt, und die müssen die Risiken für die Gesellschaft ebenso beachten wie Nachteile für den jeweiligen Beschuldigten. Und autonome Waffen müssen das Leben von Soldaten gegen das von Zivilisten abwägen.

Das Problem dabei: Algorithmen sind auf solche schwierigen Entscheidungen nicht ausgelegt. Sie sollen ein einzelnes mathematisches Ziel erreichen, beispielsweise die Maximierung der Zahl der geretteten Soldaten oder die Minimierung von zivilen Toten. Wenn sie es mit mehrfachen und oft widerstreitenden Zielen zu tun bekommen oder immaterielle Werte wie „Freiheit“ und „Wohlbefinden“ beachten sollen, gibt es oft keine zufriedenstellende mathematische Lösung.

„Als Menschen wollen wir unterschiedliche Dinge, die nicht miteinander vereinbar sind“, sagt Peter Eckersley, Forschungsdirektor der Partnership on AI, der vor kurzem einen Fachaufsatz zu dem Thema veröffentlicht hat. „Es gibt viele Situationen, bei denen viel auf dem Spiel steht, es aber wirklich unangemessen – wenn nicht sogar gefährlich – wäre, eine einzelne Zielfunktion einzuprogrammieren, mit der die eigene Ethik beschrieben werden soll“, so Eckersley.

Solche Dilemmata ohne klare Lösung gibt es nicht nur für Algorithmen. Ethiker beschäftigen sich seit Jahrzehnten damit und bezeichnen sie als Unmöglichkeitstheoreme. Als Eckersley klar wurde, dass sie auch für künstliche Intelligenz von Bedeutung sind, lieh er sich für einen Lösungsvorschlag eine Idee aus der Ethik: Wie wäre es, wenn man in Algorithmen Unsicherheit einbauen würde?

„Menschen treffen wir häufig ziemlich unsichere Entscheidungen“, erklärt der Forscher. „Unser Verhalten als moralische Wesen ist voller Unsicherheit. Aber wenn wir dieses moralische Verhalten nehmen und auf KI anwenden, wird es tendenziell konkreter und präziser gemacht.“ Sein Gegenvorschlag: Warum sollte man Algorithmen nicht explizit so gestalten, dass sie nicht sicher sind, was die richtige Entscheidung ist.

Um diese Idee mathematisch auszudrücken, schlägt Eckersley zwei mögliche Vorgehensweisen vor. Er beginnt mit der Annahme, dass Algorithmen normalerweise mit klaren Regeln über menschliche Präferenzen programmiert sind. So müssten wir ihnen erklären, dass wir eigene Soldaten definitiv höher schätzen als eigene Zivilisten und die wiederum höher als feindliche Soldaten – auch wenn wir uns dabei gar nicht sicher sind oder nicht finden, dass man stets so werten sollte. Das Design eines Algorithmus lässt wenig Spielraum für derlei Unsicherheit.

Eckerleys erste Technik, bekannt als partielle Ordnung, führt bereits ein wenig Unsicherheit ein: Man könnte dem Algorithmus sagen, dass er eigene Soldaten gegenüber feindlichen bevorzugen soll und eigene Zivilisten gegenüber feindlichen Soldaten, aber auf eine Präferenz bezüglich eigener Soldaten und eigener Zivilisten verzichten.

Bei der zweiten Technik, die als unsichere Ordnung bezeichnet wird, verwendet man mehrere Listen mit absoluten Präferenzen, wobei aber jeder davon eine Wahrscheinlichkeit zugewiesen wird. In drei Vierteln aller Fälle könnte man eigene Soldaten gegenüber eigenen Zivilisten und diese gegenüber feindlichen Soldaten bevorzugen, bei den restlichen eigene Zivilisten gegenüber eigenen Soldaten, die wiederum vor feindlichen Soldaten kommen.

Mit dieser Unsicherheit könnte ein Algorithmus umgehen, indem er mehrere mögliche Lösungen berechnet und dann Menschen zur Auswahl präsentiert, wobei er die Zielkonflikte benennt, erklärt Eckersley. Ein Beispiel dafür wäre ein KI-System zur Unterstützung medizinischer Entscheidungen. Statt eindeutig eine bestimmte Therapie zu empfehlen, könnte es drei Optionen nennen: eine zur Maximierung der Lebensdauer eines Patienten, eine für die Minimierung seines Leidens und eine dritte für die Minimierung der Kosten. „Wenn man das System explizit unsicher macht, kommt das Dilemma zurück zu den Menschen“, so Eckersley.

Carla Gomes, Informatik-Professorin an der Cornell University, hat in ihrer Arbeit mit ähnlichen Techniken experimentiert. Bei einem Projekt entwickelte sie ein automatisiertes System zur Bewertung der Auswirkungen eines neuen Wasserkraft-Damms im Amazonas-Becken. Dämme können saubere Energie liefern, haben aber auch gravierende Auswirkungen auf Teile von Flüssen und Ökosysteme.

„Das ist ein vollkommen anderes Szenario als bei autonomen Autos und auf anderen Gebieten, von denen häufig die Rede ist“, sagt Gomes. „Aber die Probleme sind auch in solchen Zusammenhängen real. Es gibt zwei miteinander unvereinbare Ziele, also was sollte man tun?“

Das Problem insgesamt sei überaus komplex, erklärt Gomes weiter. „Wir werden viel Forschung brauchen, um alle Themen zu klären. Aber der Ansatz von Peter ist ein wichtiger Schritt in die richtige Richtung.“

Mit zunehmendem Einsatz von algorithmischen Systemen werden diese Probleme immer weiter an Bedeutung gewinnen. „Immer mehr komplizierte Systeme verlangen, dass KI das Sagen hat“, sagt Roman V. Yampolskiy, Associate Professor für Informatik an der University of Louisville. „Keine Einzelperson kann die Komplexität zum Beispiel des Aktienmarkts oder von militärischen Abwehrsystemen verstehen. Also haben wir keine andere Wahl, als einen Teil der Kontrolle an Maschinen abzugeben.“

(sma)