Explizite Unsicherheit soll KI-Algorithmen zu ethischen Entscheidungen verhelfen

Nicht für jedes Problem gibt es eine eindeutig richtige Lösung. Um gut zu entscheiden, sollten IT-Systeme das in Zukunft berücksichtigen, meint ein Forscher.

In Pocket speichern vorlesen Druckansicht 33 Kommentare lesen
Explizite Unsicherheit soll KI-Algorithmen zu ethischen Entscheidungen verhelfen

(Bild: MS. TECH)

Lesezeit: 2 Min.
Von
  • Sascha Mattke

Früher oder später dürften Algorithmen vor der schwierigen Aufgabe stehen, zwischen einander widersprechenden Zielen abzuwägen und dann eine moralisch vertretbare Entscheidung zu treffen. Bislang allerdings sind sie dafür meist nicht gut geeignet, weil sie auf die Maximierung eines einzelnen mathematischen Ziels ausgelegt sind, im militärischen Bereich zum Beispiel darauf, möglichst viele eigene Soldaten überleben zu lassen. Peter Eckersley, Forschungsdirektor der Partnership on AI, schlägt deshalb vor, explizit Unsicherheit in solche Algorithmen zu programmieren, berichtet Technology Review online in "Moral durch Unsicherheit“.

„Als Menschen wollen wir unterschiedliche Dinge, die nicht miteinander vereinbar sind“, sagt Eckersley, Forschungsdirektor der Partnership on AI, der vor kurzem einen Fachaufsatz zu dem Thema veröffentlicht hat. „Es gibt viele Situationen, bei denen viel auf dem Spiel steht, es aber wirklich unangemessen – wenn nicht sogar gefährlich – wäre, eine einzelne Zielfunktion einzuprogrammieren, mit der die eigene Ethik beschrieben werden soll“, so Eckersley.

Mit Unsicherheit könnte ein Algorithmus umgehen, indem er mehrere mögliche Lösungen berechnet und dann Menschen zur Auswahl präsentiert, wobei er die Zielkonflikte benennt, erklärt Eckersley. Ein Beispiel dafür wäre ein KI-System zur Unterstützung medizinischer Entscheidungen. Statt eindeutig eine bestimmte Therapie zu empfehlen, könnte es drei Optionen nennen: eine zur Maximierung der Lebensdauer eines Patienten, eine für die Minimierung seines Leidens und eine dritte für die Minimierung der Kosten. „Wenn man das System explizit unsicher macht, kommt das Dilemma zurück zu den Menschen“, so Eckersley.

Mehr dazu bei Technology Review online:

(sma)