Moralische Entscheidungen vorhersagen: OpenAI zahlt Forschung

An der Duke Universität in den USA wird im Auftrag von OpenAI erforscht, wie KI moralische Entscheidungen vorhersagen kann.

In Pocket speichern vorlesen Druckansicht 29 Kommentare lesen
Das Logo von OpenAI an der Fassade des Bürogebäudes in San Francisco.

(Bild: Shutterstock/ioda)

Lesezeit: 3 Min.

Die gemeinnützige Organisation von OpenAI unterstützt ein Forschungsprojekt an der Duke Universität in den USA. Das Projekt trägt den Titel "Research AI Morality" und ist Teil eines größeren Zuschusses des KI-Unternehmens an die Universität. OpenAI finanziert eine Professur mit einem Zuschuss in Höhe von einer Million US-Dollar für drei Jahre. Die Professur soll sich mit der Entwicklung moralischer KI befassen. Die drei Jahre enden schon 2025.

Laut TechCrunch ist wenig über die Forschung bekannt. Der Hauptautor der aktuellen Studie, Walter Sinnott-Armstrong soll auf Anfrage gesagt haben, dass er nicht über seine Arbeit sprechen darf. Sinnot-Armstrong ist ein Ethik-Professor an der Duke University. Er hat mit der Forscherin Jana Schaich Borg und Vincent Conitzer ein Buch darüber herausgegeben, wie KI als moralischer Kompass helfen könne, bessere Entscheidungen zu treffen. Dabei geht es beispielsweise um algorithmische Entscheidungen, wer eine Niere gespendet bekommen sollte. Die Forscher untersuchen auch, wie sich die Nutzung von KI in China und den USA unterscheidet – hinsichtlich moralischer Aspekte, das geht aus einer Pressemitteilung der Universität hervor, in der auch die Investition von OpenAI bekannt gegeben wurde.

Schaich Borg beschreibt sich selbst auf ihrer offiziellen Webseite als Expertin für soziale Kognitionen, Empathie und moralische KI. Ziel ihrer Arbeit sei es, herauszufinden, wie KI mit unseren Wertevorstellungen übereinstimmend handeln könne. Ein Zitat von Ruth Chang zeigt, dass sie meint, KI sei ohne diese Anpassung nicht sehr hilfreich:

"Wenn wir KI nicht dazu bringen können, die menschlichen Werte zu respektieren, dann ist das Nächstbeste, zu akzeptieren – wirklich zu akzeptieren – dass KI für uns von begrenztem Nutzen sein kann."

Auch bei der beauftragten Forschung von OpenAI soll es darum gehen, Vorhersagen zu moralischen Entscheidungen in den Bereichen Medizin, Justiz und Wirtschaft zu untersuchen.

Aktuelle generative KI könnte zwar Entscheidungen treffen, die innerhalb eines engen Korsetts bleiben, aber sie ist dabei auch sehr anfällig für Missbrauch. Sie entscheiden basierend auf dem, was Menschen zuvor für Entscheidungen getroffen haben. Sie lernen und leiten daraus Wahrscheinlichkeiten ab. KI-Modelle können bisher nicht so robust entwickelt werden, dass Missbrauch ausgeschlossen werden kann. Es gibt zahlreiche Angriffsszenarien, am Ende bleibt der Mensch daher verantwortlich für Entscheidungen. Auch Schaich Borg, Sinnott-Armstrong und Conitzer thematisieren in dem Buch die Frage, wie man KI sicher und fair machen kann.

Es ist zudem nicht trivial, Moral ĂĽberhaupt so weit zu definieren, dass KI innerhalb dieser Grenzen entscheidet. DarĂĽber, was Moral beziehungsweise moralisch oder ethisch richtig ist, diskutieren Philosophen seit Jahrhunderten.

(emw)