Wenn Computer streiten

Je leistungsfähiger künstliche Intelligenz wird, desto schwieriger wird es für Menschen, ihre Entscheidungen nachzuvollziehen. Informatiker wollen jetzt mit Diskussionen zwischen System und System für das richtige Verhalten sorgen.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 5 Min.
Von
  • Will Knight
Inhaltsverzeichnis

Eines Tages könnte es ganz normal sein, zuzusehen, wie KI-Systeme mit sich selbst streiten.

Das Konzept kommt von den Forschern bei OpenAI, einer von mehreren Silicon-Valley-Visionären gegründeten Nonprofit-Organisation. Beteiligt sind unter anderem Sam Altman von Y Combinator, der LinkedIn-Chairman Reid Hoffman, Facebook-Boardmitglied und Palantir-Gründer Peter Thiel sowie Elon Musk, Chef von SpaceX und Tesla.

Mehr Infos

In früheren Arbeiten haben Forscher bei OpenAI gezeigt, dass KI-Systeme, die sich selbst trainieren, unerwartete und unerwünschte Gewohnheiten entwickeln können. So kann ein Software-Agent bei einem Computer-Spiel Fehler ausnutzen („glitching“), um mehr Punkte zu erzielen. In manchen Fällen ist es möglich, Menschen den Trainingsprozess überwachen zu lassen. Doch wenn das KI-Programm etwas unglaublich Komplexes tut, ist das nicht mehr realistisch.

Also regen die Forscher jetzt an, stattdessen zwei Systeme über ein bestimmtes Ziel diskutieren zu lassen. „Wir glauben, dass uns dieser oder ein ähnlicher Ansatz letztlich dabei helfen könnte, KI-Systeme kognitiv deutlich anspruchsvollere Aufgaben erledigen zu lassen, als Menschen übernehmen können, gleichzeitig aber menschliche Präferenzen zu beachten“, schreiben sie in einem Blog-Beitrag über das Konzept.

Nehmen wir zum Beispiel ein KI-System, das menschliche oder KI-Hacker abwehren soll. Um zu verhindern, dass es etwas Schädliches oder Unmoralisches tut, könnte erforderlich sein, es die Logik für eine bestimmte Aktivität erklären zu lassen. Für einen Menschen wäre diese Logik aber vielleicht zu komplex, um sie zu verstehen. Also schlagen die Forscher vor, dass eine andere KI in natürlicher Sprache mit dem ersten System über die Sinnhaftigkeit diskutiert, während der Mensch zusieht. Weitere Details dazu sind in einem Fachaufsatz zu finden.

Um KI-Programme miteinander diskutieren zu lassen, ist jedoch Technologie erforderlich, die es heute noch nicht gibt. Bislang haben die OpenAI-Forscher die Idee nur mit ein paar extrem einfachen Beispielen untersucht. Bei einem davon sollten zwei KI-Systeme einen Beobachter von der Existenz eines verborgenen Zeichens überzeugen, indem sie schrittweise einzelne Pixel enthüllen.

Die Forscher haben eine Website eingerichtet, auf der jeweils zwei Personen die Rolle von diskutierenden KI-Systemen übernehmen können, während eine dritte als Richter auftritt. Die zwei Teilnehmer konkurrieren darum, den Richter vom Charakter eines Bildes zu überzeugen, indem sie Teile davon zeigen. Irgendwann wird es für den Beobachter einfacher, zu erkennen, wer von den beiden die Wahrheit sagt.

Vincent Conitzer beschäftigt sich als Forscher an der Duke University mit ethischen Fragen in Zusammenhang mit KI. Nach seinen Worten ist die Arbeit noch in einem frühen Stadium, aber viel versprechend. „Die Entwicklung von KI-Systemen, die ihre Entscheidungen erklären, ist ein schwieriges Vorhaben für die Forschung“, sagt er. „Wenn es erfolgreich ist, kann es einen großen Beitrag für den verantwortungsvollen Einsatz von KI leisten.“

Noch sind wir – trotz eigenwilliger Aussagen von Leuten wie Elon Musk (einem der Finanziers von OpenAI, der bis vor kurzem noch im Board der Organisation saß) – ein gutes Stück davon entfernt, dass KI-Systeme uns täuschen können und geistig überlegen sind. Trotzdem beschäftigen sich manche KI-Forscher bereits mit der Frage, wie sich sicherstellen lässt, dass die Technologie nichts Unerwünschtes anstellt. Je komplexer und undurchschaubarer KI-Programme werden, desto wichtiger dürfte diese Arbeit werden.

„Ich halte die Idee, über Diskussionen zu einer Orientierung an Werten zu kommen, für sehr interessant und potenziell nützlich“, sagt Ariel Procaccia, der sich als Professor für Informatik an der Carnegie Mellon University mit Entscheidungsfindung bei autonomen Systemen beschäftigt.

Allerdings merkt Procaccia an, dass die Arbeit noch sehr vorläufig ist. Möglicherweise enthalte das Konzept sogar einen grundlegenden Widerspruch: „Um Diskussionen über Werte so zu führen, dass ein menschlicher Richter sie verstehen kann, müssten die KI-Agenten erst einmal sehr genaues Wissen über menschliche Werte haben“, erklärt er. „Also könnte man finden, dass das Pferd bei diesem Ansatz von hinten aufgezäumt wird.“

Iyad Rawan, Forscher am MIT Media Lab, fügt hinzu, dass man sehr darauf achten müsste, dass sich ein KI-Duo bei Diskussionen nicht im Kreis dreht. „Ich glaube, dass man hier sehr schnell auf ein paar sehr schwierige Probleme stoßen wird“, sagt er. „Das erste ist schon die Automatisierung von Argumentation in natürlicher Sprache. Dieses Problem ist bislang nicht gelöst.“

(sma)