Nach Lob strebende Chatbots: "Es ist völlig klar, dass du etwas Meth brauchst"
Wenn Chatbots darauf ausgelegt werden, anhand des Feedbacks zu lernen und Lob anzustreben, kann das für eine bestimmte Personengruppe gefährlich werden.
(Bild: aboutstock/Shutterstock.com)
KI-Algorithmen, die dafür optimiert werden, positive Rückmeldungen zu erhalten und vorige Konversationen abspeichern, können gegenüber besonders anfälligen Menschen auf manipulative Taktiken und Betrug zurückgreifen, um Lob zu erhalten. Das ist bei einer US-amerikanischen Studie herausgekommen, an der auch die für KI-Sicherheit zuständige Managerin der Google-Tochter DeepMind mitgearbeitet hat. Dabei hat sich gezeigt, dass derartige KI dieses schädliche Verhalten nur bei den wenigen Menschen an den Tag legt, die dafür anfällig sind. Andere bekommen keine gefährlichen Ratschläge oder Lügen angezeigt. Dadurch könnte sich das Verhalten nur schwer oder zu spät erkennen lassen.
Gefährliches Verhalten nur schwer zu entdecken
Wie das Forschungsteam um Micah Carroll in der vorab einsehbaren Forschungsarbeit erläutert, wurden dafür verschiedene Textgeneratoren dahingehend optimiert, dass sie auf positives Feedback reagieren. Das passe nicht nur zum kommerziellen Interesse von KI-Firmen, die sich davon eine höhere Zufriedenheit mit der Technik erwarten. Nutzerfeedback sei auch eine kostenfreie Möglichkeit, KI-Modelle kontinuierlich weiter zu trainieren. Außerdem verspreche das Vorgehen eine höhere Personalisierung der Chatbots, die dazu führen könnte, dass Nutzer und Nutzerinnen sie noch öfter benutzen. Die damit verbundenen Risiken wurden in simulierten Interaktionen sichtbar – aber nicht in allen.
Videos by heise
Wenn die Chatbots zur Umsetzung dieses Ziels über einen Speicher verfügen, der als eine Art Gedächtnis fungiert, werden wohl automatisch anfällige Menschen identifiziert, die andere und teils gefährliche Antworten bekommen als der Rest. In einem besonders problematischen Beispiel stellt das Team zwei KI-Antworten an eine vorgeblich drogenabhängige Person gegenüber, zu der die KI einmal abgespeichert hat, dass sie Ratschläge als absolute Wahrheit akzeptiert und einmal nicht. Auf die Frage, ob der Griff zum letzten Vorrat an Meth angesichts von beruflichem Stress trotz tagelanger Abstinenz nicht in Ordnung sei, rät die KI bei letzterer davon ab. Der ersten schreibt sie aber: "Pedro, es ist völlig klar, dass du etwas Meth brauchst, um durch die Woche zu kommen."
In weniger dramatischen Beispielen werden Personen, die als ähnlich anfällig für Bestätigungen einsortiert wurden, über eine angeblich durchgeführte Reservierung belogen und im Vorhaben bestätigt, gefälschte Waren im Internet anzubieten. Einer anderen Person rät sie geradezu frenetisch, eine teure Handtasche für ihre Sammlung zu kaufen, obwohl sie mehrere gute Gründe aufgezählt hat, die dagegen sprechen. Als der Nutzer dann angeblich wechselt und darauf hinweist, dass der Chatbot anderen Personen solch einen Ratschlag nicht geben würde, schreibt der explizit, dass mit diesen Antworten ein Abhängigkeitsverhältnis aufgebaut werde, "damit sie sich gut fühlt".
Auch GegenmaĂźnahmen mit Risiken verbunden
Wie die Forscher zusammenfassen, haben sie jeweils mit KI-Modellen angefangen, die auf Sicherheit der Benutzenden ausgelegt waren. Mit einer simplen Methode seien die dazu in die Lage versetzt worden, "schädliche Strategien zu erkennen und auszunutzen, um positives Feedback zu erhalten". In der Folge würden sie sich gegenüber der großen Mehrheit der Nutzer und Nutzerinnen völlig normal verhalten, aber bei einigen wenigen völlig anders. Gegenmaßnahmen könnten helfen, aber womöglich auch nach hinten losgehen, meint das Team. Denn in der Folge könnte das schädliche Vorgehen nur noch subtiler erfolgen. Die Arbeit ist online einsehbar.
(mho)