Experiment ohne Einwilligung: Menschen suchen Hilfe – und landen bei einer KI
Koko, eine Gesundheits-App, hat Menschen mit psychischen Problemen Antworten von GPT-3 präsentiert und sie darüber nicht informiert. Dafür hagelt es Kritik.
"Wir haben ungefähr 4000 Menschen Unterstützung für ihre mentale Gesundheit bereitgestellt – und dabei GPT-3 eingesetzt", verkündete Koko-Mitgründer Robert Morris stolz bei Twitter. Da sein Unternehmen bei dem selbsternannten "Experiment" die Hilfesuchenden aber nicht davon in Kenntnis gesetzt hat, dass die Antworten auf ihre Probleme von einer KI stammen, ernten Morris und sein Unternehmen nun herbe Kritik.
Koko ist eine Anwendung, die Menschen mit mentalen Problemen mit anderen Menschen verbindet. Per Telegram oder Discord können sie ein Problem oder eine Frage formulieren, die eigentlich nur von humanen Gesprächspartnern, explizit aber keinen Fachleuten, beantwortet werden.
Im jetzt durchgefĂĽhrten Versuchsaufbau habe man den Antwortenden aber die Wahl gelassen: Entweder sie antworteten wie gewohnt selbst oder sie ĂĽberlieĂźen es der KI GPT-3, einen Text zu formulieren. Morris bezeichnet das bei Twitter als "Co-Pilot-Ansatz". Ein Beispielvideo zeigt den Prozess bei Discord.
Koko ist stolz auf die Ergebnisse
Das Vorgehen habe man bei rund 30.000 Hilfsgesuchen ausprobiert. Ungefähr in der Hälfte der Fälle hätten die Antwortenden die Nachricht der KI auch tatsächlich statt einer eigenen Formulierung verwendet. Zudem habe sich die Antwortzeit um 50 Prozent reduziert, erklärt Morris weiter. Die Hilfesuchenden hätten die KI-Antworten "signifikant besser" bewertet als die von Menschen – allerdings nur, bis sie wussten, dass sie von einer Maschine kamen. "Sobald die Leute erfuhren, dass die Nachrichten von einer Maschine mitformuliert wurden, funktionierte es nicht mehr", sagt Morris.
Twitter-Mitglieder bezeichneten das Vorgehen als unethisch. Das Unternehmen habe damit gegen die Vorgaben des US-amerikanische Institutional Review Board (IRB) verstoßen. Demnach sei es in den USA illegal, Forschung an Menschen ohne deren Wissen durchzuführen. Morris entgegnete, weil Koko die Ergebnisse nicht veröffentlichen wolle, sei das Experiment von den Vorgaben des IRB nicht betroffen. Dennoch sah er sich dazu bemüßigt, in einem zweiten Twitter-Thread auf die Kritik einzugehen.
"Dieses Feature war opt-in. Jeder wusste von dem Feature, als es für ein paar Tage live war" – ob das tatsächlich auch für die Hilfesuchenden galt, darf nach seinen ursprünglichen Tweets und dem Versuchsaufbau jedoch bezweifelt werden.
Eine frühere Textversion behauptete, Koko habe die Konversations-KI ChatGPT verwendet. Tatsächlich kam GPT-3 zum Einsatz. Zwar ist es diese Grundlage von ChatGPT und dient der Konversations-KI weiterhin als Engine, technisch sind beide dennoch nicht gleichzusetzen. Die entsprechenden Stellen im Text haben wir korrigiert.
(jvo)