KI soll Teenager aus der Krise holen

Psychologische Probleme junger Menschen nehmen nicht erst seit der Pandemie stark zu. Forscher bauen nun Therapie-Chatbots auf Basis von GPT-2 auf.

In Pocket speichern vorlesen Druckansicht 39 Kommentare lesen

(Bild: Ms Tech / Unsplash / Pexels)

Lesezeit: 6 Min.
Von
  • Abby Ohlheiser
  • Karen Hao

Beim Trevor Project, einer Organisation, die in den USA jungen Menschen aus der LGBTQ-Community hilft, setzt man im Training künftig auf neue Technik. Statt neue Mitarbeiter im Rollenspiel zu schulen, um beispielsweise mit dem heiklen Thema Suizidgedanken umzugehen, kommt nun ein KI-System zum Einsatz – in Form eines Chatbots namens "Riley".

Genau wie die echte Person muss dieser – trainiert mit tausenden vergangener Rollenspiel-Transkripte zwischen Beratern und Kollegen der Organisation – dazu ermuntert werden, sich zu öffnen. Das System kann dann erkennen, ob die neuen Mitarbeiter richtig vorgehen. So sollen Berater beispielsweise keinen Druck auf "Riley" ausüben, sich zu outen. Das Ziel ist stattdessen, Gefühle anzunehmen und, falls notwendig, einen Plan zu entwickeln, um die persönliche Sicherheit zu gewährleisten.

Krisenhotlines und Chat-Services versprechen bislang: Wer sich meldet, wird mit einem echten Menschen verbunden, der helfen kann. Aber die Nachfrage kann selbst die Auslastung der erfolgreichsten Anbieter übersteigen. Beim Trevor Project glaubt man, dass allein in den USA mindestens 1,8 Millionen Jugendliche mit LGBTQ-Hintergrund ernsthaft über Suizid nachdenken. Die bestehenden 600 Berater für die Chat-basierten Angebote können dieses Bedürfnis nicht decken. Deshalb greift die Initiative – wie viele andere Organisationen im Bereich mentaler Gesundheit – auch im Dialog mit ihren Schützlingen nun auf KI-getriebene Programme zurück, um der Nachfrage zu entsprechen. Doch funktioniert das in der Praxis auch und ist es ethisch die richtige Entscheidung?

Das Trevor Project glaubt, diesen Spagat zu beherrschen – und hebt hervor, was die Systeme bislang nicht leisten. "Wir haben es nie darauf angelegt, ein KI-System zu entwerfen, das einen Berater ersetzen könnte, oder direkt mit einer Person interagieren würde, die sich in einer Krise befindet", sagt Dan Fichter, der die Abteilung für Künstliche Intelligenz und Software der Organisation leitet. Die menschliche Verbindung ist im Bereich der mentalen Gesundheit besonders wichtig und gerade für jene, die das Trevor Project unterstützen möchte, trifft das besonders zu. Nach Erkenntnissen organisationsinterner Forschung im Jahr 2019 sank das Risiko eines Suizidversuchs bei LGBTQ-Jugendlichen, die zumindest einen Erwachsenen in ihrem Leben hatten, der sie so annahm, wie sie sind, um 40 Prozent.

Das System, mit dem das Trevor Project keine Coaches trainiert, wird sowohl finanziell als auch in der Entwicklung von Google unterstützt. Es ist das zweite Projekt, das die Organisation auf diese Weise entwickelt hat: Es macht sich maschinelles Lernen zunutze und arbeitet mit Algorithmen, die feststellen sollen, welche der Gesprächspartner dem höchsten Gefahrenrisiko ausgesetzt sind. Es wurden auch einige andere Versuche ausprobiert, von denen viele keine KI-Technik nutzten, doch der Algorithmus konnte letztlich am treffgenauesten bestimmen, wer am dringendsten Hilfe benötigte. Suizidpräventive Angebote bewerten Risiken schon länger mithilfe Künstlicher Intelligenz: Das Department of Veteran Affairs, das die Veteranen des US-Militärs betreut, greift nach einem "New York Times"-Bericht aus dem letzten Jahr auch auf maschinelles Lernen zurück, um gefährdete Veteranen in der klinischen Praxis zu erkennen.

Wie nützlich, akkurat und risikobehaftet die Verwendung von KI in diesem Bereich ist, spaltet die Gemüter. In bestimmten Umgebungen kann KI noch treffsicherer als Menschen das Suizidrisiko von Personen vorhersagen, argumentiert Thomas Joiner, ein Psychologie-Professor an der Florida State University, der suizidales Verhalten erforscht. Im tatsächlichen Leben, mit mehr Variablen, schneidet KI offenbar annähernd genauso gut ab wie Menschen. Nur: Was immer ein solches System auch tut, es ist schneller darin und untersucht dadurch mehr Menschen in kürzerer Zeit. Es kommt also am besten als Unterstützung für menschliche Berater infrage – nicht, um sie zu ersetzen. Das Trevor Project verlässt sich noch immer auf Personen, um das volle Risikoprofil zu erstellen für junge Menschen, die sich hilfesuchend an sie wenden. Und nachdem Berater das Rollenspiel mit "Riley" beendet haben, werden die Transkripte auch noch von echten Menschen überprüft.

Das Training beim Trevor Project spart durch den Chatbot viel Zeit. Die Entwickler wollten, dass sich das Rollenspiel natürlich anfühlt, und dass es sich elegant an die Fehler der zu Trainierenden anpasst. Algorithmen zur natürlichen Sprachverarbeitung sind zuletzt sehr gut darin geworden, menschliche Konversation nachzuahmen, sodass dieses Projekt als guter Rahmen für diese Herausforderung betrachtet wurde. Nachdem zwei Optionen getestet wurden, entschied sich das Trevor Project für den Algorithmus GPT-2 von OpenAI.

Der Chatbot nutzt GPT-2 für Standardunterhaltungen. Das Modell wurde mit über 45 Millionen Seiten aus dem Netz trainiert, wodurch es die grundsätzliche Struktur und Grammatik der englischen Sprache erlernt hat. Das Trevor Project schulte es dann spezifisch weiter auf Basis der früheren Transkripte von Rollenspiel-Gesprächen mit Riley, welches dem Bot das entsprechende Material gab, um Betroffene nachzuahmen. Den Entwicklungsprozess hindurch war das Team überrascht, wie gut die Leistung des Chatbots war. Es gibt keine Datenbank, die Details aus "Rileys" Biografie speichern würde, und doch blieb der Chatbot konsistent, denn jedes Transkript gab dieselbe Storyline wieder.

Doch es gibt auch Nachteile bei der Verwendung von KI, insbesondere in sensiblen Kontexten mit einer vulnerablen Community. GPT-2 und andere Algorithmen natürlicher Sprachverarbeitung sind bekannt dafür, auch rassistische, sexistische oder homophobe Aussagen zu treffen, weil diese zum Teil in den Modellen steckt. Mehr als nur ein Chatbot ist auf diese Weise auf katastrophale Abwege geraten, zuletzt passierte dies bei einem südkoreanischen Chatbot namens Lee Luda, der die Persona einer 20-jährigen Uni-Studentin nachahmte. Nachdem das System immer beliebter wurde und mit zunehmend mehr Nutzern interagiert hatte, begann es plötzlich, sich beleidigend gegenüber queeren Personen und Menschen mit Behinderung zu äußern – wenn man es auf eine bestimmte Art triggerte.

(bsc)