Wie ein Chatbot Menschen helfen kann, psychologische Hilfe zu erhalten

Das KI-System Limbic aus Großbritannien kann Hilfesuchende nach psychischen Problemen befragen. Das führte in einem Pilotprojekt zu deutlich mehr Überweisungen.

In Pocket speichern vorlesen Druckansicht 9 Kommentare lesen
Psychologie (Symbolbild)

(Bild: Deemerwha studio/Shutterstock.com)

Lesezeit: 6 Min.
Von
  • Rhiannon Williams

Ein KI-Chatbot soll dazu beigetragen haben, die Zahl der Patienten zu erhöhen, die von der britischen Gesundheitsversorgung NHS in England an psychosoziale Dienste überwiesen werden. Dabei funktionierte das System besonders bei Minderheitengruppen gut, wie eine neue Studie zeigt. Die Nachfrage nach solchen Angeboten nimmt sowieso schon zu, insbesondere seit der COVID-19-Pandemie. Im Jahr 2022 wurden 4,6 Millionen Patienten an psychosoziale Dienste des NHS überwiesen – die höchste Zahl seit Beginn der Aufzeichnungen. Die Zahl der Menschen, die mit solchen Diensten in Kontakt kommen, wächst also stetig. Laut der British Medical Association reichen jedoch weder die finanziellen Mittel noch die Anzahl der Fachkräfte aus, um den steigenden Bedarf zu decken.

Die Firma Limbic wollte nun herausfinden, ob KI die Hürde für den Einstieg in die Versorgung senken kann, indem sie den Patienten hilft, schneller und effizienter Hilfe zu erhalten. In der Untersuchung, die in der Zeitschrift "Nature Medicine" veröffentlicht wurde, wurde untersucht, wie sich der Chatbot namens Limbic Access auf die Überweisungen an das NHS-Programm "Talking Therapies for Anxiety and Depression" auswirkte. Dabei handelt es sich um eine Reihe von evidenzbasierten psychologischen Therapien für Erwachsene mit Angststörungen, Depressionen oder beidem.

Die Studie untersuchte Daten von 129.400 Personen, die Websites besuchten, um sich an 28 verschiedene NHS-Dienste für Gesprächstherapien in ganz England zu wenden. Die eine Hälfte davon nutzte den Chatbot auf ihrer Website, die andere Hälfte andere Methoden zur Datenerfassung wie Webformulare. Die Zahl der Überweisungen von Diensten, die den Limbic-Chatbot nutzten, stieg während des dreimonatigen Studienzeitraums um 15 Prozent, verglichen mit einem Anstieg der Überweisungen um 6 Prozent bei Diensten, die ihn nicht nutzten. Die Überweisungen von Menschen aus Minderheitengruppen, einschließlich ethnischer und sexueller Minderheiten, stiegen signifikant an, wenn der Chatbot zur Verfügung stand – etwa 179 Prozent bei Menschen, die sich als nicht-binär identifizieren, 39 Prozent bei asiatischen Patienten und 40 Prozent bei schwarzen Patienten.

Entscheidend ist, so die Autoren des Berichts, dass die höhere Zahl der Patienten, die überwiesen wurden, nicht zu einer Verlängerung der Wartezeiten oder zu einer Verringerung der Zahl der durchgeführten klinischen Bewertungen führte. Das liegt daran, dass die detaillierten Informationen, die der Chatbot sammelte, den Zeitaufwand für die Beurteilung der Patienten durch menschliche Ärzte verringerte, während gleichzeitig die Qualität der Beurteilungen verbessert und andere Ressourcen freigesetzt wurden. Es sei zu bedenken, dass ein interaktiver Chatbot und ein statisches Webformular sehr unterschiedliche Methoden der Informationserfassung sind, betont John Torous, Direktor der Abteilung für digitale Psychiatrie am Beth Israel Deaconess Medical Center in Massachusetts.

Besucher der Chatbot-fähigen Websites wurden mit einem Pop-up begrüßt, in dem erklärt wurde, dass Limbic ein Roboterassistent ist, der ihnen helfen soll, psychologische Unterstützung zu erhalten. Im Rahmen eines ersten evidenzbasierten Screening-Prozesses stellt der Chatbot eine Reihe von Fragen, unter anderem ob bei dem Patienten langfristige medizinische Probleme oder frühere Diagnosen von Fachleuten für psychische Gesundheit vorliegen. Anschließend werden mehrere Fragen gestellt, um die Symptome gängiger psychischer Probleme und Ängste zu messen, wobei die Fragen auf die Symptome zugeschnitten sind, die für die Probleme des Patienten am wichtigsten sind.

Der Chatbot verwendet die gesammelten Daten dann, um eine detaillierte Überweisung zu erstellen, die er mit der E-Krankenakte des Dienstes teilt. Ein Mitarbeiter kann dann auf diese Überweisung zugreifen und sich innerhalb weniger Tage mit dem Patienten in Verbindung setzen, um selbst eine Bewertung vorzunehmen und die Behandlung einzuleiten. Der Chatbot von Limbic ist eine Kombination aus verschiedenen Arten von KI-Modellen. Das erste nutzt die Verarbeitung natürlicher Sprache, um die eingegebenen Antworten eines Patienten zu analysieren und angemessene, einfühlsame Antworten zu geben. Probabilistische Modelle nutzen dann die vom Patienten eingegebenen Daten, um die Antworten des Chatbots auf das wahrscheinlichste psychische Problem des Patienten abzustimmen. Diese Modelle sind in der Lage, acht häufige psychische Probleme mit 93 Prozent Genauigkeit zu klassifizieren, so die Autoren des Berichts.

"In gewisser Weise zeigt uns dies, wohin sich das Feld entwickeln könnte – dass es einfacher sein wird, Menschen zu erreichen, um sie zu untersuchen, unabhängig von der Technologie", sagt Torous als an der Studie nicht Beteiligter. "Es stellt sich jedoch die Frage, welche Art von Dienstleistungen wir solchen Personen anbieten und wie wir diese Dienstleistungen zuordnen können. Zumeist erwähnten die Patienten, die den Chatbot genutzt und Limbic dann ein positives Feedback gegeben hatten, dessen Einfachheit und Komfort. Sie sagten auch aus, dass die Überweisung ihnen mehr Hoffnung auf Besserung gab oder ihnen half zu wissen, dass sie nicht allein waren. Nicht-binäre Befragte erwähnten häufiger die nicht-menschliche Natur des Chatbots als Patienten, die sich als männlich oder weiblich identifizierten. Das deutet darauf hin, dass die Interaktion mit dem Bot dazu beitrug, Gefühle der Vorverurteilung, Stigmatisierung oder Angst zu vermeiden, die ein Gespräch mit einer echten Person auslösen könnten.

"Die Tatsache, dass Menschen aus geschlechtlichen, sexuellen und ethnischen Minderheiten, die in der Regel schwer zu erreichen sind, verhältnismäßig häufiger mit dem Bot interagieren, ist ein wirklich spannendes Ergebnis", sagt Ross Harper, Gründer und CEO von Limbic. Er ist auch Mitautor der Studie. "Das zeigt, dass KI in den richtigen Händen ein mächtiges Werkzeug für Gleichberechtigung und Inklusion sein kann."

In Bezug auf einen zunehmenden Fachkräftemangel fügt Harper hinzu: "Es gibt nicht genug Fachleute für psychische Gesundheit, also wollen wir KI nutzen, um die vorhandenen Fachkräfte zu stärken. Diese Zusammenarbeit zwischen menschlichen Fachleuten und KI-Systemen – das ist der Punkt, an dem wir das Ungleichgewicht zwischen Angebot und Nachfrage im Bereich der psychischen Gesundheit wirklich lösen können."

(jle)