Selbstbedienung mit Digitaltechnik

Auf dem Weg zum Psychotherapie-Bot - Teil 3

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Psychotherapie-Software verfolgt grundsätzlich zwei verschiedene Strategien. Einerseits korrigiert sie die negativ verzerrte Wahrnehmung des Nutzers, so wie der Chatbot Woebot penetrant gute Laune verbreitet. Die erklärenden Videos und Gedankenexperimente bei den Online-Therapie vermitteln vor allem eine Botschaft: Sei nicht so hart zu Dir! Tu dir etwas Gutes! Sie lenken den Blick auf die eigenen Ressourcen, die persönlichen "Kraftquellen". Kurz, die Programme üben positives Denken ein, sie hellen die Stimmung auf.

Andererseits aber zeigen sie dem Nutzer auf, wie er sich tatsächlich verhalten und gefühlt hat. So schickt Woebot jede Woche eine Graphik, die das "Energielevel" und die Stimmung an einem bestimmten Tag und zu einer bestimmten Uhrzeit verzeichnet. Solche Stimmungskurven stellen die Selbstwahrnehmung auf eine objektivere Grundlage und machen Zusammenhänge erkennbar.

Diese psychologischen Grundlagen stammen aus der Verhaltenstherapie, die zugrundeliegende Theorie heißt Behaviorismus. Kommunikation soll positive Lernprozesse auslösen, positives Verhalten wird eingeübt. Die Systeme klären auf über die Erkrankung, vermitteln Wissen über typische Symptome, Verläufe und wirksame Gegenmittel. Der Fachbegriff dafür lautet "Psychoedukation". Eine solche Wissensvermittlung funktioniert natürlich auch übers Internet und ohne menschliches Zutun.

Aber beeindrucken sie die Patienten ebenso wie ein menschlicher Behandler? Schreiben sie ihnen eine vergleichbare Autorität zu? Die automatisierte Psychotherapie kommt an ihre Grenzen, wenn die sogenannte "therapeutische Beziehung" und das "klinische Urteil" entscheiden. Kritische Psychologen weisen deshalb darauf hin, dass gerade neurotische Patienten sich durchaus selbst betrügen und mit ihren Selbstdiagnosen falsch liegen können.

Eine wichtige Aufgabe von Therapeuten ist schließlich, tiefer liegende Probleme und unangenehme und peinliche Ereignisse ins Bewusstsein zu heben. In der Psychologie ist oft die Rede von der "therapeutischen Allianz" zwischen Patient und Behandler, was, salopp gesagt, bedeutet: Die beiden Seiten ziehen am selben Strang, vertrauen einander und arbeiten gemeinsam an der Heilung. In welchen Fällen Computerprogramme und künstliche Intelligenzen diese Funktion erfüllen, ist unklar.

Wahrscheinlich gilt für die Internet-Psychotherapie das gleiche wie für die Internet-Lehre bei den MOOCs: Je schwieriger das Problem, umso schneller sind die Nutzer mit Selbstbedienung überfordert!

Viel Forschung für Gefühlserkennung

"Klinisches Urteil" bedeutet: die Aussagen der Patienten kritisch prüfen und objektivieren. Vielleicht sind KI-gestützte Programme bald in der Lage, solche klinische Urteile zu erzeugen. Jedenfalls widmen sich gegenwärtig Heerscharen von Wissenschaftlern diesem Problem, und für seine Lösung werden hohe Summen ausgegeben. "Emotionserkennung per Software" ist das wohl wichtigste und dynamischste Forschungsthema in der KI. Keine Woche vergeht, ohne dass ein neues Forschungsprojekt für die "Emotionsklassifizierung" oder "Sentiment-Analyse" aus der Taufe gehoben wird.

Wieder ist der Grund dafür ein ökonomischer und hat mit Rationalisierung zu tun. Soziale Dienstleistungen - beispielsweise im Einzelhandel, der Werbung und Beratung, aber auch in der bezahlten Sorgearbeit - können nur dann Computern überantwortet werden, wenn diese die Absichten und Gefühle der Kunden einigermaßen zuverlässig herausfinden. Die automatische Emotionserkennung ist daher eine Voraussetzung für die Automatisierung von Interaktionsarbeit, konkret: für Verkaufsroboter bei Media-Markt, Chatbots in der Kundenhotline und Pflegeroboter im Altersheim.

Die automatische Emotionserkennung stützt sich auf diverse Sensoren. Mit optischer Bildererkennung mittels Digitalkameras werden aus der menschlichen Mimik und Gestik Gefühlszustände abgeleitet (so die Lehrroboter im Rahmen des EU-Forschungsverbunds EMOTE), auch der deutsche "Exzellenzcluster" Cognitive Interaction Technology CITEC". Auch die Wortwahl wird analysiert, so wie es der Chatbot-Therapeut Woebot oder auch die bekannte IBM-Software Watson tut.

Eine reiche Datenquelle für die inneren Zustände der Sprecher ist gesprochene Sprache, ihre Intonation und Sprechgeschwindigkeit. Ein Beispiel, das mehrere Sensoren verbindet, ist "Radar CNS". In diesem Forschungsverbund wurde beispielsweise eine Monitoring-Software entwickelt, die die Zahl der Lacher am Tag, das Bewegungs- und Kommunikationsverhalten analysiert, um frühzeitig Depressionen zu erkennen.

Das nächste Ziel sind "emotionale Agenten", konkret: die Simulation von menschlichen Emotionen. Wenn die Systeme erst in der Lage sind, Gefühlszustände zu klassifizieren, so die Idee, dann können sie diese Zustände auch zeigen. Roboter suchen Blickkontakt. Ein Interaktionsroboter, der etwa mit einem gelangweilten Menschen zu tun hat, kann einen Witz machen. Bei einem ängstlichen Menschen kann er lächeln oder den räumlichen Abstand vergrößern. Bei einem Gegenüber, der seine Intention offensichtlich nicht versteht, kann er langsamer sprechen und seine Botschaft wiederholen.

Kurz, die Apparate sollen in die Lage kommen, sich an die gegebene Kommunikationssituation anzupassen. Die Forscher arbeiten deshalb einerseits am sensorischen Input und dessen Analyse, andererseits an der Gestaltung der Computer-Schnittstellen. Die Avatare, Roboter, Sprach- und Textassistenten sollen "überzeugend" wirken - nicht unbedingt Sympathien wecken, aber wenigstens den Nutzern nicht allzu sehr auf die Nerven fallen.