KI-Chatbot: Ello soll Denkmuster hinterfragen und nicht nur zustimmen

Ello ist ein psychologischer KI-Begleiter, der das seelische Wohlbefinden verbessern soll. Er soll Denkmuster seiner Nutzer hinterfragen.

vorlesen Druckansicht 2 Kommentare lesen
Frau mit einem Smartphone in der Hand

(Bild: Fabrizio Misson / Shutterstock.com, Bearbeitung heise medien)

Lesezeit: 7 Min.
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

HelloBetter, ein Anbieter für digitale Gesundheitsanwendungen (DIGA), hat den KI-Chatbot Ello entwickelt. Dieser richtet sich an Menschen, die ihr seelisches Wohlbefinden stärken möchten. Im Gespräch mit heise online erklärt Dr. Elena Heber, Chief Clinical Officer und Mitgründerin des Unternehmens, was Ello von ChatGPT und Co. abgrenzt.

Heber ist seit Jahren für Produkte der digitalen psychischen Gesundheitsversorgung bei HelloBetter zuständig, das inzwischen sechs DiGA auf den Markt gebracht hat. Aktuell arbeitet sie vor allem an der Entwicklung des KI-gestützten Begleiters, der evidenzbasierte psychologische Unterstützung niedrigschwellig zugänglich machen soll.

heise online: Warum haben Sie Ello auf den Markt gebracht?

Elena Heber: Wir beobachten seit Jahren, dass Menschen bei alltäglichen Belastungen oder Beziehungsproblemen vermehrt mit Sprachmodellen sprechen. Das ist oft unsicher, weil der Verbleib der Daten unklar ist. Zudem neigen diese Modelle dazu, dem Nutzer häufig zuzustimmen und alles zu validieren. Mit Ello wollen wir einen anderen Weg gehen: Wir möchten Denkmuster und Verhaltensweisen auch hinterfragen. Der Chatbot verfolgt das Ziel, nicht immer nur zuzustimmen, sondern Verhaltensweisen konstruktiv zu hinterfragen.

Dr. Elena Heber verantwortet die psychotherapeutischen Inhalte von HelloBetter, leitet klinische Forschungsprogramme und steuert als Geschäftsführerin strategische Initiativen für innovative Versorgungslösungen.

(Bild: HelloBetter)

Welche Chancen und Risiken sehen Sie, insbesondere im Hinblick auf eine mögliche Abhängigkeit?

Ein KI-Wegbegleiter schafft natürlich eine andere Distanz als ein menschlicher Coach. Dazu gibt es bisher noch wenig Forschung, aber das wollen wir ändern. Wir wissen, dass es da einen Unterschied gibt. Die Verfügbarkeit rund um die Uhr ist eine große Chance, denn Ello ist auch dann da, wenn andere Hilfsangebote nicht verfügbar sind, etwa um zwei Uhr nachts. Wenn Ello erkennt, dass jemand beispielsweise stark mit Einsamkeit zu kämpfen hat, versucht der Chatbot mit psychologischen Techniken darauf hinzuwirken, dass die Person sich wieder um ihr soziales Netzwerk wie Freunde und Familie kümmert. Wir nutzen die Technologie also, um die Menschen wieder in ihren Alltag zu integrieren. Dazu nutzen wir bewährte Strategien aus der Psychologie.

Videos by heise

Für mich steht in der Produktentwicklung immer die Zielstellung im Vordergrund: die Verbesserung des Wohlbefindens. Ob eine gewisse Regelmäßigkeit, die man als „Abhängigkeit“ bezeichnen könnte, einen negativen oder positiven Einfluss hat, ist ein fließender Bereich. Wenn wir sehen würden, dass sich jemand aufgrund der Nutzung zurückzieht, kann Ello das thematisieren. In der randomisiert-kontrollierten klinischen Studie, die wir im ersten Quartal des nächsten Jahres beginnen, werden wir auch die Beziehung zu Ello erfassen. Mit einem validierten Fragebogen, der auch ein Item wie „Ich fühle mich abhängig von...“ enthält, können wir dann eine verlässliche Aussage darüber treffen, wie sich diese Beziehung gestaltet.

KI-Begleiter "Ello" soll fĂĽr ein besseres Wohlbefinden sorgen (4 Bilder)

Ăśberblick ĂĽber vergangene Sitzungen in der Ello-App.

Verzichtet Ello bewusst auf eine zu persönliche Ansprache? Wie ist die Sprache des Chatbots konzipiert?

Wir haben Ello darauf konzipiert, empathischen Kontakt aufzubauen. Wir haben aus wissenschaftlicher Perspektive Konversationskriterien definiert, nach denen Ello agieren soll. Dazu gehören Klarheit, Empathie, Vertrauen, Sicherheit und die Fähigkeit, sich an Gesprächsinhalte zu erinnern. Die Konversationen werden evaluiert, um hilfreiche von weniger hilfreichen Austauschen zu unterscheiden und so die Gesprächsqualität kontinuierlich zu verbessern.

Gibt es Sicherheitsmechanismen, die eingreifen, wenn ein Gespräch in eine kritische Richtung driftet oder wenn eine Person offensichtlich mehr Hilfe benötigt?

Ja, wir nutzen eine mehrschichtige Architektur, in der wir verschiedene Sprachmodelle in einer Multi-Agenten-Struktur kombinieren. Darin sind auch Sicherheitsagenten integriert. Wenn eine Konversation in eine Richtung geht, für die Ello nicht ausgelegt ist, greifen die Sicherheitsmaßnahmen. Ello erkennt dann, dass die Person mehr Unterstützung braucht und schlägt im Gespräch vor, das Thema besser mit einem Menschen zu besprechen. In kritischeren Situationen werden direkt andere Hilfsangebote angezeigt, sodass sich die Person sofort an jemanden wenden kann.

Welche Sprachmodelle stecken dahinter?

Wir haben uns für einen zweigleisigen Ansatz entschieden: Wir arbeiten mit open- und closed-source Modellen als Grundlage und entwickeln parallel unser eigenes Modell. Für uns war es wichtig, zeitnah eine sichere Alternative zu universellen Modellen anzubieten, was mit der Entwicklung eines komplett eigenen Modells von Grund auf nicht möglich gewesen wäre. Mittelfristig planen wir aber, ein eigenes Sprachmodell zu entwickeln, um durch gezielte Optimierung eine noch bessere Performance und Relevanz zu erreichen.

Bei OpenAI gab es kürzlich verärgerte Nutzer, weil eine neue Version als weniger empathisch empfunden wurde. Wie stellen Sie sicher, dass die Qualität von Ello nach Updates nicht leidet?

Das ist ein sehr wichtiger Punkt. Durch unsere modulare, agentenbasierte Architektur können wir bei Modell-Updates einzelne Systemkomponenten isoliert evaluieren. Wir haben auch ein Evaluations-Framework, mit dem wir auf Basis der Konversationen prüfen, ob das System nach einer Änderung besser oder schlechter funktioniert. Experten bewerten die Konversationen anhand verschiedener Skalen und stellen so sicher, dass genau das nicht passiert.

Wie gehen Sie mit den Daten der Nutzer um? Werden die Gespräche zur Auswertung herangezogen?

Als Medizinproduktehersteller haben wir bei HelloBetter sehr viel Erfahrung im Umgang mit Gesundheitsdaten. Alle Daten, die wir erfassen, unterliegen der gleichen Sicherheitsstruktur wie bei unseren digitalen Gesundheitsanwendungen (DiGA). Menschen geben selbstverständlich ihre Zustimmung für die Daten, die sie zur Verfügung stellen. Die Auswertung erfolgt ausschließlich anonymisiert und die Datenübertragung ist Ende-zu-Ende-verschlüsselt. Alles liegt auf europäischen Servern. Darin sehen wir einen großen Vorteil gegenüber Anbietern wie OpenAI, bei denen die Daten in den USA landen. Die Daten werden keinen dritten Parteien zur Verfügung gestellt und dienen ausschließlich der anonymisierten Verbesserung der Qualität von Ello.

Ist geplant, Ello zukĂĽnftig auch als digitale Gesundheitsanwendung (DIGA) anzubieten?

DIGAs sind für diagnostizierte psychische Erkrankungen gedacht. Ello ist für den Wellbeing-Bereich konzipiert, in dem noch keine psychische Diagnose vorliegt. Ob sich diese Technologie auch für Menschen mit einer diagnostizierten Depression eignet, können wir im Moment noch nicht absehen. Wir sammeln jetzt erst einmal Erfahrungen im Bereich Wohlbefinden. Um eine DIGA anzubieten, müsste man ein entsprechendes Medizinprodukt entwickeln.

Wie sieht das Preismodell fĂĽr Ello aus?

Unsere Strategie ist es, das Tool über Arbeitgeber oder Krankenkassen anzubieten, die es wiederum ihren Mitarbeitenden oder Versicherten zur Verfügung stellen. Wir schließen also Verträge mit Unternehmen und Kassen, sodass die Menschen es umsonst nutzen können. Wir haben es zwar auch im App Store verfügbar gemacht (Ergänzung: für 19,99 Euro pro Monat), aber die primäre Strategie ist nicht der direkte Verkauf an den Endkunden.

Viele Krankenkassen haben bereits Präventionsangebote. Sehen Sie da überhaupt Bedarf?

Bei klassischen Angeboten sehen wir oft, dass die Nutzungsrate (Adhärenz) nicht sehr hoch ist oder nur eine bestimmte Zielgruppe – oft Frauen mittleren Alters – anspricht. Wir haben von Krankenkassen sehr positives Feedback bekommen und starten in Kürze ein Pilotprojekt mit einer Kasse, um genau diese Fragen zu klären. Der Präventionsmarkt ist sehr groß und das Potenzial noch lange nicht ausgeschöpft.

(mack)