Depressionen übers Smartphone erkennen? Was von Apples Ansatz zu halten ist

Apple arbeitet daran, Depressionen per iPhone und Apple Watch zu erkennen. Doch Rückschlüsse vom Gesichtsausdruck auf Emotionen sind komplexer.

In Pocket speichern vorlesen Druckansicht 47 Kommentare lesen
Apple will per Smartphone Depressionen frühzeitig erkennen

(Bild: Sam Wordley/Shutterstock.com)

Lesezeit: 6 Min.
Von
  • Boris Hänßler
Inhaltsverzeichnis

Wenn Menschen depressiv sind, verändert sich die Tonlage ihrer Stimme – sie sprechen tiefer, eintöniger und auch leiser. Sie machen mehr Pausen als üblich, und ihre Stimmbänder sind angespannt. Das Sprechen klingt entsprechend angestrengt. Einige depressive Patienten haben Schwierigkeiten, ihre Zunge zu koordinieren, ebenso wie ihre Atmung. Das kann zu einem leichten Lallen führen.

Apple möchte künftig diese und weitere Anzeichen dafür nutzen, um mit iPhones und Apple Watch Depressionen frühzeitig zu erkennen, so berichtet das Wall Street Journal unter Berufung auf Firmen-interne Dokumente und Gespräche mit Apple-Insidern. Ziel ist zum einen, eine Volkskrankheit zu mindern: Allein in Deutschland geben – je nach Umfrage – zwischen 8 und 10 Prozent der Frauen und 6 bis 8 Prozent der Männer an, in den letzten zwölf Monaten die Diagnose einer Depression erhalten zu haben. Umgerechnet sind dies hierzulande mehr als fünf Millionen Menschen, in den USA sogar etwa 15 Millionen.

Relevant sind dafür Informationen wie Gesichtsausdrücke, die Art des Sprechens und das Tippverhalten, aber auch Bewegungsabläufe, Schlafmuster, Herz- sowie Atemfrequenz. In Zusammenarbeit mit Wissenschaftlern der University of California, Los Angeles (UCLA) liefern Teilnehmerbefragungen und Haarpoben weitere Informationen. Die Forscher hoffen, dass solche Daten ausreichen, um maschinellen Lernsysteme zu trainieren, die dann später mit der Sensorik in den Geräten auskommen.

Doch psychische Erkrankungen per mobilem Gerät zu erkennen, ist sehr komplex. Ein Teil der angewandten Technologien, etwa die Analyse von Gesichtsausdrücken, entstammen einer Forschungsrichtung, die Affective Computing genannt wird. Ihren Ursprung hat sie unter anderem in den Theorien des Psychologen Paul Ekman, ehemals Professor an jener Universität in Kalifornien, mit der Apple nun kooperiert. Ekman versuchte in seinen Experimenten zu belegen, dass der Gesichtsausdruck bei Emotionen universell ist und somit von Menschen oder Maschinen entsprechend interpretiert werden kann. Der Psychologe ging sogar soweit zu behaupten, dass er Lügen anhand sogenannter Mikroexpressionen – Gesichtsausdrücke, die nur für einen winzigen Moment auftauchen – entlarven könne.

Ekmans Forschungen inspirierte dennoch viele Tech-Start-Ups. Insbesondere Affectiva, eine Ausgründung des MIT, hat sich in diesem Bereich einen Namen gemacht. Die Firma entwickelt Systeme, die Emotionen mithilfe von Deep Learning-Verfahren identifizieren. Eine der ersten Anwendungen war eine Augmented Reality-Brille für Kindern mit Autismus. Die Brille gibt den Trägern Hinweise darauf, wie sie auf nonverbale Signale wie Lächeln oder Stirnrunzeln reagieren können. Die Technologie wurde 2017 vorgestellt - man konnte sie in Google Glass integrieren.

Um solche KI-Systeme zu trainieren, hat das Unternehmen nach eigenen Angaben "die größte Emotionsdatenbank der Welt" aufgebaut. In ihr sind mehr als zehn Millionen Gesichtsausdrücke von Menschen aus 87 Ländern gespeichert. Die Videos wurden von Crowd-Workern in Kairo manuell mit Metatdaten versehen. Affectiva hat damit eine Vielzahl von Anwendungen entwickelt: Eine erkennt die Schläfrigkeit und kognitive Belastung bei Autofahrern – auf Grundlage einer zeitlichen Analyse der Blinzelrate. Die Firma hat zudem ein Patent auf ein System angemeldet, das Video- und Audioinhalte basierend auf den Emotionen sämtlicher Fahrzeuginsassen empfiehlt. Dafür wertet die KI Gesichtsausdrücke, Lautstärke und Tonfall der Stimme, verwendete Wörter, Herz- und Atemfrequenz sowie weitere von Kameras, Mikrofonen und anderen Sensoren erfasste Informationen aus. Personalisierte Empfehlungen für Musik, Videos oder Hörspiele würden das Fahrerlebnis verbessern und zudem biete es Autoherstellern und Werbetreibenden mehr Möglichkeiten zur Monetarisierung, so heißt es. Affectiva versteht die Technik offenbar als eine universellen Fitness-Tracker für emotionales Wohlbefinden.

Auch Softbank, IBM und Unilever nutzen vergleichbare Analysen, um vorherzusagen, ob ein Stellenbewerber zu ihnen passt. Unternehmen wie Empath in Japan oder Cogito in Boston entwickeln Anwendungen für Callcenter, um die Stimmung der Mitarbeiter in Echtzeit zu überwachen. In China erfasst eine Software in Schulen den Konzentrationsgrad der Schüler. Nicht zuletzt arbeitet auch die Forschungs- und Entwicklungsabteilung von Amazon, Lab126, daran, Depressionen zu erkennen – mithilfe eines sprachaktivierten, am Handgelenk tragbaren Biosensors.

Wie gut diese Technologien funktionieren, ist ein strittiges Thema. Forscher der Universität Göttingen konnten 2020 nachweisen, dass Affectivas Emotions-Erkennung mit der Elektromyografie, bei der die elektrische Muskelaktivität gemessen, wird, vergleichbar ist. Dennoch gibt es auch Kritik. Die Autorin Kate Crawford hat in ihrem Buch "Atlas of AI" zum Beispiel die Tragbarkeit der emotionalen Gesichtserkennung massiv angezweifelt. Eine an der Universität von Maryland durchgeführte Studie habe gezeigt, dass manche Gesichtserkennungssoftware schwarze Gesichter etwa negativer interpretiert als weiße – als wütender und verächtlicher. Psychologen und Kognitionswissenschaftler, darunter Lisa Feldman Barrett von der Northeastern University in Boston, haben zudem Paul Ekmans Daten neu analysiert und seine Schlussfolgerungen in Frage gestellt. Sie gehen davon aus, dass der Zusammenhang von Emotionen und Mimik komplexer ist und diese zudem nach Kontext und Kultur stark variiert.

Apple bemüht sich deshalb, neben der Gesichtserkennung möglichst viele weitere Faktoren einzubeziehen, und es gibt eine Reihe von Studien, die vielversprechend sind, wenn es um die Erkennung von Depressionen geht. Jedoch sind auch diese mit Vorsicht zu genießen. Wie jedes Laborexperiment könnten computergestützte Studien schlecht konzipiert sein, was die Glaubwürdigkeit der Ergebnisse einschränke, schreibt Alejandra Canales von der Universität Wisconsin in "Massive Science". Viele Studien hätten zu wenige Patienten, um mit Sicherheit eine Wirkung in den Daten zu erkennen, und Wiederholungsstudien seien selten. Auch mangele es an Standards bei der Daten-Auswertung, was Raum für Spekulationen lasse. Nicht zuletzt seien bereits die Diagnoseinstrumente der American Psychiatric Association zur Messung des Schweregrads der Depression umstritten – auch sie ließen Spielraum zur Interpretation. Je nach Studie erhalten derzeit zwischen 50 und 70 Prozent der depressiven Patienten eine falsche Diagnose. Umso mehr wäre dies ein Grund, die Ärzte mit neuen Tools zu unterstützen. Aber die Technik ist letzten Endes noch nicht reif genug.

(jle)