Scanner für Gefühle

Computer lernen, menschliche Emotionen zu lesen. Ärger etwa erkennen sie bereits in rund 80 Prozent der Fälle. Aber will man das wirklich?

In Pocket speichern vorlesen Druckansicht
Lesezeit: 2 Min.
Von
  • Christian J. Meier

Computer lernen, menschliche Emotionen zu lesen. Ärger etwa erkennen sie bereits in rund 80 Prozent der Fälle. Aber will man das wirklich?

Heute arbeiten Maschinen rein logisch. Aber wir sind emotional“, sagte Patrick Levy Rosenthal jüngst dem Technik-Magazin „Wired“. „Es ist wichtig, dass Maschinen den Menschen auf einer emotionalen Ebene verstehen.“ So wirbt der britische Erfinder für seine Konsole EmoSpark, die er per Crowdfunding finanzieren will. Sie soll aus der Mimik und den Eingaben von Smartphone- oder Laptop-Nutzern Emotionen wie Freude, Trauer oder Wut lesen und darauf reagieren, etwa indem sie aufheiternde Musik abspielt.

Was wie eine Spielerei eines ehrgeizigen IT-Tüftlers wirkt, zielt tatsächlich auf ein Problem ab: das der zunehmenden Allgegenwart von Computern, die immer mehr Menschen ersetzen. Wie aber soll der virtuelle Assistent entscheiden, ob er Anrufe zum Chef durchstellen soll, ohne dessen Stresslevel zu kennen? Wie kann das sensorengefüllte „intelligente“ Haus auf die stimmungsabhängigen Bedürfnisse seiner Bewohner eingehen? Werden Menschen sich von der Maschinenmenge bedrängt fühlen, die nicht spürt, wenn sie ihre Ruhe haben wollen?

„Emotion ist ein untrennbarer Teil von Intelligenz“, pflichtet auch Felix Burkhardt von der Deutschen Telekom bei. Fakten würden leicht missverstanden, wenn die emotionale Ebene nicht mit angesprochen wird, so der Experte für Mensch-Maschine-Dialog. Allein die Betonung des Gesagten könne den Inhalt in sein Gegenteil umkehren. Gefühle seien ein starker Kommunikationskanal.

Nun wollen Forscher ihn auch für Maschinen öffnen. Eine Software der US-Firma Affectiva etwa liest aus Webcam-Bildern, wie Werbespots beim Publikum ankommen. Sie unterscheidet ein echtes Lächeln von einem falschen, indem sie außer dem Mund noch die Augen in die Analyse einbezieht. Anhand der Lage von 24 Punkten im Gesicht ermittelt sie zudem Überraschung (angehobene Augenbrauen), Abneigung (Stirnrunzeln und Falten um die Nase) sowie Konzentration (Stirnrunzeln, das nicht von Abneigung begleitet ist). Doch welche Rolle empathische Computer wirklich einmal spielen werden, hängt davon ab, wie zuverlässig sie Stimmungen oder Affekte erfassen. Ein Assistenzsystem, das Fluglotsen per Gestenerkennung, Eye-Tracking und Mausbewegungen beobachtet und ihre Aufmerksamkeit bei Stress auf mög-liche Gefahren lenkt, darf sich deutlich weniger Irrtümer erlauben als eine empathische Figur in einem Computerspiel.

(jlu)