KI-Systeme erkennen menschliche Emotionen
Gefühlsecht
Verbesserte Sensorik, die Rechenleistung der Clouds und die Entwicklungsdynamik in Sachen künstlicher Intelligenz erlauben es Softwareentwicklern, eine neue Mensch-Maschine-Schnittstelle zu definieren: die Emotionserkennung.
Das autonome Fahren mag sich vom Alltagsbetrieb auf deutschen Straßen noch eine Weile fernhalten, in den Entwicklungslaboren der Autokonzerne laufen die Selbstfahrer längst auf Hochtouren. Und eine der Kernfragen, die man sich derzeit stellt, ist: Wie fühlt sich autonomes Fahren für den ehemaligen Autolenker und dessen Passagiere an?
Bei Nissan setzen sie täglich einem Dutzend Probanden eine Art überdimensionale Spinne auf den Kopf. Sie soll die Aktivitäten in Gehirnarealen messen und anzeigen. Grob vereinfacht sehen die Forscher ein 3D-Modell eines Gehirns, in dem Farbwolken aufbranden und wieder abklingen. Ist die Wolke rot, dann ist das entsprechende Areal im Gehirn aktiv. Wird aus der roten eine weiße Wolke, deutet das auf Stress hin.
Dieser Stress entsteht beispielsweise, wenn ein Fahrzeug vor einer Kurve „zu spät“ bremst. Um das zu simulieren, werden die Teilnehmer mit VR-Brille in einen Fahrsimulator gesetzt. Fahren dürfen sie aber nicht, nur zuschauen. Kameras erfassen nervöse Zuckungen beim Ex-Fahrer, Mikrofone zeichnen die Modulation der Stimme auf und ein EEG misst die Hirnaktivität. Die Analysesoftware verbindet alle Signale und soll so ein möglichst genaues Bild vom emotionalen Zustand des Probanden liefern (Abbildung 1).
Jeder Beifahrer mit eigener Fahrpraxis hat gelegentlich das Gefühl, dass der Chauffeur falsch agiert. Er fährt zu schnell in dichtem Verkehr, er bremst zu spät oder er lenkt zu scharf. Oder das Gegenteil.
Jeder soll sich rundum wohlfühlen
Die Nissan-Software schlägt Alarm, wenn Grenzwerte überschritten werden. Sie beendet den Versuch und aktualisiert das Fahrprogramm im Simulator. Das System wird sozusagen aufs Wohlfühlen des einzelnen Probanden kalibriert.
Das Erkennen von Gefühlen im Auto ist derzeit der Hauptforschungsbereich für die Emotionsanalyse. Die Fahrzeugbranche hat schon Erfahrung mit den Vorstufen dieser Technik. Seit 2014 besitzen einige Wagen Müdigkeitsdetektoren. Volkswagen war früh dabei mit einem System, das sich veränderndes Fahrverhalten erkennen konnte, zum Beispiel wenn das Auto mehrfach den Rand- oder Mittelstreifen berührte. Inzwischen ist man dazu übergegangen, nicht nur das Fahrzeug, sondern den Fahrer selbst zu vermessen.
Das ist kompliziert und kostet Geld, das dieser Tage gerne in glitzernde Start-ups im Segment Emotional AI investiert wird. Affectiva ist ein solches, entstanden 2009 in Boston als Spin-off des MIT. Dieses KI-Unternehmen gilt als Spezialist im Lesen von Mimik. „Früher war unser System noch sehr grob und hatte Schwierigkeiten mit Gesichtern aus unterschiedlichen Kulturkreisen“, erklärt die Gründerin Rana el Kaliouby (Abbildung 2). Inzwischen scheint das nicht mehr so zu sein. Allerdings braucht die Software immer noch Eingewöhnungszeit, weil Menschen verschieden lächeln. Was beim nörgelnden Schwaben als neutrales Gesicht durchgeht, wäre beim euphorischen Kalifornier Ausdruck tiefen Zorns.
Die Affectiva-Software vermisst zunächst das Gesicht des Zielsubjekts und setzt virtuelle Registrierungspunkte, zum Beispiel an den Augenrändern und Mundwinkeln. Die Bewegung dieser Punkte wird gemessen und daraus entstehen eine Handvoll Kurven in einem Koordinatensystem, eine Art seelischer Seismograf. „Das System kann zum Beispiel erkennen, ob ein Passagier im Fahrzeug die Musik mag, die über die Bordlautsprecher dröhnt“, sagt Kaliouby.
Zur Mustererkennung wurde das Affectiva-System über Jahre mit Bildern von lächelnden und weinenden Menschen gefüttert. Große Gefühle, wie ein müdes Gähnen oder tiefe Zornesfalten, bereiten der Software unter Tageslichtbedingungen kaum noch Schwierigkeiten. Derzeit geht es um das Erkennen feinerer, subtilerer Mimik. Die Ausleuchtung der Situation ist allerdings problematisch. Sind die Konturen im Gesicht des Passagiers nicht gut zu erkennen, dann sieht auch die Software nichts.
Das musste Rana June Sobhany erfahren (Abbildung 3). Sie führt das kalifornische Start-up Lightwave, das sich mit dem gleichen Thema beschäftigt. Sobhany ist Performancekünstlerin und DJane und wollte die Gesichtserkennung nutzen, um die emotionalen Reaktionen ihres Publikums zu messen, während sie auf der Bühne agiert. Von Scheinwerfern geblendet, erkannte sie keine Details mehr. Rana begann damit, Bewegungssensoren im Raum zu verteilen. Viel Bewegung – vulgo Tanzen – gilt als Zustimmung zur Musikauswahl.