transmediale: Die wahren Augen von Big Brother

Wearables und Affective Computing sind darauf ausgerichtet, Reaktionen des Körpers und der Psyche zu quantifizieren. Sie versprechen, das Unbewusste greifbar zu machen. Forscher warnen vor neuen Überwachungs- und Manipulationsmöglichkeiten.

In Pocket speichern vorlesen Druckansicht 16 Kommentare lesen
transmediale: Die wahren Augen von Big Brother

Matteo Pasquinelli, Pinar Yoldas und Marie-Luise Angerer (v.l.n.r.)

(Bild: Stefan Krempl)

Lesezeit: 5 Min.
Inhaltsverzeichnis

Die "Quantified-Self"-Bewegung, die eifrig Körperwerte etwa über Fitness-Apps und Diätprogramme auf dem Smartphone nutzt, wächst. Der Verkauf zugehöriger Wearables zieht an. "Die Leute wissen natürlich, dass es dabei zunächst um Kommerz geht", versuchte die Kölner Medien- und Kulturwissenschaftlerin Marie-Luise Angerer den Boom der Selbstvermessung am Samstag auf dem Festival transmediale in Berlin zu erklären. Es sei aber auch immer spannend, "etwas über sich selbst zu erfahren".

Marie-Luise Angerer

(Bild: Stefan Krempl)

Die Menschen hoffen nach Ansicht der Forscherin, dass die mit den mobilen Massenanwendungen erhobenen Daten mehr über einen wissen als sie selbst. Es sei zwar nach wie vor nicht möglich, das Unbewusste zu begreifen. Aber genau das sei das Versprechen des "Quantified Self"-Kults. Dieser vermittle das Gefühl, man könne sich entspannen, denn "jemand anders übernimmt die Kontrolle" und unterstütze einen.

Ob und in welcher Weise das Selbstbildnis von diesen Datenbildern beeinflusst werde, wisse die Forschung noch nicht, führte Angerer aus. Zuvor hatte sie einen Überblick über die Entwicklung von Affective Computing gegeben, bei dem der Rechner auch die Reaktionen des Gehirns und des Gemüts messen, "verstehen" und imitieren lernen soll. Die Grundsteine dafür habe der US-Forscher und Unternehmer Paul Ekman mit seiner Unterscheidung von sieben Basisemotionen gelegt wie Wut, Furcht, Traurigkeit oder Überraschung. Bereits 1965 habe er mit finanzieller Unterstützung des Pentagons Gesichtsausdrücke untersucht und 1978 ein Codierungssystem auch für die maschinelle Gesichtserkennung geschaffen.

Mitte der 1990er prägte Rosalind Picard vom MIT Media Lab den Begriff Affective Computing. Ihr Schwenk sei es dabei gewesen, die damals schon thematisierte Big-Brother-Überwachungskomponente der Technik umzuschwenken auf die "Kleinen Schwestern", die vom Nutzer Daten erbäten und ihm dafür Vorteile versprächen. Von der Jahrtausendwende an seien Systemen, die menschliche Regungen "verstehen" können, vermehrt entwickelt worden; mittlerweile gebe es eine "Ökonomie der Emotionen".

Wie weit die Entwicklung bereits ist, zeigte die Medienkünstlerin und Forscherin Pinar Yoldas auf. Picard selbst mische mittlerweile über ihre Beteiligung beim MIT-Ableger Affectiva bei Entwicklungen wie dem Q Sensor mit, der anhand der Körperwärme emotionale Zustände zu signalisieren suche. Das Unternehmen nenne auch die weltgrößte Datenbank für Gesichtsbilder sein eigen und arbeite mit den Größen der Werbewelt zusammen.

Affectiva selbst wirbt damit, Gemütsregungen live beim Betrachten von Online-Inhalten wie Videos über die Webcam von Rechnern erkennen zu können. Dies helfe dabei, die Angebote besser und emotionaler zu machen. Mit Testpersonen seien bereits über eine Milliarde Videoframes verarbeitet und analysiert worden.

Yodas ergänzte, dass die Firma inzwischen auch ein Entwicklerkit für Google Glass herausgegeben habe. Affectiva setze generell darauf, Produkte über Big-Data-Analysen stärker den Wünschen der Kunden anzupassen. Zu den Produkten, die darauf aufbauen, zähle ein Einkaufswagen mit einem "smarten Griff", der den Pulsschlag oder einen Stopp vor einem Regal erfassen und "Essgewohnheiten" an die Versicherungsgesellschaft übertragen könne. Gearbeitet werde zudem etwa an einem Chip für Emotionen für Smartphones, der unter anderem Gesichtsausdrücke speichere und analysiere.

Als direkten Wettbewerber Affectivas machte die Expertin die kalifornische Firma Emotient aus. Mit deren Software ließen sich Fotos nach emotionalen Zuständen sortieren. Zudem könne damit etwa das Engagement von Computerspielern gemessen werden. Die "wahren Augen" von Big Brother wolle auch das Startup RealEyes auf den Markt bringen: es versuche, unbewusste Reaktionen von Nutzern per Kamera auszumachen. Dahinter stecke auch die Erkenntnis, dass Leute umso bereitwilliger Geld ausgäben, je stärker sie emotional involviert seien.

Matteo Pasquinelli

(Bild: Stefan Krempl)

Derlei neue Technik wolle unter anderem die menschliche Neugier anzapfen und diese absorbieren durch eine erweiterte Form der Maschinenintelligenz, erläuterte der italienische Philosoph Matteo Pasquinelli. Im zweiten Schritt gehe es darum, die Neugier zu formen. Die Datenabstraktion des Menschlichen, die in einer Art "biometrischem Käfig" stattfinde, lasse keinen Verhandlungsspielraum. Immer, wenn das Kartographieren von Affekten verfolgt werde, komme so der Manipulationsaspekt ins Spiel. Noch gelte es aber herauszufinden, ab welchem Punkt die Algorithmen sich einmischten.

Rund um Affective Computing seien noch viele Fragen offen, fügte Angerer an. Das Feld der Technik befinde sich an einer interessanten Kreuzung, an der die Rationalität mit der Gefühlswelt zusammenkomme. Man müsse aber vorsichtig sein und im Blick behalten, wo etwa Fördergelder herkämen und welche Ziele verfolgt würden. Bezeichnend sei, dass im neuen "Oxford Handbook for Affective Computing" nur ein einziger Artikel ethische Aspekte behandle. Letztlich dürfe man nicht vergessen, dass ein Computer immer nur rechne, wie "emotional" er auch rüberkomme. (mho)