Der verständnisvolle Computer

Forscher wollen per Hirnscanner ermitteln, wie sich der Mensch vor dem Rechner fühlt. Wird er zu sehr gestresst, nimmt ihm der Rechner Arbeit ab.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Lesezeit: 4 Min.
Von
  • Kate Greene

Forscher wollen per Hirnscanner ermitteln, wie sich der Mensch vor dem Rechner fühlt. Wird er zu sehr gestresst, nimmt ihm der Rechner Arbeit ab.

Gespräche zwischen Menschen bestehen aus viel mehr als nur Worten. Zahlreiche visuelle und auditive Signale zeigen dem jeweiligen Gegenüber, wie sich der Kommunikationspartner fühlt. Nur so ist eine produktive Interaktion möglich.

Doch hochgezogene Augenbrauen, gestikulierende Hände oder ein breites Lächeln sind Dinge, die ein Computer nicht versteht. Forscher am MIT und der Tufts University experimentieren nun mit einer Methode, die Rechnern etwas mehr Einblick ins Innenleben des Menschen geben sollen, um diesem besser dienen zu können.

Ihr System nennt sich Brainput und ist darauf spezialisiert, zu erkennen, wann die Arbeitsbelastung einer Person zu stark wird. Dann soll sich die Computerschnittstelle automatisch verändern, um es dem Benutzer einfacher zu machen. Als Sensor dient dabei ein Hirnscanner, der nach dem Prinzip der funktionellen Nahinfrarotspektroskopie (fNIRS) arbeitet. Mit dieser Technik lässt sich die neuronale Aktivität des Gehirns messen. Das Ergebnis des über fNIRS durchgeführten Hirnscans wird an eine Software übermittelt, die die Arbeitsbelastung bei Bedarf automatisch senken kann. Ein Rechner mit Brainput könnte seinem Benutzer also beispielsweise eine Pause gönnen, wenn es notwendig erscheint.

Das fNIRS-Verfahren ist nicht die einzige Möglichkeit, zu erkennen, ob die mentale Arbeitsbelastung einen Nutzer überfordert. Die Software könnte auch Tippfehler oder die Tippgeschwindigkeit überprüfen und über ein Bilderkennungssystem den Gesichtsausdruck überwachen. Doch all diese Methoden halten die Forscher für zu indirekt. "Brainput versucht, näher an die Quelle heranzukommen, indem es direkt auf die Hirnaktivität schaut", sagt Erin Treacy Solovey, Postdoc am MIT, die die Ergebnisse auf der Computer Human Interaction Conference in Austin im US-Bundesstaat Texas präsentierte.

In einem Experiment kombinierten Treacy Solovey und ihr Team Brainput mit einem Spiel. Dabei mussten die Versuchspersonen, deren Hirnaktivität über ein fNIRS-Headset ständig überwacht wurde, zwei Roboter durch ein Labyrinth steuern. Ziel des Spiels war es, jeweils einen bestimmten Platz zu erreichen, an dem das WLAN-Signal stark genug war, um eine Nachricht zu senden. Die Aufgabe wurde dadurch erschwert, dass dauernd zwischen beiden Robotern umgeschaltet wurde. Die Teilnehmer verloren so langsam den Überblick und steuerten die Roboter oft in Wände hinein.

Während des Spiels wurde die Arbeitsbelastung ständig über die fNIRS-Hirnscanner überwacht und von einer Software analysiert. Dabei ging es insbesondere um den Zustand des sogenannten Branching. Dieser tritt ein, wenn eine Person simultan an zwei Aufgaben arbeitet, die eigentlich ihre volle Aufmerksamkeit verlangen. (Frühere Studien korrelierten bestimmte fNIRS-Signale mit der Branching-Aktivität.) Sobald das System ein Branching erfasste, wurde die Steuerung der Roboter leichter – sie übernahmen einen Teil der Navigation selbst.

Die Wissenschaftler fanden heraus, dass dieser autonome Modus der Roboter die Gesamtleistung des Roboter-Mensch-Teams verbesserte. Die Versuchspersonen störte die automatische Steuerung dabei nicht – sie nahmen sie nicht einmal wahr, während sie mit ihrem Multitasking beschäftigt waren. Die Forscher versuchten außerdem, das autonome Verhalten der Roboter zu verstärken, wenn Brainput kein Branching feststellte. Dies half allerdings wenig – die Leistung wurde schlechter. Die Automatik war immer nur dann wirklich hilfreich, wenn der Nutzer auch Probleme hatte.

"Ein großer Teil der Interaktionsforschung zwischen Mensch und Computer konzentriert sich derzeit darauf, Software zu schaffen, die den menschlichen Intellekt implizit oder explizit unterstützen kann", sagt Desney Tan von Microsoft Research. Dabei komme es aber darauf an, die Bedienschnittstelle möglichst dynamisch anzupassen. "Diese Arbeit ist ein wunderbarer erster Schritt hin zu einem Verständnis dafür."

Treacy Solovey sieht Einsatzmöglichkeiten für Brainput beispielsweise im Auto, im Flugzeug oder bei der Steuerung unbemannter Drohnen – überall dort, wo zu viele Informationen auf den Nutzer einströmen. Nach dem mentalen Stress will sie nun auch andere Formen der Gehirnaktivität einbeziehen, die sich mit fNIRS verlässlich erfassen lassen. (bsc)