Datenschutz fürs Gehirn: Was tun, wenn Maschinen bald Gedanken lesen können?

Brauchen wir neue Regeln, um unsere kognitive Freiheit vor Maschinen zu schützen? Ja, sagt Zukunftsforscherin und Rechtsethikerin Nita Farhany.

In Pocket speichern vorlesen Druckansicht 15 Kommentare lesen
Ai(artificial,Intelligence),Concept.,3d,Rendering.

(Bild: metamorworks / Shutterstock.com)

Lesezeit: 11 Min.
Von
  • Jessica Hamzelou
Inhaltsverzeichnis

Nita Farahany ist Zukunftsforscherin und Rechtsethikerin an der Duke University in Durham, North Carolina. Sie hat einen Großteil ihrer Karriere damit verbracht, die Auswirkungen neuer Technologien zu erforschen – insbesondere solcher, mit denen versucht wird, unser Gehirn besser zu verstehen oder sogar zu ändern.

In den letzten Jahren war zu erleben, wie Neurotechnologien aus den Forschungslabors in die Praxis umgesetzt wurden. So haben Schulen bereits Geräte zur Überwachung der Gehirnaktivität von Kindern eingesetzt, um festzustellen, ob sie aufmerksam sind. Oder Polizeibehörden erwägen, Systeme zu nutzen, die kontrollieren sollen, ob jemand verdächtig ist oder nicht. Auch Arbeitgeber interessieren sich dafür, um sicherzustellen, dass ihre Mitarbeiter stets wach und produktiv sind.

All diese Verfahren versprechen uns ganz neue Einblicke in unsere eigene Psyche. Doch die Daten unseres Gehirns sind wertvoll – und es könnte gefährlich sein, sie in die falschen Hände geraten zu lassen, argumentiert Farahany in ihrem neuen Buch "The Battle for Your Brain" ("Der Kampf um Ihr Gehirn"). Im Interview mit MIT Technology Review spricht die Zukunftsforscherin über das, was uns erwartet.

In Ihrem Buch beschreiben Sie, wie Technologien, die unsere Gehirndaten sammeln und untersuchen, eingesetzt werden könnten – zum Guten und zum Schlechten. Was kann man aus den Daten des Gehirns eines Menschen heute herauslesen?

Wenn ich von Gehirndaten spreche, meine ich den Einsatz von EEG (Elektroenzephalografie), fNIRS (funktionelle Nahinfrarotspektroskopie), fMRI (funktionelle Magnetresonanztomographie), EMG (Elektromyografie) und anderen Verfahren, die biologische, elektrophysiologische und andere Funktionen des menschlichen Gehirns erfassen. Die dafür verwendeten Geräte sammeln in der Regel Daten aus dem gesamten Gehirn und man kann dann mit Hilfe von Software versuchen, ein bestimmtes Signal herauszufiltern.

Hirndaten sind aber keine Gedanken. Man kann sie jedoch nutzen, um Rückschlüsse darauf zu ziehen, was im Kopf einer Person vorgeht. Es gibt Gehirnzustände, die man entschlüsseln kann: Etwa müde, aufmerksam, abschweifend, engagiert, gelangweilt, interessiert, glücklich oder traurig. Man könnte darüber dann herausfinden, was die Person denkt oder fühlt, ob sie hungrig ist, ob sie liberal oder konservativ ist.

Man kann auch die Reaktionen einer Person aufgreifen und versuchen, das Gehirn nach Informationen zu durchforsten und herauszufinden, was in ihrem Gedächtnis oder in ihren Denkmustern gespeichert sein könnte. Man kann Testpersonen Zahlen zeigen, um ihre PIN-Nummer schrittweise herauszufinden. Oder Bilder von politischen Kandidaten, um festzustellen, ob sie eher positiv oder negativ reagieren. Man kann die Voreingenommenheit, aber auch inhaltliches Wissen einer Person abfragen, etwa die Kenntnis eines Tatorts oder eines Passworts.

Bislang wissen die meisten Menschen nur durch medizinische Untersuchungen, dass es solche Gehirndaten gibt. Unsere Gesundheitsdaten sind grundsätzlich geschützt. Aber was ist mit den von Consumer-Produkten gesammelten Gehirndaten?

Ich habe das Gefühl, dass wir hier an einen Wendepunkt gekommen sind. In diesem Jahr und in den nächsten zwei Jahren kommen aus diesem Bereich viele Endkundengeräte auf den Markt. Es gab enorme Fortschritte bei der Künstlichen Intelligenz, die es uns ermöglicht, die Gehirnaktivität zu entschlüsseln. Und auch bei der Miniaturisierung von Elektroden, die es den Herstellern ermöglicht, sie sogar in Ohr- und Kopfhörer einzubauen. Weiterhin gab es erhebliche Investitionen von großen Technologieunternehmen in dem Bereich. Ich glaube, dass diese Verfahren bald allgegenwärtig sind.

Bislang ist es ja so: Die einzige Person, die im Moment Zugang zu Ihren Gehirndaten hat, sind Sie selbst, und sie werden nur in der internen "Software" Ihres Gehirns ausgewertet. Aber sobald Sie sich ein solches Gerät auf den Kopf setzen, teilen Sie diese Daten sofort mit dem Hersteller des Geräts und dem Anbieter einer Plattform. Sie könnten letztlich auch an die Regierung oder den Arbeitgeber weitergegeben werden, falls man Ihnen darüber eine solche Hardware zur Verfügung gestellt hat.

Ist das grundsätzlich schlecht?

Für den Einzelnen bedeutet es eine Veränderung, wenn er Zugang zu seinen eigenen Gehirndaten hat – und das ist zunächst gut. Das Gehirn war immer ein scheinbar unantastbarer und unzugänglicher Bereich unseres Körpers. Und plötzlich liegt es in den Händen des Einzelnen, zuzugreifen. Die Beziehung, die wir zu uns selbst haben werden, wird sich verändern. Wenn Wissenschaftler und Forscher Zugang zu diesen Daten haben, könnten sie ihnen helfen, Funktionsstörungen des Gehirns besser zu verstehen, was zur Entwicklung neuer Therapien für neurologische und psychische Erkrankungen führen könnte. Problematisch ist also nicht die Erhebung oder Herstellung der Daten, sondern ihre Verwendung zum Schaden von Einzelpersonen, einem Kollektiv oder einer Gruppe. Das Problem ist, dass dies sehr schnell geschehen könnte.

Eine autoritäre Regierung, die Zugang zu solchen Daten hat, könnte sie zum Beispiel dazu verwenden, um Menschen zu identifizieren, die sich nicht so politisch engagieren wie gewünscht. Das ist ein ziemlich akuter und ernsthafter Missbrauch solcher Informationen. Oder man könnte versuchen, Menschen zu identifizieren, die neurodivers sind, sie diskriminieren oder ausgrenzen. Am Arbeitsplatz könnten sie entmenschlicht werden, indem man sie einer Neuroüberwachung unterwirft. All das wäre plötzlich möglich.

Einige Consumer-Produkte aus dem Bereich, etwa Stirnbänder und Ohrhörer, die angeblich die Gehirnaktivität messen und Nutzer so entstressen sollen, wurden von einigen Wissenschaftlern als Spielerei abgetan.

Das ist richtig. Die eingefleischten Brain-Computer-Interface-Fans (BCI), die an implantierbarer Hardware arbeiten, um die Gesundheit zu revolutionieren oder zumindest zu verbessern, sagen, dass man damit nicht sehr viele echte Informationen aufzeichnen kann. Das Signal wird verzerrt, zum Beispiel durch Muskelzuckungen und die Haare. Das heißt aber nicht, dass es kein Signal gibt, das man auswerten könnte. Es gibt immer noch interessante Dinge, die bedeutsam sind. Ich denke, wer das nur abtut, macht das auf eigene Gefahr. Man weiß nie, was auf dem Gebiet passiert, es gibt schnelle Fortschritte.