zurück zum Artikel

Datenschutz fürs Gehirn: Was tun, wenn Maschinen bald Gedanken lesen können?

Jessica Hamzelou
Ai(artificial,Intelligence),Concept.,3d,Rendering.

(Bild: metamorworks / Shutterstock.com)

Brauchen wir neue Regeln, um unsere kognitive Freiheit vor Maschinen zu schützen? Ja, sagt Zukunftsforscherin und Rechtsethikerin Nita Farhany.

Nita Farahany ist Zukunftsforscherin und Rechtsethikerin an der Duke University in Durham, North Carolina. Sie hat einen Großteil ihrer Karriere damit verbracht, die Auswirkungen neuer Technologien zu erforschen – insbesondere solcher, mit denen versucht wird, unser Gehirn besser zu verstehen oder sogar zu ändern.

In den letzten Jahren war zu erleben, wie Neurotechnologien aus den Forschungslabors in die Praxis umgesetzt wurden. So haben Schulen bereits Geräte zur Überwachung der Gehirnaktivität von Kindern [1] eingesetzt, um festzustellen, ob sie aufmerksam sind. Oder Polizeibehörden erwägen, Systeme zu nutzen, die kontrollieren sollen, ob jemand verdächtig ist oder nicht. Auch Arbeitgeber interessieren sich dafür, um sicherzustellen, dass ihre Mitarbeiter stets wach und produktiv sind [2].

All diese Verfahren versprechen uns ganz neue Einblicke in unsere eigene Psyche. Doch die Daten unseres Gehirns sind wertvoll – und es könnte gefährlich sein, sie in die falschen Hände geraten zu lassen, argumentiert Farahany in ihrem neuen Buch "The Battle for Your Brain" [3] ("Der Kampf um Ihr Gehirn"). Im Interview mit MIT Technology Review spricht die Zukunftsforscherin über das, was uns erwartet.

In Ihrem Buch beschreiben Sie, wie Technologien, die unsere Gehirndaten sammeln und untersuchen, eingesetzt werden könnten – zum Guten und zum Schlechten. Was kann man aus den Daten des Gehirns eines Menschen heute herauslesen?

Wenn ich von Gehirndaten spreche, meine ich den Einsatz von EEG (Elektroenzephalografie), fNIRS (funktionelle Nahinfrarotspektroskopie), fMRI (funktionelle Magnetresonanztomographie), EMG (Elektromyografie) und anderen Verfahren, die biologische, elektrophysiologische und andere Funktionen des menschlichen Gehirns erfassen. Die dafür verwendeten Geräte sammeln in der Regel Daten aus dem gesamten Gehirn und man kann dann mit Hilfe von Software versuchen, ein bestimmtes Signal herauszufiltern.

Hirndaten sind aber keine Gedanken. Man kann sie jedoch nutzen, um Rückschlüsse darauf zu ziehen, was im Kopf einer Person vorgeht. Es gibt Gehirnzustände, die man entschlüsseln kann: Etwa müde, aufmerksam, abschweifend, engagiert, gelangweilt, interessiert, glücklich oder traurig. Man könnte darüber dann herausfinden, was die Person denkt oder fühlt, ob sie hungrig ist, ob sie liberal oder konservativ ist.

Man kann auch die Reaktionen einer Person aufgreifen und versuchen, das Gehirn nach Informationen zu durchforsten und herauszufinden, was in ihrem Gedächtnis oder in ihren Denkmustern gespeichert sein könnte. Man kann Testpersonen Zahlen zeigen, um ihre PIN-Nummer schrittweise herauszufinden. Oder Bilder von politischen Kandidaten, um festzustellen, ob sie eher positiv oder negativ reagieren. Man kann die Voreingenommenheit, aber auch inhaltliches Wissen einer Person abfragen, etwa die Kenntnis eines Tatorts oder eines Passworts.

Bislang wissen die meisten Menschen nur durch medizinische Untersuchungen, dass es solche Gehirndaten gibt. Unsere Gesundheitsdaten sind grundsätzlich geschützt. Aber was ist mit den von Consumer-Produkten gesammelten Gehirndaten?

Ich habe das Gefühl, dass wir hier an einen Wendepunkt gekommen sind. In diesem Jahr und in den nächsten zwei Jahren kommen aus diesem Bereich viele Endkundengeräte auf den Markt. Es gab enorme Fortschritte bei der Künstlichen Intelligenz, die es uns ermöglicht, die Gehirnaktivität zu entschlüsseln. Und auch bei der Miniaturisierung von Elektroden, die es den Herstellern ermöglicht, sie sogar in Ohr- und Kopfhörer einzubauen. Weiterhin gab es erhebliche Investitionen von großen Technologieunternehmen in dem Bereich. Ich glaube, dass diese Verfahren bald allgegenwärtig sind.

Bislang ist es ja so: Die einzige Person, die im Moment Zugang zu Ihren Gehirndaten hat, sind Sie selbst, und sie werden nur in der internen "Software" Ihres Gehirns ausgewertet. Aber sobald Sie sich ein solches Gerät auf den Kopf setzen, teilen Sie diese Daten sofort mit dem Hersteller des Geräts und dem Anbieter einer Plattform. Sie könnten letztlich auch an die Regierung oder den Arbeitgeber weitergegeben werden, falls man Ihnen darüber eine solche Hardware zur Verfügung gestellt hat.

Ist das grundsätzlich schlecht?

Für den Einzelnen bedeutet es eine Veränderung, wenn er Zugang zu seinen eigenen Gehirndaten hat – und das ist zunächst gut. Das Gehirn war immer ein scheinbar unantastbarer und unzugänglicher Bereich unseres Körpers. Und plötzlich liegt es in den Händen des Einzelnen, zuzugreifen. Die Beziehung, die wir zu uns selbst haben werden, wird sich verändern. Wenn Wissenschaftler und Forscher Zugang zu diesen Daten haben, könnten sie ihnen helfen, Funktionsstörungen des Gehirns besser zu verstehen, was zur Entwicklung neuer Therapien für neurologische und psychische Erkrankungen führen könnte. Problematisch ist also nicht die Erhebung oder Herstellung der Daten, sondern ihre Verwendung zum Schaden von Einzelpersonen, einem Kollektiv oder einer Gruppe. Das Problem ist, dass dies sehr schnell geschehen könnte.

Eine autoritäre Regierung, die Zugang zu solchen Daten hat, könnte sie zum Beispiel dazu verwenden, um Menschen zu identifizieren, die sich nicht so politisch engagieren wie gewünscht. Das ist ein ziemlich akuter und ernsthafter Missbrauch solcher Informationen. Oder man könnte versuchen, Menschen zu identifizieren, die neurodivers sind, sie diskriminieren oder ausgrenzen. Am Arbeitsplatz könnten sie entmenschlicht werden, indem man sie einer Neuroüberwachung unterwirft. All das wäre plötzlich möglich.

Einige Consumer-Produkte aus dem Bereich, etwa Stirnbänder und Ohrhörer, die angeblich die Gehirnaktivität messen und Nutzer so entstressen sollen, wurden von einigen Wissenschaftlern als Spielerei abgetan.

Das ist richtig. Die eingefleischten Brain-Computer-Interface-Fans (BCI), die an implantierbarer Hardware arbeiten, um die Gesundheit zu revolutionieren oder zumindest zu verbessern, sagen, dass man damit nicht sehr viele echte Informationen aufzeichnen kann. Das Signal wird verzerrt, zum Beispiel durch Muskelzuckungen und die Haare. Das heißt aber nicht, dass es kein Signal gibt, das man auswerten könnte. Es gibt immer noch interessante Dinge, die bedeutsam sind. Ich denke, wer das nur abtut, macht das auf eigene Gefahr. Man weiß nie, was auf dem Gebiet passiert, es gibt schnelle Fortschritte.

In Ihrem Buch geben Sie einige Beispiele dafür, wie diese Technologien bereits von Arbeitgebern eingesetzt werden. Einige Geräte werden z. B. eingesetzt, um zu überwachen, wie wach und aufmerksam Lkw-Fahrer sind.

Aus meiner Sicht ist das zunächst gar nicht so schlimm. Man kann das Interesse an der Privatsphäre des Einzelnen gegen das gesellschaftliche Interesse abwägen, so die Sicherheit anderer Verkehrsteilnehmer und die Sicherheit des Fahrers zu gewährleisten.

Auch die Möglichkeit für Arbeitnehmer, Neurofeedback in Echtzeit zu erhalten, um ihren eigenen Stress- oder Aufmerksamkeitslevel zu verstehen, findet immer mehr Verbreitung. Wenn es dem Einzelnen als Mittel zur Selbstreflexion und Verbesserung zur Verfügung gestellt wird, halte ich das nicht für problematisch.

Problematisch wird es allerdings, wenn es sich hier um ein obligatorisches Instrument handelt und Arbeitgeber Daten sammeln, um echte Entscheidungen über Einstellungen, Entlassungen und Beförderungen zu treffen. Sie verwandeln es dann in eine Art Produktivitätsbewertung. Dann wird es meiner Meinung nach wirklich tückisch und problematisch. Die Technik untergräbt dann das Vertrauen ... und kann den Arbeitsplatz entmenschlichen.

Sie beschreiben auch, wie Unternehmen und Regierungen unsere Gehirndaten künftig nutzen könnten. Besonders fasziniert war ich von der Idee der gezielten "Trauminkubation"...

Das ist ein Stoff aus dem Film "Inception"! Die Brauerei Coors hat sich mit einem Traumforscher zusammengetan [4], um die Träume von Freiwilligen mit Gedanken an Berge und frische Bäche zu ergänzen und diese Gedanken schließlich mit Coors-Bier in Verbindung zu bringen. Zu diesem Zweck wurden den Probanden Geräuschkulissen vorgespielt, wenn sie gerade aufgewacht oder eingeschlafen waren – zu Zeiten, in denen unser Gehirn am empfänglichsten für solche Suggestionen ist.

Das ist aus vielerlei Gründen geradezu eklig. Es geht darum, buchstäblich nach den Momenten zu suchen, in denen man am wenigsten in der Lage ist, seinen eigenen Verstand zu schützen – und dann zu versuchen, Assoziationen in unserem Kopf zu erzeugen. Das fühlt sich sehr nach einer Manipulation an, die eigentlich verboten sein sollte.

Gut, sie haben Freiwillige rekrutiert, die damit einverstanden waren. Aber könnte so etwas auch ohne die Zustimmung der Menschen geschehen? Apple hat bereits ein Patent auf eine Schlafmaske mit eingebauten EEG-Sensoren und LG hat beispielsweise EEG-Kopfhörer für den Schlaf vorgestellt. Stellen Sie sich vor, einer dieser Sensoren könnte erkennen, wann Sie am beeinflussbarsten sind – und eine Verbindung zu einem nahe gelegenen Mobiltelefon oder anderen Geräten herstellen, um eine Geräuschkulisse abzuspielen, die Ihre Gedanken manipuliert. Finden Sie das nicht unheimlich?

Doch, natürlich. Aber wie können wir das verhindern?

Ich spreche bereits aktiv mit vielen Unternehmen und sage ihnen, dass sie wirklich solide Datenschutzrichtlinien haben müssen. Ich bin der Meinung, dass die Menschen in der Lage sein sollten, mit neuen Geräten zu experimentieren, ohne sich Gedanken über mögliche Folgen solcher Art zu machen.

Haben die Firmen Ihre Idee aufgegriffen?

Die meisten Neurotech-Unternehmen, mit denen ich gesprochen habe, sind sich der Problematik bewusst und versuchen, Lösungen zu finden und verantwortungsvoll zu handeln. Das war ermutigend. Weniger beeindruckt bin ich jedoch von einigen der großen Technologieunternehmen. Wie wir bei den jüngsten Entlassungswellen [5] gesehen haben, gehören die Ethikbeauftragten zu den ersten, die in diesen Unternehmen gehen müssen.

In Anbetracht der Tatsache, dass diese kleineren Neurotech-Firmen von den Titanen der Branche aufgekauft werden könnten, bin ich weniger zuversichtlich, dass die dort gesammelten Gehirndaten weiterhin unter die alten Datenschutzrichtlinien fallen. Kommerzialisierung von Nutzerinformationen ist das Geschäftsmodell großer Internet-Konzerne. Ich möchte es nicht den Unternehmen überlassen, sich hier selbst zu verwalten.

Was könnten wir sonst noch tun?

Meine Hoffnung ist, dass wir baldmöglichst ein Recht auf kognitive Freiheit einführen – ein neuartiges Menschenrecht, das im Prinzip im Rahmen der bestehenden Menschenrechte existiert. Ich betrachte kognitive Freiheit als ein übergreifendes Konzept, das sich aus drei Kernprinzipien zusammensetzt: geistige Privatsphäre, Gedankenfreiheit und Selbstbestimmungsrecht. Das letzte Prinzip umfasst das Recht auf Zugang zu den Informationen unseres eigenen Gehirns, das Recht, unser eigenes Gehirn kennenzulernen – und das Recht, unser eigenes Gehirn zu verändern. Es ist eine Aktualisierung des allgemeinen Freiheitsbegriffs, um zu ergänzen, wie die Freiheit im digitalen Zeitalter aussehen muss.

Wie wahrscheinlich ist es, dass wir in der Lage sein werden, solche Rechte zu realisieren?

Ich denke, das wäre sogar ziemlich wahrscheinlich. Der UN-Menschenrechtsausschuss könnte das Recht auf kognitive Freiheit durch einen Kommentar oder eine Stellungnahme anerkennen. Dazu bedarf es keines politischen Prozesses bei der UNO.

Wird das noch rechtzeitig erfolgen?

Ich hoffe es. Deshalb habe ich das Buch jetzt geschrieben. Wir haben nicht mehr viel Zeit. Wenn wir warten, bis eine Katastrophe eintritt, ist es zu spät. Aber wir könnten die Neurotechnologie noch auf einen Kurs bringen, der für die Menschheit nützlich wäre.

[6]

(jle [7])


URL dieses Artikels:
https://www.heise.de/-7549441

Links in diesem Artikel:
[1] https://www.heise.de/hintergrund/KI-Intelligente-Bildung-fuer-Chinas-Kinder-4629745.html?seite=2
[2] https://www.heise.de/hintergrund/Algorithmen-Der-hartnaeckige-Mythos-vom-berechenbaren-Menschen-4982382.html
[3] https://us.macmillan.com/books/9781250272966/thebattleforyourbrain
[4] https://www.youtube.com/watch?v=tU_0jU0mMLw
[5] https://www.heise.de/news/Erneute-Entlassungen-Facebook-Mutter-Meta-feuert-10-000-Leute-7545582.html
[6] https://www.instagram.com/technologyreview_de/
[7] mailto:jle@heise.de