Cyberpunk Revisited: Warnung vor unkontrollierten Hirn-Computer-Schnittstellen

Brain-Computer-Interfaces greifen nicht nur in der Medizin um sich. Juristen schlagen Alarm wegen der potenziellen Unterwanderung von Grundrechten.

In Pocket speichern vorlesen Druckansicht 57 Kommentare lesen
Ai(artificial,Intelligence),Concept.,3d,Rendering.

(Bild: metamorworks / Shutterstock.com)

Lesezeit: 5 Min.

Gelähmte können nur über ihre Gedanken twittern oder Roboterarme bewegen, Forscher erraten die PINs Fremder über deren Gehirnaktivitäten, Affen spielen eine Art "Mind Pong". Möglich machen es Gehirn-Computer-Schnittstellen, über die Nutzer mit ihren Hirnströmen in Form elektrischer Felder Rechner steuern. Solche Brain-Computer-Interfaces (BCI) wandern aus dem Forschungsbereich in praktische Anwendungen etwa in den Bereichen Medizin, Virtual Reality und Gaming. Juristen warnen aber vor damit verknüpften massiven Gefahren für die Grundrechte und Regulierungslücken.

Es gebe einige nützliche BCI-Einsatzfelder jenseits der Medizin, erklärte Carolin Kemper, Referentin am Deutschen Forschungsinstitut für öffentliche Verwaltung in Speyer, auf der Online-Hackerkonferenz rC3 (remote Chaos Communication Congress). Verfügbar seien mittlerweile etwa Headsets für Verbraucher zur Messung der elektrischen Aktivität des Gehirns. Dabei kommt im Prinzip die Elektroenzephalographie (EEG) zum Einsatz, die mit Elektroden auf der Kopfhaut arbeitet. Beim Gaming etwa lässt sich damit laut Kemper erkennen, ob sich jemand langweile, konzentriert oder überfordert sei. Am Arbeitsplatz könne die Technik helfen, Stresszustände zu vermeiden und die Konzentration zu optimieren.

Elon Musk, der mit seinem Startup Neuralink an BCI-Implantaten arbeitet, halte es sogar für nötig, mit der Künstlichen Intelligenz (KI) zu verschmelzen, berichtete die Juristin. Sonst könne der Mensch die lernende Maschine nicht mehr übertrumpfen. Dies erinnere stark an die Utopien und Dystopien der frühen Cyberpunk-Bewegung, wo sich vieles um das Uploaden des Bewusstseins und das Exportieren der Seele auf USB-Sticks & Co. gedreht habe.

Die Technik sei andererseits brandgefährlich, gab Kemper zu bedenken. Forscher hätten etwa schon 2019 gezeigt, dass sich allein mit einem blinkenden GIF bei Epilepsie-Patienten Schaden anrichten lasse. BCI seien prinzipiell geeignet, um Personen zu manipulieren, ihre Identität zu verändern und möglicherweise in den Wahnsinn zu treiben. Schädliche Apps könnten über Programmierschnittstellen Messwerte und damit besonders sensible persönliche Daten von Headsets abgreifen. Bis Ransomware Medizinprodukte wie Implantate betreffe, sei nur eine Frage der Zeit. Bei solchen Geräten hätten das Bundesamt für Sicherheit in der Informationstechnik (BSI) und Forscher bereits den "ein oder anderen Klopper gefunden".

Das menschliche Gehirn sei über Jahrtausende gewachsen, Eingriffe seien daher höchst gefährlich, ergänzte Kempers Kollege Michael Kolain. Die Konsequenzen wären gar nicht absehbar, wenn es zu einem massenhaftem Einsatz von Hirnimplantaten komme. Forscher wie Markus Gabriel betonten auch entgegen der Vision von Transhumanisten, dass sich der Mensch nicht mit Hirnströmen als Persönlichkeit darstellen lasse.

Der Rechtswissenschaftler hielt BCI das Grundgesetz und Prinzipien der Neuroethik entgegen. Der Staat habe demnach eine Schutzpflicht für die unantastbare Würde des Menschen und müsse die Autonomie und die freie Entfaltung der Persönlichkeit garantieren. Damit unvereinbar sei es etwa, Patienten Assistenzsysteme zu entziehen, sublime Einflussnahme auszuüben, Denial-of-Service-Attacken auf einschlägige Geräte zu lancieren oder deren Batterien zu entleeren. Auch das Eigentumsrecht könnte betroffen sein, wenn Implantate Teil des eigenen Körpers würden.

Zum Schutz der Privatheit hat das Bundesverfassungsgericht Kolain zufolge zudem eine Reihe von Vorgaben aufgestellt, die vom informationellen Selbstbestimmungsrecht bis zum IT-Grundrecht rund um Vertraulichkeit und Integrität von Computern reichten. Gesichert werden müsse also ein "gewisses Grundvertrauen", dass IT-Geräte nicht beeinflusst werden von außen. Das Ausspähen von Daten, Identitätsdiebstahl, Überwachung und Erpressung stünden dem entgegen.

Hirn-Computer-Schnittstellen würfen aber neue Rechtsfragen und ethische Diskussionen auf, stellte der Forscher klar. Entsprechende Geräte fielen oft durch das bisherige Regulierungsraster. So sei etwa das IT-Sicherheitsrecht zu spezifisch, um zu greifen. Die Datenschutz-Grundverordnung (DSGVO) wiederum betreffe nur Verarbeiter personenbezogener Informationen und so etwa nicht die Hersteller einschlägiger Produkte.

Der EEG-Headset-Produzent Emotiv etwa müsse sich erst dann an die DSGVO halten, wenn er Hirndaten mit einer App verarbeite, brachte Kemper ein Beispiel. Erst dann seien etwa ein Absichern der Technik nach dem Stand der Technik mit Verschlüsselung & Co. zwingend erforderlich. Ferner unterstreiche Emotiv, die Geräte nicht für medizinische Anwendungen zu verkaufen. So bleibe die Firma auch bei der EU-Medizinprodukte-Verordnung (MVPO) außen vor. Unters BSI-Gesetz fielen BCI ebenfalls nicht.

Das Anfang 2022 in Kraft tretende neue Warenkaufrecht im Bürgerlichen Gesetzbuch (BGB) greife dagegen, führte die Juristin aus. Es bestehe also eine Update-Pflicht, Privacy-by-Design müsse berücksichtigt werden. Viele der mit der Reform verknüpften Begriffe seien aber vage, sodass sie erst von Gerichten ausgelegt werden müssten. Sollten die EU-Gremien sich auf die geplanten KI-Regeln einigen, würden Hirnimplantate und EEG-Headsets mit "stimulierender" Wirkung als Hochrisiko-Systeme eingestuft und müssten besondere Vorkehrungen an die Cybersicherheit erfüllen. Es gebe also einige Regulierungsansätze, keiner davon decke aber alles richtig ab.

(jk)