38C3: Hirn-Implantate werfen viele ethische und rechtliche Probleme auf
Neuralink will tausende Elektroden in dünnsten Drähten mit einem Chirurgie-Roboter in den Schädel hämmern. Ein Rechtswissenschaftler hat massive Bedenken.
38C3-Logo vor dem Congress Centrum Hamburg
(Bild: cku)
Menschlicher Geist und Maschine beziehungsweise organische und künstliche Intelligenz (KI) verschmelzen zunehmend durch Neurotechnologien wie Hirn-Computer-Schnittstellen. Solche Brain-Computer-Interfaces (BCI) zeichnen die Gehirnaktivität auf, können sie aber auch verändern. Während die meisten solcher Geräte für medizinische Zwecke etwa zur Rehabilitation entwickelt und eingesetzt werden, sollen zunehmend auch Verbrauchergeräte auf den Markt kommen. Einige der großen Akteure in diesem Segment wie Elon Musk und sein Unternehmen Neuralink verfolgten dabei "eher transhumanistische Ziele", meint der Hamburger Rechtswissenschaftler Christoph Bublitz. Musk gehe es darum, mit der Technik das menschliche Potenzial von morgen zu erschließen und das Denken zu beschleunigen, um mit der KI mithalten zu können.
Neuralinks neuestes Hirn-Implantat sei ein Chip, der aus sehr vielen sehr dünnen Drähten bestehe, berichtete Bublitz am Montag auf dem 38. Chaos Communications Congress (38C3) in Hamburg. Ein von einer Nähmaschine inspirierter chirurgischer Kleinroboter stichele dabei rund 1000 Elektroden binnen einer halben Stunde ins Gehirn. Das höre sich zwar einfach an, aber es handle sich nach wie vor um eine komplexe Operation: Nötig sei dafür etwa zunächst das Erstellen eines 3D-Modells, dann müsse man die Blutbahnen ausmachen – das alles wirke "ziemlich furchteinflößend".
Die zweite Operation zum Einsetzen eines Neuralink-Implantats bei einem Menschen verlief laut der Musk-Firma im Sommer 2024 gut. Bublitz erinnerte aber daran, dass auf jeden Technologie-Hype ein Winter der Desillusion folge. So habe die zuständige US-Regulierungsbehörde auch bereits Musks Antrag abgelehnt, Gehirnchips an völlig gesunden Menschen zu testen. Der US-Milliardär habe aber wohl genug Geld und Eifer, um seine Pläne mittelfristig durchzusetzen.
BCI könnten Emotionen automatisch regulieren
Das Zusammenwachsen menschlichen Bewusstseins mit Computern wirft für den Juristen zahlreiche philosophische, ethische und rechtliche Fragen auf. So habe die Entwicklung etwa Auswirkungen auf die Verbindung des Menschen zu seiner Umwelt. Was heiße es, fragt Bublitz, wenn Teile der Emotionalität automatisch reguliert werden durch BCI? Würden die Träger dadurch glücklicher, trauriger oder einfach nur überreizt? Auf jeden Fall verändere sich damit die Art und Weise, "wie sie die Welt wahrnehmen und mit ihr in Resonanz treten".
Videos by heise
BCI würden letztlich ein Teil der Person, gibt der Experte zu bedenken, der am staatlich geförderten Forschungsprojekt Hybrid Minds führend beteiligt ist. Gewöhnliche Implantate seien zwar längst akzeptiert, aber wenn sie fest im Körper säßen, würden sie von diesem auch funktionell integriert. Chips im Hirn seien "keine unabhängigen Dinge mehr", sondern ließen sich "eher wie Arme oder Organe" einschätzen. Auch die integrierte Software dürfte nicht mehr zu trennen sein vom Menschen. Damit sei absehbar: So ein Gerät würde "die engste Beziehung einer Person zur KI schaffen".
Diese Entwicklung habe rechtliche Folgen, erklärte der Jurist. Derzeit gebe es kein Eigentum Dritter an Körperteilen: "Niemand kann Ihren Arm besitzen." Damit würden Hersteller ihr Eigentum an BCI mit der Implantation verlieren. Mit der eingebauten Software dürfte es sich ähnlich verhalten. Betroffenen müsste man zumindest zugestehen, diese bearbeiten oder hacken zu dürfen und den Code zu ändern. Für ihn stehe für solche Fälle fest: "Das Urheberrecht muss verschwinden." Dazu gebe es aber noch keinerlei Rechtsprechung.
Seitenkanalangriffe aufs Gehirn
Hirn-Implantate werden Bublitz zufolge ferner bekannte Probleme digitaler Technologien wie ungesundes Nutzerverhalten und mentale Auswirkungen verstärken. Das gehe hin bis zu Manipulationen durch eine nicht einvernehmliche Stimulation des Gehirns. So ließen sich neurologische Reaktionen auf Reize messen, daraus Gedanken ableiten und ein "konstantes individuelles Neuromarketing" etwa in einer Gaming-Umgebung erprobt werden. Werber könnten viel besser verstehen, wie Kaufentscheidungen gefällt werden, und entsprechende Kampagnen kreieren.
Das wirft für den Wissenschaftler auch Fragen des Datenschutzes und des Zugangs zu Hirnen Dritter auf. Eng damit verknüpft seien Aspekte der IT-Sicherheit. Erste durchaus realistische Seitenkanalangriffe auf das Gehirn hätten Forscher im Rahmen einer PIN-Code-Fallstudie bereits durchgespielt. Ein weiterer Aspekt ist die Obsoleszenz von Technik, die direkt in den Körper eingebaut und nach einiger Zeit nicht mehr vom Hersteller unterstützt wird.
Diese Herausforderungen haben eine Debatte über "neue Menschenrechte" ausgelöst. Kalifornien war im Oktober nach Colorado der zweite US-Bundesstaat, der Hirndaten gesetzlich abzusichern sucht. Chile habe dafür sogar die Verfassung geändert, weiß Bublitz. Dahinter stehe die Neurorights-Initiative. Prinzipiell teile er deren Ziele, halte ihren Ansatz aber für falsch: Dieser habe die "unerwünschte Nebenwirkung, dass der bestehende Grundrechtsschutz ausgehebelt wird".
Neue Menschenrechte nötig?
Bublitz hält es für besser, auf die Gedankenfreiheit abzustellen, die etwa in Artikel 18 der universellen Erklärung der Menschenrechte sowie Artikel 9 der Europäischen Grundrechtecharta verankert sei. Sie schütze nicht nur die Meinungsfreiheit, sondern auch das Bewusstsein, etwa vor ideologischer Beeinflussung. Dazu komme, dass es sich bei der Gedankenfreiheit um eines der stärksten Menschenrechte handle, da diese – etwa im Gegensatz zur Sicherheit oder zum Datenschutz – nicht abzuwägen sei mit anderen Grundrechten. Dieser Charakter müsste aber noch stärker ausformuliert werden.
Dafür könnte sich etwa die Unesco stark machen, fordert der Jurist. Die UN-Organisation für Bildung, Wissenschaft, Kultur und Kommunikation habe die Arbeit an ersten globalen Empfehlungen zur Ethik der Neurotechnologie gestartet und in einem Entwurf dafür gemeinsame globale Regeln skizziert. Dieser decke viele Punkte ab, lasse bislang aber den Verbraucherbereich außen vor. Derweil lieferten sich vor allem China und die USA ein Rennen darum, Daten aus BCIs auch fürs KI-Training zu nutzen. Um "dystopische Szenarien" zu verhindern, müssten die Risiken auf jeden Fall mit klaren rechtlichen und technischen Vorschriften, etwa in Bezug auf Open Source, handhabbar werden.
(map)