Ohrstöpsel liest Gedanken: Naqi ausprobiert
Ein Ohrstöpsel in jedes Ohr; dann kann man Technik per Gedanken steuern: Das verspricht Naqi. Wir haben das Gerät ausprobiert.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Das Brain-Computer-Interface (BCI) ist ein wiederkehrendes Science-Fiction-Thema; laut Naqi ist es nun reif für den Alltag: Ein Ohrstöpsel-Paar soll Computersteuerung ganz ohne Hände und Sprache ermöglichen. c't 3003 hat es auf der CES ausprobiert.
Transkript des Videos
(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)
Guckt mal hier, ich schalte einfach eine Lampe an und aus, ohne meine Hände oder meine Stimme zu benutzen. Und zwar mit diesem Ding hier in meinem Ohr. Wenn man ein bisschen trainiert hat, kann man damit einen Computer komplett bedienen, wie Dave Segal hier vormacht. Der hat Naqi gegründet, und das ist die Firma, die dieses Ohr-Dings entwickelt hat. Das renommierte Inc. Magazine hat in einem Artikel geschrieben, dass dieser Ohrstöpsel Neuralink gefährlich werden könnte. Und das sind die mit den implantierten Gehirninterfaces.
Ist Naqi also auch ein Gehirninterface? Also der heilige Gral der Technikbedienung? Das klären wir in diesem Video und probieren das Ding natürlich aus. Bleibt dran!
Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei...
Ja, Gehirninterfaces. Für mich als alter Cyberpunker das Thema schlechthin, spätestens seit ich Shadowrun gespielt und Neuromancer gelesen habe. Ist ja auch klar: Die direkteste Verbindung zwischen Mensch und Maschine ist es, wenn Hirn und Technik direkt miteinander kommunizieren, ohne so unnütze Sachen wie Benutzeroberflächen, Terminals oder Sprachbefehle.
Und klar, am Ende dieser Entwicklung steht dann irgendwie die direkte Stimulation des Hirns. Dann braucht man halt keine Displays oder VR-Headsets mehr, sondern ruft die gewünschte Erfahrung direkt ab, fühlt und sieht sie. Ja, okay, da sind wir noch lange nicht, und das werde ich vermutlich auch nicht mehr erleben. Die andere Richtung aber, also Hirn zu Computer, die ist weniger spektakulär, aber das ist tatsächlich schon möglich.
Das hier ist zum Beispiel Noland Arbaugh. Der ist querschnittsgelähmt und hat ein Neuralink-Gehirnimplantat im Kopf. Damit kann er einen Mauszeiger über den Bildschirm steuern und so zum Beispiel Schach spielen, wie in diesem Video. Aber okay, das ist invasiv, da wird tatsächlich ein experimentelles Implantat in den Kopf eingepflanzt, mit allen entsprechenden Risiken. Dass das natürlich kein Massenprodukt ist, darüber müssen wir gar nicht reden.
Aber Naqi besteht halt einfach nur aus einem kleinen Ohr-Headset und kann genau das Gleiche. Also zumindest kann Naqi-Erfinder Dave Segal das. Wir haben das auf jeden Fall live beobachtet, wie er ohne seine Hände zu benutzen diesen Computer bedient hat. Und dann durfte ich auch irgendwann ran.
Naqi-Stöpsel ausprobiert
Ich war extrem aufgeregt, weil wirklich etwas mit meinem Hirn zu bedienen, habe ich bislang noch nicht gemacht. Dann folgte aber auch eine kleine Enttäuschung. Es stellte sich nämlich heraus, dass das nicht mein Gehirn direkt ist, was zum Beispiel die Lampe hier bedient, sondern meine Gesichtsmuskeln. Genauer gesagt die elektrischen Impulse, die meine Muskeln abgeben, wenn ich sie nutze.
Also um zum Beispiel die Lampe einzuschalten, muss ich meine Kaumuskulatur kurz anspannen und wieder entspannen. Tatsächlich habe ich das nur hinbekommen, wenn ich mir auf die Zähne gebissen habe. Die Naqi-Leute haben mir aber gesagt, dass man das trainieren kann und dass es dann auch irgendwann ohne Zähne geht.
In dieser Demo hier habe ich einen Cursor nach rechts und links bewegt, indem ich einfach meine Pupillen fĂĽr einen Bruchteil einer Sekunde in die gleiche Richtung bewegt habe. Weil da natĂĽrlich auch Muskeln angespannt und entspannt werden. Das fand ich dann doch ziemlich faszinierend, dass meine Augen, wenn die so eine kurze Bewegung machen, eben einen elektrischen Impuls abgeben, der am Ohr messbar ist.
Ja, und so habe ich dann auch diese Demo hier gesteuert, die nicht nur auf dem Bildschirm zu sehen war, sondern auch auf der AR-Brille hier. Das ist auch gar nicht mal so sinnlos, weil so kann man diese Klemmbaustein-Anleitung hin- und herschalten und hat dann beide Hände frei, um das aufzubauen, was da zu sehen ist. Da ich allerdings schon eine Brille auf hatte und dann nicht noch diese AR-Brille darüber machen wollte, um mir meine Brille darunter zu zerkratzen, habe ich das nicht benutzt und mir das auf dem Bildschirm angeguckt.
*Live-Situation bei der Demo*
So, ich bin jetzt auf dem Mario-Button und werde jetzt über den Star-Wars-Button zum Pokémon-Button wechseln. Ich kann jetzt hier das Puzzle machen. Ich kann jetzt halt auch diesen Regler nach rechts bewegen. Ich muss nur zuerst klicken hier. Aber guckt mal, wie ich schneller werde. Es ist glaube ich tatsächlich nur eine Frage der Gewöhnung. Ich spüre wirklich, dass man schneller wird, wenn man übt.
*Ende Live-Situation*
Also: Pupille nach links – der Cursor geht nach links. Pupille nach rechts – Cursor nach rechts. Einmal Kaumuskeln anspannen war quasi Links-Klick, zweimal war Rechts-Klick, und dreimal die Escape-Taste. Das hat keine Minute gedauert, bis ich das bedienen konnte. Aber es waren halt auch nur fünf unterschiedliche Zustände. Das war noch relativ simpel.
Ich hätte dann auch wirklich gerne mal die komplette Maus bedient, wie Dave Segal uns das ja vorgemacht hat. Aber da hieß es, dass das zu viel Übung erfordern würde und dass das deshalb nicht Teil der Demo ist, die ich bekommen habe.
Naqi erklärte mir jedenfalls, dass die Maus-Steuerung über Mikro-Kopfbewegungen funktioniert. Also über ein stinknormales Gyroskop, was ja auch ein bisschen unspektakulär ist, ehrlich gesagt.
Mein Fazit
Ganz klar, Naqi ist keine Vaporware – also nicht einfach heiße Luft. Die Technik funktioniert wirklich. Habe ich ja ausprobiert. Die Frage ist aber, funktioniert das auch, wenn man sich nicht gerade stark darauf konzentriert, sondern versucht, das nebenbei zu benutzen? Uns wurde zum Beispiel die Vision erzählt, dass man damit unterschiedliche Geräte nahtlos bedienen kann. Also dass man quasi Fernsehen guckt und dann auf den Monitor wechselt, um dort etwas zu bedienen, und dann wieder aufs Handy. Klingt erstmal cool. Ich glaube aber, dass das eine relativ starke mentale Anspannung erfordert.
Ja, und wie ist es zum Beispiel mit Verkehrsmitteln? Wenn es so ein bisschen wackelt, kann das System dann immer noch die Mikrogesten zuverlässig auswerten? Und ja, Naqi ist kein klassisches Brain-Computer-Interface (BCI), sondern ich würde es eher als alternatives Eingabegerät bezeichnen, das mit einem Gyroskop und Elektromyografie arbeitet – also die elektrische Aktivität in Muskeln misst.
Klassische nicht-invasive Brain-Computer-Interfaces, also die nicht im Kopf eingebaut werden, arbeiten ja mit EEG. Das bedeutet, sie messen die elektrische Aktivität direkt im Gehirn, die von den Neuronen verursacht wird. Solche Geräte gibt es schon lange, zum Beispiel die Produkte von Emotiv, Muse oder Neurocity.
Auch wenn es natürlich total cool ist, mit dem Emotiv Epoch X für ungefähr 1000 Euro ein Gerät zu haben, mit dem man ein 14-Kanal-EEG schreiben und experimentieren kann, das sind alles, würde ich sagen, keine alltagstauglichen Gehirneingabegeräte. Es ist halt so: Wie zuverlässig kann man aus diesen EEG-Daten unterschiedliche Befehle herauslesen? Und alleine das Aufsetzen solcher Geräte ist fummelig.
Wenn ihr jetzt sagt, „Ich habe auch schon Videos gesehen, wo Leute mit so einem Emotiv Epoch X einen Computer steuern oder Spiele spielen“ – ja, aber wenn man da mal genauer hinschaut, ist das in den meisten Fällen auch nur die Messung von elektrischen Strömen, die durch die Anspannung von Muskeln zustande kommen. Das schreibt auch Emotiv in der Dokumentation. Von den 14 EEG-Sensoren sind acht so angeordnet, dass sie auch die Signale von Gesichtsmuskeln und Augen empfangen – also genau so, wie Naqi das macht.
Nochmal: Die Naqi-Technik hält, was sie verspricht, und kommt auf jeden Fall auch in einem praktischeren Formfaktor als bisherige BCI-Headsets – halt so ohrstöpselartig. Die Frage ist nur, wer braucht das? Wer will das? Für querschnittsgelähmte Menschen könnte Naqi lebensverändernd sein, auch wenn es da schon etliche andere Ansätze gibt, zum Beispiel Mundcontroller.
Laut Naqi richtet man sich aber eh an alle Menschen, weil die Macher davon ausgehen, dass Naqi am Ende der Interface-Evolution steht. „Unsere Vision ist es, der universelle Standard für die Steuerung von Geräten zu werden“, steht ein bisschen großspurig auf der Website.
Ja, ich bin mal gespannt, wann die neuralen Ohrstöpsel wirklich auf den Markt kommen und wie teuer die dann sein werden. Testen würde ich sie auf jeden Fall gerne.
Wie seht ihr das? Würdet ihr sowas benutzen? Hättet ihr sowas gerne? Gerne in die Kommentare schreiben und natürlich abonnieren. Tschüss!
Heise Medien ist offizieller Medienpartner der CES 2025.
c't 3003 ist der YouTube-Channel von c't. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen und Lukas Rumpler sowie die Video-Producer Şahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.
(jkj)