Mit den Ohren sehen

Neue Therapiegeräte können verlorene Sinne wiederbeleben: Blinde lernen durch Töne, Farben und Formen zu unterscheiden.

vorlesen Druckansicht 1 Kommentar lesen
Lesezeit: 7 Min.
Von
  • Veronika Szentpetery-Kessler

Neue Therapiegeräte können verlorene Sinne wiederbeleben: Blinde lernen durch Töne, Farben und Formen zu unterscheiden.

Die fiepende Tonfolge hört sich an, als stamme sie vom kleinen "Star-Wars"-Rollroboter R2-D2. Tatsächlich spielt sie ein kleiner Laptop ab, der im Labor von Amir Amedi an der Hebrew University of Jerusalem steht. Erst kommt ein tiefer Ton, der dann plötzlich in die Höhe steigt und schließlich wieder abfällt. Für ungeübte Ohren klingt das ebenso unverständlich wie das Gefiepse von R2-D2. Doch der blinde Proband Shlomo, der die Töne über einen Kopfhörer hört, grinst breit und sagt: "Ah, das ist eine Nase." Dann lässt er sich die Tonfolge noch einmal vorspielen. "Und da sind auch noch, ja, da sind zwei Nasenlöcher. Ich habe in der Mitte zwei Klicks gehört." Der Laptop-Bildschirm zeigt tatsächlich den weißen Umriss einer Nase auf schwarzem Hintergrund, mit zwei weißen Flecken als Nasenlöcher.

Die Übung zur Gesichtserkennung ist ein beeindruckendes Beispiel für den Einsatz von sogenannten Sinnesersatzgeräten ("sensory substitution devices", kurz SSD). Grundlage der auch Neurofeedback genannten Methode ist die außerordentliche Wandlungsfähigkeit des Gehirns. Sie ist beispielsweise im Spiel, wenn sich bei blinden Menschen Gehör und Tastsinn schärfen, um den fehlenden Sehsinn möglichst auszugleichen. Doch das Gehirn kann sogar lernen, bekannte Reize auf ganz neue Art zu verwerten. Und genau diese Fähigkeit wollen die Forscher mithilfe von SSD bei Patienten mit Sinnesverlusten wecken. Die Ärztin Amy Nau von der University of Pittsburgh sieht in solchen Geräten ein enormes Potenzial: "Sie können nicht nur Blinden helfen, sondern möglicherweise auch anderen Patienten, die durch Schlaganfall oder schwere Gehirnverletzungen einen ihrer Sinne verlieren."

An der Hebrew University of Jerusalem üben Probanden wie Shlomo zum Beispiel, bestimmte Klänge einer Position im Raum zuzuordnen und durch Klangfolgen Gegenstände zu identifizieren. Dazu scannt ein Computerprogramm ein Bild ein und übersetzt es zeitgleich in Töne – und zwar von links nach rechts. Ein Ton signalisiert den Start, und danach wird die Y-Position der Bildpunkte durch die Tonhöhe kodiert. Je weiter oben ein Punkt im Bild liegt, desto höher klingt auch der korrespondierende Ton. Dementsprechend verwandeln sich Konturen in zusammenhängende Tonfolgen und schwarze Bereiche im Bild in Pausen zwischen den Tönen. Schon nach wenigen Stunden Übung sieht der Proband bei einer steigenden Tonfolge etwa – als einfachstem Beispiel – eine ansteigende Linie vor seinem geistigen Auge und ist in der Lage, sie zu zeichnen.

Der neueste SSD-Prototyp "EyeMusic" aus Amedis Labor besteht aus einer Sonnenbrille mit integrierter Kamera und geht noch einen Schritt weiter. Mit ihm lernen die Probanden nicht nur Bilder auf dem Bildschirm, sondern Gegenstände und Personen im Raum zu "sehen". Amedis Algorithmus übersetzt die mit der Kamera auf dem Brillensteg gefilmte Szene zunächst in ein vereinfachtes Schwarz-Weiß-Bild und dieses dann in Töne. Die Probanden können sogar Gesichtsausdrücke ihres Gegenübers interpretieren, etwa einen vor Überraschung runden Mund und ärgerlich zusammengezogene Augenbrauen.

Mit EyeMusic "erhören" sie sogar fünf verschiedene Farben. Sie werden durch verschiedene Instrumente repräsentiert: Blau (Trompete), Rot (Reggae-Orgel), Grün (Synthesizer-Blasinstrument) und Gelb (Geige). Wer sich erst einmal nur auf die Form der Objekte konzentrieren will, kann sie sich rein in Weiß vorspielen lassen, die musikalische Übersetzung übernimmt in diesem Fall ein Chor. "Die Noten decken fünf Oktaven ab und wurden von Musikern danach ausgewählt, ob sie auch ein angenehmes Hörerlebnis bieten", sagt Amedi. Zusätzliche Bildinformationen liefert die Lautstärke: Je heller das Objekt ist, desto lauter der zugehörige Ton.

Dem Forscher zufolge lernten die Probanden damit sehr rasch, die Klangbilder zu interpretieren. Und mit ihrer Hilfe konnten sie bereits nach einer halben Stunde gezielt nach Objekten greifen. Amedi hofft, dass sein System erblindeten Menschen den Alltag erleichtern wird und ihnen so selbstverständliche Dinge ermöglicht, wie reife von unreifen Früchten zu unterscheiden. Bislang hat er den Farbtest nur mit Sehenden, deren Augen verbunden waren, durchgeführt. Von Geburt an Blinde, die mit Farbbegriffen nichts assoziieren können, verbinden dann "unreif" mit "Grün" beziehungsweise dem Klang "Synthesizer Blasinstrument". Sogar Freunden gezielt die Hand zu geben, ermöglicht ihnen EyeMusic. Das demonstriert Shlomo freudestrahlend im Innenhof des Universitätsgebäudes: Ganz ohne Blindenstock läuft er – im normalem Gehtempo – auf einen Tisch mit einem Bekannten zu und umkurvt unterwegs sicher einen Mülleimer.

Noch ist das Gerät für Blinde nicht auf dem Markt. Aber dass die SSD-Technologie durchaus für den klinischen Alltag praktikabel ist, zeigt ein Gerät des US-Unternehmens Wicab. Auch das "BrainPort V100" nutzt eine Kamerabrille, übersetzt dessen Aufnahmen allerdings nicht in Töne, sondern in leichte Stromsignale für die Zunge. Sein Funktionsprinzip erinnert an das Kinderspiel, bei dem man Zahlen und Formen auf den Rücken des anderen malt, die allein durch die Berührung erkennbar sind. Beim Wicab-Gerät fungiert ein Kunststoffplättchen mit 400 winzigen Elektroden als Malhilfe, das über ein Kabel mit dem linken Brillenbügel verbunden ist.

Legen sich die Patienten das Plättchen auf die Zunge, geben die Elektroden einen leichten Strom ab und lösen ähnlich wie Sektbläschen ein kribbelndes Gefühl aus. Die Kribbelsignale bilden die Videoaufnahmen der Brille – die zunächst vergleichbar mit Amedis System in eine Schwarz-Weiß-Darstellung übersetzt werden – als 20 mal 20 Pixel große Bilder auf der Zunge ab. Schwarze Bildpunkte erzeugen kein Signal, weiße Punkte ein starkes und die Grautöne ein mittelstarkes Kribbeln.

Die Auflösung klingt nicht nach viel, doch Wicab-Geschäftsführer Robert Beckman ist zufrieden. "Im Rahmen unserer Studie, die wir gerade für die US-Zulassung durchführen, haben wir alle Ziele erreicht, und es gab keine Sicherheitsprobleme", sagt der Firmenchef. Dabei absolvierten die Probanden verschiedene Aufgaben, um aufzuzeigen, ob ihnen das Gerät im Alltag wirklich helfen kann. Sie lernten, einfache Objekte zu identifizierten oder einen Testkorridor entlangzugehen, indem sie der Deckenbeleuchtung folgten. Sie konnten Türen erkennen und Hinweisschilder mit großer Schrift korrekt lesen. Amy Nau, eine der betreuenden Ärzte, meint: "Es ist nicht ganz leicht, Sie müssen schon viel üben, aber das muss man mit einem Blindenstock auch."

Beckman hält sein Gerät für ebenso effektiv wie das bereits in Deutschland erhältliche Netzhautimplantat "Argus II" von Second Sight mit vergleichbarer Auflösung. BrainPort liefere zwar keinen echten Seheindruck, und wer es trage, könne nicht gleichzeitig reden. Dafür erfordere es aber keine Operation und könne jederzeit mit einer höher auflösenden Technik aufgerüstet werden. In Europa werde BrainPort schon bald auf den Markt kommen. (vsz)