Menschliches Hörvermögen für Handys

Eines der Kernmerkmale des neuen SoC-Bausteins sind zwei entsprechend den menschlichen Ohren arbeitende Mikrophone.

In Pocket speichern vorlesen Druckansicht 39 Kommentare lesen
Lesezeit: 2 Min.
Von
  • Dusan Zivadinovic

Audience, ein Hersteller von Audioprozessoren bildet das menschliche Hörvermögen mit seinem earSmart eS110 Voice Processor nun auch für Handys nach. Die Audio-Technik findet man bereits in Smartphones wie dem Apple iPhone 4S. Eines der Kernmerkmale des earSmart eS110 sind zwei entsprechend den menschlichen Ohren arbeitende Mikrophone. Der Chip analysiert die damit aufgegriffenen Signale auf "sehr ähnliche Weise" wie das menschliche Hörzentrum im Gehirn, beschreibt Audience. Er entscheidet, welche Signalanteile er entfernt, welche er behält und welche er verstärkt.

Dafür haben die Entwickler eine Reihe von Algorithmen implementiert, die sie unter der Bezeichnung Computational Auditory Scene Analysis (CASA) zusammenfassen. So erkennt er Eigenschaften von komplexen Signalgemischen, setzt deren Elemente zu Gruppen zusammen und verarbeitet sie. Dabei rastet er insbesondere auf die menschliche Stimme ein und filtert Hintergrundgeräusche laut Audience sogar dann noch heraus, wenn sie gegenüber der menschlichen Stimme überproportional laut sind.

Das Hardware-Paket, ausgeführt als System-on-a-Chip, unterdrückt zudem nicht näher beschriebene "irritierende Audio-Effekte" sowie Echos und verbessert so die Sprachqualität bei Telefonaten. Ein Sprecher sei so selbst dann noch gut vernehmbar, wenn er sich in einer lauten Umgebung aufhält, beispielsweise in einer Disco oder auf der Straße. Besonders die Echo-Unterdrückung sollte auch Telefonnetzbetreibern gefallen, denn die standardmäßig in den Telefonnetzen implementierten Unterdrückungsmechanismen mühen sich gelegentlich vergeblich mit dieser Aufgabe. Derzeit hat Audience erste Muster des earSmart eS110 parat, mit der Massenfertigung und ersten Mobiltelefonen mit earSmart könne man bis gegen Jahresende rechnen.
(dz)