Klar zu verstehen

Audience, ein kalifornisches Start-up, hat einen Chip entwickelt, der Umgebungsgeräusche bei Telefonaten mit dem Handy ausfiltern kann. Auch Spracherkennungssystemen könnte das helfen.

vorlesen Druckansicht
Lesezeit: 3 Min.
Von
  • Dean Takahashi

1989 ging Lloyd Watts an das California Institute of Technology (Caltech) in Pasadena, um seinen Doktor in Elektrotechnik zu machen – und dem Mikroelektronik-Pionier Carver Mead bei seinem Vorhaben zu helfen, das menschliche Gehirn besser zu verstehen. Watts Aufgabe: Er sollte herausfinden, wie genau der Signalweg beim Hören funktioniert.

Der Forscher beschäftigte sich die nächsten zwei Jahrzehnte mit dem Problem, bis seine Arbeit in den Aufbau des Start-ups Audience mündete. Die kalifornische Firma konnte inzwischen 45 Millionen Dollar an Risikokapital einsammeln und in diesem Jahr ihr erstes fertiges Produkt vorstellen: Einen Chip für Mobiltelefone, der eine große Zahl unterschiedlicher Hintergrundgeräusche herausfiltern kann. Selbst laute Durchsagen auf dem Flughafen sind kein Problem, wenn der Nutzer in der Nähe eines Lautsprechers steht. Die Technik hilft nicht nur bei Handy-Gesprächen mit echten Menschen, um stets verstanden zu werden, sondern soll sich auch bei Spracherkennungssystemen bezahlt machen. Die werden zwar immer cleverer, haben jedoch nach wie vor Probleme, die menschliche Stimme im Gewirr von Störgeräuschen herauszufiltern.

Vor der Gründung von Audience war Watts unter anderem bei Interval Research beschäftigt, einer inzwischen geschlossenen Firma des Microsoft-Mitbegründers Paul Allen. Dort und auch am Caltech baute er Computermodelle des Innenohrs auf. Auch die feinen Haarzellen, die die unterschiedlichen Geräuschfrequenzen (einige kümmern sich um hohe, andere um tiefe) wahrnehmen, konnten Watts und sein Team simulieren.

Bei Audience wurden diese Modelle weiter verfeinert und zu Algorithmen umgeformt, die sich in Hardware gießen lassen. Der dabei entstandene Chip untersucht die Frequenz, Dauer und Lautstärke von Geräuschen, die das Mikrofon des Mobiltelefons erreichen. Diese Informationen werden dann verwendet, um das Aufgenommene nach Quelle zu gruppieren. Alles, was dann als Umgebungslärm identifiziert wurde, wird vor der Übertragung herausgelöscht. Es bleibt nur noch die Stimme des Sprechers übrig.

Die Technologie "bildet das menschliche Hören nach – und zwar wortwörtlich", sagt Watts stolz. Er und sein Team hätten die Biologie des Gehirns untersucht und zusammen mit auf das Hören spezialisierten Neurowissenschaftlern entsprechende Innenohr-Simulationen aufgebaut. Das System kann in der jetzigen Version bis zu 25 Dezibel unterdrücken, die Konkurrenz schafft laut Watts nur 6 bis 12. Demonstrationschips werden bereits an Handy-Hersteller verkauft – zu Preisen zwischen 5 und 7 Dollar. Erster großer Kunde soll der japanische Elektronikkonzern Sharp sein, der die Technik im Netz des dortigen Branchenprimus NTT DoCoMo testen will.

Stephen Ohr, Analyst bei der Marktforschungsfirma Gartner, sagt, dass auch größere Konkurrenten wie AMI Semiconductor, Qualcomm und NXP an ähnlichen Technologien arbeiten. Zwar habe Audience derzeit zeitlich noch die Nase vorn. "Der Kampf auf dem Markt wird aber über Dinge wie Preis und Herstellungsqualität ausgetragen." Audience hat seinen Sitz in Mountain View und beschäftigt derzeit 50 Angestellte. Neben Gründer Watts leitet Peter Santos als CEO die Firma. (bsc)