Babelfisch 0.1

Ein neues, experimentelles System von Microsoft Research überträgt das Stimmprofil einer Person auf einen gesprochenen Text in einer fremden Sprache.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Lesezeit: 3 Min.
Von
  • Tom Simonite

Ein neues, experimentelles System von Microsoft Research überträgt das Stimmprofil einer Person auf einen gesprochenen Text in einer fremden Sprache.

Es geht vielleicht doch ohne seltene galaktische Tierarten: Microsoft-Forscher haben einen weiteren Schritt hin zu einem maschinellen Simultanübersetzer gemacht, mit dessen Hilfe man eines Tages eine fremde Sprache mit der eigenen Stimme sprechen könnte – ohne sie zu beherrschen. Hierfür analysierten die Wissenschaftler Stimmprofile im Englischen, die sie anschließend auf andere Sprachen anwandten.

In einer Demonstration der neuen Technologie ließ man Forschungsleiter Rick Rashid plötzlich spanisch sprechen, während Craig Mundie, der bei Microsoft Forschung und Unternehmensstrategie verantwortet, in Mandarin-Chinesisch zu hören war. Mundies Stimme etwa war in der chinesischen Version seiner Begrüßungsansprache erkennbar, auch wenn der maschinelle Charakter noch klar hervorsticht (Demos von Rick Rashids Stimme in spanisch, italienisch und chinesisch gibt es hier).

„Wir können uns damit jetzt an einige Anwendungsszenarios machen“, sagt Frank Soong, der das System mit Kollegen von Microsoft Research Asia in Peking entwickelt hat. Ein Reisender, der nur seine Muttersprache beherrscht, könnte damit in einem fremden Land die dortige Sprache annehmen. Der gesprochene Originaltext werde nacheinander durch eine Spracherkennung, eine Übersetzung und eine Sprachsynthese geschickt, sagte Soong.

Er sieht auch Einsatzmöglichkeiten beim Erlernen einer neuen Sprache. Wenn Lernende einen fremden Satz mit ihrer eigenen Stimme vorgesprochen bekommen, könnte das stimulierend wirken, glaubt Soong. Aber auch Navigationsapps könnten davon profitieren. Soong zeigte, wie eine synthetische Stimme ansatzlos vom Englischen ins Chinesische wechselte, um Straßenschilder in Peking als Teil einer Routenbeschreibung vorzulesen.

Um ein Stimmprofil zu erstellen, muss das neue Microsoft-System eine Stunde mit Beispieltexten eines Sprechers trainiert werden. Bei der Übertragung von der Ausgangs- in eine Zielsprache wird das Stimmprofil dann auf deren charakteristische Laute umgerechnet. Das System könne bereits zwischen 26 Sprachen hin und her übersetzen, sagt Soong.

Die Eigenarten der eigenen Stimme und Aussprache zu erhalten, werde den Umgang mit Übersetzungsprogrammen verbessern, hofft Shrikanth Narayanan von der University of Southern California in Los Angeles. Er selbst leitet eine Forschungsgruppe, die an automatisierten simultanen Übersetzungen für Gespräche zwischen Arzt und Patient arbeitet. In einer Einwanderergesellschaft wie Kalifornien sicher keine schlechte Idee.

„Ein Wort ist nur ein Teil dessen, was ein Mensch sagt“, betont Narayanan. Stimmliche Nuancen seien ebenfalls wichtig. „Unsere Systeme müssen den persönlichen Ausdruck, mit dem etwas gesagt wird, erfassen und übertragen, damit klar wird, wer spricht und wie jemand spricht.“

Narayanans Gruppe untersucht hierfür, wie Betonung, Tonfall oder auch ein Zögern beim Sprechen auf die Qualität einer maschinellen Übersetzung auswirken. „Das Microsoft-Projekt trägt dazu bei, diese Idee wahr werden zu lassen“, sagt Narayanan. (nbo)