"Lost in Translation" war gestern

Maschinelle Übersetzungen vom Arabischen oder Chinesischen ins Englische funktionieren bereits erstaunlich gut - auch mit Hilfe statistischer Methoden.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 5 Min.
Von
  • Stephen Ornes

Bei der Arbeit an Übersetzungsprogrammen, die Texte verschiedener Sprachen mit unterschiedlichen Alphabeten übertragen sollen, setzen Programmierer zunehmend auf eine Wissenschaft, die nur wenig mit grammatikalischen Regeln zu tun hat: Die Statistik.

Kürzlich brachte die amerikanische Standardisierungsbehörde National Institute of Standards and Technology (NIST) ihre jüngste Untersuchung zum aktuellen Stand der Dinge bei Übersetzungsalgorithmen heraus, in der jährlich analysiert wird, welcher Computeralgorithmus arabische und hochchinesische Texte am besten ins Englische übertragen kann: Sieger war Google – die Übersetzungssoftware der Suchmaschine erhielt bessere Bewertungen als 39 andere Anbieter. Ein vom Computer berechneter Wert namens "BLEU" ("BiLingual Evaluation Understudy") formulierte aus von professionellen menschlichen Übersetzern vergebenen Punkten eine Gesamtwertung. Je höher die Wertung, desto näher lag die maschinelle Übersetzung am menschlichen Vorbild.

"Wenn man eine solche Bewertung bekommt, leistet man gute Arbeit", erklärt Google-Forschungschef Peter Norvig. Schlechte Bewertungen ergäben sich vor allem dann, wenn etwas schief gehe oder man "eine Technik anwendet, die so neuartig ist, dass sie von den Punktrichtern nicht erkannt wird". Das Google-Team wird von Franz Och geleitet. Sein Algorithmus isoliert anfangs kurze Sequenzen von Wörtern in den Texten und durchsucht dann bereits bestehende Übersetzungen, um sich anzusehen, wie diese Wortsequenzen zuvor umgesetzt worden waren. Die Software sucht sich dann schließlich die wahrscheinlichste Interpretation – und zwar egal, wie der Satzbau ist.

"Wir suchen nach Ähnlichkeiten in mehreren Texten und finden dann verschiedene Übersetzungsmöglichkeiten. Dann nimmt man all diese Möglichkeiten und schaut, was an Hand der früheren Übersetzungen am wahrscheinlichsten ist", sagt Norvig.

Wenn man das gleiche Dokument, beispielsweise einen Zeitungsartikel, in zwei Sprachen vergleichen lässt, bildet die Software eine Art "aktives Gedächtnis", das Worte und Wendungen miteinander korreliert. Googles statistischer Weg folgt dabei einem organischen Ansatz beim Erlernen neuer Sprachen, meint Norvig. Statt jedes übersetzte Wort mit den Regeln und Ausnahmen der englischen Sprache abzugleichen, beginnt die Software ganz von vorne und baut sich so eine genaue Sicht auf die Sprache an sich auf. Sie "lernt" die Sprache quasi, wie sie verwendet wird, nicht wie sie den Menschen in grammatikalischen Regeln verordnet wurde. (Googles Software befindet sich derzeit noch in der Entwicklung, doch andere öffentlich zugängliche Web-Übersetzungshilfen nutzen ähnliche Methoden.)

"Dies ist ein natürlicher Weg, Sprache zu begegnen", meint Norvig. Das bedeute nicht, dass man grammatikalische Regeln nicht möge oder ein Vorgehen über selbige der falsche Weg sei. "Aber aktuell haben wir einfach nicht die richtigen Daten. Wir profitieren derzeit am meisten von grammatikalischen Regeln, wenn wir formal nicht benennen."

Nicht jedes Team hat die Ressourcen eines Unternehmens wie Google. Zwar wird inzwischen nahezu überall bei der maschinellen Übersetzung auch mit statistischen Ansätzen gearbeitet, doch der Einfluss der Linguistik bleibt bedeutend. An der Kansas State University forscht man an besseren Übersetzungen, in dem man nicht nur Informatiker beschäftigt, sondern auch Anthropologen, Sprachforscher und Psychologen. Zusammen sollen sie einen neuen Ansatz bei der maschinellen Übersetzung entwickeln. Gleichzeitig werden auch dort statistische Methoden verwendet, um Informationen aus bestehenden Texten zusammenzufassen und zu extrahieren – Techniken aus dem Data Mining helfen dabei.

Das Kansas State-Team unter Leitung des außerordentlichen Professors William Hsu reichte seinen Übersetzungsalgorithmus in diesem Jahr erstmals beim NIST ein. Die Truppe gehörte dabei nicht zu den einzigen Newcomern: Zwischen 2005 und 2006 verdoppelte sich die Anzahl der Teilnehmer am Wettbewerb. Das maschinell berechnete NIST-System BLEU schaut sich die Algorithmen dabei im Einzelnen gar nicht an. Stattdessen schickt das Institut Originaldokumente an die Teilnehmer, die dann die Texte mit ihrer Technik übersetzen lassen und sie dann wieder beim NIST zur Bewertung einreichen. Dabei wird vorausgesetzt, dass niemand schummelt. Nach der Prüfung der Ergebnisse kommen die Teilnehmer dann auf einer Konferenz zusammen, auf der sie ihre Ansätze und Ideen diskutieren können.

Mark Przybocki, Koordinator des Wettbewerbs, arbeitet seit Beginn des Programms 2001 an BLEU. Er glaubt, dass die vergangenen fünf Jahre deutliche Verbesserungen hervorgebracht haben: "Wenn Sie Übersetzungen von 2001 oder 2003 damit vergleichen, wissen sie sofort, wie viel sich getan hat."

Die jährliche NIST-Untersuchung ging aus einem Übersetzungsprojekt hervor, das von der US-Militärforschungsbehörde DARPA angestoßen wurde. Nachdem es beendet war, wurde den NIST-Mitarbeitern klar, dass es bislang keinen objektiven Maßstab für den Fortschritt der maschinellen Technik gab. Obwohl Übersetzungen durchaus ein subjektives Feld sind, bietet der BLEU-Test Wissenschaftlern nun eine Infrastruktur an, mit der sie ihre Technik messen und diskutieren können. Ganz egal, ob man eher einen statistischen oder einen linguistischen Ansatz wählt – ohne solche Werkzeuge kommt das Forschungsgebiet nicht voran. Vielleicht entstehen so ja interessante Hybriden aus beiden Ansätzen.

Przybocki ist jedenfalls von seinem Forschungsgebiet begeistert - die Technik sei noch so jung und spannend. Es sei allerdings schwer zu sagen, welcher Ansatz in Zukunft der dominierende sein werde.

Übersetzung: Ben Schwan. (wst)