0
本文作者: 小東 | 2016-11-16 17:41 |
大家都知道,歐盟擁有 24 種官方語言,理想情況下,歐盟的翻譯官們應(yīng)該能夠隨時從一種語言直譯到另一種語言,但這種翻譯組合實在是太多了,高達(dá) 576 種,所以他們選擇英語當(dāng)做中間語言來解決這一問題。
同樣地,我們的谷歌工程師們也面臨著同樣的問題,但谷歌面臨的麻煩要更大一點,因為他們需要翻譯的語言種類要比歐盟的官方語言多,達(dá)到 100 多種,(例如:英語翻法語是一種組合,而法語翻英語又是另一種組合),而這些翻譯組合會高達(dá)上萬種。
如果為每一種組合訓(xùn)練一種神經(jīng)翻譯模型的話,那么就需要訓(xùn)練上萬個。真的是好多??!但是現(xiàn)在不要了,我們只需要一個模型就可以解決這些問題。近日,來自谷歌的工程師門發(fā)表了一篇論文,上面提到如何只用一個模型實現(xiàn)多語言之間的翻譯。這個模型被稱為 NMT 模型。 NMT 模型的訓(xùn)練不需要任何語言學(xué)知識,且具有模型簡單、翻譯質(zhì)量高等優(yōu)點。它基于原有的單一語言翻譯模型,但不需要對原有翻譯模型進(jìn)行任何修改,便可實現(xiàn)多語言之間的翻譯。
論文顯示這種新方法有三個優(yōu)點:
一、簡單,即減少需要訓(xùn)練的模型數(shù);
二、改善翻譯質(zhì)量。尤其是那些訓(xùn)練語料不足的語言;
三、具有‘zero shot’翻譯能力,即如果我們訓(xùn)練一個模型可以將葡萄牙語翻譯成英語,然后在訓(xùn)練一下讓其可以實現(xiàn)英語到西班牙語之間的翻譯,此時神奇的一幕出現(xiàn)了,我們雖然并沒有進(jìn)行葡萄牙語到西班牙語之間的翻譯,但是此時模型仍然可以實現(xiàn)葡萄牙語到西班牙語之間的正確翻譯。
谷歌宣稱這是世界首次研發(fā)出 zero-shot 翻譯。很明顯,zero-shot 還具有明顯的速度優(yōu)勢,它可以使解碼時間減半。 其另一個優(yōu)勢就是可以實現(xiàn)句間轉(zhuǎn)換。如果一個句子中包含不止一種語言,它照樣可以翻譯。這樣如果一個大的數(shù)據(jù)集中如果包含多種語言,那么它照樣可以實現(xiàn)翻譯。論文的最后,谷歌翻譯人員用BLEU方法對翻譯結(jié)果進(jìn)行評判,發(fā)現(xiàn)結(jié)果改善不少。
實際上,神經(jīng)機器翻譯還有很長的路要走。谷歌貌似已經(jīng)將 NMT 推廣到了其它語言翻譯上,例如英語到德語的翻譯。在我們對谷歌翻譯進(jìn)行的隨機測試中,我們發(fā)現(xiàn)其翻譯流暢度有所提升,但仍有一些漏翻或誤翻。
論文簡介:《Google's Multilingual Neural Machine Translation System: Enabling Zero-Shot Translation》
我們用一個簡單而優(yōu)雅的多語言神經(jīng)機器翻譯模型解決了多種語言之間的翻譯問題,這個模型與原有模型對比并沒有任何改變,只是在輸入句子時引入了一個變量,以標(biāo)明需要翻譯的目標(biāo)語言是什么。后面的編碼、解碼、注意力模型在所有語言中都一樣,詞表也共享,參數(shù)無需要增加。
與我們起初的設(shè)計相比,實現(xiàn)了極大的簡化。在保持參數(shù)值不變的情況下,翻譯質(zhì)量居然還有所提升。在WMT'14 測試中,我們的模型在英法翻譯中不比任何模型差,在英德翻譯中比任何模型好,在多語言測試中,我們的模型在 14 年法英、15 年德英翻譯中效果最優(yōu)。我們的模型不僅可以對 12 種語言對(例如英法、法英,這是兩個語言對)進(jìn)行翻譯,而且其翻譯效果也比大多數(shù)單語言對的翻譯模型還要好。除此之外、對于沒有訓(xùn)練過的語言對,我們的模型仍然可以學(xué)習(xí),這就表明神經(jīng)網(wǎng)絡(luò)是可以實現(xiàn)遷移學(xué)習(xí)與‘zero-shot’翻譯的,在文章最后我們將向大家介紹一些在混合翻譯中發(fā)生的一些趣事。
via SLATOR
推薦閱讀:
嚇到我們的新Google翻譯,在學(xué)者看來只是小進(jìn)步
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。