0
本文作者: 我在思考中 | 2021-11-25 17:54 |
然而,上面提到的場景往往有一個共同點,那就是被翻譯的文本往往是不規(guī)范的。無論是聊天時手誤導致的錯別字,還是視頻語音原文識別的錯誤,都會極大地影響譯文質量。因此,實際應用場景下的機器翻譯對翻譯模型的魯棒性有很高的要求。
今天就為大家介紹一篇由字節(jié)跳動人工智能實驗室火山翻譯團隊發(fā)表在 EMNLP 2021 Findings 的短文 - Secoco: Self-Correcting Encoding for Neural Machine Translation。這篇論文讓翻譯模型在學習翻譯任務的同時,學習如何對輸入的帶噪文本進行糾錯,從而改善翻譯質量。
神經機器翻譯在近些年取得了很大進展,但是大部分工作都是基于干凈的數(shù)據集。在現(xiàn)實生活中,神經機器翻譯系統(tǒng)面對的輸入往往都是包含噪聲的,這對翻譯模型的魯棒性提出了很大挑戰(zhàn)。
之前的翻譯魯棒性工作主要分為三類:
第一類是針對模型生成對抗樣例,這些生成的對抗樣例被用于一起重新訓練模型。
第二類是針對訓練數(shù)據,通過過濾訓練數(shù)據中的噪聲來提升模型質量。
第三類則是專注于處理輸入中包含的天然噪聲,他們使用規(guī)則,回翻等方法來合成噪聲,并混合到原始數(shù)據中一起訓練。
可以看到,大部分的工作都專注于如何生成噪聲,很少探究如何進一步使用它們;本文則想要通過建模從噪聲數(shù)據到干凈數(shù)據的修正過程,從而增強模型的魯棒性。
作者針對神經機器翻譯提出了具有魯棒性的自修正框架Secoco (Self-correcting Encoding)。
圖2 整體模型架構
雖然這種迭代編輯的過程每一步都需要前面的操作,但是為了簡化訓練過程,插入預測器和刪除預測器都是相互獨立的,并與普通的翻譯任務同時進行訓練。
一個關鍵的問題是如何生成這些訓練數(shù)據?關鍵點在于獲取從帶噪數(shù)據轉化為干凈數(shù)據的編輯操作。作者提供了兩種方式。一種是針對有帶噪數(shù)據和對應干凈 reference 數(shù)據的情況,一種是沒有帶噪數(shù)據的情況。
對于有reference的數(shù)據,可以使用類似計算最短編輯距離的方法,獲取從帶噪數(shù)據轉化為干凈數(shù)據的最短編輯過程,然后將替換操作轉化為刪除-插入操作。
對于沒有reference的數(shù)據,可以使用基于規(guī)則的方法生成偽數(shù)據。針對不同的場景,可以設計對應的規(guī)則,然后從干凈的數(shù)據中生成帶噪數(shù)據,最后反向這個過程就可以得到編輯過程。
訓練完成后,便可以進行解碼。正如圖2右側展示的,Secoco 有兩種解碼方式。第一種是僅使用編碼器-解碼器結構直接進行翻譯 (Secoco-E2E),另一種則是對輸入進行迭代編輯后再進行翻譯 (Secoco-Edit)。
作者在三個測試集進行了實驗,包括一個基于電視劇的中英對話測試集,一個內部的中英語音翻譯測試集,以及加入人工噪聲的英德WMT14測試集。
表1 測試集統(tǒng)計
如表1所示,對話測試集包含主語省略,標點省略,錯別字等問題;語音測試集包含口語詞,錯別字等 ASR 引起的問題;WMT14 則包含由規(guī)則構造的隨機插入,隨機刪除,重復等問題。
實驗結果如表2所示。除了 Secoco 之外,作者還和3種方法進行了對比,分別是將合成的噪聲數(shù)據加入原始數(shù)據中一起訓練 (BASE+synthetic);使用修復模型加上翻譯模型的 pipeline 級聯(lián)結構 (REPAIR);以及多編碼器-單解碼器的結構 [1] (RECONSTRUCTION)??梢钥闯觯械姆椒ㄏ噍^于基線模型都有所提升。Secoco 在三個測試集上都獲得了最好的效果。
表2 實驗結果
此外,在這三個測試集中,對話測試集明顯包含更多的噪聲,Secoco 最多可以帶來3個 BLEU 的提升。語音測試集由于是由 ASR 導出的,因此最好的結果也僅有12.4。
表3 迭代編輯樣例
表格3中給出了一些迭代編輯的具體例子。針對每一句輸入,模型對其進行迭代刪除和插入操作,直到文本不再發(fā)生變化。從例子中可以看到,一次編輯操作可以同時刪除或者插入多個詞。此外,對于上述的測試集,平均每個句子需要2-3次編輯操作。
針對互聯(lián)網中非規(guī)范輸入帶來的魯棒性問題,本文主要介紹了一個具有自我修正能力的神經機器翻譯框架 Secoco,該框架通過兩個獨立的編輯操作預測器建模修正帶噪輸入的過程。實驗表明,Secoco 在多個測試集上都優(yōu)于基線模型,增強了翻譯模型的魯棒性,并提供了一定的可解釋性。
雷峰網(公眾號:雷峰網)
雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知。