丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能 正文
發(fā)私信給小牛翻譯
發(fā)送

0

NLP領(lǐng)域預訓練模型的現(xiàn)狀及分析

本文作者: 小牛翻譯 編輯:賈偉 2019-11-01 14:49
導語:發(fā)展及變種~

作者 |  王澤洋

單位 | 小牛翻譯

王澤洋 東北大學自然語言處理實驗室研究生,研究方向為機器翻譯。

小牛翻譯,核心成員來自東北大學自然語言處理實驗室,由姚天順教授創(chuàng)建于1980年,現(xiàn)由朱靖波教授、肖桐博士領(lǐng)導,長期從事計算語言學的相關(guān)研究工作,主要包括機器翻譯、語言分析、文本挖掘等。團隊研發(fā)的支持140種語言互譯的小牛翻譯系統(tǒng)已經(jīng)得到廣泛應用,并研發(fā)了小牛翻譯云(https://niutrans.vip)讓機器翻譯技術(shù)賦能全球企業(yè)。


預訓練的方法最初是在圖像領(lǐng)域提出的,達到了良好的效果,后來被應用到自然語言處理。預訓練一般分為兩步,首先用某個較大的數(shù)據(jù)集訓練好模型(這種模型往往比較大,訓練需要大量的內(nèi)存資源),使模型訓練到一個良好的狀態(tài),然后下一步根據(jù)不同的任務(wù),改造預訓練模型,用這個任務(wù)的數(shù)據(jù)集在預訓練模型上進行微調(diào)。

這種做法的好處是訓練代價很小,預訓練的模型參數(shù)可以讓新的模型達到更快的收斂速度,并且能夠有效地提高模型性能,尤其是對一些訓練數(shù)據(jù)比較稀缺的任務(wù),在神經(jīng)網(wǎng)絡(luò)參數(shù)十分龐大的情況下,僅僅依靠任務(wù)自身的訓練數(shù)據(jù)可能無法訓練充分,預訓練方法可以認為是讓模型基于一個更好的初始狀態(tài)進行學習,從而能夠達到更好的性能。


一、預訓練方法發(fā)展

基于詞嵌入的預訓練方法

2003年,Bengio等人提出了神經(jīng)語言模型(Neural Network Language Model)[1]神經(jīng)語言模型在訓練過程中,不僅學習到預測下一個詞的概率分布,同時也得到了一個副產(chǎn)品:詞嵌入表示。相比隨機初始化的詞嵌入,模型訓練完成后的詞嵌入已經(jīng)包含了詞匯之間的信息。2013年,Mikolov等人提出了word2vec工具,其中包含了CBOW(Continue Bag of Words)模型和Skip-gram模型[2-3],該工具僅僅利用海量的單語數(shù)據(jù),通過無監(jiān)督的方法訓練得到詞嵌入。

基于語言模型的預訓練方法

詞嵌入本身具有局限性,最主要的缺點是無法解決一詞多義問題,不同的詞在不同的上下文中會有不同的意思,而詞嵌入對模型中的每個詞都分配了一個固定的表示。針對上述問題,Peters等人提出了ELMo(Embedding from Language Model)[4],即使用語言模型來獲取深層的上下文表示。ELMo的具體做法是,基于每個詞所在的上下文,利用雙向LSTM的語言模型來獲取這個詞的表示。ELMo的方法能夠提取豐富的特征給下游任務(wù)使用,但是ELMo僅僅進行特征提取而沒有預訓練整個網(wǎng)絡(luò),遠遠沒有發(fā)揮預訓練的潛力,另外一個不足之處是,自注意力機制的Transformer模型結(jié)構(gòu),相比LSTM能夠更有效地捕獲長距離依賴,對句子中信息進行更充分的建模。

針對上述兩個問題,Radford等人提出了 GPT Generative Pre-Training)[5],即生成式的預訓練。GPT將LSTM換成了Transformer,獲得了更高的成績,但是由于使用的是單向模型,只能通過前面詞預測后面的詞,可能會遺漏信息。Devlin等人提出了BERT(Bidirectional Encoder Representations from Transformers)[6],即基于Transformer的雙向編碼器表示。BERT和GPT的結(jié)構(gòu)和方法十分相似,最主要的不同之處在于GPT模型使用的是單向語言模型,可以認為是基于Transformer的解碼器表示,而BERT使用的基于Transformer的編碼器能夠?qū)碜赃^去和未來的信息進行建模,能夠提取更豐富的信息。三個預訓練模型的圖如下所示:

NLP領(lǐng)域預訓練模型的現(xiàn)狀及分析

BERT提出后大火,也許是因為BERT的效果太好。目前絕大多數(shù)的預訓練模型都是在BERT上改造而來。清華大學的王曉智和張正彥同學給出了目前的預訓練模型關(guān)系圖,這里引用一下,如下圖所示:

NLP領(lǐng)域預訓練模型的現(xiàn)狀及分析

下面主要介紹幾個BERT變種模型。


二、Cross-lingual Language Model Pretraining(XLM)[7]

在這項工作中,作者將預訓練方法擴展到多種語言并展示跨語言預訓練的有效性。筆者認為,這篇工作的創(chuàng)新點有兩個:設(shè)計了一個用于多語言分類的跨語種的語言模型訓練任務(wù);將BERT作為模型初始化用到無監(jiān)督機器翻譯上。

1、多語言分類任務(wù)

雖然BERT也經(jīng)過了100多種語言的訓練,但并未針對跨語言任務(wù)進行優(yōu)化,因此共享的知識有限。為了克服這個問題,XLM通過以下方式改造了BERT:

在BERT中,每個樣本是用一種語言構(gòu)建的。XLM對它的改進是每個訓練樣本都包含兩種語言的相同文本。與BERT一樣,該模型的目標是預測被屏蔽的詞,但采用新的體系結(jié)構(gòu),該模型可以使用一種語言的上下文來預測另一種語言的詞。因為不同語種的被屏蔽詞是不同的(隨機)。改造后的BERT表示為翻TLM(Translation Language Model),而帶有BPE輸入的“原始” BERT表示為MLM(Masked Language Model)。通過訓練MLM和TLM并在它們之間交替進行訓練來訓練完整的模型。

NLP領(lǐng)域預訓練模型的現(xiàn)狀及分析

XLM說明訓練一種跨語言的語言模型對于資源匱乏的語言可能非常有好處,因為它們可以利用來自其他語言的數(shù)據(jù),尤其是由于BPE預處理而產(chǎn)生的相似語言。

2、無監(jiān)督機器翻譯

XLM做的另一個工作是,利用BERT初始化無監(jiān)督模型的Encoder和Decoder。具體做法是在Transformer的Encoder端和Decoder端,進行隨機初始化、MLM初始化或者CLM初始化(具體如圖),共得到9種不同的結(jié)構(gòu)。

NLP領(lǐng)域預訓練模型的現(xiàn)狀及分析


三、Masked Sequence to Sequence pre-training(MASS) [8]

BERT的預訓練是在Transformer的Encoder上進行預訓練,所以BERT天然比較親和自然語言理解的任務(wù),而很難應用于像機器翻譯這樣的語言生成類任務(wù)。

微軟的工作者認為BERT單純預訓練了Transformer的Encoder部分,但是對于端到端的任務(wù),Encoder-Decoder是有關(guān)聯(lián)的,如果用BERT初始化Encoder端和Decoder端,兩端只是分別訓練好的沒有什么聯(lián)系。于是為了解決這個問題,微軟的工作中提出了MASS(Masked Sequence to Sequence pre-training)。

NLP領(lǐng)域預訓練模型的現(xiàn)狀及分析

MASS是在Encoder端和Decoder端通過語言模型預訓練。與BERT不同的是mask掉的詞是k個(這k個詞是連續(xù)的),Decoder中只輸入前k-1個被mask掉的詞,預測被mask掉的k個詞。MASS的優(yōu)勢有:

  • Encoder被強制去抽取未被屏蔽掉詞的語義,以提升Encoder理解源序列文本的能力。

  • Encoder端其它詞(在Encoder端未被屏蔽掉的詞)都被屏蔽掉,可以讓Decoder從Encoder端提取信息來幫助連續(xù)片段的預測。

  • Encoder預測連續(xù)的序列片段可以提升Encoder的語言建模能力。

MASS只需要無監(jiān)督的單語數(shù)據(jù)進行預訓練。MASS支持跨語言的序列到序列生成(比如機器翻譯),也支持單語言的序列到序列生成(比如文本摘要生成、對話生成)。比如用MASS做英法的機器翻譯時,在一個模型里同時進行英語到英語以及法語到法語的預訓練(單獨給每個語言加上相應的語言嵌入向量,用來區(qū)分不同的語言)。

至于效果,在WMT19中,MASS幫助微軟獲得了多項翻譯的冠軍,具體可以查看WMT19的榜單。


四、XLNet: Generalized Autoregressive Pretraining for Language Understanding

自回歸語言模型是單向的但是天然匹配自然語言生成任務(wù),自編碼(BERT)可以融合雙向信息但是引入MASK導致預訓練和Fine-tuning階段的不一致。XLNET融合了自回歸語言模型和自編碼語言模型的優(yōu)點。XLNET在模型方面的貢獻在于,隨然看上去仍然是從左向右的輸入和預測模式,但是其實內(nèi)部已經(jīng)引入了當前單詞的下文信息。

NLP領(lǐng)域預訓練模型的現(xiàn)狀及分析

在預訓練階段,引入Permutation Language Model的訓練目標。簡單點來說就是固定當前要預測的詞,通過調(diào)換其余詞的位置,將預測詞后邊的詞換到當先此的前邊,在隨機排列組合后的各種可能里,再選擇一部分作為模型預訓練的輸入。這樣當前詞就能看到上下文的內(nèi)容了,但是形式上看上去仍然是從左到右在預測后一個單詞。具體的實現(xiàn)可以看XLNET的論文。

除此之外,引入了Transformer-XL的主要思路:相對位置編碼以及分段RNN機制。實踐已經(jīng)證明這兩點對于長文檔任務(wù)是很有幫助的;在預訓練階段極大擴充了數(shù)據(jù)規(guī)模,并對質(zhì)量進行了篩選過濾。

相對于BERT模型,XLNET對于長文檔的應用有明顯的提升,因為Transformer天然對長文檔任務(wù)處理有弱點。上文提過,對于生成類的NLP任務(wù),BERT仍然不能很好地處理。而XLNET的預訓練模式天然符合下游任務(wù)序列生成結(jié)果。但是目前還沒有實驗證明。

五、結(jié)論

從BERT的各類變種就可以看出BERT和Transformer的火爆程度,筆者認為目前預訓練+下游任務(wù)微調(diào)有一統(tǒng)自然語言領(lǐng)域的趨勢。預訓練不僅在低資源任務(wù)上有很高的提升作用,甚至在豐富資源的任務(wù)上對模型性能也有顯著的提高。如果沒有超越Transformer的特征提取模型提出的話,相信在BERT上各類的改造會層出不窮,以適應不同類型的下游任務(wù)。還有的預訓練模型在BERT基礎(chǔ)上引入知識圖譜等,讓BERT變得更加“有知識”,如清華大學的ERNIE[10]。

既然各類不同的任務(wù)對預訓練模型進行不同的改造,那能不能有一種預訓練模型,可以適應全部的NLP任務(wù)呢,近期谷歌剛剛發(fā)布了超大規(guī)模的T5(NLP Text-to-Text)[11]預訓練模型。它給整個 NLP 預訓練模型領(lǐng)域提供了一個通用框架,把所有任務(wù)都轉(zhuǎn)化成一種形式,無論什么任務(wù),直接拿來一個超大預訓練模型,然后主要工作就變成了怎么把任務(wù)轉(zhuǎn)換成合適的文本輸入輸出,,比如德英翻譯,只需將訓練數(shù)據(jù)集的輸入部分前加上“translate German to English”。

另外的思路是,不是改造預訓練的模型,而是將龐大的預訓練模型進行壓縮,比如近期的alBERT,通過共享參數(shù)、引入單獨的詞嵌入層維度來減少BERT的參數(shù)。最終性能也登上GLUE第一(剛剛被T5超過)。還有通過知識蒸餾技術(shù),訓練出的tinyBERT等,都是對BERT模型進行的模型壓縮。

參考文獻

[1] Bengio Y, Ducharme R, Vincent P, et al. A neural probabilistic language model. 

[2] Mikolov T, Chen K, Corrado G S, et al. Efficient Estimation of Word Representations in Vector Space. 

[3] Mikolov T, Sutskever I, Chen K, et al. Distributed Representations of Words and Phrases and their Compositionality. 

[4] Matthew Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, and Luke Zettlemoyer. 2018. Deep Contextualized Word Representations.

[5] Alec Radford, Karthik Narasimhan, Tim Salimans, and Ilya Sutskever. 2018. Improving Language Understanding by Generative Pre-Training. 

[6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. 2018.  BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding.

[7] Guillaume Lample and Alexis Conneau. 2019. Cross-lingual Language Model Pretraining.

[8] Kaitao Song, Xu Tan, Tao Qin, Jianfeng Lu, and Tie-Yan Liu. 2019. MASS: Masked Sequence to Sequence Pre-training for Language Generation.

[9] Zhilin Yang, Zihang Dai, Yiming Yang, Jaime Carbonell, Ruslan Salakhutdinov, and Quoc V. Le. 2019. XLNet: Generalized Autoregressive Pretraining for Language Understanding.

[10] Zhengyan Zhang, Xu Han, Zhiyuan Liu1, Xin Jiang, Maosong Sun1, Qun Liu. ERNIE: Enhanced Language Representation with Informative Entities.

[11] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee,et al. Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer.

雷鋒網(wǎng)編輯

相關(guān)文章:

面向神經(jīng)機器翻譯的篇章級單語修正模型

神經(jīng)結(jié)構(gòu)搜索在機器翻譯中的應用

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

NLP領(lǐng)域預訓練模型的現(xiàn)狀及分析

分享:
相關(guān)文章
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說