0
本文作者: 我在思考中 | 2022-04-28 10:00 | 專題:ACL 2019 |
作者 | Antonio
ACL 2022已經(jīng)于近期正式在官網(wǎng)上刊登了錄取的文章,其中涉及到詞義消歧(Word Sense Disambiguation, WSD)的文章共有4篇,參考下圖的查詢。
WSD是指識別出有多個義項的目標(biāo)詞匯在上下文中的含義,是NLP中一個重要并且具有NP-hard復(fù)雜度的任務(wù),不僅可以幫助機器更好地識別詞匯語義,還對機器翻譯、文本理解等下游任務(wù)起到輔助作用。
本文簡要整理并介紹其中已經(jīng)公布了論文全文的前三篇,值得注意的是,這三篇都出自同一個課題組,即來自意大利羅馬一大的Sapienza NLP,導(dǎo)師為Roberto Navigli。
(ACL 22上關(guān)于WSD的論文)
論文題目:Nibbling at the Hard Core ofWord Sense Disambiguation
下載鏈接:https://www.researchgate.net/publication/359468349_Nibbling_at_the_Hard_Core_of_Word_Sense_Disambiguation
本文是一篇評測以往的WSD方法的分析型論文,并根據(jù)對于當(dāng)前方法的不足,提出了更加富有挑戰(zhàn)性的數(shù)據(jù)集和評測指標(biāo)。具體而言:
論文鏈接:https://www.researchgate.net/publication/359280784_DiBiMT_A_Novel_Benchmark_for_Measuring_Word_Sense_Disambiguation_Biases_in_Machine_Translation
一詞多義現(xiàn)象在機器翻譯中顯得尤為突出,這也是機器翻譯中常常出現(xiàn)的偏差的原因。文章研究了機器翻譯中的多義性偏差現(xiàn)象,并且提出了一個全新的測試基準(zhǔn),包含針對多種語言的測試集以及評價指標(biāo)。具體來看,文章的貢獻有:
文章詳細描述了句子的收集過程,包括語言庫選擇、句子清洗和過濾、數(shù)據(jù)集標(biāo)注等。下圖展示了數(shù)據(jù)集的標(biāo)注統(tǒng)計量:
其中數(shù)據(jù)集主要收集了名詞和動詞。之后由于數(shù)據(jù)集是從BabelNet中收集的,文中則定義了好的和壞的釋義集,并且統(tǒng)計了多大比例的釋義被標(biāo)注者添加(OG);多大比例被移除(RG)和兩句例句使用同一釋義的比例(SL),統(tǒng)計量如下:
從準(zhǔn)確率上可以看出,DeepL的性能要顯著得比其它方法更好。
在細粒度分析歧義的新指標(biāo)上,也有類似的趨勢:
之后,文章還探討了很多有意思的語言學(xué)分析,比如,是否動詞要比名詞更難翻譯?編碼器是否真的可以去歧義等等?有興趣的讀者可以找來文章細細閱讀。
代碼和評測平臺之后會放出:https://nlp.uniroma1.it/dibimt
論文鏈接:https://www.researchgate.net/publication/359392427_ExtEnD_Extractive_Entity_Disambiguation
文章對WSD內(nèi)的一個更加細粒度的實體去歧義的任務(wù)進行了新的方式去定義,即把它當(dāng)作一個文本抽取的任務(wù),并且采用兩個Transformer模型架構(gòu)實現(xiàn)(命名為EXTEND)。EXTEND在6個評價數(shù)據(jù)庫中有4個在F1 score上都達到了SOTA水平。
實體是指關(guān)系網(wǎng)絡(luò)中的節(jié)點,相比WSD中更加寬泛的詞匯,實體名詞往往更具有實際意義,并且更有多義性的可能性,下面展示了一個例子,選出Metropolis可能指的是哪個場景下的。
具體而言,如下圖,EXTEND架構(gòu)首先將輸入的上下文和所有的候選項拼接在一起,模型的輸出則是目標(biāo)選項的起始和終止的單詞索引。其中,提取特征的部分是Longformer,之后的head采用簡單的FC輸出每一個詞匯可能成為起始和終止的概率。
事實上,將WSD定義為這種文本提取的方式在之前的方法ESC和ESCHER中被兩次用到(都是同一位作者),其中的ESCHER方法是當(dāng)前WSD的SOTA方法,這啟發(fā)我們這種截取式方式的有效性。
以下是模型在6個數(shù)據(jù)集上的表現(xiàn),它在其中的4個上面達到了最優(yōu)的水平。
雷峰網(wǎng)雷峰網(wǎng)(公眾號:雷峰網(wǎng))
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。