0
本文作者: AI研習(xí)社 | 2020-04-16 10:21 |
在序列標(biāo)注模型中使用位置注意力進(jìn)行抽取實(shí)體與重疊關(guān)系的聯(lián)合抽取
將混合CTC/Attention方法嵌入到Transformer結(jié)構(gòu)中實(shí)現(xiàn)在線端到端的流式語音識別架構(gòu)
基于人工反向修正數(shù)據(jù)的差異學(xué)習(xí)
利用一種基于多屬性鄰近度的方法從可比較的新聞?wù)Z料庫中挖掘事件
Skip-Thought向量
論文名稱:Joint extraction of entities and overlapping relations using position-attentive sequence labeling
作者:Dai Dai / Xinyan Xiao / Yajuan Lyu / Shan Dou / Qiaoqiao She / Haifeng Wang
發(fā)表時(shí)間:2019/7/17
論文鏈接:https://paper.yanxishe.com/review/16071?from=leiphonecolumn_paperreview0416
推薦原因
本文設(shè)計(jì)了一種基于位置信息和上下文信息的注意力機(jī)制,同時(shí)將一個(gè)關(guān)系抽取任務(wù)拆成了n(n為句子的長度)個(gè)序列標(biāo)注子任務(wù),一個(gè)階段即可將實(shí)體、關(guān)系等信息抽取出來。
本文發(fā)表時(shí)在兩個(gè)數(shù)據(jù)集上達(dá)到了SOTA,并且對于跨度長的關(guān)系、重疊關(guān)系表現(xiàn)尤其好。
作者創(chuàng)造性的設(shè)計(jì)了一種標(biāo)注方案(tag scheme),拆分關(guān)系抽取任務(wù),更巧妙的是,設(shè)計(jì)了位置注意力機(jī)制,將多個(gè)序列標(biāo)注任務(wù)放在同一個(gè)BLSTM模型中同時(shí)訓(xùn)練,讓我對注意力機(jī)制的理解更深了一層。
論文名稱:TRANSFORMER-BASED ONLINE CTC/ATTENTION END-TO-END SPEECH RECOGNITION ARCHITECTURE
作者:Haoran Miao /Gaofeng Cheng /Changfeng Gao /Pengyuan Zhang /Yonghong Yan
發(fā)表時(shí)間:2020/1/15
論文鏈接:https://paper.yanxishe.com/review/15406?from=leiphonecolumn_paperreview0416
推薦原因
為了有效地解決在線流式語音識別問題,作者先前提出了一種以BILSTM為基礎(chǔ)結(jié)構(gòu)的流式語音識別模型,本文是對上述的模型進(jìn)行改進(jìn),一方面,采用transformer結(jié)構(gòu),并對其decoder的注意力模塊進(jìn)行改造,以提高識別CER分?jǐn)?shù)。另一方面,對先前提出的將語音輸入分割為chunks的方法進(jìn)行改進(jìn),重用了部分重合的chunks的的hidden state,以減少識別耗時(shí)。
本文最終達(dá)到了23.66%的CER分?jǐn)?shù),并且僅有320ms的延時(shí),同時(shí),相對于離線的基線模型,CER分?jǐn)?shù)僅損失了0.19%,大大提升了識別效果。
注:代碼不是本文的實(shí)現(xiàn)代碼,僅僅包含了本文改進(jìn)的注意力機(jī)制部分。
論文名稱:LEARNING THE DIFFERENCE THAT MAKES A DIFFERENCE WITH COUNTERFACTUALLY-AUGMENTED DATA
作者:Divyansh Kaushik /Eduard Hovy /Zachary C. Lipton
發(fā)表時(shí)間:2019/9/6
論文鏈接:https://paper.yanxishe.com/review/15283?from=leiphonecolumn_paperreview0416
推薦原因
1 當(dāng)前很多優(yōu)秀的NLP模型,對數(shù)據(jù)中的虛假模式十分敏感,比如將文本分類模型中的關(guān)鍵詞用同義詞替代會使得模型效果大幅度降低,僅使用對話系統(tǒng)的問題或內(nèi)容,在一些模型下,得到的結(jié)果與使用全部信息差別不大,等等。
2 針對以上問題,作者以一個(gè)情感分析和句子推理的數(shù)據(jù)集為基礎(chǔ),在眾包平臺上招募作者對數(shù)據(jù)集進(jìn)行反向修正,在盡量不修改樣本結(jié)構(gòu)的情況下,讓樣本轉(zhuǎn)變相反的標(biāo)簽,并以此為基礎(chǔ)在一系列機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的模型上進(jìn)行訓(xùn)練,并且驗(yàn)證了作者認(rèn)為反向修正的數(shù)據(jù)集能提高模型對于虛假模式的表現(xiàn)的想法。
3 使用高質(zhì)量的人工標(biāo)注樣來讓人類看起來傻乎乎的機(jī)器學(xué)習(xí)模型更加聰明,應(yīng)該有不少人在做了,我沒有做過相應(yīng)的實(shí)驗(yàn),但是覺得這樣的做法很務(wù)實(shí),其中用眾包的形式來采集修正數(shù)據(jù)的想法也很有意思。值得一提的是,盡管使用了修正數(shù)據(jù)讓模型能力提高了,但是對于基于bert預(yù)訓(xùn)練的模型提升效果有限,可能一方面由于bert模型從大量預(yù)料中學(xué)到了一些對抗虛假模式的知識,另一方面作者采取的實(shí)驗(yàn)是相對簡單的句子級別的分類,期待作者關(guān)于對話系統(tǒng)的下一步工作。
論文名稱:Mining News Events from Comparable News Corpora: A Multi-Attribute Proximity Network Modeling Approach
作者:Hyungsul Kim;Ahmed El-Kishky; Xiang Ren; Jiawei Han
發(fā)表時(shí)間:2019/11/14
論文鏈接:https://paper.yanxishe.com/review/15059?from=leiphonecolumn_paperreview0416
推薦原因
1.本文由韓家煒團(tuán)隊(duì)所發(fā)表,針對現(xiàn)有的新聞文本資料繁多,并且存在大量噪音、大量重疊內(nèi)容的現(xiàn)狀,提出了一種鄰近度網(wǎng)絡(luò),利用其中大量重疊的內(nèi)容,從時(shí)間、地點(diǎn)、相關(guān)人物、組織、以及事件之間的關(guān)聯(lián)等屬性的角度,定義了一種鄰近度(Proximity )的方法,并以此為基礎(chǔ)從中提取相關(guān)關(guān)鍵信息,并且得到新聞?lì)A(yù)料的事件,并以直觀的圖像的形式表達(dá)出來。
2.使用多屬性的鄰近度來替代文本的語義信息,比其他基于數(shù)據(jù)挖掘的事件提取方法更有效。同時(shí),抽取事件信息的同時(shí),對特定新聞事件,生成了信息豐富的事件圖,事件的關(guān)鍵信息、事件之間的聯(lián)系、聯(lián)系的強(qiáng)弱,都被清楚的展示了出來。
論文名稱:Skip-Thought Vectors
作者:RyanKiros /YukunZhu /RuslanSalakhutdinov
發(fā)表時(shí)間:2015/6/22
論文鏈接:https://paper.yanxishe.com/review/16077?from=leiphonecolumn_paperreview0416
推薦原因
skip-thought利用前后語句之間的關(guān)聯(lián)性來學(xué)句子的embedding. 其句子的表征是用RNN來表示,模型先encode中間一個(gè)句子,然后用這個(gè)RNN的Output分別來decode前一個(gè)和后一個(gè)句子,直接類比于word2vec的Skip-gram的形式。
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
今日 Paper | 分布式表示;基于元學(xué)習(xí);縣級數(shù)據(jù)集;GPS-NET等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。