丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能學(xué)術(shù) 正文
發(fā)私信給AI研習(xí)社
發(fā)送

0

今日 Paper | 聯(lián)合抽?。涣魇秸Z音識別;差異學(xué)習(xí);Skip-Thought向量等

本文作者: AI研習(xí)社 2020-04-16 10:21
導(dǎo)語:為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊。

今日 Paper | 聯(lián)合抽??;流式語音識別;差異學(xué)習(xí);Skip-Thought向量等

  目錄

在序列標(biāo)注模型中使用位置注意力進(jìn)行抽取實(shí)體與重疊關(guān)系的聯(lián)合抽取

將混合CTC/Attention方法嵌入到Transformer結(jié)構(gòu)中實(shí)現(xiàn)在線端到端的流式語音識別架構(gòu)

基于人工反向修正數(shù)據(jù)的差異學(xué)習(xí)

利用一種基于多屬性鄰近度的方法從可比較的新聞?wù)Z料庫中挖掘事件

Skip-Thought向量

  在序列標(biāo)注模型中使用位置注意力進(jìn)行抽取實(shí)體與重疊關(guān)系的聯(lián)合抽取

論文名稱:Joint extraction of entities and overlapping relations using position-attentive sequence labeling

作者:Dai Dai / Xinyan Xiao / Yajuan Lyu / Shan Dou / Qiaoqiao She / Haifeng Wang

發(fā)表時(shí)間:2019/7/17

論文鏈接:https://paper.yanxishe.com/review/16071?from=leiphonecolumn_paperreview0416


推薦原因

本文設(shè)計(jì)了一種基于位置信息和上下文信息的注意力機(jī)制,同時(shí)將一個(gè)關(guān)系抽取任務(wù)拆成了n(n為句子的長度)個(gè)序列標(biāo)注子任務(wù),一個(gè)階段即可將實(shí)體、關(guān)系等信息抽取出來。

本文發(fā)表時(shí)在兩個(gè)數(shù)據(jù)集上達(dá)到了SOTA,并且對于跨度長的關(guān)系、重疊關(guān)系表現(xiàn)尤其好。

作者創(chuàng)造性的設(shè)計(jì)了一種標(biāo)注方案(tag scheme),拆分關(guān)系抽取任務(wù),更巧妙的是,設(shè)計(jì)了位置注意力機(jī)制,將多個(gè)序列標(biāo)注任務(wù)放在同一個(gè)BLSTM模型中同時(shí)訓(xùn)練,讓我對注意力機(jī)制的理解更深了一層。

今日 Paper | 聯(lián)合抽取;流式語音識別;差異學(xué)習(xí);Skip-Thought向量等
今日 Paper | 聯(lián)合抽?。涣魇秸Z音識別;差異學(xué)習(xí);Skip-Thought向量等

  將混合CTC/Attention方法嵌入到Transformer結(jié)構(gòu)中實(shí)現(xiàn)在線端到端的流式語音識別架構(gòu)

論文名稱:TRANSFORMER-BASED ONLINE CTC/ATTENTION END-TO-END SPEECH RECOGNITION ARCHITECTURE

作者:Haoran Miao /Gaofeng Cheng /Changfeng Gao /Pengyuan Zhang /Yonghong Yan

發(fā)表時(shí)間:2020/1/15

論文鏈接:https://paper.yanxishe.com/review/15406?from=leiphonecolumn_paperreview0416

推薦原因

為了有效地解決在線流式語音識別問題,作者先前提出了一種以BILSTM為基礎(chǔ)結(jié)構(gòu)的流式語音識別模型,本文是對上述的模型進(jìn)行改進(jìn),一方面,采用transformer結(jié)構(gòu),并對其decoder的注意力模塊進(jìn)行改造,以提高識別CER分?jǐn)?shù)。另一方面,對先前提出的將語音輸入分割為chunks的方法進(jìn)行改進(jìn),重用了部分重合的chunks的的hidden state,以減少識別耗時(shí)。

本文最終達(dá)到了23.66%的CER分?jǐn)?shù),并且僅有320ms的延時(shí),同時(shí),相對于離線的基線模型,CER分?jǐn)?shù)僅損失了0.19%,大大提升了識別效果。

注:代碼不是本文的實(shí)現(xiàn)代碼,僅僅包含了本文改進(jìn)的注意力機(jī)制部分。

今日 Paper | 聯(lián)合抽??;流式語音識別;差異學(xué)習(xí);Skip-Thought向量等
今日 Paper | 聯(lián)合抽取;流式語音識別;差異學(xué)習(xí);Skip-Thought向量等

  基于人工反向修正數(shù)據(jù)的差異學(xué)習(xí)

論文名稱:LEARNING THE DIFFERENCE THAT MAKES A DIFFERENCE WITH COUNTERFACTUALLY-AUGMENTED DATA

作者:Divyansh Kaushik /Eduard Hovy /Zachary C. Lipton

發(fā)表時(shí)間:2019/9/6

論文鏈接:https://paper.yanxishe.com/review/15283?from=leiphonecolumn_paperreview0416

推薦原因

1 當(dāng)前很多優(yōu)秀的NLP模型,對數(shù)據(jù)中的虛假模式十分敏感,比如將文本分類模型中的關(guān)鍵詞用同義詞替代會使得模型效果大幅度降低,僅使用對話系統(tǒng)的問題或內(nèi)容,在一些模型下,得到的結(jié)果與使用全部信息差別不大,等等。

2 針對以上問題,作者以一個(gè)情感分析和句子推理的數(shù)據(jù)集為基礎(chǔ),在眾包平臺上招募作者對數(shù)據(jù)集進(jìn)行反向修正,在盡量不修改樣本結(jié)構(gòu)的情況下,讓樣本轉(zhuǎn)變相反的標(biāo)簽,并以此為基礎(chǔ)在一系列機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的模型上進(jìn)行訓(xùn)練,并且驗(yàn)證了作者認(rèn)為反向修正的數(shù)據(jù)集能提高模型對于虛假模式的表現(xiàn)的想法。

3 使用高質(zhì)量的人工標(biāo)注樣來讓人類看起來傻乎乎的機(jī)器學(xué)習(xí)模型更加聰明,應(yīng)該有不少人在做了,我沒有做過相應(yīng)的實(shí)驗(yàn),但是覺得這樣的做法很務(wù)實(shí),其中用眾包的形式來采集修正數(shù)據(jù)的想法也很有意思。值得一提的是,盡管使用了修正數(shù)據(jù)讓模型能力提高了,但是對于基于bert預(yù)訓(xùn)練的模型提升效果有限,可能一方面由于bert模型從大量預(yù)料中學(xué)到了一些對抗虛假模式的知識,另一方面作者采取的實(shí)驗(yàn)是相對簡單的句子級別的分類,期待作者關(guān)于對話系統(tǒng)的下一步工作。

今日 Paper | 聯(lián)合抽?。涣魇秸Z音識別;差異學(xué)習(xí);Skip-Thought向量等
今日 Paper | 聯(lián)合抽??;流式語音識別;差異學(xué)習(xí);Skip-Thought向量等

  利用一種基于多屬性鄰近度的方法從可比較的新聞?wù)Z料庫中挖掘事件

論文名稱:Mining News Events from Comparable News Corpora: A Multi-Attribute Proximity Network Modeling Approach

作者:Hyungsul Kim;Ahmed El-Kishky; Xiang Ren; Jiawei Han

發(fā)表時(shí)間:2019/11/14

論文鏈接:https://paper.yanxishe.com/review/15059?from=leiphonecolumn_paperreview0416

推薦原因

1.本文由韓家煒團(tuán)隊(duì)所發(fā)表,針對現(xiàn)有的新聞文本資料繁多,并且存在大量噪音、大量重疊內(nèi)容的現(xiàn)狀,提出了一種鄰近度網(wǎng)絡(luò),利用其中大量重疊的內(nèi)容,從時(shí)間、地點(diǎn)、相關(guān)人物、組織、以及事件之間的關(guān)聯(lián)等屬性的角度,定義了一種鄰近度(Proximity )的方法,并以此為基礎(chǔ)從中提取相關(guān)關(guān)鍵信息,并且得到新聞?lì)A(yù)料的事件,并以直觀的圖像的形式表達(dá)出來。

2.使用多屬性的鄰近度來替代文本的語義信息,比其他基于數(shù)據(jù)挖掘的事件提取方法更有效。同時(shí),抽取事件信息的同時(shí),對特定新聞事件,生成了信息豐富的事件圖,事件的關(guān)鍵信息、事件之間的聯(lián)系、聯(lián)系的強(qiáng)弱,都被清楚的展示了出來。

今日 Paper | 聯(lián)合抽?。涣魇秸Z音識別;差異學(xué)習(xí);Skip-Thought向量等

  Skip-Thought向量

論文名稱:Skip-Thought Vectors

作者:RyanKiros /YukunZhu /RuslanSalakhutdinov

發(fā)表時(shí)間:2015/6/22

論文鏈接:https://paper.yanxishe.com/review/16077?from=leiphonecolumn_paperreview0416

推薦原因

skip-thought利用前后語句之間的關(guān)聯(lián)性來學(xué)句子的embedding. 其句子的表征是用RNN來表示,模型先encode中間一個(gè)句子,然后用這個(gè)RNN的Output分別來decode前一個(gè)和后一個(gè)句子,直接類比于word2vec的Skip-gram的形式。

今日 Paper | 聯(lián)合抽取;流式語音識別;差異學(xué)習(xí);Skip-Thought向量等
今日 Paper | 聯(lián)合抽?。涣魇秸Z音識別;差異學(xué)習(xí);Skip-Thought向量等

今日 Paper | 聯(lián)合抽?。涣魇秸Z音識別;差異學(xué)習(xí);Skip-Thought向量等

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

相關(guān)文章:

今日 Paper | 分布式表示;基于元學(xué)習(xí);縣級數(shù)據(jù)集;GPS-NET等

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

今日 Paper | 聯(lián)合抽?。涣魇秸Z音識別;差異學(xué)習(xí);Skip-Thought向量等

分享:
相關(guān)文章

編輯

聚焦數(shù)據(jù)科學(xué),連接 AI 開發(fā)者。更多精彩內(nèi)容,請?jiān)L問:yanxishe.com
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個(gè)人簡介
為了您的賬戶安全,請驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說