0
雷鋒網(wǎng)AI科技評論按:本文將推薦4篇精選前沿論文,以供參考學習。每篇薦文將包含推薦人簡評、推薦人研究方向等。如對論文有疑問或者想進一步交流,歡迎大家聯(lián)系推薦人共同討論。
本文內(nèi)容轉(zhuǎn)載自哈爾濱工業(yè)大學社會計算與信息檢索研究中心 公眾號(微信ID:HIT_SCIR)的「賽爾推薦」欄目第1期,可關(guān)注公眾號獲得更多資訊。雷鋒網(wǎng)AI科技評論獲其授權(quán)轉(zhuǎn)載。
推薦組:SA
推薦人:吳洋(研究方向:情感分析)
論文題目:Refining Word Embeddings for Sentiment Analysis
作者:Liang-Chih Yu, Jin Wang, K.Robert Lai and Xuejie Zhang
發(fā)表會議/期刊:EMNLP 2017
論文主要相關(guān):詞向量,情感分析
簡評:這篇文章發(fā)表于ACL 2017。很多任務(wù)上都在使用預訓練詞向量,因為詞向量中蘊含著語義信息。但詞向量在情感分析任務(wù)上的使用存在一個問題,即由于詞向量著重體現(xiàn)的是語義信息,導致對于一些語義相近而情感相反的詞沒有區(qū)分度,如bad與good。所以直接使用通用的預訓練詞向量可能會降低模型的效果。因此,我們需要使用帶有情感信息的詞向量。本文亮點在于僅僅使用情感詞典,來迭代的調(diào)整預訓練的詞向量,使得在保證一定語義關(guān)系的情況下,語義相近,情感不同的兩個詞,距離更遠;語義相近,情感相同的兩個詞,距離更近,從而得到既有語義信息還帶有情感信息的詞向量。
論文鏈接:https://www.aclweb.org/anthology/D/D17/D17-1056.pdf
推薦組:SP
推薦人:段俊文(研究方向:文本挖掘)
論文1題目:NEURAL SPEED READING VIA SKIM-RNNSKIP RNN
論文1作者:Minjoon Seo, Sewon Min, Ali Farhadi, Hannaneh Hajishirzi
論文2題目:LEARNING TO SKIP STATE UPDATES IN RECURRENT NEURAL NETWORKS
論文2作者:Victor Campos, Brendan Jou, Xavier Giro-i-Nieto, Jordi Torres, Shih-Fu Chang
這兩篇論文的第一作者分別來自華盛頓大學和谷歌公司。
發(fā)表會議/期刊:ICLR 2018
論文主要相關(guān):循環(huán)神經(jīng)網(wǎng)絡(luò)
簡評:循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是序列建模中的常用的模型,其不足包括計算效率不高,較長序列時可能出現(xiàn)梯度消失或者梯度爆炸的問題。推薦的兩篇文章的思路比較類似,要解決的也是同樣的問題,即在不影響準確率的前提下盡可能提高RNN的計算效率。兩篇文章提出的方法分別叫skim-rnn和skip-rnn,從名字可以看出來,他們都是通過跳過某些輸入,達到快速計算的目的。因此在計算的每一步都需要確定該輸入是否被跳過。但是兩篇處理的具體方式不同,如果該輸入被跳過,skim-rnn用一個small rnn更新隱含狀態(tài)的前若干維而skip—rnn則直接復制上一個隱含層的狀態(tài)。兩篇文章都表示自己的模型計算效率提升但是準確率保持不變或小有提升。這兩篇文章提供了一些通過修改RNN結(jié)構(gòu)達到快速計算的新的思路。
論文鏈接:
論文1:https://arxiv.org/pdf/1711.02085.pdf
論文2:https://arxiv.org/pdf/1708.06834.pdf
代碼:
論文1:https://github.com/imatge-upc/skiprnn-2017-telecombcn
論文2:https://github.com/schelotto/Neural_Speed_Reading_via_Skim-RNN_PyTorch
推薦組:TG
推薦人:馮掌?。ㄑ芯糠较颍何谋旧桑?/p>
論文題目:Selective Encoding for Abstractive Sentence Summarization
作者:Qingyu Zhou, Nan Yang, Furu Wei, Ming Zhou
發(fā)表會議/期刊: ACL 2017
論文主要相關(guān):sequence-to-sequence、選擇機制、摘要生成
簡評:這是一篇發(fā)表于ACL 2017的論文,作者認為生成摘要和機器翻譯有明顯的不同,機器翻譯需要保留所有信息而生成摘要只需要保留部分重要信息,生成摘要應(yīng)該分為三個步驟:對句子進行編碼、選擇重要信息和解碼。因此在傳統(tǒng)的sequence-to-sequence框架下,作者加入了選擇機制,利用該選擇機制,對Encoder產(chǎn)生的表示進行過濾,只保留重要信息,然后Decoder利用過濾后的表示進行解碼,得到最終的摘要。在多個數(shù)據(jù)集下對比了該模型與以往模型,實驗做得很充分,文章也對選擇機制的有效性進行了說明。
論文鏈接:https://aclweb.org/anthology/P/P17/P17-1101.pdf
大事專用區(qū)
雷鋒網(wǎng):如果您在自己的研究和學習過程中也有想要分享的優(yōu)質(zhì)文章,請將推薦文章及相關(guān)信息通過郵件發(fā)送到zengbingyu@leiphone.com 或 微信聯(lián)系(zengbingyu1018)。推薦內(nèi)容包括:
1. 論文名字
2. 作者/機構(gòu)
3. 錄用渠道(選填)
4. 論文領(lǐng)域
5. 推薦簡介(200-300字)
相關(guān)文章:
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。