丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能 正文
發(fā)私信給camel
發(fā)送

0

賽爾推薦:精選前沿論文第 1 彈

本文作者: camel 2018-03-22 10:33
導語:哈工大賽爾精選

雷鋒網(wǎng)AI科技評論按:本文將推薦4篇精選前沿論文,以供參考學習。每篇薦文將包含推薦人簡評、推薦人研究方向等。如對論文有疑問或者想進一步交流,歡迎大家聯(lián)系推薦人共同討論。

本文內(nèi)容轉(zhuǎn)載自哈爾濱工業(yè)大學社會計算與信息檢索研究中心 公眾號(微信ID:HIT_SCIR)的「賽爾推薦」欄目第1期,可關(guān)注公眾號獲得更多資訊。雷鋒網(wǎng)AI科技評論獲其授權(quán)轉(zhuǎn)載。


NO.1


推薦組:SA

推薦人:吳洋(研究方向:情感分析)

論文題目:Refining Word Embeddings for Sentiment Analysis

作者:Liang-Chih Yu, Jin Wang, K.Robert Lai and Xuejie Zhang

發(fā)表會議/期刊:EMNLP 2017

論文主要相關(guān):詞向量,情感分析

簡評:這篇文章發(fā)表于ACL 2017。很多任務(wù)上都在使用預訓練詞向量,因為詞向量中蘊含著語義信息。但詞向量在情感分析任務(wù)上的使用存在一個問題,即由于詞向量著重體現(xiàn)的是語義信息,導致對于一些語義相近而情感相反的詞沒有區(qū)分度,如bad與good。所以直接使用通用的預訓練詞向量可能會降低模型的效果。因此,我們需要使用帶有情感信息的詞向量。本文亮點在于僅僅使用情感詞典,來迭代的調(diào)整預訓練的詞向量,使得在保證一定語義關(guān)系的情況下,語義相近,情感不同的兩個詞,距離更遠;語義相近,情感相同的兩個詞,距離更近,從而得到既有語義信息還帶有情感信息的詞向量。

論文鏈接:https://www.aclweb.org/anthology/D/D17/D17-1056.pdf


NO.2/3


推薦組:SP

推薦人:段俊文(研究方向:文本挖掘) 

論文1題目:NEURAL SPEED READING VIA SKIM-RNNSKIP RNN

論文1作者:Minjoon Seo, Sewon Min, Ali Farhadi, Hannaneh Hajishirzi

論文2題目:LEARNING TO SKIP STATE UPDATES IN RECURRENT NEURAL NETWORKS

論文2作者:Victor Campos, Brendan Jou, Xavier Giro-i-Nieto, Jordi Torres, Shih-Fu Chang

這兩篇論文的第一作者分別來自華盛頓大學和谷歌公司。

發(fā)表會議/期刊:ICLR 2018

論文主要相關(guān):循環(huán)神經(jīng)網(wǎng)絡(luò)

簡評:循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是序列建模中的常用的模型,其不足包括計算效率不高,較長序列時可能出現(xiàn)梯度消失或者梯度爆炸的問題。推薦的兩篇文章的思路比較類似,要解決的也是同樣的問題,即在不影響準確率的前提下盡可能提高RNN的計算效率。兩篇文章提出的方法分別叫skim-rnn和skip-rnn,從名字可以看出來,他們都是通過跳過某些輸入,達到快速計算的目的。因此在計算的每一步都需要確定該輸入是否被跳過。但是兩篇處理的具體方式不同,如果該輸入被跳過,skim-rnn用一個small rnn更新隱含狀態(tài)的前若干維而skip—rnn則直接復制上一個隱含層的狀態(tài)。兩篇文章都表示自己的模型計算效率提升但是準確率保持不變或小有提升。這兩篇文章提供了一些通過修改RNN結(jié)構(gòu)達到快速計算的新的思路。

論文鏈接:

論文1:https://arxiv.org/pdf/1711.02085.pdf

論文2:https://arxiv.org/pdf/1708.06834.pdf

代碼:

論文1:https://github.com/imatge-upc/skiprnn-2017-telecombcn

論文2:https://github.com/schelotto/Neural_Speed_Reading_via_Skim-RNN_PyTorch


NO.4


推薦組:TG

推薦人:馮掌?。ㄑ芯糠较颍何谋旧桑?/p>

論文題目:Selective Encoding for Abstractive Sentence Summarization

作者:Qingyu Zhou, Nan Yang, Furu Wei, Ming Zhou

發(fā)表會議/期刊: ACL 2017

論文主要相關(guān):sequence-to-sequence、選擇機制、摘要生成

簡評:這是一篇發(fā)表于ACL 2017的論文,作者認為生成摘要和機器翻譯有明顯的不同,機器翻譯需要保留所有信息而生成摘要只需要保留部分重要信息,生成摘要應(yīng)該分為三個步驟:對句子進行編碼、選擇重要信息和解碼。因此在傳統(tǒng)的sequence-to-sequence框架下,作者加入了選擇機制,利用該選擇機制,對Encoder產(chǎn)生的表示進行過濾,只保留重要信息,然后Decoder利用過濾后的表示進行解碼,得到最終的摘要。在多個數(shù)據(jù)集下對比了該模型與以往模型,實驗做得很充分,文章也對選擇機制的有效性進行了說明。

論文鏈接:https://aclweb.org/anthology/P/P17/P17-1101.pdf


大事專用區(qū)


雷鋒網(wǎng):如果您在自己的研究和學習過程中也有想要分享的優(yōu)質(zhì)文章,請將推薦文章及相關(guān)信息通過郵件發(fā)送到zengbingyu@leiphone.com 或 微信聯(lián)系(zengbingyu1018)。推薦內(nèi)容包括:

1. 論文名字

2. 作者/機構(gòu)

3. 錄用渠道(選填)

4. 論文領(lǐng)域

5. 推薦簡介(200-300字)


相關(guān)文章:

賽爾推薦:精選前沿論文第 0 彈

雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

賽爾推薦:精選前沿論文第 1 彈

分享:
相關(guān)文章
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說