0
本文作者: AI科技評論 | 2018-07-18 18:20 | 專題:ACL 2018 |
雷鋒網(wǎng) AI 科技評論按:ACL 2018 于 7 月 15 日在墨爾本正式開幕,隨著會議議程的推進(jìn),今天迎來大會的重頭戲——ACL 獎項頒布儀式。
在頒獎儀式前,最佳論文名單已經(jīng)公布,今年共選出 3 篇最佳長論文和 2 篇最佳短論文。頒獎儀式上,榮譽(yù)論文( 6 篇長文和 2 篇短文)、最佳 demo 論文(1 篇)、Amazon Door Prize 也一并揭曉。雷鋒網(wǎng)注意到,北京大學(xué)、哈爾濱工業(yè)大學(xué)這兩所國內(nèi)高校在 Amazon Door Prize 上均有上榜。終身成就獎得主為愛丁堡大學(xué)信息學(xué)院教授 Mark Steedman。
最佳論文
長論文(3 篇)
Finding syntax in human encephalography with beam search
用束搜索在人腦成像中尋找句法
John Hale, Chris Dyer, Adhiguna Kuncoro, Jonathan R. Brennan
論文摘要:循環(huán)神經(jīng)網(wǎng)絡(luò)文法(RNNGs)是對于「樹-字符串」對的生成式模型,它們依靠神經(jīng)網(wǎng)絡(luò)來評價派生的選擇。用束搜索對它們進(jìn)行解析可以得到各種不同復(fù)雜度的評價指標(biāo),比如單詞驚異數(shù)(word surprisal count)和解析器動作數(shù)(parser action count)。當(dāng)把它們用作回歸因子,解析人類大腦成像圖像中對于自然語言文本的電生理學(xué)響應(yīng)時,它們可以帶來兩個增幅效果:一個早期的峰值以及一個類似 P600 的稍遲的峰值。相比之下,一個不具有句法結(jié)構(gòu)的神經(jīng)語言模型無法達(dá)到任何可靠的增幅效果。通過對不同模型的對比,早期峰值的出現(xiàn)可以歸功于 RNNG 中的句法組合。結(jié)果中體現(xiàn)出的這種模式表明 RNNG+束搜索的組合可以作為正常人類語言處理中的語法處理的一個不錯的機(jī)理解釋模型。
論文地址:https://arxiv.org/abs/1806.04127
Learning to Ask Good Questions: Ranking Clarification Questions using Neural Expected Value of Perfect Information
學(xué)習(xí)如何問好的問題:通過完全信息下的期待值為追問問題排序
Sudha Rao, Hal Daumé III
論文摘要:在溝通中,提問是一大基本要素:如果機(jī)器不知道如何問問題,那它們也就無法高效地與人類合作。在這項研究中,作者們構(gòu)建了一個神經(jīng)網(wǎng)絡(luò)用于給追問的問題做排名。作者們模型設(shè)計的啟發(fā)來源于完全信息情況下的期待值:一個可以期待獲得有用的答案的問題就是一個好問題。作者們根據(jù) StackExchange 上抓取的數(shù)據(jù)研究了這個問題;StackExchange 是一個內(nèi)容豐富的在線咨詢平臺,其中有人發(fā)帖咨詢以后,別的用戶會在下面追問起到解釋澄清作用的問題,以便更好地了解狀況、幫助到發(fā)帖人。論文作者們創(chuàng)建了一個由這樣的追問問題組成的數(shù)據(jù)集,其中包含了 StackExchange 上 askubuntu、unix、superuser 這三個領(lǐng)域的約 77k 組發(fā)帖+追問問題+問題的回答。作者們在其中的 500 組樣本上評估了自己的模型,相比其他基準(zhǔn)模型有顯著的提高;同時他們也與人類專家的判斷進(jìn)行了對比。
論文地址:https://arxiv.org/abs/1805.04655
Let's do it "again": A First Computational Approach to Detecting Adverbial Presupposition Triggers
讓我們「再」做一次:首個檢測假定狀態(tài)觸發(fā)副詞的計算性方法
Andre Cianflone, Yulan Feng, Jad Kabbara, Jackie Chi Kit Cheung
論文摘要:這篇論文中,作者們介紹了一種新的研究課題——預(yù)測副詞詞性的假定狀態(tài)觸發(fā)語(adverbial presupposition triggers),比如「also」和「again」。完成這樣的任務(wù)需要在對話上下文里尋找重復(fù)出現(xiàn)的或者相似的內(nèi)容;這項任務(wù)的研究成果則可以在文本總結(jié)或者對話系統(tǒng)這樣的自然語言生成任務(wù)中起到幫助。作者們?yōu)檫@項任務(wù)創(chuàng)造了兩個新的數(shù)據(jù)集,分別由 Penn Treebank 和 AnnotatedEnglish Gigaword 生成,而且也專為這項任務(wù)設(shè)計了一種新的注意力機(jī)制。作者們設(shè)計的注意力機(jī)制無需額外的可訓(xùn)練網(wǎng)絡(luò)參數(shù)就可以增強(qiáng)基準(zhǔn) RNN 模型的表現(xiàn),這最小化了這一注意力機(jī)制帶來的額外計算開銷。作者們在文中表明,他們的模型相比多個基準(zhǔn)模型都有統(tǒng)計顯著的更高表現(xiàn),其中包括基于 LSTM 的語言模型。
論文地址:https://www.cs.mcgill.ca/~jkabba/acl2018paper.pdf
短論文(2 篇)
Know What You Don't Know: Unanswerable Questions for SQuAD
知道你不知道的:SQuAD 中無法回答的問題
Pranav Rajpurkar, Robin Jia, Percy Liang
論文摘要:提取式的閱讀理解系統(tǒng)一般都能夠在給定的文檔內(nèi)容中找到正確的內(nèi)容來回答問題。不過對于正確答案沒有明示在閱讀文本中的問題,它們就經(jīng)常會做出不可靠的猜測。目前現(xiàn)有的閱讀理解問答數(shù)據(jù)集,要么只關(guān)注了可回答的問題,要么使用自動生成的無法回答的問題,很容易識別出來。為了改善這些問題,作者們提出了 SQuAD 2.0 數(shù)據(jù)集,這是斯坦福問答數(shù)據(jù)集 SQuAD 的最新版本。SQuAD 2.0 在現(xiàn)有的十萬個問題-答案對的基礎(chǔ)上增加了超過五萬個無法回答的問題,它們由人類眾包者對抗性地生成,看起來很像可以回答的問題。一個問答系統(tǒng)如果想要在 SQuAD 2.0 上獲得好的表現(xiàn),它不僅需要在問題能夠回答時給出正確的答案,還要在給定的閱讀材料中不包含答案時做出決定、拒絕回答這個問題。SQuAD 2.0 也設(shè)立了新的人類表現(xiàn)基準(zhǔn)線,EM 86.831,F(xiàn)1 89.452。對于現(xiàn)有模型來說 SQuAD 2.0 是一個具有挑戰(zhàn)性的自然語言理解任務(wù),一個強(qiáng)有力的基于神經(jīng)網(wǎng)絡(luò)的系統(tǒng)可以在 SQuAD 1.1 上得到 86% 的 F1 分?jǐn)?shù),但在 SQuAD 2.0 上只能得到 66%。
論文地址:https://arxiv.org/abs/1806.03822
'Lighter' Can Still Be Dark: Modeling Comparative Color Descriptions
“更淺的顏色”可能仍然有點(diǎn)暗:建模比較性的顏色描述
Olivia Winn, Smaranda Muresan
我們提出了一種在顏色描述領(lǐng)域內(nèi)建立基準(zhǔn)比較性形容詞的新范式。給定一個參考 RGB 色和一個比較項(例如更亮、更暗),我們的模型會學(xué)習(xí)建立比較項的基準(zhǔn),將其作為 RGB 空間中的一個方向,這樣顏色就會沿著向量植根于比較色中。
我們的模型產(chǎn)生了比較形容詞的基本表示形式,在期望的改變方向上,平均精確度為 0.65 余弦相似性。與目標(biāo)顏色相比,依據(jù)向量的顏色描述方法 Delta-E 值小于 7,這表明這種方法與人類感知的差異非常小。這一方法使用了一個新創(chuàng)建的數(shù)據(jù)集,該數(shù)據(jù)集來自現(xiàn)有的標(biāo)記好的顏色數(shù)據(jù)。
論文地址:http://aclweb.org/anthology/P18-2125
榮譽(yù)論文
長論文(6 篇)
Coarse-to-Fine Decoding for Neural Semantic Parsing
Li Dong, Mirella Lapata
NASH: Toward End-to-End Neural Architecture for Generative Semantic Hashing
Dinghan Shen, Qinliang Su, Paidamoyo Chapfuwa, Wenlin Wang, Guoyin Wang, Lawrence Carin, Ricardo Henao
Backpropagating through Structured Argmax using a SPIGOT
Hao Peng, Sam Thomson, Noah A. Smith
論文地址:https://homes.cs.washington.edu/~hapeng/paper/peng2018backprop.pdf
Hierarchical Neural Story Generation
Angela Fan, Mike Lewis, Yann Dauphin
Semantically Equivalent Adversarial Rules for Debugging NLP Models
Marco Tulio Ribeiro, Sameer Singh, Carlos Guestrin
Large-Scale QA-SRL Parsing
Nicholas FitzGerald, Julian Michael, Luheng He, Luke Zettlemoyer
短論文(2 篇)
Jointly Predicting Predicates and Arguments in Neural Semantic Role Labeling
Luheng He, Kenton Lee, Omer Levy, Luke Zettlemoyer
Do Neural Network Cross-Modal Mappings Really Bridge Modalities?
Guillem Collell, Marie-Francine Moens
最佳 demo 論文
Out-of-the-box Universal Romanization Tool
Ulf Hermjakob, Jonathan May,Kevin Knight
論文摘要:我們想介紹 uroman,這個工具可以把五花八門的語言和文字(如中文、阿拉伯語、西里爾文)轉(zhuǎn)換為普通拉丁文。該工具基于 Unicode 數(shù)據(jù)以及其他表,可以處理幾乎所有的字符集(包括一些晦澀難懂的語言比如藏文和提非納文)。uroman 還可以將不同文本中的數(shù)字轉(zhuǎn)換為阿拉伯?dāng)?shù)字。羅馬化讓比較不同文本的字符串相似性變得更加容易,因為不再需要將兩種文字翻譯成中間文字再比較。本工具作為一個 Perl 腳本,可以免費(fèi)提供,可用于數(shù)據(jù)處理管道和交互式演示網(wǎng)頁。
論文地址:http://aclweb.org/anthology/P18-4003
Amazon Door Prize
Wanxiang Che,哈爾濱工業(yè)大學(xué)
Prachi Manchanda,德里理工學(xué)院(Netaji Subhas Institute of Technology)
Fuli Luo,北京大學(xué)
Nikhilesh Bhatnagar,海得拉巴國際信息技術(shù)研究所(IIIT Hyderabad)
Wei Xue,佛羅里達(dá)國際大學(xué)(Florida International University)
Sam Wei,悉尼大學(xué)(University of Sydney)
Samir Kumar,M12
Jin-ge Yao,北京大學(xué)&微軟
ACL 終身成就獎
ACL 終身成就獎由 Mark Steedman 獲得,他出生于 1946 年,1968 年畢業(yè)于蘇塞克斯大學(xué)(University of Sussex),1973年,獲得愛丁堡大學(xué)人工智能博士學(xué)位(論文:《音樂知覺的形式化描述》)。此后,他曾擔(dān)任華威大學(xué)心理學(xué)講師,愛丁堡大學(xué)計算機(jī)語言學(xué)講師,賓夕法尼亞大學(xué)計算機(jī)與信息科學(xué)學(xué)院副教授,也曾在德克薩斯大學(xué)奧斯汀分校,奈梅亨馬克斯普朗克心理語言研究所和費(fèi)城賓夕法尼亞大學(xué)擔(dān)任過訪問學(xué)者。
目前他擔(dān)任愛丁堡大學(xué)信息學(xué)院認(rèn)知科學(xué)系主任,主要研究領(lǐng)域有計算語言學(xué)、人工智能和認(rèn)知科學(xué)、AI 會話的有意義語調(diào)生成、動畫對話、手勢交流以及組合范疇語法(Combinatory categorial grammar,CCG)等。此外,他對計算音樂分析和組合邏輯等領(lǐng)域也很感興趣。雷鋒網(wǎng) 雷鋒網(wǎng)
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。
本專題其他文章