丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能 正文
發(fā)私信給楊曉凡
發(fā)送

0

一窺 ACL 2018 最佳論文

本文作者: 楊曉凡 2018-06-10 18:49 專題:ACL 2018
導(dǎo)語(yǔ):更多后續(xù)報(bào)道敬請(qǐng)期待

一窺 ACL 2018 最佳論文

雷鋒網(wǎng) AI 科技評(píng)論按:隨著定于 7 月 15 日的開(kāi)會(huì)日期逐漸臨近,自然語(yǔ)言處理頂會(huì) ACL 2018 繼公開(kāi)了接收論文名單之后,今天也公布了包含 3 篇長(zhǎng)論文 與 2 篇短論文的最佳論文獲獎(jiǎng)名單。

其實(shí) ACL 2018 的流程設(shè)計(jì)與去年有所不同。ACL 2017 會(huì)前首先公布了 22 篇 outstanding 論文(可以看作最佳論文的預(yù)選論文),其中長(zhǎng)論文 15 篇、短論文 7 篇;接著正會(huì)開(kāi)始后這 22 篇論文分在四個(gè)不同的論文報(bào)告 session 中演講,然后在最后一天的頒獎(jiǎng)典禮上公布了最終的最佳論文獎(jiǎng)得主。當(dāng)時(shí)在 ACL 2017 做現(xiàn)場(chǎng)報(bào)道的我們雷鋒網(wǎng)記者岑大師聽(tīng)了論文報(bào)告之后就對(duì)最佳論文得主做了自己的預(yù)測(cè),果然猜中。(可惜今年就沒(méi)有必要猜啦)

一窺 ACL 2018 最佳論文

說(shuō)回 ACL 2018,ACL 2018 組委會(huì)于 6 月 10 日直接在官網(wǎng)發(fā)出公告,公布了今年 5 篇最佳論文的評(píng)選結(jié)果。不過(guò)截止 6 月 10 日只有其中 2 篇論文的內(nèi)容是公開(kāi)的,另外 3 篇論文的介紹請(qǐng)等待雷鋒網(wǎng) AI 科技評(píng)論后續(xù)報(bào)道。

- 6 月 13 日更新了兩篇內(nèi)容,目前仍有一篇未公開(kāi)

最佳論文 - 長(zhǎng)論文(3 篇)

Finding syntax in human encephalography with beam search

  • 用束搜索在人腦成像中尋找句法

  • 論文摘要:循環(huán)神經(jīng)網(wǎng)絡(luò)文法(RNNGs)是對(duì)于「樹(shù)-字符串」對(duì)的生成式模型,它們依靠神經(jīng)網(wǎng)絡(luò)來(lái)評(píng)價(jià)派生的選擇。用束搜索對(duì)它們進(jìn)行解析可以得到各種不同復(fù)雜度的評(píng)價(jià)指標(biāo),比如單詞驚異數(shù)(word surprisal count)和解析器動(dòng)作數(shù)(parser action count)。當(dāng)把它們用作回歸因子,解析人類大腦成像圖像中對(duì)于自然語(yǔ)言文本的電生理學(xué)響應(yīng)時(shí),它們可以帶來(lái)兩個(gè)增幅效果:一個(gè)早期的峰值以及一個(gè)類似 P600 的稍遲的峰值。相比之下,一個(gè)不具有句法結(jié)構(gòu)的神經(jīng)語(yǔ)言模型無(wú)法達(dá)到任何可靠的增幅效果。通過(guò)對(duì)不同模型的對(duì)比,早期峰值的出現(xiàn)可以歸功于 RNNG 中的句法組合。結(jié)果中體現(xiàn)出的這種模式表明 RNNG+束搜索的組合可以作為正常人類語(yǔ)言處理中的語(yǔ)法處理的一個(gè)不錯(cuò)的機(jī)理解釋模型。

  • 論文地址:https://arxiv.org/abs/1806.04127

  • 論文四位作者中的三位來(lái)自 DeepMind,另一位來(lái)自密歇根大學(xué)文學(xué)、科學(xué)與藝術(shù)學(xué)院計(jì)算神經(jīng)語(yǔ)言學(xué)實(shí)驗(yàn)室

Learning to Ask Good Questions: Ranking Clarification Questions using Neural Expected Value of Perfect Information

  • 學(xué)習(xí)如何問(wèn)好的問(wèn)題:通過(guò)完全信息下的期待值為追問(wèn)問(wèn)題排序

  • 論文摘要:在溝通中,提問(wèn)是一大基本要素:如果機(jī)器不知道如何問(wèn)問(wèn)題,那它們也就無(wú)法高效地與人類合作。在這項(xiàng)研究中,作者們構(gòu)建了一個(gè)神經(jīng)網(wǎng)絡(luò)用于給追問(wèn)的問(wèn)題做排名。作者們模型設(shè)計(jì)的啟發(fā)來(lái)源于完全信息情況下的期待值:一個(gè)可以期待獲得有用的答案的問(wèn)題就是一個(gè)好問(wèn)題。作者們根據(jù) StackExchange 上抓取的數(shù)據(jù)研究了這個(gè)問(wèn)題;StackExchange 是一個(gè)內(nèi)容豐富的在線咨詢平臺(tái),其中有人發(fā)帖咨詢以后,別的用戶會(huì)在下面追問(wèn)起到解釋澄清作用的問(wèn)題,以便更好地了解狀況、幫助到發(fā)帖人。論文作者們創(chuàng)建了一個(gè)由這樣的追問(wèn)問(wèn)題組成的數(shù)據(jù)集,其中包含了 StackExchange 上 askubuntu、unix、superuser 這三個(gè)領(lǐng)域的約 77k 組發(fā)帖+追問(wèn)問(wèn)題+問(wèn)題的回答。作者們?cè)谄渲械?500 組樣本上評(píng)估了自己的模型,相比其他基準(zhǔn)模型有顯著的提高;同時(shí)他們也與人類專家的判斷進(jìn)行了對(duì)比。

  • 論文地址:https://arxiv.org/abs/1805.04655

  • 論文作者來(lái)自馬里蘭大學(xué)與微軟研究院

Let's do it "again": A First Computational Approach to Detecting Adverbial Presupposition Triggers

  • 讓我們「再」做一次:首個(gè)檢測(cè)假定狀態(tài)觸發(fā)副詞的計(jì)算性方法

  • 論文摘要:這篇論文中,作者們介紹了一種新的研究課題——預(yù)測(cè)副詞詞性的假定狀態(tài)觸發(fā)語(yǔ)(adverbial presupposition triggers),比如「also」和「again」。完成這樣的任務(wù)需要在對(duì)話上下文里尋找重復(fù)出現(xiàn)的或者相似的內(nèi)容;這項(xiàng)任務(wù)的研究成果則可以在文本總結(jié)或者對(duì)話系統(tǒng)這樣的自然語(yǔ)言生成任務(wù)中起到幫助。作者們?yōu)檫@項(xiàng)任務(wù)創(chuàng)造了兩個(gè)新的數(shù)據(jù)集,分別由 Penn Treebank 和 AnnotatedEnglish Gigaword 生成,而且也專為這項(xiàng)任務(wù)設(shè)計(jì)了一種新的注意力機(jī)制。作者們?cè)O(shè)計(jì)的注意力機(jī)制無(wú)需額外的可訓(xùn)練網(wǎng)絡(luò)參數(shù)就可以增強(qiáng)基準(zhǔn) RNN 模型的表現(xiàn),這最小化了這一注意力機(jī)制帶來(lái)的額外計(jì)算開(kāi)銷。作者們?cè)谖闹斜砻?,他們的模型相比多個(gè)基準(zhǔn)模型都有統(tǒng)計(jì)顯著的更高表現(xiàn),其中包括基于 LSTM 的語(yǔ)言模型。

  • 論文地址:https://www.cs.mcgill.ca/~jkabba/acl2018paper.pdf

  • 這篇論文來(lái)自加拿大麥克吉爾大學(xué)(McGill University)與蒙特利爾算法學(xué)習(xí)人工智能實(shí)驗(yàn)室(MILA)

最佳論文 - 短論文(2 篇)

Know What You Don't Know: Unanswerable Questions for SQuAD

  • 知道你不知道的:SQuAD 中無(wú)法回答的問(wèn)題

  • 論文摘要:提取式的閱讀理解系統(tǒng)一般都能夠在給定的文檔內(nèi)容中找到正確的內(nèi)容來(lái)回答問(wèn)題。不過(guò)對(duì)于正確答案沒(méi)有明示在閱讀文本中的問(wèn)題,它們就經(jīng)常會(huì)做出不可靠的猜測(cè)。目前現(xiàn)有的閱讀理解問(wèn)答數(shù)據(jù)集,要么只關(guān)注了可回答的問(wèn)題,要么使用自動(dòng)生成的無(wú)法回答的問(wèn)題,很容易識(shí)別出來(lái)。為了改善這些問(wèn)題,作者們提出了 SQuAD 2.0 數(shù)據(jù)集,這是斯坦福問(wèn)答數(shù)據(jù)集 SQuAD 的最新版本。SQuAD 2.0 在現(xiàn)有的十萬(wàn)個(gè)問(wèn)題-答案對(duì)的基礎(chǔ)上增加了超過(guò)五萬(wàn)個(gè)無(wú)法回答的問(wèn)題,它們由人類眾包者對(duì)抗性地生成,看起來(lái)很像可以回答的問(wèn)題。一個(gè)問(wèn)答系統(tǒng)如果想要在 SQuAD 2.0 上獲得好的表現(xiàn),它不僅需要在問(wèn)題能夠回答時(shí)給出正確的答案,還要在給定的閱讀材料中不包含答案時(shí)做出決定、拒絕回答這個(gè)問(wèn)題。SQuAD 2.0 也設(shè)立了新的人類表現(xiàn)基準(zhǔn)線,EM 86.831,F(xiàn)1 89.452。對(duì)于現(xiàn)有模型來(lái)說(shuō) SQuAD 2.0 是一個(gè)具有挑戰(zhàn)性的自然語(yǔ)言理解任務(wù),一個(gè)強(qiáng)有力的基于神經(jīng)網(wǎng)絡(luò)的系統(tǒng)可以在 SQuAD 1.1 上得到 86% 的 F1 分?jǐn)?shù),但在 SQuAD 2.0 上只能得到 66%。

  • 論文地址:https://arxiv.org/abs/1806.03822 

  • 這篇論文來(lái)自斯坦福自然語(yǔ)言小組(Stanford NLP Group),作者之一的副教授 Percy Liang 是 NLP 領(lǐng)域著名的研究員,我們也曾報(bào)道過(guò)他的論文《先打草稿可以生成更高質(zhì)量的文本,Percy Liang新論文廣受贊譽(yù)》

'Lighter' Can Still Be Dark: Modeling Comparative Color Descriptions

  • “打火機(jī)”也可能是黑暗的:建模比較性的顏色描述

  • (論文內(nèi)容尚未公開(kāi))

  • 這篇論文來(lái)自哥倫比亞大學(xué)

最佳論文公告參見(jiàn) https://acl2018.org/2018/06/10/best-papers/

更多 ACL 2018 及其他重要學(xué)術(shù)會(huì)議報(bào)道,請(qǐng)繼續(xù)關(guān)注雷鋒網(wǎng) AI 科技評(píng)論。

雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。

一窺 ACL 2018 最佳論文

分享:
相關(guān)文章

讀論文為生

日常笑點(diǎn)滴,學(xué)術(shù)死腦筋
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚?xiě)申請(qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)