丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能 正文
發(fā)私信給楊曉凡
發(fā)送

0

一窺 ACL 2018 最佳論文

本文作者: 楊曉凡 2018-06-10 18:49 專題:ACL 2018
導(dǎo)語:更多后續(xù)報(bào)道敬請(qǐng)期待

一窺 ACL 2018 最佳論文

雷鋒網(wǎng) AI 科技評(píng)論按:隨著定于 7 月 15 日的開會(huì)日期逐漸臨近,自然語言處理頂會(huì) ACL 2018 繼公開了接收論文名單之后,今天也公布了包含 3 篇長(zhǎng)論文 與 2 篇短論文的最佳論文獲獎(jiǎng)名單。

其實(shí) ACL 2018 的流程設(shè)計(jì)與去年有所不同。ACL 2017 會(huì)前首先公布了 22 篇 outstanding 論文(可以看作最佳論文的預(yù)選論文),其中長(zhǎng)論文 15 篇、短論文 7 篇;接著正會(huì)開始后這 22 篇論文分在四個(gè)不同的論文報(bào)告 session 中演講,然后在最后一天的頒獎(jiǎng)典禮上公布了最終的最佳論文獎(jiǎng)得主。當(dāng)時(shí)在 ACL 2017 做現(xiàn)場(chǎng)報(bào)道的我們雷鋒網(wǎng)記者岑大師聽了論文報(bào)告之后就對(duì)最佳論文得主做了自己的預(yù)測(cè),果然猜中。(可惜今年就沒有必要猜啦)

一窺 ACL 2018 最佳論文

說回 ACL 2018,ACL 2018 組委會(huì)于 6 月 10 日直接在官網(wǎng)發(fā)出公告,公布了今年 5 篇最佳論文的評(píng)選結(jié)果。不過截止 6 月 10 日只有其中 2 篇論文的內(nèi)容是公開的,另外 3 篇論文的介紹請(qǐng)等待雷鋒網(wǎng) AI 科技評(píng)論后續(xù)報(bào)道。

- 6 月 13 日更新了兩篇內(nèi)容,目前仍有一篇未公開

最佳論文 - 長(zhǎng)論文(3 篇)

Finding syntax in human encephalography with beam search

  • 用束搜索在人腦成像中尋找句法

  • 論文摘要:循環(huán)神經(jīng)網(wǎng)絡(luò)文法(RNNGs)是對(duì)于「樹-字符串」對(duì)的生成式模型,它們依靠神經(jīng)網(wǎng)絡(luò)來評(píng)價(jià)派生的選擇。用束搜索對(duì)它們進(jìn)行解析可以得到各種不同復(fù)雜度的評(píng)價(jià)指標(biāo),比如單詞驚異數(shù)(word surprisal count)和解析器動(dòng)作數(shù)(parser action count)。當(dāng)把它們用作回歸因子,解析人類大腦成像圖像中對(duì)于自然語言文本的電生理學(xué)響應(yīng)時(shí),它們可以帶來兩個(gè)增幅效果:一個(gè)早期的峰值以及一個(gè)類似 P600 的稍遲的峰值。相比之下,一個(gè)不具有句法結(jié)構(gòu)的神經(jīng)語言模型無法達(dá)到任何可靠的增幅效果。通過對(duì)不同模型的對(duì)比,早期峰值的出現(xiàn)可以歸功于 RNNG 中的句法組合。結(jié)果中體現(xiàn)出的這種模式表明 RNNG+束搜索的組合可以作為正常人類語言處理中的語法處理的一個(gè)不錯(cuò)的機(jī)理解釋模型。

  • 論文地址:https://arxiv.org/abs/1806.04127

  • 論文四位作者中的三位來自 DeepMind,另一位來自密歇根大學(xué)文學(xué)、科學(xué)與藝術(shù)學(xué)院計(jì)算神經(jīng)語言學(xué)實(shí)驗(yàn)室

Learning to Ask Good Questions: Ranking Clarification Questions using Neural Expected Value of Perfect Information

  • 學(xué)習(xí)如何問好的問題:通過完全信息下的期待值為追問問題排序

  • 論文摘要:在溝通中,提問是一大基本要素:如果機(jī)器不知道如何問問題,那它們也就無法高效地與人類合作。在這項(xiàng)研究中,作者們構(gòu)建了一個(gè)神經(jīng)網(wǎng)絡(luò)用于給追問的問題做排名。作者們模型設(shè)計(jì)的啟發(fā)來源于完全信息情況下的期待值:一個(gè)可以期待獲得有用的答案的問題就是一個(gè)好問題。作者們根據(jù) StackExchange 上抓取的數(shù)據(jù)研究了這個(gè)問題;StackExchange 是一個(gè)內(nèi)容豐富的在線咨詢平臺(tái),其中有人發(fā)帖咨詢以后,別的用戶會(huì)在下面追問起到解釋澄清作用的問題,以便更好地了解狀況、幫助到發(fā)帖人。論文作者們創(chuàng)建了一個(gè)由這樣的追問問題組成的數(shù)據(jù)集,其中包含了 StackExchange 上 askubuntu、unix、superuser 這三個(gè)領(lǐng)域的約 77k 組發(fā)帖+追問問題+問題的回答。作者們?cè)谄渲械?500 組樣本上評(píng)估了自己的模型,相比其他基準(zhǔn)模型有顯著的提高;同時(shí)他們也與人類專家的判斷進(jìn)行了對(duì)比。

  • 論文地址:https://arxiv.org/abs/1805.04655

  • 論文作者來自馬里蘭大學(xué)與微軟研究院

Let's do it "again": A First Computational Approach to Detecting Adverbial Presupposition Triggers

  • 讓我們「再」做一次:首個(gè)檢測(cè)假定狀態(tài)觸發(fā)副詞的計(jì)算性方法

  • 論文摘要:這篇論文中,作者們介紹了一種新的研究課題——預(yù)測(cè)副詞詞性的假定狀態(tài)觸發(fā)語(adverbial presupposition triggers),比如「also」和「again」。完成這樣的任務(wù)需要在對(duì)話上下文里尋找重復(fù)出現(xiàn)的或者相似的內(nèi)容;這項(xiàng)任務(wù)的研究成果則可以在文本總結(jié)或者對(duì)話系統(tǒng)這樣的自然語言生成任務(wù)中起到幫助。作者們?yōu)檫@項(xiàng)任務(wù)創(chuàng)造了兩個(gè)新的數(shù)據(jù)集,分別由 Penn Treebank 和 AnnotatedEnglish Gigaword 生成,而且也專為這項(xiàng)任務(wù)設(shè)計(jì)了一種新的注意力機(jī)制。作者們?cè)O(shè)計(jì)的注意力機(jī)制無需額外的可訓(xùn)練網(wǎng)絡(luò)參數(shù)就可以增強(qiáng)基準(zhǔn) RNN 模型的表現(xiàn),這最小化了這一注意力機(jī)制帶來的額外計(jì)算開銷。作者們?cè)谖闹斜砻?,他們的模型相比多個(gè)基準(zhǔn)模型都有統(tǒng)計(jì)顯著的更高表現(xiàn),其中包括基于 LSTM 的語言模型。

  • 論文地址:https://www.cs.mcgill.ca/~jkabba/acl2018paper.pdf

  • 這篇論文來自加拿大麥克吉爾大學(xué)(McGill University)與蒙特利爾算法學(xué)習(xí)人工智能實(shí)驗(yàn)室(MILA)

最佳論文 - 短論文(2 篇)

Know What You Don't Know: Unanswerable Questions for SQuAD

  • 知道你不知道的:SQuAD 中無法回答的問題

  • 論文摘要:提取式的閱讀理解系統(tǒng)一般都能夠在給定的文檔內(nèi)容中找到正確的內(nèi)容來回答問題。不過對(duì)于正確答案沒有明示在閱讀文本中的問題,它們就經(jīng)常會(huì)做出不可靠的猜測(cè)。目前現(xiàn)有的閱讀理解問答數(shù)據(jù)集,要么只關(guān)注了可回答的問題,要么使用自動(dòng)生成的無法回答的問題,很容易識(shí)別出來。為了改善這些問題,作者們提出了 SQuAD 2.0 數(shù)據(jù)集,這是斯坦福問答數(shù)據(jù)集 SQuAD 的最新版本。SQuAD 2.0 在現(xiàn)有的十萬個(gè)問題-答案對(duì)的基礎(chǔ)上增加了超過五萬個(gè)無法回答的問題,它們由人類眾包者對(duì)抗性地生成,看起來很像可以回答的問題。一個(gè)問答系統(tǒng)如果想要在 SQuAD 2.0 上獲得好的表現(xiàn),它不僅需要在問題能夠回答時(shí)給出正確的答案,還要在給定的閱讀材料中不包含答案時(shí)做出決定、拒絕回答這個(gè)問題。SQuAD 2.0 也設(shè)立了新的人類表現(xiàn)基準(zhǔn)線,EM 86.831,F(xiàn)1 89.452。對(duì)于現(xiàn)有模型來說 SQuAD 2.0 是一個(gè)具有挑戰(zhàn)性的自然語言理解任務(wù),一個(gè)強(qiáng)有力的基于神經(jīng)網(wǎng)絡(luò)的系統(tǒng)可以在 SQuAD 1.1 上得到 86% 的 F1 分?jǐn)?shù),但在 SQuAD 2.0 上只能得到 66%。

  • 論文地址:https://arxiv.org/abs/1806.03822 

  • 這篇論文來自斯坦福自然語言小組(Stanford NLP Group),作者之一的副教授 Percy Liang 是 NLP 領(lǐng)域著名的研究員,我們也曾報(bào)道過他的論文《先打草稿可以生成更高質(zhì)量的文本,Percy Liang新論文廣受贊譽(yù)》

'Lighter' Can Still Be Dark: Modeling Comparative Color Descriptions

  • “打火機(jī)”也可能是黑暗的:建模比較性的顏色描述

  • (論文內(nèi)容尚未公開)

  • 這篇論文來自哥倫比亞大學(xué)

最佳論文公告參見 https://acl2018.org/2018/06/10/best-papers/

更多 ACL 2018 及其他重要學(xué)術(shù)會(huì)議報(bào)道,請(qǐng)繼續(xù)關(guān)注雷鋒網(wǎng) AI 科技評(píng)論。

雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

一窺 ACL 2018 最佳論文

分享:
相關(guān)文章

讀論文為生

日常笑點(diǎn)滴,學(xué)術(shù)死腦筋
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說