0
本文作者: 三川 | 編輯:郭奕欣 | 2017-09-02 06:15 | 專題:EMNLP 2017 |
雷鋒網 AI 科技評論按:自然語言處理領域的頂級會議 EMNLP 2017,將于 9 月 7-11 日在哥本哈根召開。今年 EMNLP 共接受論文 323 篇,其中 216 篇為長論文,107 篇為短論文。最佳論文名單已經公布,詳見此前報道:EMNLP 2017 最佳論文揭曉,「男人也愛逛商場」獲最佳長論文。
雷鋒網了解到,著名華人 NLP 學者、斯坦福大學副教授 Percy Liang,共有三篇署名論文被 EMNLP 2017 收錄:
《Macro Grammars and Holistic Triggering for Efficient Semantic Parsing 》
作者:Yuchen Zhang, Panupong Pasupat, Percy Liang
《Adversarial Examples for Evaluating Reading Comprehension Systems》
作者:Robin Jia, Percy Liang
《Importance sampling for unbiased on-demand evaluation of knowledge base population》
作者:Arun Chaganty, Ashwin Paranjape, Percy Liang and Christopher D. Manning
Percy Liang
三篇論文的第一作者,Yuchen Zhang、Robin Jia 和 Arun Chaganty,均為 Percy Liang 在斯坦福的指導學生。第三篇尚未公開,前兩篇論文的摘要如下:
即“《用對抗方案評估閱讀理解系統(tǒng)的例子》”
摘要:
標準的精確度衡量標準表明,閱讀理解系統(tǒng)正在快速進步。但這些系統(tǒng)究竟能在多大程度上真正理解語言,仍然未知。為了獎勵具有語言理解能力的系統(tǒng),我們針對斯坦福問答數據集 (SQuAD) 提出一個對抗評估方案。我們的方案會自動生成并在段落中插入對抗語句,然后測試系統(tǒng)是否能圍繞這一段落回答問題。這些對抗語句的目的在于干擾計算機回答系統(tǒng),但并不會改變問題的正確答案,也不會對人類讀者造成干擾。在這種對抗方案中,16 個已發(fā)表模型的精確度從 75%(F1 分數)降到了 36%。當對抗系統(tǒng)被允許加入不符合語法的短語串,有四個模型的平均精度下降到了 7%。我們希望該發(fā)現能激勵大家開發(fā)出能夠更精確理解語言的新模型。
地址:https://arxiv.org/abs/1707.07328
即“《應用于高效語義解析的宏觀語法和整體觸發(fā)》”
摘要:
為了從注解中學習出語義解析器,一個學習算法必須在一個大型邏輯形式組合空間中,搜索與注解匹配的邏輯組合。我們提出一個新的在線學習算法,能隨著訓練進程搜索地越來越快。兩個關鍵的想法是:1. 對于當前找到的有價值的邏輯形式,把它們的抽象模式用宏觀語法(macro grammars)緩存起來;2. 根據句子相似性,使用整體觸發(fā)(holistic triggering)高效抽取最相關的模式。在 WikiTableQuestions 數據集,我們先是擴展了已有模型的搜索空間,把最高精確度從 38.7% 提升到了 42.7%。然后,用宏觀語法和整體觸發(fā)實現 11 倍的加速和 43.7% 的精確度。
地址:https://arxiv.org/abs/1707.07806
雷鋒網AI科技評論編譯
雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知。