0
本文作者: 我在思考中 | 2022-05-18 10:27 | 專題:ACL 2019 |
作者 | 劉冰一
近日,自然語言處理國際頂會 ACL 2022 公布了今年的獲獎工作,華人學者表現(xiàn)突出:今年的 ACL 一共選出八篇杰出論文,其中,四篇由中國機構或海外知名華人學者獲得,占了一半!
獲獎企業(yè)包括阿里達摩院、華為諾亞方舟實驗室等,而獲獎工作的華人作者有陳丹琦、楊笛一、金榕等知名學者。
ACL 2022是CCF A類會議,人工智能領域自然語言處理(Natural Language Processing,NLP)方向最權威的國際會議之一。它由國際計算語言學協(xié)會組織,每年籌辦一次。第 60 屆 ACL 大會,將于 2022 年 5 月 22 日至 27 日在愛爾蘭都柏林召開。
本屆大會主會議共接收了 604 篇長論文和 97 篇短論文。
最佳論文
本屆最佳論文(Best Paper)來自加州大學伯克利分校研究團隊,該研究提出了一種增量句法表示。
鏈接:https://aclanthology.org/2022.acl-long.220.pdf
論文摘要:該研究提出了一種增量句法表示,該表示包括為句子中的每個單詞分配一個離散標簽,其中標簽是使用句子前綴的嚴格增量處理來預測的,并且句子標簽序列完全確定了解析樹,這種表示方法區(qū)別于標準表示。
該研究使用更強大的預訓練模型和額外監(jiān)督,將相同的預訓練編碼器與深度雙向處理相結合,結合所有因素,達到96.38 F1。這表明該研究可以誘導出具有競爭性精度的解析樹。該研究還對系統(tǒng)學習到的表示進行了分析,他們研究了系統(tǒng)捕獲的可解釋句法特征等屬性,以及句法歧義的延遲解決機制。但是這些技術由于它們側重于深入的雙向神經處理而不能被借用到增量設置中。
1998年,Klein 在康奈爾大學拿到數(shù)學、計算機科學、語言學3個學士學位。同年他去了牛津大學,在語言學專業(yè)上獲取本碩博學位。1999年博士畢業(yè)他再次進入斯坦福攻讀計算機科學博士學位,后進入伯克利人工智能實驗室(BAIR)。
得益于多年的語言學和計算機學科的學科背景,他在自然語言處理的研究上成績斐然。Klein 教授的研究包括無監(jiān)督學習方法、句法解析、信息提取和機器翻譯。
Daniel Klein曾獲得ACM 的 Grace Murray Hopper 獎、斯隆研究獎學金、美國國家科學基金會CAREER獎和微軟新教師獎學金。多次在ACL、NAACL、EMNLP獲得最佳論文獎。
Dan培養(yǎng)了許多優(yōu)秀學生,如Aria Haghighi、John DeNero 和 Percy Liang。
杰出論文
Learning to Generalize to More: Continuous Semantic Augmentation for Neural Machine Translation
論文地址:https://arxiv.org/pdf/2204.06812v1.pdf
論文摘要:監(jiān)督神經機器翻譯(NMT)在學習生成以來自一組并行句子對的源輸入為條件的目標句子時,通常觀察到模型的泛化性受訓練中使用的并行數(shù)據量的影響很大。因此,研究者提出了一種新的數(shù)據增強范式——連續(xù)語義增強(Continuous Semantic Augmentation, CsaNMT),為每個訓練實例增加了一個鄰接語義區(qū)域。
金榕
金榕現(xiàn)任阿里巴巴集團副總裁、達摩院副院長。他曾是密歇根州立大學終身教授,曾任NIPS、SIGIR等頂級國際學術會議的主席,獲得過美國國家科學基金會NSF Career Award。2014年7月,42歲的金榕決定加入阿里巴巴,成為達摩院機器智能實驗室負責人。終身教授、海歸科學家、不是學霸、浪漫絕緣體等標簽齊聚在金榕身上,他被同事稱為“隨和得最不像科學家的科學家”。
Inducing Positive Perspectives with Text Reframing
論文地址:https://arxiv.org/pdf/2204.02952v1.pdf
論文摘要:該研究引入了積極重構任務,在該任務中,該研究為作者生成更積極的觀點,并且不易與原始含義產生矛盾。該研究引入了一個大規(guī)模的基準,積極心理學框架(POSITIVE PSYCHOLOGY FRAMES),其具有 8349 個句子對和 12755 個結構化注釋,以根據六種理論動機的重構策略來解釋積極重構。
她曾就讀陜西省興平市西郊高級中學,2009年,高考中以優(yōu)異的成績考入上海交通大學,在俞勇老師的感染下加入聚集各路競賽大神的ACM班。本科期間發(fā)表4篇頂會論文,一作2篇,獲得2012年谷歌Anita Borg 計算機學科女性獎學金、2013年上海交大致遠杰出學生獎學金。
2013年,楊笛一從上海交大ACM班畢業(yè),赴卡內基梅隆大學語言技術研究所攻讀碩士、博士,28歲成為佐治亞理工學院的助理教授。后因楊笛一在NLP領域的卓越成就,入選2020年“福布斯30位30歲以下科學精英榜”(Forbes 30 Under 30 list in Science)。
AI科技評論曾對楊笛一進行過專訪,有興趣讀者點擊鏈接可見全文。
Ditch the Gold Standard: Re-evaluating Conversational Question Answering
論文地址:https://arxiv.org/pdf/2112.08812v2.pdf
論文摘要:在這項工作中,該研究對 SOTA 對話式 QA 系統(tǒng)進行了首次大規(guī)模人類評估,通過人類與模型對話判斷答案正確性。研究發(fā)現(xiàn)人機對話的分布與人-人對話的分布有很大的不同。人類評估和黃金歷史(goldhistory)評估存在分歧,該研究進一步改進自動評估,并提出了預測歷史重寫機制,以便和人類判斷更好地關聯(lián)。最后,該研究分析了各種建模策略的影響,并討論了構建更好的對話式問答系統(tǒng)的未來方向。、
2008年畢業(yè)于長沙市雅禮中學,同年8月赴埃及開羅參加第20屆國際信息學奧林匹克競賽獲得金牌,之后免試錄取進入清華大學,2012年畢業(yè)于清華大學計算機科學實驗室(姚班),同年赴美留學。曾經是Facebook人工智能訪問科學家,2018年憑借博士論文《Neural Reading Comprehension and Beyond》獲得斯坦福大學博士,師從Christopher Manning,丈夫是清華大學同班同學,計算機科學家俞華程。
2019年擔任普林斯頓大學計算機科學系助理教授。2021年入選Google人工智能2021研究學者計劃。
本文一作高天宇師從陳丹琦,目前是普林斯頓大學的二年級博士生,本科畢業(yè)于清華大學,曾經獲得清華本科特等獎學金。
Compression of Generative Pre-trained Language Models via Quantization
論文摘要:本文采用量化方法對生成式 PLM(Pre-trained Language Models)進行壓縮,提出了一種 token 級的對比蒸餾方法來學習可區(qū)分的詞嵌入,此外,研究還提出了一種模塊級的動態(tài)擴展來使量化器適應不同的模塊,在各種任務的經驗結果表明,該研究提出的方法在生成 PLM 上明顯優(yōu)于 SOTA 壓縮方法。在 GPT-2 和 BART 上分別實現(xiàn)了 14.4 倍和 13.4 倍的壓縮率。
第一作者陶超凡,香港大學(HKU)博士研究生,師從香港大學的黃毅和羅萍。研究興趣是高性能機器學習(網絡壓縮和加速),并應用于視覺和語言任務,論文發(fā)表在ACL/ECCV/CIKM/AAAI等。
參考鏈接:
https://www.2022.aclweb.org/best-paper-awards
https://www2.eecs.berkeley.edu/Faculty/Homepages/klein.html
https://chaofantao.top/
雷峰網(公眾號:雷峰網)
雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知。