丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能學(xué)術(shù) 正文
發(fā)私信給AI科技評(píng)論
發(fā)送

0

連續(xù)五天,ACL 2020 清華 CoAI 系列解讀!

本文作者: AI科技評(píng)論 2020-05-06 11:24 專題:ACL 2019
導(dǎo)語(yǔ):為促進(jìn)學(xué)術(shù)交流,讓更多師生及時(shí)了解最新前沿研究,AI科技評(píng)論聯(lián)合清華大學(xué)CoAI,重磅推出「ACL 2020 清華大學(xué)CoAI 系列論文解讀」。

連續(xù)五天,ACL 2020 清華 CoAI 系列解讀!

疫情之后,“舊的世界”將不復(fù)存在

線上直播將成為學(xué)術(shù)交流的重要形式


2020年4月3日,NLP 頂會(huì) ACL 2020 公布錄用論文之后,AI科技評(píng)論相繼與哈工大、復(fù)旦大學(xué)聯(lián)合舉辦兩期「ACL 系列解讀」直播活動(dòng),受到廣大師生的好評(píng)。 

第一期:ACL 2020 - 哈工大 SCIR 系列解讀

第二期:ACL 2020 - 復(fù)旦大學(xué)系列解讀

在此基礎(chǔ)上,我們?cè)诖寺?lián)合清華大學(xué)交互式人工智能課題組(Conversational AI, CoAI)推出第三期實(shí)驗(yàn)室系列解讀直播活動(dòng)——「ACL 2020 清華大學(xué)CoAI 系列論文解讀」。

交互式人工智能課題組(Conversational AI, CoAI)隸屬于清華大學(xué)計(jì)算機(jī)系人工智能實(shí)驗(yàn)室,由我國(guó)NLP領(lǐng)域的著名學(xué)者朱小燕教授、黃民烈副教授聯(lián)合指導(dǎo),主要從事機(jī)器學(xué)習(xí)與自然語(yǔ)言處理的應(yīng)用基礎(chǔ)研究,研究方向包括深度學(xué)習(xí)、強(qiáng)化學(xué)習(xí)、問(wèn)答系統(tǒng)、對(duì)話系統(tǒng)、情感理解、邏輯推理、語(yǔ)言生成等。

在本屆 ACL 會(huì)議中,CoAI實(shí)驗(yàn)室共有三篇長(zhǎng)文、一篇 Demo 錄用,此外還有兩篇被 TACL 錄用并將在 ACL 2020 展示。這些論文分別包括故事生成、閱讀理解、對(duì)話以及相關(guān)數(shù)據(jù)集等的研究工作。

為促進(jìn)學(xué)術(shù)交流,讓更多師生及時(shí)了解最新前沿研究,AI科技評(píng)論聯(lián)合清華大學(xué)CoAI,重磅推出「ACL 2020 清華大學(xué)CoAI 系列論文解讀」。我們將在5月6日-10日,連續(xù)5天進(jìn)行 5 場(chǎng)直播,全面覆蓋清華大學(xué)CoAI課題組在ACL上相關(guān)的全部工作。

系列解讀活動(dòng)簡(jiǎn)介如下,歡迎屆時(shí)關(guān)注。

主題一:多智能體對(duì)話策略學(xué)習(xí)

時(shí)間:2020年5月6日(周三)晚20:00整

論文:Multi-Agent Task-Oriented Dialog Policy Learning with Role-Aware Reward Decomposition 

主講人:高信龍一

連續(xù)五天,ACL 2020 清華 CoAI 系列解讀!

摘要:近年來(lái),許多研究都采用用戶模擬器來(lái)獲得大量的模擬用戶體驗(yàn),以滿足強(qiáng)化學(xué)習(xí)算法在對(duì)話策略中的訓(xùn)練。然而,建模一個(gè)逼真的用戶模擬器是具有挑戰(zhàn)性的。為了避免構(gòu)建用戶模擬器,我們提出了多智能體對(duì)話策略學(xué)習(xí)法,將系統(tǒng)和用戶均視作對(duì)話代理聯(lián)合學(xué)習(xí),并提出了混合價(jià)值網(wǎng)絡(luò)用于角色感知的獎(jiǎng)勵(lì)分解,以整合各代理在任務(wù)導(dǎo)向型對(duì)話中角色特定的領(lǐng)域知識(shí)。


主題二:預(yù)訓(xùn)練語(yǔ)言模型在故事生成場(chǎng)景下的應(yīng)用和挑戰(zhàn)

時(shí)間:2020年5月7日(周四)晚20:00整

論文:A Knowledge-Enhanced Pretraining Model for Commonsense Story Generation 

主講人:關(guān)健

連續(xù)五天,ACL 2020 清華 CoAI 系列解讀!

摘要:故事生成,要求根據(jù)給定的上文生成合理的故事,是一項(xiàng)重要但具有挑戰(zhàn)性的任務(wù)。現(xiàn)有的基于預(yù)訓(xùn)練的語(yǔ)言生成模型(例如GPT-2)盡管在建模流暢性和局部連貫性方面取得了成功,但仍然會(huì)產(chǎn)生重復(fù)、邏輯沖突以及缺乏長(zhǎng)距離連貫性的問(wèn)題。這是由于這些生成模型難以關(guān)聯(lián)相關(guān)常識(shí)、理解因果關(guān)系以及按適當(dāng)?shù)臅r(shí)間順序來(lái)規(guī)劃故事中的實(shí)體和事件。因此,如何利用預(yù)訓(xùn)練模型生成更合理的故事仍然存在很多挑戰(zhàn)和提升空間。
 

主題三:KdConv: 知識(shí)驅(qū)動(dòng)的中文多輪對(duì)話數(shù)據(jù)集

時(shí)間:2020年5月8日(周五)晚20:00整

論文:KdConv: A Chinese Multi-domain Dialogue Dataset Towards Multi-turn Knowledge-driven Conversation 

主講人:周昊

連續(xù)五天,ACL 2020 清華 CoAI 系列解讀!

摘要: 在非任務(wù)導(dǎo)向型人機(jī)對(duì)話系統(tǒng)領(lǐng)域,盡管對(duì)話生成的任務(wù)得到了廣泛的研究,但是對(duì)于驅(qū)動(dòng)對(duì)話生成的知識(shí)的建模卻由于缺少數(shù)據(jù)支持亟待研究。如可以在多輪對(duì)話中有效的對(duì)知識(shí)的交互進(jìn)行建模,則可以極大地提升對(duì)話系統(tǒng)的邏輯性,信息量,可解釋性等智能化程度,從而帶來(lái)更好的用戶體驗(yàn)。在本次分享中,講者將介紹一個(gè)最新構(gòu)造的知識(shí)驅(qū)動(dòng)的中文多輪對(duì)話數(shù)據(jù)集KdConv,并分析知識(shí)建模在對(duì)話系統(tǒng)中的應(yīng)用。
 

主題四:任務(wù)導(dǎo)向?qū)υ挼臄?shù)據(jù)和平臺(tái)建設(shè)

時(shí)間:2020年5月9日(周六)晚20:00整

論文:

1)ConvLab-2: An Open-Source Toolkit for Building, Evaluating, and Diagnosing Dialogue Systems

 2)CrossWOZ: A Large-Scale Chinese Cross-Domain Task-Oriented Dialogue Dataset 

主講人:朱祺

連續(xù)五天,ACL 2020 清華 CoAI 系列解讀!

摘要:近年來(lái),任務(wù)導(dǎo)向?qū)υ捠艿搅嗽絹?lái)越多的關(guān)注,涌現(xiàn)出許多數(shù)據(jù)集和基于神經(jīng)網(wǎng)絡(luò)的模型。為了推動(dòng)多領(lǐng)域?qū)υ挼难芯亢吞钛a(bǔ)中文數(shù)據(jù)的空白,我們提出了CrossWOZ,第一個(gè)中文大規(guī)模任務(wù)導(dǎo)向?qū)υ挃?shù)據(jù)集。此外,為了對(duì)多種形式構(gòu)建的對(duì)話系統(tǒng)進(jìn)行統(tǒng)一端到端評(píng)測(cè),我們開(kāi)發(fā)了ConvLab-2對(duì)話平臺(tái),支持用最新的模型快速搭建、評(píng)估、診斷對(duì)話系統(tǒng)。
 

主題五:非抽取式機(jī)器閱讀理解

時(shí)間:2020年5月10日(周日)晚20:00整

論文:A Self-Training Method for Machine Reading Comprehension with Soft Evidence Extraction

主講人:牛藝霖

連續(xù)五天,ACL 2020 清華 CoAI 系列解讀!

摘要:在抽取式機(jī)器閱讀理解任務(wù)中,答案來(lái)自于文章中的片段,因此可以根據(jù)答案定位文中的證據(jù)信息,從而有監(jiān)督地訓(xùn)練證據(jù)抽取模塊。在非抽取式閱讀理解任務(wù)中,無(wú)法根據(jù)答案自動(dòng)化地標(biāo)出文中的證據(jù)信息,在這種情況下,難以有效地訓(xùn)練證據(jù)抽取模塊,難以過(guò)濾文中大量的干擾信息。因此,如何通過(guò)無(wú)/弱監(jiān)督的方式訓(xùn)練證據(jù)抽取模塊,對(duì)于非抽取式機(jī)器閱讀理解來(lái)說(shuō)十分重要。


 如何加入?       

掃碼關(guān)注[ AI研習(xí)社頂會(huì)小助手] 微信號(hào),發(fā)送關(guān)鍵字“ACL 2020+直播”,即可進(jìn)群觀看直播和獲取課程資料。       

連續(xù)五天,ACL 2020 清華 CoAI 系列解讀!

連續(xù)五天,ACL 2020 清華 CoAI 系列解讀!

ACL 2020原定于2020年7月5日至10日在美國(guó)華盛頓西雅圖舉行,因新冠肺炎疫情改為線上會(huì)議。為促進(jìn)學(xué)術(shù)交流,方便國(guó)內(nèi)師生提早了解自然語(yǔ)言處理(NLP)前沿研究,AI 科技評(píng)論將推出「ACL 實(shí)驗(yàn)室系列論文解讀」內(nèi)容,同時(shí)歡迎更多實(shí)驗(yàn)室參與分享,敬請(qǐng)期待!

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知

連續(xù)五天,ACL 2020 清華 CoAI 系列解讀!

分享:
相關(guān)文章
當(dāng)月熱門(mén)文章
最新文章
請(qǐng)?zhí)顚?xiě)申請(qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)