
“CCF-NLP走進高?!毕盗蟹窒硎荂CF-NLP為了促進更多師生對自然語言處理前沿進展的了解,幫助在校計算機及相關(guān)專業(yè)大學(xué)生成長和發(fā)展,特邀領(lǐng)域內(nèi)的權(quán)威大牛們走進更多的高校,與師生進行溝通和交流,讓學(xué)術(shù)思想流動起來,共同學(xué)習(xí)進步。“CCF-NLP走進高?!毕盗懈咝LP研究分享報告會第七期,1月17日(本周日)18:30 我們將走進天津大學(xué)&南開大學(xué),為兩所學(xué)校的同學(xué)以及線上直播間的觀眾們分享NLP領(lǐng)域的最新發(fā)展成果和未來的研究方向。本期活動由中國計算機學(xué)會自然語言處理專業(yè)委員會(CCF-NLP)主辦,天津大學(xué)、南開大學(xué)、AI研習(xí)社聯(lián)合承辦,AI科技評論和機器學(xué)習(xí)算法與自然語言處理作為戰(zhàn)略合作媒體,活動將通過線上直播分享方式舉行。前六期報告會分享詳情請見文末“往期回顧”。AI研習(xí)社直播地址:https://www.yanxishe.com/events/ccf-nlp-tjB站直播地址:http://live.bilibili.com/22494831天津大學(xué)副教授&計算機學(xué)院副院長 張鵬南開大學(xué)人工智能學(xué)院教授 劉杰 03 / 分享主題:面向垂直領(lǐng)域的文檔機器翻譯
分享嘉賓:金山集團副總裁&人工智能研究院院長 李長亮分享環(huán)節(jié):50分鐘主題分享+10分鐘互動問答經(jīng)驗和知識可以使得機器翻譯算法,融合領(lǐng)域相關(guān)的知識,更加貼合專業(yè)領(lǐng)域,并且能讓不同領(lǐng)域特有的需求得到快速解決。在這個報告中,我們將介紹金山AIDA如何構(gòu)建面向垂直領(lǐng)域的文檔級機器翻譯系統(tǒng),并將其中的核心技術(shù)、算法和解決方案進行總結(jié),希望為相關(guān)技術(shù)工作者提供經(jīng)驗和幫助。04 /分享主題:以用戶為中心的智能人機對話系統(tǒng)研究
分享環(huán)節(jié):50分鐘主題分享+10分鐘互動問答基于自然語言處理的人機交互系統(tǒng)在智能家居、客戶服務(wù)及產(chǎn)品推薦等諸多領(lǐng)域具有廣闊應(yīng)用前景,推動著智能人機對話系統(tǒng)技術(shù)研究的高速發(fā)展。至今為止,大部分研究工作主要集中在對話系統(tǒng)本身,例如,對話系統(tǒng)應(yīng)該如何善用對話上下文或者利用背景知識來生成針對用戶的有效回應(yīng)。事實上,用戶和系統(tǒng)是對話交流中的平等伙伴,我們預(yù)期未來的研究必將更多地傾向用戶。以用戶為中心,更主動地關(guān)注用戶需求、個人特性、情感需求,以及更多地了解用戶知識水平和興趣愛好等,才能更好地服務(wù)用戶和更自然地吸引甚至引導(dǎo)用戶融入對話。05 / 分享主題:Neuralizing Symbolic and Statistical Approaches to NLP
分享嘉賓:上??萍即髮W(xué)信息科學(xué)與技術(shù)學(xué)院長聘副教授 屠可偉分享環(huán)節(jié):50分鐘主題分享+10分鐘互動問答While deep learning and neural approaches become dominant in the field of NLP over the past five years, we argue that traditional symbolic and statistical approaches still have their merits. In this talk, I will discuss our recent effort of integrating traditional symbolic and statistical techniques with modern neural approaches. I will first introduce a novel type of recurrent neural networks that can be converted from regular expressions and deployed in zero-shot and cold-start scenarios. I will then introduce the technique of unfolding statistical inference algorithms as recurrent neural networks and discuss its application to dependency parsing and CRF decoding. Finally, if time permits, I will briefly discuss our work on vectorizing formal grammars.北京大學(xué)計算機科學(xué)技術(shù)研究所博士生導(dǎo)師天津大學(xué)副教授&計算機學(xué)院副院長上??萍即髮W(xué)信息科學(xué)與技術(shù)學(xué)院長聘副教授&研究員添加小助手微信,回復(fù)【CCF-NLP】,入群交流。如有學(xué)術(shù)工作想要分享也歡迎和我們溝通。更多分享信息請持續(xù)關(guān)注AI科技評論。
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。