丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能 正文
發(fā)私信給奕欣
發(fā)送

0

2018 NAACL語言學(xué)習建模競賽:英語組冠軍先聲教育展望自適應(yīng)學(xué)習技術(shù)

本文作者: 奕欣 2018-06-27 09:15
導(dǎo)語:2018 NAACL語言學(xué)習建模競賽對自適應(yīng)學(xué)習技術(shù)的進步有巨大意義,雷鋒網(wǎng) AI 科技評論特邀秦龍博士,與他交流了大賽中的自適應(yīng)領(lǐng)域最新研究成果。
比賽
比賽名稱:2018 NAACL語言學(xué)習建模競賽
年份:2018
企業(yè):先聲教育
操作:競賽
名次:1

雷鋒網(wǎng) AI 研習社按:第十六屆北美計算語言學(xué)會議 NAACL 于 6 月初在美國路易斯安那州的新奧爾良召開。NAACL 是自然語言處理與計算語言學(xué)領(lǐng)域的頂級學(xué)術(shù)會議之一。在語言學(xué)習建模競賽中,國內(nèi)人工智能企業(yè)先聲教育在英語組賽事中奪得第一。其他參賽者包括來自全球頂尖學(xué)術(shù)界和產(chǎn)業(yè)界的研究團隊,如劍橋大學(xué)、紐約大學(xué)、加利福尼亞大學(xué)等。

英語組冠軍團隊先聲教育由其聯(lián)合創(chuàng)始人及 CTO 秦龍博士帶隊參賽,參賽隊員還包括首席語音科學(xué)家陳進和自然語言處理科學(xué)家徐書堯。秦龍博士畢業(yè)于卡內(nèi)基梅隆大學(xué),擁有 10 多年的人工智能行業(yè)經(jīng)驗。由于這一賽事對自適應(yīng)學(xué)習技術(shù)的進步有巨大意義,雷鋒網(wǎng) AI 科技評論特邀秦龍博士,與他交流了大賽中的自適應(yīng)領(lǐng)域最新研究成果。

官網(wǎng):https://www.cs.rochester.edu/~tetreaul/naacl-bea13.html

值得一提的是,本次賽事奪冠也為先聲教育在雷鋒網(wǎng)學(xué)術(shù)頻道 AI 科技評論旗下數(shù)據(jù)庫項目「AI 影響因子」獲得加分。

雷鋒網(wǎng) AI 研習社:我們都知道 NAACL 是國際自然語言處理與計算語言學(xué)領(lǐng)域的頂級學(xué)術(shù)會議,為什么 NAACL 舉行語言學(xué)習建模這一競賽的用意是什么?

先聲教育 CTO 秦龍:把自然語言處理技術(shù)應(yīng)用到教育相關(guān)領(lǐng)域一直是 NAACL 的重要議題之一,每一屆 NAACL 都會舉辦 BEA 教育技術(shù)專題研討會,今年已經(jīng)是第 13 屆。今年 BEA 有兩個公開任務(wù),一個是單詞復(fù)雜度識別(Complex Word Identification),一個是第二語言習得建模(Second Language Acquisition Modeling)。第二語言習得建模是指根據(jù)學(xué)生過去的答題 (第二語言學(xué)習) 歷史,預(yù)測該學(xué)生能否對未來的題目作出正確應(yīng)答。這對于構(gòu)建能夠作出智能推薦的自適應(yīng)學(xué)習系統(tǒng)具有重大意義,是自適應(yīng)學(xué)習最核心的模塊。

2018 NAACL語言學(xué)習建模競賽:英語組冠軍先聲教育展望自適應(yīng)學(xué)習技術(shù)

(圖為大會組織方進行 SLAM 競賽的總結(jié)報告)

此次 SLAM 競賽是由語言能力測試的權(quán)威機構(gòu) ETS 與世界上最大的語言學(xué)習應(yīng)用 Duolingo 聯(lián)合組織的。Singsound AI 團隊參加了該任務(wù)的全部三個子任務(wù):英語學(xué)習、西班牙語學(xué)習以及法語學(xué)習。先聲教育的 CLUF 模型在英語學(xué)習上取得了第一名的好成績,在西班牙語學(xué)習及法語學(xué)習上取得了第二名的成績。

2018 NAACL語言學(xué)習建模競賽:英語組冠軍先聲教育展望自適應(yīng)學(xué)習技術(shù)

雷鋒網(wǎng) AI 研習社:比賽過程中的最大難點是什么?

先聲教育 CTO 秦龍:主要難點有二:一是語言類學(xué)習以詞匯、短語量龐大,且語法、搭配復(fù)雜著稱,是自適應(yīng)學(xué)習最難落地的學(xué)科,此外本次大賽考察多個語種,包括英語、西班牙語、法語;二是學(xué)習行為數(shù)據(jù)時間跨度長達 3 個月,數(shù)據(jù)量極其龐大,超過 100 萬個句子,覆蓋 6000 多名學(xué)生,使學(xué)習行為的數(shù)學(xué)模型更加復(fù)雜。

隨著近年來互聯(lián)網(wǎng)、人工智能等技術(shù)與教育的融合,計算機應(yīng)用程序增加,教育行業(yè)積累了大量學(xué)生學(xué)習數(shù)據(jù),可以利用來驅(qū)動實現(xiàn)個性化學(xué)習,目前數(shù)學(xué)學(xué)科方面也取得了一些進展。但對于一門語言的學(xué)習,知識點更細微、涉及詞匯的互動知識、形態(tài)句法處理等更為復(fù)雜,加上需要分析極其龐大的數(shù)據(jù)群,對于數(shù)學(xué)模型的訓(xùn)練難度極大。

雷鋒網(wǎng) AI 研習社:據(jù)我們了解,目前國內(nèi)自適應(yīng)學(xué)習大多是基于知識圖譜這樣的一個系統(tǒng),第二語言習得建模這樣的任務(wù)跟知識圖譜有什么區(qū)別嗎?

先聲教育 CTO 秦龍:自適應(yīng)學(xué)習可以分為兩個階段:1)以推薦系統(tǒng)為基礎(chǔ)的淺層自適應(yīng)階段;2)以學(xué)習行為建模為基礎(chǔ)的深度自適應(yīng)階段。目前國內(nèi)大多數(shù)企業(yè)仍處于淺層自適應(yīng)階段,從本次大賽英語第一的成果看,先聲教育自適應(yīng)系統(tǒng)已成功率先步入自適應(yīng)學(xué)習的核心深度階段。

我們先聲團隊使用的 CLUF 是一種基于深度學(xué)習的 Encoder-Decoder 模型,它由四個 encoder 構(gòu)成,分別是語境編碼器 Context Encoder、語言學(xué)特征編碼器 Linguistic Encoder、用戶信息編碼器 User Encoder、題型信息編碼器 Format Encoder,最后由解碼器利用編碼器輸出的高維特征作出預(yù)測。

語境編碼器用來編碼句子的語言環(huán)境,它由一個字母級別的編碼器與一個單詞級別的編碼器構(gòu)成。字母級別編碼器是一個層級式的循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),單詞級別編碼器則是一個雙向長短期記憶神經(jīng)網(wǎng)絡(luò) LSTM;語言學(xué)特征編碼器也是一個 LSTM 結(jié)構(gòu),主要用于編碼提取的語言學(xué)特征,為語境編碼器提供額外的信息;用戶編碼器是一個全連接的結(jié)構(gòu),用于記錄用戶的第二語言能力與學(xué)習歷史;題型編碼器則是用來編碼題型、答題方式等信息。

 2018 NAACL語言學(xué)習建模競賽:英語組冠軍先聲教育展望自適應(yīng)學(xué)習技術(shù)

雷鋒網(wǎng) AI 研習社:先聲的模型和其他參加團隊具體有哪些不同,優(yōu)勢在哪里呢?

先聲教育 CTO 秦龍:我們的 CLUF 模型最大的優(yōu)勢在于,通過把不同類型的特征分組,用符合相應(yīng)特點的網(wǎng)絡(luò)結(jié)構(gòu)進行編碼來挖掘數(shù)據(jù)的內(nèi)在模式,CLUF 取得了非常出色的效果,在該任務(wù)上 Singsound AI 團隊擊敗了來自于劍橋大學(xué)、紐約大學(xué)、首都東京大學(xué)、加州大學(xué)等團隊。

在其他參賽隊伍中,紐約大學(xué)也取得了不錯的成績。他們的系統(tǒng)會提取用戶、詞匯、上下文等基于認知科學(xué)、語言學(xué)的特征,然后使用梯度提升決策樹 GBDT 模型進行建模。在西班牙和法語學(xué)習中取得最好分數(shù)的是來自于瑞典的 SanaLabs,他們采用了 ensemble 的方法,也就是使用多個不同的模型進行預(yù)測,然后對多個模型的預(yù)測結(jié)果進行加權(quán)組合的方法。實際上,對于類似的競賽任務(wù),大會組織方是不提倡采用 ensemble 的方法的,因為這樣無法判斷具體的模型究竟對該任務(wù)是否有效。為此,在組織方的總結(jié)報告中,大會組織者進行了的 ensemble 模型融合分析。很顯然,融合所有團隊的系統(tǒng)能夠取得更好的效果。同時,在該融合系統(tǒng)中,先聲教育的 CLUF 的貢獻最大,其次是紐約大學(xué)的系統(tǒng),SanaLabs 的系統(tǒng)權(quán)重最低。

雷鋒網(wǎng) AI 研習社:對于本次大賽所有參賽團隊的整體成績,您對于自適應(yīng)學(xué)習技術(shù)的未來抱有怎樣的看法呢?

先聲教育 CTO 秦龍:從大賽的整體結(jié)果看,現(xiàn)階段自適應(yīng)學(xué)習技術(shù)的成果比較樂觀。在同自然語言處理/計算語言學(xué)領(lǐng)軍人物、斯坦福大學(xué)計算機系 Christopher D. Manning 教授的交流過程中,Manning 教授點評道:「在自然語言處理與計算語言學(xué)領(lǐng)域,近年來不斷地有新的方法新的問題被提出,引起了學(xué)術(shù)界工業(yè)界的廣泛關(guān)注,在相關(guān)領(lǐng)域的研究人員隊伍也在不斷壯大。通過今年的 NAACL SLAM 競賽,可以看到自適應(yīng)學(xué)習技術(shù)落地的顯著效果,也期待未來自適應(yīng)學(xué)習技術(shù)跨界教育,應(yīng)用于更廣泛的領(lǐng)域。」

先聲教育創(chuàng)始人及 CEO 陸勇毅對于企業(yè)的發(fā)展和愿景曾這樣表示:「先聲作為一家人工智能企業(yè),目前已經(jīng)服務(wù)業(yè)內(nèi)近百家企業(yè),我們一直保持著開放的心態(tài),非常愿意將每個階段的研究成果開放給國內(nèi)外更多企業(yè),助力 AI 升級教育行業(yè)。并且未來希望借助技術(shù)的優(yōu)勢,跨界賦能更多行業(yè),推動智能化時代到來。」AI 研習社也將持續(xù)關(guān)注先聲教育在自適應(yīng)學(xué)習技術(shù)的發(fā)展。

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

2018 NAACL語言學(xué)習建模競賽:英語組冠軍先聲教育展望自適應(yīng)學(xué)習技術(shù)

分享:
相關(guān)文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說