丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能學(xué)術(shù) 正文
發(fā)私信給AI研習(xí)社
發(fā)送

0

Paper 研習(xí)社每日精選論文推薦 12.26

本文作者: AI研習(xí)社 2019-12-26 14:48
導(dǎo)語:Hi 歡迎來到Paper 研習(xí)社每日精選欄目,Paper 研習(xí)社(paper.yanxishe.com)每天都為你精選關(guān)于人工智能的前沿學(xué)術(shù)論文供你參考。

Hi 歡迎來到Paper 研習(xí)社每日精選欄目,Paper 研習(xí)社(paper.yanxishe.com)每天都為你精選關(guān)于人工智能的前沿學(xué)術(shù)論文供你參考,以下是今日的精選內(nèi)容——

  目錄

  1. Music-oriented Dance Video Synthesis with Pose Perceptual Loss

  2. Black Box Recursive Translations for Molecular Optimization

  3. Efficient Online Learning For Mapping Kernels On Linguistic Structures

  4. Combining Fact Extraction and Verification with Neural Semantic Matching Networks

  5. Efficient Saliency Maps for Explainable AI

  6. SAFE: A Neural Survival Analysis Model for Fraud Early Detection

  7. A Finite-Time Analysis of Q-Learning with Neural Network Function Approximation

  8. Pretrained Encyclopedia: Weakly Supervised Knowledge-Pretrained Language Model

  9. Joint Face Super-Resolution and Deblurring Using a Generative Adversarial Network

  10. Dual Space Preconditioning for Gradient Descent


 具有姿勢感性損失的面向音樂的舞蹈視頻合成

Music-oriented Dance Video Synthesis with Pose Perceptual Loss

作者:Ren Xuanchi /Li Haoran /Huang Zijian /Chen Qifeng

發(fā)表時間:2019/12/13

論文鏈接:https://paper.yanxishe.com/review/7839?from=leiphonecolumn_paperreview

推薦理由:作者提出了一種基于學(xué)習(xí)的姿勢感知損失的方法,用于自動音樂視頻生成。其方法可以產(chǎn)生逼真的舞蹈視頻,該視頻符合幾乎任何給定音樂的節(jié)奏和韻律。為此,作者首先從音樂生成人體骨骼序列,然后將學(xué)習(xí)到的姿勢到外觀映射應(yīng)用于最終視頻。在生成骨骼序列的階段,作者利用兩個鑒別器捕獲序列的不同方面,并提出一種新穎的姿勢感知損失來產(chǎn)生自然舞蹈。此外,我們還提供了一種新的交叉模態(tài)評估來評估舞蹈質(zhì)量,它能夠估計音樂和舞蹈兩種模態(tài)之間的相似性。最后,進(jìn)行了一項(xiàng)用戶研究,以證明通過提出的方法合成的舞蹈視頻會產(chǎn)生令人驚訝的逼真的結(jié)果。

Paper 研習(xí)社每日精選論文推薦 12.26
Paper 研習(xí)社每日精選論文推薦 12.26

 黑盒遞歸翻譯用于分子優(yōu)化

Black Box Recursive Translations for Molecular Optimization

作者:Damani Farhan /Sresht Vishnu /Ra Stephen

發(fā)表時間:2019/12/21

論文鏈接:https://paper.yanxishe.com/review/7876?from=leiphonecolumn_paperreview

推薦理由:用于生成分子結(jié)構(gòu)的機(jī)器學(xué)習(xí)算法為藥物發(fā)現(xiàn)提供了一種有希望的新方法。作者將分子優(yōu)化問題視為翻譯問題,目標(biāo)是將輸入化合物映射到具有改善的生化特性的目標(biāo)化合物。

值得注意的是,當(dāng)將生成的分子迭代地反饋到翻譯器中時,分子化合物的屬性隨每個步驟而提高。作者證明了這一發(fā)現(xiàn)對于翻譯模型的選擇是不變的,這使其成為“黑匣子”算法。作者將此方法稱為黑盒遞歸翻譯(BBRT),這是一種用于分子特性優(yōu)化的新推理方法。這種簡單而強(qiáng)大的技術(shù)嚴(yán)格作用于任何翻譯模型的輸入和輸出。作者使用熟悉的序列和基于圖形的模型進(jìn)行簡單的替換,從而獲得了分子性能優(yōu)化任務(wù)的最新技術(shù)成果。相對于其非遞歸對等體,作者的方法僅通過簡單的“ for”循環(huán)即可顯著提高性能。此外,BBRT具有高度的可解釋性,允許用戶從已知起點(diǎn)繪制新發(fā)現(xiàn)化合物的進(jìn)化圖。

Paper 研習(xí)社每日精選論文推薦 12.26
Paper 研習(xí)社每日精選論文推薦 12.26
Paper 研習(xí)社每日精選論文推薦 12.26

 高效的在線學(xué)習(xí)將內(nèi)核映射到語言結(jié)構(gòu)

Efficient Online Learning For Mapping Kernels On Linguistic Structures

作者:Giovanni Da San Martino

發(fā)表時間:2018/12/26

論文鏈接:https://paper.yanxishe.com/review/7873?from=leiphonecolumn_paperreview

推薦理由:內(nèi)核方法是用于學(xué)習(xí)結(jié)構(gòu)化數(shù)據(jù)(例如樹和圖)的流行且有效的技術(shù)。它們的主要缺點(diǎn)之一是與對示例進(jìn)行預(yù)測相關(guān)的計算成本,這體現(xiàn)在批核方法的分類階段,尤其是在線學(xué)習(xí)算法中。在本文中,我們分析了當(dāng)內(nèi)核函數(shù)是Mapping Kernels的實(shí)例時,如何加快預(yù)測速度。MappingKernels是為結(jié)構(gòu)化數(shù)據(jù)指定內(nèi)核的通用框架,它擴(kuò)展了流行的卷積內(nèi)核框架。我們從理論上研究通用模型,得出各種優(yōu)化策略,并展示如何將其應(yīng)用于流行的結(jié)構(gòu)化數(shù)據(jù)內(nèi)核。此外,我們從語義角色標(biāo)記任務(wù)(這是一種自然語言分類任務(wù),高度依賴句法樹)得出可靠的經(jīng)驗(yàn)證據(jù)。結(jié)果表明,我們的更快方法可以在基于標(biāo)準(zhǔn)內(nèi)核的SVM(不能在非常大的數(shù)據(jù)集上運(yùn)行)上明顯改善。

Paper 研習(xí)社每日精選論文推薦 12.26
Paper 研習(xí)社每日精選論文推薦 12.26
Paper 研習(xí)社每日精選論文推薦 12.26

 將事實(shí)提取和驗(yàn)證與神經(jīng)語義匹配網(wǎng)絡(luò)相結(jié)合

Combining Fact Extraction and Verification with Neural Semantic Matching Networks

作者:Yixin Nie / Haonan Chen / Mohit Bansal

發(fā)表時間:2018/12/12論

文鏈接:https://paper.yanxishe.com/review/7868?from=leiphonecolumn_paperreview

推薦理由:對錯誤信息的日益關(guān)注刺激了對自動事實(shí)檢查的研究。最近發(fā)布的FEVER數(shù)據(jù)集引入了基準(zhǔn)事實(shí)驗(yàn)證任務(wù),其中要求系統(tǒng)使用來自Wikipedia文檔的證據(jù)語句來驗(yàn)證索賠。在本文中,我們提出了一個由三個同類神經(jīng)語義匹配模型組成的連接系統(tǒng),該模型共同進(jìn)行文檔檢索,句子選擇和要求驗(yàn)證,以進(jìn)行事實(shí)提取和驗(yàn)證。對于證據(jù)檢索(文檔檢索和句子選擇),不像傳統(tǒng)的向量空間IR模型(在某些預(yù)先設(shè)計的術(shù)語向量空間中對查詢和來源進(jìn)行匹配),我們假設(shè)沒有中間語言,我們開發(fā)了神經(jīng)模型以從原始文本輸入執(zhí)行深度語義匹配術(shù)語表示,無權(quán)訪問結(jié)構(gòu)化的外部知識庫。我們還顯示了Pageview頻率還可以幫助提高證據(jù)檢索結(jié)果的性能,以后可以使用我們的神經(jīng)語義匹配網(wǎng)絡(luò)進(jìn)行匹配。為了進(jìn)行聲明驗(yàn)證,與以前僅將上游檢索到的證據(jù)和聲明提供給自然語言推理(NLI)模型的方法不同,我們通過為NLI模型提供內(nèi)部語義相關(guān)性評分(因此將其與證據(jù)檢索模塊集成)來進(jìn)一步增強(qiáng)NLI模型和本體的WordNet功能。在FEVER數(shù)據(jù)集上的實(shí)驗(yàn)表明:(1)我們的神經(jīng)語義匹配方法在所有證據(jù)檢索指標(biāo)上都有顯著優(yōu)勢,勝過流行的TF-IDF和編碼器模型;(2)附加的相關(guān)性評分和WordNet功能通過更好的語義改進(jìn)了NLI模型(3)通過將所有三個子任務(wù)形式化為相似的語義匹配問題并在所有三個階段進(jìn)行改進(jìn),完整的模型能夠在FEVER測試集上獲得最新的結(jié)果。

Paper 研習(xí)社每日精選論文推薦 12.26
Paper 研習(xí)社每日精選論文推薦 12.26

 可解釋的AI的有效顯著性圖

Efficient Saliency Maps for Explainable AI

作者:Mundhenk T. Nathan /Chen Barry Y. /Friedland Gerald

發(fā)表時間:2019/11/26

論文鏈接:https://paper.yanxishe.com/review/7874?from=leiphonecolumn_paperreview

推薦理由:作者描述了一種與深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)結(jié)合使用的可解釋的AI顯著性圖方法,該方法比流行的梯度方法更有效。它在數(shù)量上也相似并且準(zhǔn)確性更高。作者的技術(shù)通過測量每個網(wǎng)絡(luò)規(guī)模末端的信息來工作,然后將這些信息組合成一個顯著圖。我們描述了如何通過利用顯著性圖順序等效性來提高顯著性度量。最后,我們通過使用信息的層順序可視化來可視化各個規(guī)模/層的貢獻(xiàn)。這提供了網(wǎng)絡(luò)內(nèi)其他顯著性圖方法未提供的規(guī)模信息貢獻(xiàn)的有趣比較。由于作者的方法只需要單次向前通過網(wǎng)絡(luò)中的一些層,因此它至少比Guided Backprop快97倍,并且精度更高。使用我們的方法而不是Guided Backprop,類激活方法(例如Grad-CAM,Grad-CAM ++和Smooth Grad-CAM ++)將運(yùn)行速度快幾個數(shù)量級,顯著減少內(nèi)存占用并提高準(zhǔn)確性。這將使此類方法在資源有限的平臺(如機(jī)器人,手機(jī)和低成本工業(yè)設(shè)備)上可行。這也將大大幫助他們在諸如衛(wèi)星圖像處理之類的數(shù)據(jù)密集型應(yīng)用中工作。所有這些都不會犧牲準(zhǔn)確性。我們的方法通常很簡單,應(yīng)該適用于最常用的CNN。我們還展示了用于增強(qiáng)Grad-CAM ++的方法的示例。

Paper 研習(xí)社每日精選論文推薦 12.26
Paper 研習(xí)社每日精選論文推薦 12.26
Paper 研習(xí)社每日精選論文推薦 12.26
Paper 研習(xí)社每日精選論文推薦 12.26

 SAFE:欺詐早期發(fā)現(xiàn)的神經(jīng)生存分析模型

SAFE: A Neural Survival Analysis Model for Fraud Early Detection

作者:Panpan Zheng / Shuhan Yuan / Xintao Wu

發(fā)表時間:2018/12/26

論文鏈接:https://paper.yanxishe.com/review/7875?from=leiphonecolumn_paperreview

推薦理由:許多在線平臺已經(jīng)部署了反欺詐系統(tǒng),以檢測和防止欺詐活動。但是,在用戶實(shí)施欺詐行為的時間與用戶被平臺暫停的時間之間通常存在差距。如何及時發(fā)現(xiàn)欺詐者是一個具有挑戰(zhàn)性的問題?,F(xiàn)有的大多數(shù)方法都采用分類器來預(yù)測欺詐者,因?yàn)樗麄儠S著時間的流逝而活動。分類模型的主要缺點(diǎn)是連續(xù)時間戳之間的預(yù)測結(jié)果通常不一致。在本文中,我們提出了一種基于生存分析的欺詐早期檢測模型SAFE,該模型將動態(tài)用戶活動映射到生存概率,保證生存概率隨時間單調(diào)下降。SAFE采用遞歸神經(jīng)網(wǎng)絡(luò)(RNN)處理用戶活動序列,并在每個時間戳直接輸出危險值,然后,利用從危險值得出的生存概率來實(shí)現(xiàn)一致的預(yù)測。因?yàn)槲覀儍H在訓(xùn)練數(shù)據(jù)中觀察到用戶暫停時間,而不是欺詐活動時間,所以我們修改了常規(guī)生存模型的損失函數(shù)以實(shí)現(xiàn)欺詐早期檢測。在兩個真實(shí)數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,SAFE不僅優(yōu)于生存分析模型和遞歸神經(jīng)網(wǎng)絡(luò)模型,還優(yōu)于最先進(jìn)的欺詐早期檢測方法。

Paper 研習(xí)社每日精選論文推薦 12.26
Paper 研習(xí)社每日精選論文推薦 12.26
Paper 研習(xí)社每日精選論文推薦 12.26

 基于神經(jīng)網(wǎng)絡(luò)函數(shù)逼近的Qleanring的有限時間分析

A Finite-Time Analysis of Q-Learning with Neural Network Function Approximation

作者:Xu Pan /Gu Quanquan

發(fā)表時間:2019/12/10

論文鏈接:https://paper.yanxishe.com/review/7871?from=leiphonecolumn_paperreview

推薦理由:具有神經(jīng)網(wǎng)絡(luò)功能逼近的Q學(xué)習(xí)(簡稱神經(jīng)Q學(xué)習(xí))是最流行的深度強(qiáng)化學(xué)習(xí)算法之一。盡管在經(jīng)驗(yàn)上取得了成功,但神經(jīng)Q學(xué)習(xí)的非漸近收斂速度實(shí)際上仍然未知。在本文中,我們對神經(jīng)Q學(xué)習(xí)算法進(jìn)行了有限時間分析,其中數(shù)據(jù)是從馬爾可夫決策過程生成的,而作用值函數(shù)是通過深度ReLU神經(jīng)網(wǎng)絡(luò)來近似的。我們證明,如果神經(jīng)函數(shù)逼近器被充分地過參數(shù)化,則神經(jīng)Q學(xué)習(xí)會找到O(1 /√T)收斂速度的最優(yōu)策略,其中T是迭代次數(shù)。據(jù)我們所知,我們的結(jié)果是在非i.i.d數(shù)據(jù)假設(shè)下首次進(jìn)行神經(jīng)Q學(xué)習(xí)的有限時間分析。

Paper 研習(xí)社每日精選論文推薦 12.26
Paper 研習(xí)社每日精選論文推薦 12.26

 預(yù)培訓(xùn)的百科全書:弱監(jiān)督的知識預(yù)培訓(xùn)的語言模型

Pretrained Encyclopedia: Weakly Supervised Knowledge-Pretrained Language Model

作者:Xiong Wenhan /Du Jingfei /Wang William Yang /Stoyanov Veselin

發(fā)表時間:2019/12/20

論文鏈接:https://paper.yanxishe.com/review/7870?from=leiphonecolumn_paperreview

推薦理由:預(yù)訓(xùn)練語言模型的最新突破表明,自監(jiān)督學(xué)習(xí)對于多種自然語言處理(NLP)任務(wù)的有效性。除了標(biāo)準(zhǔn)的語法和語義NLP任務(wù)外,預(yù)訓(xùn)練的模型還對涉及真實(shí)世界知識的任務(wù)進(jìn)行了重大改進(jìn),這表明大規(guī)模語言建??赡苁遣东@知識的隱含方法。在這項(xiàng)工作中,我們將進(jìn)一步研究使用事實(shí)完成任務(wù)對諸如BERT等預(yù)訓(xùn)練模型捕獲知識的程度。此外,我們提出了一個簡單而有效的弱監(jiān)督預(yù)訓(xùn)練目標(biāo),該目標(biāo)明確迫使模型納入有關(guān)現(xiàn)實(shí)世界實(shí)體的知識。使用我們的新目標(biāo)訓(xùn)練的模型在事實(shí)完成任務(wù)上產(chǎn)生了重大改進(jìn)。在應(yīng)用于下游任務(wù)時,我們的模型在四個與實(shí)體相關(guān)的問題回答數(shù)據(jù)集(即WebQuestions,TriviaQA,SearchQA和Quasar-T)上的性能始終優(yōu)于BERT,平均改善了2.7 F1,并提供了標(biāo)準(zhǔn)的細(xì)粒度實(shí)體類型數(shù)據(jù)集(例如, FIGER),精度提高5.7。

Paper 研習(xí)社每日精選論文推薦 12.26
Paper 研習(xí)社每日精選論文推薦 12.26

 使用生成對抗網(wǎng)絡(luò)進(jìn)行人臉聯(lián)合超分辨率和去模糊

Joint Face Super-Resolution and Deblurring Using a Generative Adversarial Network

作者:Yun Jung Un /Park In Kyu

發(fā)表時間:2019/12/22

論文鏈接:https://paper.yanxishe.com/review/7878?from=leiphonecolumn_paperreview

推薦理由:面部圖像超分辨率(SR)是面部圖像分析,面部識別和基于圖像的3D面部重建的重要預(yù)處理。最近的基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的方法通過使用成對的低分辨率(LR)和高分辨率(HR)面部圖像來學(xué)習(xí)映射關(guān)系,從而顯示出出色的性能。但是,由于使用CNN的HR面部圖像重建通常旨在提高PSNR和SSIM指標(biāo),因此即使分?jǐn)?shù)很高,重建的HR圖像也可能不現(xiàn)實(shí)。

在這項(xiàng)研究中作者提出了一個對抗框架,通過同時生成帶有和不帶有模糊的HR圖像來重建HR面部圖像。首先,使用五層CNN將LR面部圖像的空間分辨率提高八倍。然后,編碼器提取放大圖像的特征。這些特征最終被發(fā)送到兩個分支(解碼器)以生成帶有和不帶有模糊的HR面部圖像。此外,結(jié)合了局部和全局區(qū)分符,以專注于HR面部結(jié)構(gòu)的重建。實(shí)驗(yàn)結(jié)果表明,該算法能夠生成逼真的HR面部圖像。此外,所提出的方法可以生成各種不同的面部圖像。

Paper 研習(xí)社每日精選論文推薦 12.26
Paper 研習(xí)社每日精選論文推薦 12.26
Paper 研習(xí)社每日精選論文推薦 12.26

 梯度下降的雙重空間預(yù)處理

Dual Space Preconditioning for Gradient Descent

作者:Maddison Chris J. /Paulin Daniel /Teh Yee Whye /Doucet Arnaud

發(fā)表時間:2019/2/6

論文鏈接:https://paper.yanxishe.com/review/7882?from=leiphonecolumn_paperreview

推薦理由:本論文介紹了相對平滑度和相對強(qiáng)凸度的條件,以分析用于凸優(yōu)化的Bregman梯度方法。在目標(biāo)函數(shù)的凸共軛和設(shè)計的雙重參考函數(shù)之間的對偶空間中,作者引入了具有相對平滑度的完全顯式下降方案。

對于在這種雙重相對平滑度下的Legendre型凸函數(shù),盡管它是完全明確的,但作者的方案自然保留在域的內(nèi)部。作者在雙重相對強(qiáng)凸度下獲得線性收斂,條件數(shù)在水平平移下不變。作者的方法是梯度下降的非線性預(yù)處理,它可以改善非光滑或非強(qiáng)凸結(jié)構(gòu)問題的顯式一階方法的條件。它展示了如何將該方法應(yīng)用于p范數(shù)回歸和指數(shù)罰函數(shù)最小化。

Paper 研習(xí)社每日精選論文推薦 12.26
Paper 研習(xí)社每日精選論文推薦 12.26

Paper 研習(xí)社每日精選論文推薦 12.26


雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

相關(guān)文章:

Paper 研習(xí)社每日精選論文推薦 12.25

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

Paper 研習(xí)社每日精選論文推薦 12.26

分享:
相關(guān)文章

編輯

聚焦數(shù)據(jù)科學(xué),連接 AI 開發(fā)者。更多精彩內(nèi)容,請?jiān)L問:yanxishe.com
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說