丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能學(xué)術(shù) 正文
發(fā)私信給AI研習(xí)社
發(fā)送

0

今日 Paper | 聯(lián)合多任務(wù)模型;3D人體重建;可視化理解機器翻譯;深入研究整流器等

本文作者: AI研習(xí)社 2020-02-27 11:45
導(dǎo)語:為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊。
今日 Paper | 聯(lián)合多任務(wù)模型;3D人體重建;可視化理解機器翻譯;深入研究整流器等

  目錄

聯(lián)合多任務(wù)模型:多NLP任務(wù)的神經(jīng)網(wǎng)絡(luò)的創(chuàng)建

Peelnet:基于單視角彩色圖片的帶紋理的3D人體重建

可視化理解機器翻譯

深入研究整流器:在ImageNet分類上超越人的水平

對深前向神經(jīng)網(wǎng)絡(luò)訓(xùn)練難點的理解

  聯(lián)合多任務(wù)模型:多NLP任務(wù)的神經(jīng)網(wǎng)絡(luò)的創(chuàng)建

論文名稱:A Joint Many-Task Model: Growing a Neural Network for Multiple NLP Tasks

作者:Kazuma Hashimoto /Caiming Xiong /Yoshimasa Tsuruoka /Richard Socher

發(fā)表時間:2016/11/5

論文鏈接:https://paper.yanxishe.com/review/12204?from=leiphonecolumn_paperreview0227

推薦原因

核心問題:在自然語言理解領(lǐng)域有眾多的任務(wù),比如詞性分析,語塊分析,依存句法分析,文本語義相關(guān),文本蘊涵等等,各個任務(wù)之間有著相互聯(lián)系。研究者們通過多任務(wù)學(xué)習(xí)來促進任務(wù)間互相聯(lián)系,提高各個任務(wù)的性能。

創(chuàng)新點:傳統(tǒng)的多任務(wù)是并行實現(xiàn)的,但是這眾多任務(wù)中是存在層次關(guān)系的,所以本文將不同任務(wù)棧式的疊加,越層次的任務(wù)具有更深的網(wǎng)絡(luò)結(jié)構(gòu),當(dāng)前層次的任務(wù)會使用下一層次的任務(wù)輸出,類似于流水線的形式。

研究意義:相比平行的多任務(wù)結(jié)構(gòu)有更好的效果。這樣的框架也可以擴展到更多高層任務(wù)應(yīng)用,而且效果也比較好,這也符合真實的情況。

今日 Paper | 聯(lián)合多任務(wù)模型;3D人體重建;可視化理解機器翻譯;深入研究整流器等

  Peelnet:基于單視角彩色圖片的帶紋理的3D人體重建

論文名稱:PeelNet: Textured 3D reconstruction of human body using single view RGB image

作者:Sai Sagar Jinka /Rohan Chacko /Avinash Sharma /P. J. Narayanan

發(fā)表時間:2020/2/16

論文鏈接:https://paper.yanxishe.com/review/11695?from=leiphonecolumn_paperreview0227

由于嚴(yán)重的人體自遮擋、衣服變化和光照變化等眾多問題,從單張彩色圖像恢復(fù)人體形狀和姿勢是一個非常具有挑戰(zhàn)性的問題。本文提出了一種端到端的生成對抗網(wǎng)絡(luò)框架PeelNet,來從單張RGB圖片重建帶紋理的3D人體模型。

作者提出將3D人體模型表達為對自遮擋魯棒的分離的深度圖和彩色圖(peeled depth and RGB maps),并提出一個完整的端到端的框架,從單張彩色人體圖片預(yù)測分離的深度圖和彩色圖,并進一步生成帶紋理的3D人體模型。

文章的方法不依賴于參數(shù)化人體模型,對于穿寬松衣服的人體能夠得到更加精確的結(jié)果,而且能夠很好地處理人體自遮擋情況。

  可視化理解機器翻譯

論文名稱:Visualizing and Understanding Neural Machine Translation

作者:Yanzhuo Ding / Yang Liu / Huanbo Luan / Maosong Sun

發(fā)表時間:2017/7/30

論文鏈接:https://paper.yanxishe.com/review/11953?from=leiphonecolumn_paperreview0227

推薦原因

論文概要:目前深度學(xué)習(xí)發(fā)展迅速,但深度學(xué)習(xí)作為一個黑箱,越來越多的研究者開始關(guān)注深度學(xué)習(xí)的可解釋性研究。本篇論文是17年的ACL論文,應(yīng)用了LRP(layer-wise relevance propagation)方法對神經(jīng)機器翻譯進行了可視化理解。目前的注意力機制實際上表示了源語言和目標(biāo)語言之間的聯(lián)系,但不能很好地告訴我們目標(biāo)語言是如何被翻譯生成的。LRP(分層相關(guān)性傳播)方法,最開始被應(yīng)用于計算機視覺領(lǐng)域,通過計算單個像素對圖像分類器預(yù)測結(jié)果的貢獻進行可解釋研究。本文將LPR方法應(yīng)用在基于注意力機制的encoder-decoder模型中,去計算每個上下文單詞對任意隱藏單元的貢獻程度,從而可視化理解神經(jīng)機器翻譯模型。漢英翻譯的實例研究表明,LRP方法可以很好地解釋機器翻譯的工作機制并且?guī)椭治龇g錯誤。

創(chuàng)新點與反思:本文首次應(yīng)用LRP方法對NMT進行了可視化理解,并取得了不錯的效果。LRP方法首先在計算機視覺領(lǐng)域被提出,作者將這種方法遷移應(yīng)用到了自然語言處理領(lǐng)域,實際上現(xiàn)在計算機領(lǐng)域的深度學(xué)習(xí)可解釋研究比較多,對其他領(lǐng)域的進一步研究有很好的借鑒意義。

今日 Paper | 聯(lián)合多任務(wù)模型;3D人體重建;可視化理解機器翻譯;深入研究整流器等
今日 Paper | 聯(lián)合多任務(wù)模型;3D人體重建;可視化理解機器翻譯;深入研究整流器等

  深入研究整流器:在ImageNet分類上超越人的水平

論文名稱:Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification

作者:Kaiming He / Xiangyu Zhang / Shaoqing Ren /Jian Sun

發(fā)表時間:2015/2/6

論文鏈接:https://paper.yanxishe.com/review/12076?from=leiphonecolumn_paperreview0227

推薦原因

核心問題:這是一篇關(guān)于神經(jīng)網(wǎng)絡(luò)的權(quán)重參數(shù)初始化的文章,目前這種神經(jīng)網(wǎng)絡(luò)權(quán)重的初始化方法我是經(jīng)常使用的,使用這種方法訓(xùn)練的神經(jīng)網(wǎng)絡(luò)訓(xùn)練更快,效果更好

創(chuàng)新點:

1、提出了PRULE激活函數(shù)

2、在ImageNet2012分類數(shù)據(jù)集上,到達4.94% top-5的錯誤率,超過當(dāng)時最好的性能6.66%,超過人的水平5.1%

研究意義:神經(jīng)網(wǎng)絡(luò)的權(quán)重初始化是神經(jīng)網(wǎng)絡(luò)最重要的一步,因為不適當(dāng)?shù)纳窠?jīng)網(wǎng)絡(luò)初始化,很有可能導(dǎo)致神經(jīng)網(wǎng)絡(luò)不工作。       

今日 Paper | 聯(lián)合多任務(wù)模型;3D人體重建;可視化理解機器翻譯;深入研究整流器等
今日 Paper | 聯(lián)合多任務(wù)模型;3D人體重建;可視化理解機器翻譯;深入研究整流器等

  對深前向神經(jīng)網(wǎng)絡(luò)訓(xùn)練難點的理解

論文名稱:Understanding the difficulty of training deep feedforward neural networks

作者:Xavier Glorot /Yoshua Bengio

發(fā)表時間:2010/2/11

論文鏈接:https://paper.yanxishe.com/review/12075?from=leiphonecolumn_paperreview0227

推薦原因

核心問題:在使用深度學(xué)習(xí)搭建模型的時候,經(jīng)常需要對神經(jīng)網(wǎng)絡(luò)進行權(quán)重的初始化工作,有許多神經(jīng)網(wǎng)絡(luò)的權(quán)重參數(shù)初始化方式,經(jīng)常使用的一種方式是Xavier,這個方法就是來源于這篇論文。

創(chuàng)新點:提出了一種新的初始化方法,可以帶來更快的收斂速度。這種初始化權(quán)值的方法就是這兩年在深度網(wǎng)絡(luò)中經(jīng)常使用的Xavier初始化。

研究意義:神經(jīng)網(wǎng)絡(luò)的權(quán)重參數(shù)初始化是非常重要的,有時候神經(jīng)網(wǎng)絡(luò)不work,那么多半是和神經(jīng)網(wǎng)絡(luò)的權(quán)重參數(shù)初始化不好有關(guān)系,好的神經(jīng)網(wǎng)絡(luò)的權(quán)重參數(shù)初始化,不僅有利于解決神經(jīng)網(wǎng)絡(luò)的梯度消失和梯度爆炸的情況,而且還可以加快神經(jīng)網(wǎng)絡(luò)的訓(xùn)練速度。

今日 Paper | 聯(lián)合多任務(wù)模型;3D人體重建;可視化理解機器翻譯;深入研究整流器等
今日 Paper | 聯(lián)合多任務(wù)模型;3D人體重建;可視化理解機器翻譯;深入研究整流器等

  論文作者團隊招募

為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊,希望以論文作為聚合 AI 學(xué)生青年的「興趣點」,通過論文整理推薦、點評解讀、代碼復(fù)現(xiàn)。致力成為國內(nèi)外前沿研究成果學(xué)習(xí)討論和發(fā)表的聚集地,也讓優(yōu)秀科研得到更為廣泛的傳播和認(rèn)可。

我們希望熱愛學(xué)術(shù)的你,可以加入我們的論文作者團隊。

加入論文作者團隊你可以獲得

    1.署著你名字的文章,將你打造成最耀眼的學(xué)術(shù)明星

    2.豐厚的稿酬

    3.AI 名企內(nèi)推、大會門票福利、獨家周邊紀(jì)念品等等等。

加入論文作者團隊你需要:

    1.將你喜歡的論文推薦給廣大的研習(xí)社社友

    2.撰寫論文解讀

如果你已經(jīng)準(zhǔn)備好加入 AI 研習(xí)社的論文兼職作者團隊,可以添加運營小姐姐的微信(ID:julylihuaijiang),備注“論文兼職作者”

今日 Paper | 聯(lián)合多任務(wù)模型;3D人體重建;可視化理解機器翻譯;深入研究整流器等

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

相關(guān)文章:

今日 Paper | 3D門控遞歸融合;雙注意力GAN;通用目標(biāo)檢測器;無監(jiān)督域自適應(yīng)等

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

今日 Paper | 聯(lián)合多任務(wù)模型;3D人體重建;可視化理解機器翻譯;深入研究整流器等

分享:

編輯

聚焦數(shù)據(jù)科學(xué),連接 AI 開發(fā)者。更多精彩內(nèi)容,請訪問:yanxishe.com
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說