丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能學(xué)術(shù) 正文
發(fā)私信給AI研習(xí)社
發(fā)送

0

今日 Paper | 4D關(guān)聯(lián)圖;通用表征學(xué)習(xí);元轉(zhuǎn)移學(xué)習(xí);無(wú)偏場(chǎng)景圖生成等

本文作者: AI研習(xí)社 2020-03-06 15:38
導(dǎo)語(yǔ):為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊。
今日 Paper | 4D關(guān)聯(lián)圖;通用表征學(xué)習(xí);元轉(zhuǎn)移學(xué)習(xí);無(wú)偏場(chǎng)景圖生成等

  目錄

使用多個(gè)攝像機(jī)的實(shí)時(shí)多人運(yùn)動(dòng)捕捉的4D關(guān)聯(lián)圖

放大學(xué)習(xí):將深度立體匹配網(wǎng)絡(luò)泛化到新穎場(chǎng)景

面向深度人臉識(shí)別的通用表征學(xué)習(xí)

用于零樣本超分辨率的元轉(zhuǎn)移學(xué)習(xí)

基于有偏訓(xùn)練的無(wú)偏場(chǎng)景圖生成

  使用多個(gè)攝像機(jī)的實(shí)時(shí)多人運(yùn)動(dòng)捕捉的4D關(guān)聯(lián)圖

論文名稱:4D Association Graph for Realtime Multi-person Motion Capture Using Multiple Video Cameras

作者: Zhang Yuxiang /An Liang /Yu Tao /Li Xiu /Li Kun /Liu Yebin

發(fā)表時(shí)間:2020/2/28

論文鏈接:https://paper.yanxishe.com/review/12957?from=leiphonecolumn_paperreview0306

推薦原因

這篇論文被CVPR 2020接收,提出了一種新的使用多視點(diǎn)視頻輸入的實(shí)時(shí)多人運(yùn)動(dòng)捕捉算法,首次將視圖解析、跨視圖匹配和時(shí)間跟蹤整合到一個(gè)優(yōu)化框架中,即得到一個(gè)4D關(guān)聯(lián)圖,該圖可以同時(shí)平等地處理每個(gè)維度(圖像空間、視點(diǎn)和時(shí)間)。為有效求解4D關(guān)聯(lián)圖,這篇論文進(jìn)一步提出基于啟發(fā)式搜索的4D肢束解析思想,然后通過(guò)提出束Kruskal算法對(duì)肢束進(jìn)行組合。這個(gè)新算法可以在5人場(chǎng)景中使用5個(gè)攝像機(jī),以30fps的速度運(yùn)行實(shí)時(shí)在線運(yùn)動(dòng)捕捉系統(tǒng)。新算法不僅對(duì)噪聲檢測(cè)具有魯棒性,還獲得了高質(zhì)量的在線姿態(tài)重建結(jié)果。在不使用高級(jí)外觀信息的情況下,新算法優(yōu)于當(dāng)前最優(yōu)方法。

今日 Paper | 4D關(guān)聯(lián)圖;通用表征學(xué)習(xí);元轉(zhuǎn)移學(xué)習(xí);無(wú)偏場(chǎng)景圖生成等
今日 Paper | 4D關(guān)聯(lián)圖;通用表征學(xué)習(xí);元轉(zhuǎn)移學(xué)習(xí);無(wú)偏場(chǎng)景圖生成等

  放大學(xué)習(xí):將深度立體匹配網(wǎng)絡(luò)泛化到新穎場(chǎng)景

論文名稱:Zoom and Learn: Generalizing Deep Stereo Matching to Novel Domains

作者: Pang Jiahao /Sun Wenxiu /Yang Chengxi /Ren Jimmy /Xiao Ruichao /Zeng Jin /Lin Liang

發(fā)表時(shí)間:2018/3/18

論文鏈接:https://paper.yanxishe.com/review/12831?from=leiphonecolumn_paperreview0306

推薦原因

本文核心是解決深度立體匹配模型在合成數(shù)據(jù)上預(yù)訓(xùn)練后在真實(shí)數(shù)據(jù)上泛化能力很弱的問(wèn)題。作者觀察到,將真實(shí)數(shù)據(jù)放大后輸入由合成數(shù)據(jù)預(yù)訓(xùn)練的模型,其結(jié)果比原始大小輸入會(huì)更加精細(xì)化。因此,這種放大真實(shí)數(shù)據(jù)得到的視差圖可以作為一種“真實(shí)”視差進(jìn)行監(jiān)督。另外,作者借鑒圖拉普帕斯正則化技術(shù),對(duì)得到的視差圖進(jìn)行約束,可以有效去除合成數(shù)據(jù)上預(yù)訓(xùn)練模型產(chǎn)生的噪聲和失真現(xiàn)象,并且視差圖更加光滑,邊緣更加細(xì)致。這篇論文也表明了域自適應(yīng)的兩個(gè)關(guān)鍵因素:(1)真實(shí)數(shù)據(jù)應(yīng)當(dāng)具有較為可靠的“偽標(biāo)簽”監(jiān)督;(2)視差圖需要平滑且保留邊緣的約束條件。該論文收錄在CVPR 2018。

今日 Paper | 4D關(guān)聯(lián)圖;通用表征學(xué)習(xí);元轉(zhuǎn)移學(xué)習(xí);無(wú)偏場(chǎng)景圖生成等
今日 Paper | 4D關(guān)聯(lián)圖;通用表征學(xué)習(xí);元轉(zhuǎn)移學(xué)習(xí);無(wú)偏場(chǎng)景圖生成等

  面向深度人臉識(shí)別的通用表征學(xué)習(xí)

論文名稱:Towards Universal Representation Learning for Deep Face Recognition

作者: Shi Yichun /Yu Xiang /Sohn Kihyuk /Chandraker Manmohan /Jain Anil K.

發(fā)表時(shí)間:2020/2/26

論文鏈接:https://paper.yanxishe.com/review/12830?from=leiphonecolumn_paperreview0306

推薦原因

這篇論文被CVPR 2020接收,提出了一種面向深度人臉識(shí)別的通用表征學(xué)習(xí)框架,可以處理給定訓(xùn)練數(shù)據(jù)中未發(fā)現(xiàn)的較大變化,而無(wú)需利用目標(biāo)域知識(shí)。新框架首先將訓(xùn)練數(shù)據(jù)與一些有意義的語(yǔ)義變化(例如低分辨率、遮擋和頭部姿勢(shì))一起合成。訓(xùn)練過(guò)程中將特征嵌入拆分為多個(gè)子嵌入,并為每個(gè)子嵌入關(guān)聯(lián)不同的置信度值,以簡(jiǎn)化訓(xùn)練過(guò)程。通過(guò)對(duì)變化的分類損失和對(duì)抗性損失進(jìn)行正則化,可進(jìn)一步對(duì)子嵌入進(jìn)行解相關(guān)。實(shí)驗(yàn)表明,新的框架在LFW和MegaFace等常規(guī)人臉識(shí)別數(shù)據(jù)集上均取得最佳性能,而在TinyFace和IJB-S等極端基準(zhǔn)集上則明顯優(yōu)于對(duì)比算法。

今日 Paper | 4D關(guān)聯(lián)圖;通用表征學(xué)習(xí);元轉(zhuǎn)移學(xué)習(xí);無(wú)偏場(chǎng)景圖生成等
今日 Paper | 4D關(guān)聯(lián)圖;通用表征學(xué)習(xí);元轉(zhuǎn)移學(xué)習(xí);無(wú)偏場(chǎng)景圖生成等

  用于零樣本超分辨率的元轉(zhuǎn)移學(xué)習(xí)

論文名稱:Meta-Transfer Learning for Zero-Shot Super-Resolution

作者: Soh Jae Woong /Cho Sunwoo /Cho Nam Ik

發(fā)表時(shí)間:2020/2/27

論文鏈接:https://paper.yanxishe.com/review/12829?from=leiphonecolumn_paperreview0306

推薦原因

這篇論文被CVPR 2020接收,考慮的是零樣本超分辨率的問(wèn)題。

以往的零樣本超分辨率方法需要數(shù)千次梯度更新,推理時(shí)間長(zhǎng)。這篇論文提出用于零樣本超分辨率的元轉(zhuǎn)移學(xué)習(xí)。基于找到適合內(nèi)部學(xué)習(xí)的通用初始參數(shù),所提方法可以利用外部和內(nèi)部信息,一次梯度更新就可以產(chǎn)生相當(dāng)可觀的結(jié)果,因此能快速適應(yīng)給定的圖像條件,并且應(yīng)用于大范圍圖像。

今日 Paper | 4D關(guān)聯(lián)圖;通用表征學(xué)習(xí);元轉(zhuǎn)移學(xué)習(xí);無(wú)偏場(chǎng)景圖生成等
今日 Paper | 4D關(guān)聯(lián)圖;通用表征學(xué)習(xí);元轉(zhuǎn)移學(xué)習(xí);無(wú)偏場(chǎng)景圖生成等

  基于有偏訓(xùn)練的無(wú)偏場(chǎng)景圖生成

論文名稱:Unbiased Scene Graph Generation from Biased Training

作者: Tang Kaihua /Niu Yulei /Huang Jianqiang /Shi Jiaxin /Zhang Hanwang

發(fā)表時(shí)間:2020/2/27

論文鏈接:https://paper.yanxishe.com/review/12828?from=leiphonecolumn_paperreview0306

推薦原因

這篇論文被CVPR 2020接收,要解決的是場(chǎng)景圖生成的問(wèn)題。

已有的場(chǎng)景圖生成容易受有訓(xùn)練偏見的問(wèn)題,例如將海灘上人類的步行、坐、躺等多樣行為類型籠統(tǒng)分為海灘上的人類。這篇論文提出了一種新的基于因果推理的場(chǎng)景圖生成的框架。首先建立因果圖,然后使用該圖進(jìn)行傳統(tǒng)的有偏訓(xùn)練,接著從訓(xùn)練圖上得出反事實(shí)因果關(guān)系,以從不良偏置中推斷出影響并將其消除。場(chǎng)景生成基準(zhǔn)集Visual Genome上的實(shí)驗(yàn)表明這篇論文所提的方法與以前的最佳方法相比有顯著改進(jìn)。

今日 Paper | 4D關(guān)聯(lián)圖;通用表征學(xué)習(xí);元轉(zhuǎn)移學(xué)習(xí);無(wú)偏場(chǎng)景圖生成等
今日 Paper | 4D關(guān)聯(lián)圖;通用表征學(xué)習(xí);元轉(zhuǎn)移學(xué)習(xí);無(wú)偏場(chǎng)景圖生成等

  論文作者團(tuán)隊(duì)招募

為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊,希望以論文作為聚合 AI 學(xué)生青年的「興趣點(diǎn)」,通過(guò)論文整理推薦、點(diǎn)評(píng)解讀、代碼復(fù)現(xiàn)。致力成為國(guó)內(nèi)外前沿研究成果學(xué)習(xí)討論和發(fā)表的聚集地,也讓優(yōu)秀科研得到更為廣泛的傳播和認(rèn)可。

我們希望熱愛(ài)學(xué)術(shù)的你,可以加入我們的論文作者團(tuán)隊(duì)。

加入論文作者團(tuán)隊(duì)你可以獲得

    1.署著你名字的文章,將你打造成最耀眼的學(xué)術(shù)明星

    2.豐厚的稿酬

    3.AI 名企內(nèi)推、大會(huì)門票福利、獨(dú)家周邊紀(jì)念品等等等。

加入論文作者團(tuán)隊(duì)你需要:

    1.將你喜歡的論文推薦給廣大的研習(xí)社社友

    2.撰寫論文解讀

如果你已經(jīng)準(zhǔn)備好加入 AI 研習(xí)社的論文兼職作者團(tuán)隊(duì),可以添加運(yùn)營(yíng)小姐姐的微信(ID:julylihuaijiang),備注“論文兼職作者”

今日 Paper | 4D關(guān)聯(lián)圖;通用表征學(xué)習(xí);元轉(zhuǎn)移學(xué)習(xí);無(wú)偏場(chǎng)景圖生成等

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

相關(guān)文章:

今日 Paper | Social-STGCNN;說(shuō)話人臉視頻生成;食材圖像合成;光場(chǎng)角度超分辨率等

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

今日 Paper | 4D關(guān)聯(lián)圖;通用表征學(xué)習(xí);元轉(zhuǎn)移學(xué)習(xí);無(wú)偏場(chǎng)景圖生成等

分享:

編輯

聚焦數(shù)據(jù)科學(xué),連接 AI 開發(fā)者。更多精彩內(nèi)容,請(qǐng)?jiān)L問(wèn):yanxishe.com
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)