丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能學(xué)術(shù) 正文
發(fā)私信給AI研習(xí)社
發(fā)送

0

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

本文作者: AI研習(xí)社 2020-01-13 15:30
導(dǎo)語(yǔ): 每天都為你精選關(guān)于人工智能的前沿學(xué)術(shù)論文供你學(xué)習(xí)參考。

為了幫助各位學(xué)術(shù)青年更好地學(xué)習(xí)前沿研究成果和技術(shù),AI科技評(píng)論聯(lián)合Paper 研習(xí)社(paper.yanxishe.com),重磅推出【今日 Paper】欄目, 每天都為你精選關(guān)于人工智能的前沿學(xué)術(shù)論文供你學(xué)習(xí)參考。以下是今日的精選內(nèi)容——

  目錄

  • ClothFlow: A Flow-Based Model for Clothed Person Generation

  • Table Structure Extraction with Bi-directional Gated Recurrent Unit Networks

  • SPACE: Unsupervised Object-Oriented Scene Representation via Spatial Attention and Decomposition

  • Cloud-based Image Classification Service Is Not Robust To Simple Transformations: A Forgotten Battlefield

  • Self-Contained Stylization via Steganography for Reverse and Serial Style Transfer

  • Don't Judge an Object by Its Context: Learning to Overcome Contextual Bias

  • node2vec: Scalable Feature Learning for Networks

  • Can the Exchange Rate Be Used to Predict the Shanghai Composite Index?

  • Coordination of Autonomous Vehicles: Taxonomy and Survey

  • A Survey on 3D Object Detection Methods for Autonomous Driving Applications

  ClothFlow: 基于流程的人員生成模型

論文名稱:ClothFlow: A Flow-Based Model for Clothed Person Generation

作者:Xintong Han / Xiaojun Hu / Weilin Huang / Matthew R. Scott

發(fā)表時(shí)間:2019/10/27

論文鏈接:https://paper.yanxishe.com/review/8611?from=leiphonecolumn_paperreview0113

推薦理由:

提出了一個(gè)基于外觀流的生成模型ClothFlow,該模型可以合成穿衣人,用于定位引導(dǎo)的人的圖像生成和虛擬試穿。ClothFlow通過(guò)估計(jì)源和目標(biāo)服裝區(qū)域之間的密集流動(dòng),有效地模擬了幾何變化,自然地轉(zhuǎn)移了外觀,合成了新的圖像,如圖1所示。我們通過(guò)一個(gè)three-stage框架實(shí)現(xiàn)了這一點(diǎn):1)以目標(biāo)姿態(tài)為條件,我們首先估計(jì)一個(gè)人的語(yǔ)義布局,為生成過(guò)程提供更豐富的指導(dǎo)。2)級(jí)聯(lián)流量估計(jì)網(wǎng)絡(luò)建立在兩個(gè)特征金字塔網(wǎng)絡(luò)的基礎(chǔ)上,準(zhǔn)確地估計(jì)出對(duì)應(yīng)服裝區(qū)域之間的外觀匹配。由此產(chǎn)生的稠密流扭曲源圖像,靈活地解釋變形。3)最后,生成網(wǎng)絡(luò)以扭曲的服裝區(qū)域?yàn)檩斎?,呈現(xiàn)目標(biāo)視圖。我們?cè)谏疃葧r(shí)尚數(shù)據(jù)集和VITON數(shù)據(jù)集上進(jìn)行了大量的實(shí)驗(yàn),分別用于定位引導(dǎo)的人物圖像生成和虛擬實(shí)驗(yàn)任務(wù)。較強(qiáng)的定性和定量結(jié)果驗(yàn)證了該方法的有效性。

Pose-guided person generation 和Virtual try>※ Deformation-based methods (eg: affine ; TPS;NN)

※ DensePose-based methods

即基于變形的方法和基于密度的方法

幾何變形的更好的外觀轉(zhuǎn)移,但是較大的幾何變換,容易導(dǎo)致不準(zhǔn)確、不自然的變換估計(jì)

基于密度的方法,映射2D圖片到3D的人身體,結(jié)果看起來(lái)不夠逼真。

因此作者提出的ClothFlow:a flow-based generative model ;解決衣服變形clothing deformation;從而更好的合成人穿衣的圖片;

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

  雙向門控遞歸單元網(wǎng)絡(luò)的表格結(jié)構(gòu)提取

論文名稱:Table Structure Extraction with Bi-directional Gated Recurrent Unit Networks

作者:Khan Saqib Ali /Khalid Syed Muhammad Daniyal /Shahzad Muhammad Ali /Shafait Faisal

發(fā)表時(shí)間:2020/1/8

論文鏈接:https://paper.yanxishe.com/review/8614?from=leiphonecolumn_paperreview0113

推薦理由:這篇論文要解決的是表格結(jié)構(gòu)識(shí)別的問(wèn)題。

表向讀者呈現(xiàn)了匯總的結(jié)構(gòu)化信息,這使表結(jié)構(gòu)提取成為理解應(yīng)用程序的重要組成部分。但是,表結(jié)構(gòu)的識(shí)別是一個(gè)難題,這不僅是因?yàn)楸聿季趾蜆邮降淖兓艽螅疫€因?yàn)轫?yè)面布局和噪聲污染水平的變化。已經(jīng)進(jìn)行了很多研究來(lái)識(shí)別桌子的結(jié)構(gòu),其中大部分是基于借助光學(xué)字符識(shí)別(OCR)將啟發(fā)式方法應(yīng)用于桌子的手抓布局特征的。由于表布局的變化以及OCR產(chǎn)生的錯(cuò)誤,這些方法無(wú)法很好地概括。

在本文中,作者提出了一種基于魯棒深度學(xué)習(xí)的方法,可以從文檔圖像中的檢測(cè)表中高精度提取行和列。在提出的解決方案中,首先對(duì)表格圖像進(jìn)行預(yù)處理,然后將其饋送到具有門控循環(huán)單元(GRU)的雙向循環(huán)神經(jīng)網(wǎng)絡(luò),然后是具有最大軟激活的完全連接層。網(wǎng)絡(luò)從上到下以及從左到右掃描圖像,并將每個(gè)輸入分類為行分隔符或列分隔符。作者已經(jīng)在公開(kāi)的UNLV以及ICDAR 2013數(shù)據(jù)集上對(duì)作者的系統(tǒng)進(jìn)行了基準(zhǔn)測(cè)試,在該數(shù)據(jù)集上,其性能遠(yuǎn)遠(yuǎn)超過(guò)了最新的表格結(jié)構(gòu)提取系統(tǒng)。這篇論文在公開(kāi)的UNLV和ICDAR 2013數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),驗(yàn)證了所提出的方法顯著優(yōu)于當(dāng)前該領(lǐng)域的最佳方案。

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

  SPACE:通過(guò)空間注意和分解的無(wú)監(jiān)督的面向?qū)ο蟮膱?chǎng)景表示

論文名稱:SPACE: Unsupervised Object-Oriented Scene Representation via Spatial Attention and Decomposition

作者:Lin Zhixuan /Wu Yi-Fu /Peri Skand Vishwanath /Sun Weihao /Singh Gautam /Deng Fei /Jiang Jindong /Ahn Sungjin

發(fā)表時(shí)間:2020/1/8

論文鏈接:https://paper.yanxishe.com/review/8615?from=leiphonecolumn_paperreview0113

推薦理由:這篇論文考慮的是多目標(biāo)場(chǎng)景分解的問(wèn)題。

基于對(duì)象的場(chǎng)景表示學(xué)習(xí)的無(wú)監(jiān)督方法可以分為基于空間注意力機(jī)制和基于場(chǎng)景混合這兩類,然而這些方法都受限于可擴(kuò)展性,阻礙了它們進(jìn)一步應(yīng)用于現(xiàn)實(shí)場(chǎng)景。這篇論文提出一個(gè)名為SPACE的生成潛在變量模型,以提供一套統(tǒng)一的概率建??蚣軄?lái)組合空間注意力與場(chǎng)景混合中的最佳方法。SPACE可以為前景對(duì)象提供精準(zhǔn)的分解對(duì)象表示信息,同時(shí)分解復(fù)雜形態(tài)的背景片段。另外,SPACE也通過(guò)引入并行的空間注意力機(jī)制解決了擴(kuò)展性問(wèn)題,因而可以應(yīng)用到含有大量對(duì)象的場(chǎng)景中。在Atari和3D-Rooms上的實(shí)驗(yàn)表明,SPACE與先前的方法SPAIR,IODINE和GENESIS相比具有更好的表現(xiàn)。作者們也提供了項(xiàng)目的網(wǎng)站(https://sites.google.com/view/space-project-page)。

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

  基于云的圖像分類服務(wù)對(duì)簡(jiǎn)單的轉(zhuǎn)換不是很魯棒:一個(gè)被遺忘的戰(zhàn)場(chǎng)

論文名稱:Cloud-based Image Classification Service Is Not Robust To Simple Transformations: A Forgotten Battlefield

作者:Goodman Dou /Wei Tao

發(fā)表時(shí)間:2019/6/19

論文鏈接:https://paper.yanxishe.com/review/8617?from=leiphonecolumn_paperreview0113

推薦理由:這篇論文考慮的是對(duì)基于云的圖像分類服務(wù)的對(duì)抗樣例生成問(wèn)題。

基于云的圖像分類服務(wù)對(duì)于諸如高斯噪聲、椒鹽噪聲、旋轉(zhuǎn)和單色化之類的簡(jiǎn)單轉(zhuǎn)換(ST)并不魯棒?;谶@一點(diǎn),這篇論文提出了一個(gè)圖像融合攻擊(Image Fusion,IF)方法,利用OpenCV就可以實(shí)現(xiàn),而且很難防御。這篇論文在Amazon,Google,Microsoft,Clarifai在內(nèi)的四個(gè)流行云平臺(tái)上評(píng)估了ST和IF方法,實(shí)驗(yàn)結(jié)果表明除了在Amazon上成功率在50%之外,ST在其他的平臺(tái)上的攻擊成功率都為100%,而IF方法在不同分類服務(wù)中的成功率均超過(guò)98%。

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

  用于反向和串行風(fēng)格遷移的通過(guò)隱寫(xiě)術(shù)進(jìn)行的自包含樣式化

論文名稱:Self-Contained Stylization via Steganography for Reverse and Serial Style Transfer

作者:Chen Hung-Yu /Fang I-Sheng /Chiu Wei-Chen

發(fā)表時(shí)間:2018/12/10

論文鏈接:https://paper.yanxishe.com/review/8618?from=leiphonecolumn_paperreview0113

推薦理由:這篇論文考慮的是圖像風(fēng)格遷移的問(wèn)題。

給定一個(gè)風(fēng)格化的圖像,使用典型的風(fēng)格遷移方法進(jìn)行去樣式化或?qū)⑵湓俅无D(zhuǎn)換為另一種樣式,通常會(huì)得到偽像或不良的結(jié)果。這篇論文認(rèn)為這類問(wèn)題是由于原始圖像與其樣式輸出之間的內(nèi)容不一致所導(dǎo)致的。這篇論文提出利用隱寫(xiě)術(shù)在遷移過(guò)程中保持輸入圖像內(nèi)容信息,并提出了一個(gè)兩階段的方法和一個(gè)端到端的方法。實(shí)驗(yàn)結(jié)果表明這篇論文提出的方法不僅能生成與典型風(fēng)格遷移方法所產(chǎn)生的圖像質(zhì)量相當(dāng)?shù)娘L(fēng)格化圖像,而且還可以有效消除重建原始輸入時(shí)引入的偽像。

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

  不要通過(guò)上下文來(lái)判斷對(duì)象:學(xué)會(huì)克服上下文的偏見(jiàn)

論文名稱:Don't Judge an Object by Its Context: Learning to Overcome Contextual Bias

作者:Singh Krishna Kumar /Mahajan Dhruv /Grauman Kristen /Lee Yong Jae /Feiszli Matt /Ghadiyaram Deepti

發(fā)表時(shí)間:2020/1/9

論文鏈接:https://paper.yanxishe.com/review/8619?from=leiphonecolumn_paperreview0113

推薦理由:這篇論文考慮的是對(duì)象識(shí)別問(wèn)題。

在對(duì)象識(shí)別中,現(xiàn)有模型常常利用對(duì)象和其上下文的共現(xiàn)信息來(lái)提升識(shí)別準(zhǔn)確率。但是,嚴(yán)重依賴上下文可能會(huì)對(duì)模型的泛化性造成風(fēng)險(xiǎn)。這篇論文試圖解決這種上下文偏移問(wèn)題,以提升學(xué)到的特征表示的魯棒性,使得在一個(gè)對(duì)象的上下文缺失的情況下依然能準(zhǔn)確識(shí)別出其類型。這篇論文的核心想法是從共現(xiàn)的上下文中去掉與類別的特征表示相關(guān)的信息,通過(guò)聯(lián)合學(xué)習(xí)兩類特征空間,一類特征子空間能在沒(méi)有共現(xiàn)的情況下精準(zhǔn)表示類別,另一類則同時(shí)表示類別和上下文。在四個(gè)充滿挑戰(zhàn)的數(shù)據(jù)集上的實(shí)驗(yàn)證明這篇論文所提出的方法的有效性。

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

  node2vec 網(wǎng)絡(luò)特征學(xué)習(xí)算法

論文名稱:node2vec: Scalable Feature Learning for Networks

作者:Grover Aditya /Leskovec Jure

發(fā)表時(shí)間:2016/7/3

論文鏈接:https://paper.yanxishe.com/review/8624?from=leiphonecolumn_paperreview0113

推薦理由:本文來(lái)自網(wǎng)絡(luò)分析超強(qiáng)組Stanford的Jure組.

deepwalk作為一種基于隨機(jī)游走的網(wǎng)絡(luò)表示學(xué)習(xí)算法,通過(guò)在網(wǎng)絡(luò)進(jìn)行隨機(jī)游走來(lái)獲取節(jié)點(diǎn)序列.

但是網(wǎng)絡(luò)上的隨機(jī)游走有深度優(yōu)先和廣度優(yōu)先,并且他們可以從不同角度來(lái)捕獲網(wǎng)絡(luò)本身結(jié)構(gòu)特點(diǎn).本文在deepwalk的基礎(chǔ)上設(shè)計(jì)了一種個(gè)性化的隨機(jī)游走,通過(guò)兩個(gè)超參數(shù)p和q來(lái)控制隨機(jī)游走的方向.需要注意的是,當(dāng)p=q=1的時(shí)候,node2vec退化成deepwalk.至于表示學(xué)習(xí)模型的部分還是skip-gram并沒(méi)有本質(zhì)變化.

實(shí)驗(yàn)結(jié)果也驗(yàn)證了本文所提出算法的有效性.

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

  匯率可以用來(lái)預(yù)測(cè)上證指數(shù)嗎?

論文名稱:Can the Exchange Rate Be Used to Predict the Shanghai Composite Index?

作者:Jun Zhang / Yuan-Hai Shao /Ling-Wei Huang /Jia-Ying Teng / Yu-Ting Zhao /Zhu-Kai Yang / Xin-Yang Li

發(fā)表時(shí)間:2019/12/25

論文鏈接:https://paper.yanxishe.com/review/8612?from=leiphonecolumn_paperreview0113

推薦理由:這篇論文首次嘗試了直接利用匯率來(lái)預(yù)測(cè)上證指數(shù),基本做法是構(gòu)建基于匯率的技術(shù)指標(biāo)作為輸入特征,然后利用SVM進(jìn)行走勢(shì)的分類。通過(guò)與基于其他輸入(例如基于歷史價(jià)量的技術(shù)指標(biāo)、新聞數(shù)據(jù)等)的預(yù)測(cè)相比,這篇論文證明了通過(guò)匯率來(lái)預(yù)測(cè)具有相近的表現(xiàn)。并且這篇論文公開(kāi)了相應(yīng)的數(shù)據(jù)和Matlab代碼。

這篇論文的關(guān)注點(diǎn)在于輸入數(shù)據(jù),而沒(méi)有采用特別復(fù)雜的模型,例如深度學(xué)習(xí)模型等。目前多數(shù)據(jù)源作為輸入來(lái)預(yù)測(cè)股市的走勢(shì)正在成為趨勢(shì),往往會(huì)比采用單一數(shù)據(jù)具有更好的表現(xiàn)。

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

  自動(dòng)駕駛車輛的協(xié)調(diào):分類和綜述

論文名稱:Coordination of Autonomous Vehicles: Taxonomy and Survey

作者:Mariani Stefano /Cabri Giacomo /Zambonelli Franco

發(fā)表時(shí)間:2020/1/8

論文鏈接:https://paper.yanxishe.com/review/8613?from=leiphonecolumn_paperreview0113

推薦理由:這是一篇關(guān)于自動(dòng)駕駛車輛調(diào)度問(wèn)題的綜述。自動(dòng)駕駛的車輛之間需要進(jìn)行協(xié)調(diào),以正確處理對(duì)共享資源的訪問(wèn)(例如交叉路口和停車位)以及執(zhí)行機(jī)動(dòng)任務(wù)(例如坡道合并)。這篇論文首先通過(guò)識(shí)別和構(gòu)建關(guān)鍵的調(diào)度問(wèn)題類別,介紹與自動(dòng)駕駛汽車調(diào)度相關(guān)的一般問(wèn)題。然后概述了可用于管理此類調(diào)度問(wèn)題的不同方法,并根據(jù)調(diào)度協(xié)調(diào)過(guò)程中車輛的決策自主程度對(duì)這些方法進(jìn)行分類。最后,這篇論文概述了在自動(dòng)駕駛車輛能夠?qū)嵱弥?,必須解決的其他一些特殊挑戰(zhàn)。這篇論文關(guān)注的是自動(dòng)駕駛車輛之間的調(diào)度問(wèn)題,在自動(dòng)駕駛實(shí)用之前還有很多其他相關(guān)的問(wèn)題需要解決。

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

  面向自動(dòng)駕駛應(yīng)用的三維目標(biāo)檢測(cè)方法綜述

論文名稱:A Survey>作者:Eduardo Arnold /Omar Y. Al-Jarrah /Mehrdad Dianati /Saber Fallah /David Oxtoby /Alex Mouzakitis

發(fā)表時(shí)間:2019/1/22

論文鏈接:https://paper.yanxishe.com/review/8620?from=leiphonecolumn_paperreview0113

推薦理由:自動(dòng)駕駛汽車(AV)需要對(duì)其周圍環(huán)境有準(zhǔn)確的感知才能可靠地運(yùn)行。通常采用機(jī)器學(xué)習(xí)(例如,深度學(xué)習(xí))的AV的感知系統(tǒng)將感覺(jué)數(shù)據(jù)轉(zhuǎn)換成能夠自動(dòng)駕駛的語(yǔ)義信息。對(duì)象檢測(cè)是該感知系統(tǒng)的基本功能,已經(jīng)通過(guò)多項(xiàng)工作解決了這些問(wèn)題,其中大多數(shù)使用2D檢測(cè)方法。但是,二維方法不提供深度信息,這是駕駛?cè)蝿?wù)所需的深度信息,例如路徑規(guī)劃,避免碰撞等。替代地,3D對(duì)象檢測(cè)方法引入了第三維,它揭示了更詳細(xì)的對(duì)象尺寸和位置信息。但是,這種方法的檢測(cè)精度需要提高。據(jù)所知,這是用于自動(dòng)駕駛應(yīng)用的3D對(duì)象檢測(cè)方法的首次調(diào)查。

這篇文章對(duì)自動(dòng)駕駛場(chǎng)景中的三維目標(biāo)檢測(cè)方法進(jìn)行了詳細(xì)的綜述,并且介紹了目前普遍使用的傳感器和數(shù)據(jù)集。本文根據(jù)三維目標(biāo)檢測(cè)方法所使用到的傳感器,將其分為基于單目相機(jī)圖像、點(diǎn)云和融合三大類。然后總結(jié)這些方法的在同一數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果,以及已有方法存在的不足和未來(lái)值得研究的方向。

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)


相關(guān)文章:

今日 Paper | 隨機(jī)微分方程;流式自動(dòng)語(yǔ)音識(shí)別;圖像分類等

今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等

今日 Paper | 3D手勢(shì)估計(jì);自學(xué)習(xí)機(jī)器人;魯棒語(yǔ)義分割;卷積神經(jīng)網(wǎng)絡(luò);混合高斯過(guò)程等

今日 Paper | 精簡(jiǎn)BERT;面部交換;三維點(diǎn)云;DeepFakes 及 5G 等

今日 Paper | 虛假新聞檢測(cè);馬爾可夫決策過(guò)程;場(chǎng)景文本識(shí)別;博弈論框架等

今日 Paper | 問(wèn)答系統(tǒng);3D人體形狀和姿勢(shì);面部偽造檢測(cè);AdderNet等

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

分享:
相關(guān)文章

編輯

聚焦數(shù)據(jù)科學(xué),連接 AI 開(kāi)發(fā)者。更多精彩內(nèi)容,請(qǐng)?jiān)L問(wèn):yanxishe.com
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚?xiě)申請(qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)