0
本文作者: AI研習(xí)社 | 2020-01-13 15:30 |
為了幫助各位學(xué)術(shù)青年更好地學(xué)習(xí)前沿研究成果和技術(shù),AI科技評(píng)論聯(lián)合Paper 研習(xí)社(paper.yanxishe.com),重磅推出【今日 Paper】欄目, 每天都為你精選關(guān)于人工智能的前沿學(xué)術(shù)論文供你學(xué)習(xí)參考。以下是今日的精選內(nèi)容——
ClothFlow: A Flow-Based Model for Clothed Person Generation
Table Structure Extraction with Bi-directional Gated Recurrent Unit Networks
SPACE: Unsupervised Object-Oriented Scene Representation via Spatial Attention and Decomposition
Cloud-based Image Classification Service Is Not Robust To Simple Transformations: A Forgotten Battlefield
Self-Contained Stylization via Steganography for Reverse and Serial Style Transfer
Don't Judge an Object by Its Context: Learning to Overcome Contextual Bias
node2vec: Scalable Feature Learning for Networks
Can the Exchange Rate Be Used to Predict the Shanghai Composite Index?
Coordination of Autonomous Vehicles: Taxonomy and Survey
A Survey on 3D Object Detection Methods for Autonomous Driving Applications
論文名稱:ClothFlow: A Flow-Based Model for Clothed Person Generation
作者:Xintong Han / Xiaojun Hu / Weilin Huang / Matthew R. Scott
發(fā)表時(shí)間:2019/10/27
論文鏈接:https://paper.yanxishe.com/review/8611?from=leiphonecolumn_paperreview0113
推薦理由:
提出了一個(gè)基于外觀流的生成模型ClothFlow,該模型可以合成穿衣人,用于定位引導(dǎo)的人的圖像生成和虛擬試穿。ClothFlow通過(guò)估計(jì)源和目標(biāo)服裝區(qū)域之間的密集流動(dòng),有效地模擬了幾何變化,自然地轉(zhuǎn)移了外觀,合成了新的圖像,如圖1所示。我們通過(guò)一個(gè)three-stage框架實(shí)現(xiàn)了這一點(diǎn):1)以目標(biāo)姿態(tài)為條件,我們首先估計(jì)一個(gè)人的語(yǔ)義布局,為生成過(guò)程提供更豐富的指導(dǎo)。2)級(jí)聯(lián)流量估計(jì)網(wǎng)絡(luò)建立在兩個(gè)特征金字塔網(wǎng)絡(luò)的基礎(chǔ)上,準(zhǔn)確地估計(jì)出對(duì)應(yīng)服裝區(qū)域之間的外觀匹配。由此產(chǎn)生的稠密流扭曲源圖像,靈活地解釋變形。3)最后,生成網(wǎng)絡(luò)以扭曲的服裝區(qū)域?yàn)檩斎?,呈現(xiàn)目標(biāo)視圖。我們?cè)谏疃葧r(shí)尚數(shù)據(jù)集和VITON數(shù)據(jù)集上進(jìn)行了大量的實(shí)驗(yàn),分別用于定位引導(dǎo)的人物圖像生成和虛擬實(shí)驗(yàn)任務(wù)。較強(qiáng)的定性和定量結(jié)果驗(yàn)證了該方法的有效性。
Pose-guided person generation 和Virtual try>※ Deformation-based methods (eg: affine ; TPS;NN)
※ DensePose-based methods
即基于變形的方法和基于密度的方法
幾何變形的更好的外觀轉(zhuǎn)移,但是較大的幾何變換,容易導(dǎo)致不準(zhǔn)確、不自然的變換估計(jì)
基于密度的方法,映射2D圖片到3D的人身體,結(jié)果看起來(lái)不夠逼真。
因此作者提出的ClothFlow:a flow-based generative model ;解決衣服變形clothing deformation;從而更好的合成人穿衣的圖片;
論文名稱:Table Structure Extraction with Bi-directional Gated Recurrent Unit Networks
作者:Khan Saqib Ali /Khalid Syed Muhammad Daniyal /Shahzad Muhammad Ali /Shafait Faisal
發(fā)表時(shí)間:2020/1/8
論文鏈接:https://paper.yanxishe.com/review/8614?from=leiphonecolumn_paperreview0113
推薦理由:這篇論文要解決的是表格結(jié)構(gòu)識(shí)別的問(wèn)題。
表向讀者呈現(xiàn)了匯總的結(jié)構(gòu)化信息,這使表結(jié)構(gòu)提取成為理解應(yīng)用程序的重要組成部分。但是,表結(jié)構(gòu)的識(shí)別是一個(gè)難題,這不僅是因?yàn)楸聿季趾蜆邮降淖兓艽螅疫€因?yàn)轫?yè)面布局和噪聲污染水平的變化。已經(jīng)進(jìn)行了很多研究來(lái)識(shí)別桌子的結(jié)構(gòu),其中大部分是基于借助光學(xué)字符識(shí)別(OCR)將啟發(fā)式方法應(yīng)用于桌子的手抓布局特征的。由于表布局的變化以及OCR產(chǎn)生的錯(cuò)誤,這些方法無(wú)法很好地概括。
在本文中,作者提出了一種基于魯棒深度學(xué)習(xí)的方法,可以從文檔圖像中的檢測(cè)表中高精度提取行和列。在提出的解決方案中,首先對(duì)表格圖像進(jìn)行預(yù)處理,然后將其饋送到具有門控循環(huán)單元(GRU)的雙向循環(huán)神經(jīng)網(wǎng)絡(luò),然后是具有最大軟激活的完全連接層。網(wǎng)絡(luò)從上到下以及從左到右掃描圖像,并將每個(gè)輸入分類為行分隔符或列分隔符。作者已經(jīng)在公開(kāi)的UNLV以及ICDAR 2013數(shù)據(jù)集上對(duì)作者的系統(tǒng)進(jìn)行了基準(zhǔn)測(cè)試,在該數(shù)據(jù)集上,其性能遠(yuǎn)遠(yuǎn)超過(guò)了最新的表格結(jié)構(gòu)提取系統(tǒng)。這篇論文在公開(kāi)的UNLV和ICDAR 2013數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),驗(yàn)證了所提出的方法顯著優(yōu)于當(dāng)前該領(lǐng)域的最佳方案。
論文名稱:SPACE: Unsupervised Object-Oriented Scene Representation via Spatial Attention and Decomposition
作者:Lin Zhixuan /Wu Yi-Fu /Peri Skand Vishwanath /Sun Weihao /Singh Gautam /Deng Fei /Jiang Jindong /Ahn Sungjin
發(fā)表時(shí)間:2020/1/8
論文鏈接:https://paper.yanxishe.com/review/8615?from=leiphonecolumn_paperreview0113
推薦理由:這篇論文考慮的是多目標(biāo)場(chǎng)景分解的問(wèn)題。
基于對(duì)象的場(chǎng)景表示學(xué)習(xí)的無(wú)監(jiān)督方法可以分為基于空間注意力機(jī)制和基于場(chǎng)景混合這兩類,然而這些方法都受限于可擴(kuò)展性,阻礙了它們進(jìn)一步應(yīng)用于現(xiàn)實(shí)場(chǎng)景。這篇論文提出一個(gè)名為SPACE的生成潛在變量模型,以提供一套統(tǒng)一的概率建??蚣軄?lái)組合空間注意力與場(chǎng)景混合中的最佳方法。SPACE可以為前景對(duì)象提供精準(zhǔn)的分解對(duì)象表示信息,同時(shí)分解復(fù)雜形態(tài)的背景片段。另外,SPACE也通過(guò)引入并行的空間注意力機(jī)制解決了擴(kuò)展性問(wèn)題,因而可以應(yīng)用到含有大量對(duì)象的場(chǎng)景中。在Atari和3D-Rooms上的實(shí)驗(yàn)表明,SPACE與先前的方法SPAIR,IODINE和GENESIS相比具有更好的表現(xiàn)。作者們也提供了項(xiàng)目的網(wǎng)站(https://sites.google.com/view/space-project-page)。
論文名稱:Cloud-based Image Classification Service Is Not Robust To Simple Transformations: A Forgotten Battlefield
作者:Goodman Dou /Wei Tao
發(fā)表時(shí)間:2019/6/19
論文鏈接:https://paper.yanxishe.com/review/8617?from=leiphonecolumn_paperreview0113
推薦理由:這篇論文考慮的是對(duì)基于云的圖像分類服務(wù)的對(duì)抗樣例生成問(wèn)題。
基于云的圖像分類服務(wù)對(duì)于諸如高斯噪聲、椒鹽噪聲、旋轉(zhuǎn)和單色化之類的簡(jiǎn)單轉(zhuǎn)換(ST)并不魯棒?;谶@一點(diǎn),這篇論文提出了一個(gè)圖像融合攻擊(Image Fusion,IF)方法,利用OpenCV就可以實(shí)現(xiàn),而且很難防御。這篇論文在Amazon,Google,Microsoft,Clarifai在內(nèi)的四個(gè)流行云平臺(tái)上評(píng)估了ST和IF方法,實(shí)驗(yàn)結(jié)果表明除了在Amazon上成功率在50%之外,ST在其他的平臺(tái)上的攻擊成功率都為100%,而IF方法在不同分類服務(wù)中的成功率均超過(guò)98%。
論文名稱:Self-Contained Stylization via Steganography for Reverse and Serial Style Transfer
作者:Chen Hung-Yu /Fang I-Sheng /Chiu Wei-Chen
發(fā)表時(shí)間:2018/12/10
論文鏈接:https://paper.yanxishe.com/review/8618?from=leiphonecolumn_paperreview0113
推薦理由:這篇論文考慮的是圖像風(fēng)格遷移的問(wèn)題。
給定一個(gè)風(fēng)格化的圖像,使用典型的風(fēng)格遷移方法進(jìn)行去樣式化或?qū)⑵湓俅无D(zhuǎn)換為另一種樣式,通常會(huì)得到偽像或不良的結(jié)果。這篇論文認(rèn)為這類問(wèn)題是由于原始圖像與其樣式輸出之間的內(nèi)容不一致所導(dǎo)致的。這篇論文提出利用隱寫(xiě)術(shù)在遷移過(guò)程中保持輸入圖像內(nèi)容信息,并提出了一個(gè)兩階段的方法和一個(gè)端到端的方法。實(shí)驗(yàn)結(jié)果表明這篇論文提出的方法不僅能生成與典型風(fēng)格遷移方法所產(chǎn)生的圖像質(zhì)量相當(dāng)?shù)娘L(fēng)格化圖像,而且還可以有效消除重建原始輸入時(shí)引入的偽像。
論文名稱:Don't Judge an Object by Its Context: Learning to Overcome Contextual Bias
作者:Singh Krishna Kumar /Mahajan Dhruv /Grauman Kristen /Lee Yong Jae /Feiszli Matt /Ghadiyaram Deepti
發(fā)表時(shí)間:2020/1/9
論文鏈接:https://paper.yanxishe.com/review/8619?from=leiphonecolumn_paperreview0113
推薦理由:這篇論文考慮的是對(duì)象識(shí)別問(wèn)題。
在對(duì)象識(shí)別中,現(xiàn)有模型常常利用對(duì)象和其上下文的共現(xiàn)信息來(lái)提升識(shí)別準(zhǔn)確率。但是,嚴(yán)重依賴上下文可能會(huì)對(duì)模型的泛化性造成風(fēng)險(xiǎn)。這篇論文試圖解決這種上下文偏移問(wèn)題,以提升學(xué)到的特征表示的魯棒性,使得在一個(gè)對(duì)象的上下文缺失的情況下依然能準(zhǔn)確識(shí)別出其類型。這篇論文的核心想法是從共現(xiàn)的上下文中去掉與類別的特征表示相關(guān)的信息,通過(guò)聯(lián)合學(xué)習(xí)兩類特征空間,一類特征子空間能在沒(méi)有共現(xiàn)的情況下精準(zhǔn)表示類別,另一類則同時(shí)表示類別和上下文。在四個(gè)充滿挑戰(zhàn)的數(shù)據(jù)集上的實(shí)驗(yàn)證明這篇論文所提出的方法的有效性。
論文名稱:node2vec: Scalable Feature Learning for Networks
作者:Grover Aditya /Leskovec Jure
發(fā)表時(shí)間:2016/7/3
論文鏈接:https://paper.yanxishe.com/review/8624?from=leiphonecolumn_paperreview0113
推薦理由:本文來(lái)自網(wǎng)絡(luò)分析超強(qiáng)組Stanford的Jure組.
deepwalk作為一種基于隨機(jī)游走的網(wǎng)絡(luò)表示學(xué)習(xí)算法,通過(guò)在網(wǎng)絡(luò)進(jìn)行隨機(jī)游走來(lái)獲取節(jié)點(diǎn)序列.
但是網(wǎng)絡(luò)上的隨機(jī)游走有深度優(yōu)先和廣度優(yōu)先,并且他們可以從不同角度來(lái)捕獲網(wǎng)絡(luò)本身結(jié)構(gòu)特點(diǎn).本文在deepwalk的基礎(chǔ)上設(shè)計(jì)了一種個(gè)性化的隨機(jī)游走,通過(guò)兩個(gè)超參數(shù)p和q來(lái)控制隨機(jī)游走的方向.需要注意的是,當(dāng)p=q=1的時(shí)候,node2vec退化成deepwalk.至于表示學(xué)習(xí)模型的部分還是skip-gram并沒(méi)有本質(zhì)變化.
實(shí)驗(yàn)結(jié)果也驗(yàn)證了本文所提出算法的有效性.
論文名稱:Can the Exchange Rate Be Used to Predict the Shanghai Composite Index?
作者:Jun Zhang / Yuan-Hai Shao /Ling-Wei Huang /Jia-Ying Teng / Yu-Ting Zhao /Zhu-Kai Yang / Xin-Yang Li
發(fā)表時(shí)間:2019/12/25
論文鏈接:https://paper.yanxishe.com/review/8612?from=leiphonecolumn_paperreview0113
推薦理由:這篇論文首次嘗試了直接利用匯率來(lái)預(yù)測(cè)上證指數(shù),基本做法是構(gòu)建基于匯率的技術(shù)指標(biāo)作為輸入特征,然后利用SVM進(jìn)行走勢(shì)的分類。通過(guò)與基于其他輸入(例如基于歷史價(jià)量的技術(shù)指標(biāo)、新聞數(shù)據(jù)等)的預(yù)測(cè)相比,這篇論文證明了通過(guò)匯率來(lái)預(yù)測(cè)具有相近的表現(xiàn)。并且這篇論文公開(kāi)了相應(yīng)的數(shù)據(jù)和Matlab代碼。
這篇論文的關(guān)注點(diǎn)在于輸入數(shù)據(jù),而沒(méi)有采用特別復(fù)雜的模型,例如深度學(xué)習(xí)模型等。目前多數(shù)據(jù)源作為輸入來(lái)預(yù)測(cè)股市的走勢(shì)正在成為趨勢(shì),往往會(huì)比采用單一數(shù)據(jù)具有更好的表現(xiàn)。
論文名稱:Coordination of Autonomous Vehicles: Taxonomy and Survey
作者:Mariani Stefano /Cabri Giacomo /Zambonelli Franco
發(fā)表時(shí)間:2020/1/8
論文鏈接:https://paper.yanxishe.com/review/8613?from=leiphonecolumn_paperreview0113
推薦理由:這是一篇關(guān)于自動(dòng)駕駛車輛調(diào)度問(wèn)題的綜述。自動(dòng)駕駛的車輛之間需要進(jìn)行協(xié)調(diào),以正確處理對(duì)共享資源的訪問(wèn)(例如交叉路口和停車位)以及執(zhí)行機(jī)動(dòng)任務(wù)(例如坡道合并)。這篇論文首先通過(guò)識(shí)別和構(gòu)建關(guān)鍵的調(diào)度問(wèn)題類別,介紹與自動(dòng)駕駛汽車調(diào)度相關(guān)的一般問(wèn)題。然后概述了可用于管理此類調(diào)度問(wèn)題的不同方法,并根據(jù)調(diào)度協(xié)調(diào)過(guò)程中車輛的決策自主程度對(duì)這些方法進(jìn)行分類。最后,這篇論文概述了在自動(dòng)駕駛車輛能夠?qū)嵱弥?,必須解決的其他一些特殊挑戰(zhàn)。這篇論文關(guān)注的是自動(dòng)駕駛車輛之間的調(diào)度問(wèn)題,在自動(dòng)駕駛實(shí)用之前還有很多其他相關(guān)的問(wèn)題需要解決。
論文名稱:A Survey>作者:Eduardo Arnold /Omar Y. Al-Jarrah /Mehrdad Dianati /Saber Fallah /David Oxtoby /Alex Mouzakitis
發(fā)表時(shí)間:2019/1/22
論文鏈接:https://paper.yanxishe.com/review/8620?from=leiphonecolumn_paperreview0113
推薦理由:自動(dòng)駕駛汽車(AV)需要對(duì)其周圍環(huán)境有準(zhǔn)確的感知才能可靠地運(yùn)行。通常采用機(jī)器學(xué)習(xí)(例如,深度學(xué)習(xí))的AV的感知系統(tǒng)將感覺(jué)數(shù)據(jù)轉(zhuǎn)換成能夠自動(dòng)駕駛的語(yǔ)義信息。對(duì)象檢測(cè)是該感知系統(tǒng)的基本功能,已經(jīng)通過(guò)多項(xiàng)工作解決了這些問(wèn)題,其中大多數(shù)使用2D檢測(cè)方法。但是,二維方法不提供深度信息,這是駕駛?cè)蝿?wù)所需的深度信息,例如路徑規(guī)劃,避免碰撞等。替代地,3D對(duì)象檢測(cè)方法引入了第三維,它揭示了更詳細(xì)的對(duì)象尺寸和位置信息。但是,這種方法的檢測(cè)精度需要提高。據(jù)所知,這是用于自動(dòng)駕駛應(yīng)用的3D對(duì)象檢測(cè)方法的首次調(diào)查。
這篇文章對(duì)自動(dòng)駕駛場(chǎng)景中的三維目標(biāo)檢測(cè)方法進(jìn)行了詳細(xì)的綜述,并且介紹了目前普遍使用的傳感器和數(shù)據(jù)集。本文根據(jù)三維目標(biāo)檢測(cè)方法所使用到的傳感器,將其分為基于單目相機(jī)圖像、點(diǎn)云和融合三大類。然后總結(jié)這些方法的在同一數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果,以及已有方法存在的不足和未來(lái)值得研究的方向。
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
今日 Paper | 隨機(jī)微分方程;流式自動(dòng)語(yǔ)音識(shí)別;圖像分類等
今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等
今日 Paper | 3D手勢(shì)估計(jì);自學(xué)習(xí)機(jī)器人;魯棒語(yǔ)義分割;卷積神經(jīng)網(wǎng)絡(luò);混合高斯過(guò)程等
今日 Paper | 精簡(jiǎn)BERT;面部交換;三維點(diǎn)云;DeepFakes 及 5G 等
今日 Paper | 虛假新聞檢測(cè);馬爾可夫決策過(guò)程;場(chǎng)景文本識(shí)別;博弈論框架等
今日 Paper | 問(wèn)答系統(tǒng);3D人體形狀和姿勢(shì);面部偽造檢測(cè);AdderNet等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。