0
本文作者: AI研習(xí)社 | 2020-03-27 18:05 |
用機(jī)器學(xué)習(xí)方法對(duì)電網(wǎng)中的二氧化碳排放強(qiáng)度進(jìn)行短期預(yù)測(cè)
基于圖卷積神經(jīng)網(wǎng)絡(luò)的高保真3D人臉重建
BERTology入門(mén):解讀BERT的工作原理
DymSLAM:基于幾何運(yùn)動(dòng)分割的動(dòng)態(tài)場(chǎng)景重建
The Virtual Tailor: 基于人體姿態(tài)、形狀和服裝類(lèi)型的3D服裝預(yù)測(cè)
論文名稱(chēng):Short-Term Forecasting of CO2 Emission Intensity in Power Grids by Machine Learning
作者:Kenneth Leerbeck /Peder Bacher /Rune Junker /Goran Goranovi? /Olivier Corradi /Razgar Ebrahimy /Anna Tveit /Henrik Madsen
發(fā)表時(shí)間:2020/3/10
論文鏈接:https://paper.yanxishe.com/review/14223?from=leiphonecolumn_paperreview0327
推薦原因
1 核心問(wèn)題
本文主要解決的是用機(jī)器學(xué)習(xí)方法來(lái)預(yù)測(cè)丹麥招標(biāo)地區(qū)中電網(wǎng)二氧化碳的排放強(qiáng)度,區(qū)分平均排放量和邊際排放量的問(wèn)題
2 創(chuàng)新點(diǎn)
本文使用多變量線性回歸模型建模,使用傅立葉序列來(lái)對(duì)季節(jié)波動(dòng)進(jìn)行衡量,使用Splines來(lái)捕獲非線性特征。在面對(duì)大量屬性時(shí),本文結(jié)合了Lasso以及前向特征選擇算法來(lái)進(jìn)行特征選擇。在最后的softmax層中根據(jù)不同驗(yàn)證集的平均RMSE使用權(quán)重平均模型進(jìn)行了處理。
3 研究意義
本文發(fā)現(xiàn)邊際排放量和DK2區(qū)域的狀況完全不同,說(shuō)明了邊際發(fā)電機(jī)位于相鄰區(qū)域中,并且提出的方法可以在不需要提前詳細(xì)了解的情況下,用于歐洲電網(wǎng)中的任意投標(biāo)區(qū)域。
論文名稱(chēng):Towards High-Fidelity 3D Face Reconstruction from In-the-Wild Images Using Graph Convolutional Networks
作者:Jiangke Lin /Yi Yuan /Tianjia Shao /Kun Zhou
發(fā)表時(shí)間:2020/3/12
論文鏈接:https://paper.yanxishe.com/review/14158?from=leiphonecolumn_paperreview0327
推薦原因
該文章是CVPR2020的人臉重建文章。
在過(guò)去幾年中,基于3DMM的方法在從單視圖圖像恢復(fù)3D面部形狀方面取得了巨大的成功。然而通過(guò)這種方法恢復(fù)的面部紋理缺乏輸入圖像中所表現(xiàn)的保真度。最近也有一些工作使用在高質(zhì)量面部紋理UV貼圖的大規(guī)模數(shù)據(jù)集中訓(xùn)練的生成網(wǎng)絡(luò),能夠生成高質(zhì)量的面部紋理,但數(shù)據(jù)集很難準(zhǔn)備且沒(méi)有公開(kāi)。
本文介紹了一種從單視角自然圖像重建具有高保真紋理的3D面部形狀的方法,無(wú)需大規(guī)模的面部紋理數(shù)據(jù)庫(kù)。其主要思想是使用來(lái)自輸入圖像的面部細(xì)節(jié)來(lái)優(yōu)化基于3DMM方法生成的初始紋理,使用圖卷積網(wǎng)絡(luò)來(lái)重建網(wǎng)格頂點(diǎn)的詳細(xì)顏色而不是重建紋理貼圖。實(shí)驗(yàn)表明文章方法可以產(chǎn)生高質(zhì)量的重建結(jié)果,優(yōu)于最新的方法。
論文名稱(chēng):A Primer in BERTology: What we know about how BERT works
作者:Anna Rogers
發(fā)表時(shí)間:2020/2/7
論文鏈接:https://paper.yanxishe.com/review/13947?from=leiphonecolumn_paperreview0327
推薦原因
本文是一篇綜述性文章,概述了目前學(xué)術(shù)界對(duì)Bert已取得的研究成果,并且對(duì)后續(xù)的研究也進(jìn)行了展望,適合于初入BERT模型的人員學(xué)習(xí)。本文的框架作者主要從BERT網(wǎng)絡(luò)結(jié)構(gòu)、BERT embeddings、BERT中的句法知識(shí)(Syntactic knowledge)、語(yǔ)義知識(shí)(Semantic knowledge)和知識(shí)庫(kù)(World knowledge)以及Self-attention機(jī)制等角度對(duì)當(dāng)下學(xué)術(shù)界對(duì)BERT的研究進(jìn)行了說(shuō)明,基于前面的介紹,作者對(duì)BERT是如何訓(xùn)練、當(dāng)模型過(guò)于復(fù)雜時(shí)應(yīng)給如何解決等問(wèn)題給出了相應(yīng)的解決方案。最后作者對(duì)BERT未來(lái)的研究方向以及需要解決的問(wèn)題提出了展望。
論文名稱(chēng):DymSLAM:4D Dynamic Scene Reconstruction Based on Geometrical Motion Segmentation
作者:Chenjie Wang /Bin Luo /Yun Zhang /Qing Zhao /Lu Yin /Wei Wang /Xin Su /Yajun Wang /Chengyuan Li
發(fā)表時(shí)間:2020/3/10
論文鏈接:https://paper.yanxishe.com/review/13904?from=leiphonecolumn_paperreview0327
推薦原因
大多數(shù)SLAM算法都是基于靜態(tài)場(chǎng)景假設(shè),但實(shí)際情況下大多數(shù)場(chǎng)景都是動(dòng)態(tài)的,包含動(dòng)態(tài)對(duì)象,因此此類(lèi)方法都不適用。
本文提出了DymSLAM,一種基于動(dòng)態(tài)立體實(shí)際SLAM系統(tǒng),能夠重建包含剛性運(yùn)動(dòng)對(duì)象的4D(3D+時(shí)間)動(dòng)態(tài)場(chǎng)景。DymSLAM的唯一輸入是立體視頻,輸出靜態(tài)環(huán)境的密集圖,運(yùn)動(dòng)對(duì)象的3D模型以及相機(jī)和運(yùn)動(dòng)對(duì)象的軌跡。系統(tǒng)首先使用傳統(tǒng)SLAM方法檢測(cè)并匹配連續(xù)幀直接的興趣點(diǎn),然后通過(guò)多模型擬合算法將屬于不同運(yùn)動(dòng)模型(包括自我運(yùn)動(dòng)和剛性對(duì)象運(yùn)動(dòng))的興趣點(diǎn)進(jìn)行分割。基于自我運(yùn)動(dòng)的興趣點(diǎn)預(yù)測(cè)相機(jī)軌跡和靜態(tài)背景,基于剛性對(duì)象運(yùn)動(dòng)的興趣點(diǎn)用于估計(jì)對(duì)象相對(duì)于相機(jī)的相對(duì)運(yùn)動(dòng)并重建對(duì)象的3D模型。最后再3D對(duì)象的運(yùn)動(dòng)融合到環(huán)境的3D地圖中,以獲得4D序列。
問(wèn)題提出了包含剛性運(yùn)動(dòng)物體的SLAM系統(tǒng),能夠重建場(chǎng)景中剛性運(yùn)動(dòng)對(duì)象的模型及其運(yùn)動(dòng)軌跡,可以用于機(jī)器人的動(dòng)態(tài)物體避障等眾多應(yīng)用。
論文名稱(chēng):The Virtual Tailor: Predicting Clothing in 3D as a Function of Human Pose, Shape and Garment Style
作者:Patel Chaitanya /Liao Zhouyingcheng /Pons-Moll Gerard
發(fā)表時(shí)間:2020/3/10
論文鏈接:https://paper.yanxishe.com/review/13854?from=leiphonecolumn_paperreview0327
推薦原因
如何快速準(zhǔn)確逼真地模擬、預(yù)測(cè)人體衣服的形變是計(jì)算機(jī)圖形學(xué)中的一個(gè)重要問(wèn)題,在諸如AR/VR、虛擬試衣等眾多領(lǐng)域都有著應(yīng)用。
本文提出了TailorNet神經(jīng)網(wǎng)絡(luò)模型,其可以根據(jù)人體形狀、姿態(tài)和服裝類(lèi)型來(lái)預(yù)測(cè)衣服的形變,并同時(shí)保留衣服的褶皺等局部細(xì)節(jié)。文章技術(shù)的核心是將衣服的形狀分解為高頻部分和低頻部分,其中低頻部分的信息從人體形狀、姿態(tài)和衣服類(lèi)別預(yù)測(cè),高頻部分的細(xì)節(jié)從形狀風(fēng)格相關(guān)的姿態(tài)模型來(lái)預(yù)測(cè)并混合得到。作者將其構(gòu)造的包含55800幀的數(shù)據(jù)集開(kāi)源,項(xiàng)目主頁(yè)https://virtualhumans.mpi-inf.mpg.de/vtailor。
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
今日 Paper | 深度循環(huán)神經(jīng)網(wǎng)絡(luò);PoseNet3D;AET vs. AED;光場(chǎng)視差估計(jì)等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。