0
本文作者: AI研習(xí)社 | 2020-03-18 15:08 |
CausalML:用于因果機(jī)器學(xué)習(xí)的Python包
用于3D重建和形狀補(bǔ)全的特征空間中的隱式函數(shù)
基于混合成像系統(tǒng)的慢動(dòng)作視頻重建
交叉圖卷積網(wǎng)絡(luò)(Cross-GCN):使用k順序特征交互來增強(qiáng)圖卷積網(wǎng)絡(luò)
選擇核網(wǎng)絡(luò)
論文名稱:CausalML: Python Package for Causal Machine Learning
作者: Huigang Chen*
發(fā)表時(shí)間:2020/3/2
論文鏈接:https://paper.yanxishe.com/review/14227?from=leiphonecolumn_paperreview0318
推薦原因
本文主要內(nèi)容:
本文提出了一種新的機(jī)器學(xué)習(xí)算法包——CausalML,這是一種采用ython語言編寫而成用于解決因果推理(causalinference)與機(jī)器學(xué)習(xí)(machine learning)任務(wù)的算法,并且已經(jīng)封裝成型,提供了API接口供學(xué)習(xí)者使用。對(duì)于CausalML包的使用用途,作者從三方面進(jìn)行介紹,分別為 定位優(yōu)化(Targeting Optimization)、因果影響分析(Causal Impact Analysis)以及模型的個(gè)性化(Personalization)。此外作者也對(duì)后續(xù)的研究提出了自己的觀點(diǎn)??傊?,本文適合于剛?cè)霗C(jī)器學(xué)習(xí)方向的同學(xué)學(xué)習(xí)研究。
論文名稱:Implicit Functions in Feature Space for 3D Shape Reconstruction and Completion
作者: Julian Chibane /Thiemo Alldieck /Gerard Pons-Moll
發(fā)表時(shí)間:2020/3/3
論文鏈接:https://paper.yanxishe.com/review/13186?from=leiphonecolumn_paperreview0318
推薦原因
這篇文章被CVPR2020接收!文章主要考慮從各種各樣的3D輸入來進(jìn)行3D重建和形狀補(bǔ)全的工作,能夠處理低和高分辨率體素、稀疏和稠密電云、完整或不完整的數(shù)據(jù)等等。
作者通過神經(jīng)網(wǎng)絡(luò)從輸入數(shù)據(jù)提取基于三維張量表達(dá)的多尺度特征,并將該張量與嵌入原始形狀的歐式空間進(jìn)行對(duì)齊,然后從張量提取的深層特征進(jìn)行分類。實(shí)驗(yàn)表明文章提出的模型根據(jù)全局和局部形狀結(jié)構(gòu)做出決策,能夠得到更準(zhǔn)確的重建結(jié)果。文章的方法能夠提供連續(xù)的輸出,可以處理多種拓?fù)?,可以從缺失或者稀疏的輸入?shù)據(jù)生成完整的形狀,并且可以重建3D人體并保留表面細(xì)節(jié)。
論文名稱:Deep Slow Motion Video Reconstruction with Hybrid Imaging System
作者: Avinash Paliwal /Nima Khademi Kalantari
發(fā)表時(shí)間:2020/2/27
論文鏈接:https://paper.yanxishe.com/review/12733?from=leiphonecolumn_paperreview0318
推薦原因
慢動(dòng)作視頻在近些年來變得越來越流行,但以極高的幀率捕獲高分辨率視頻需要專業(yè)的高速相機(jī),對(duì)于普通消費(fèi)者或者攝影愛好者比較難實(shí)現(xiàn)。文章提出了一種重建高分辨率慢動(dòng)作視頻的方法。
當(dāng)前的慢動(dòng)作視頻生成方法大多是通過線性插幀來實(shí)現(xiàn),對(duì)于運(yùn)動(dòng)較小的簡(jiǎn)單情況能夠得到不錯(cuò)的結(jié)果,但是對(duì)于稍微復(fù)雜的情況,結(jié)果就變得很差,會(huì)得到不自然的結(jié)果。文章將兩個(gè)視頻流作為輸入來解決這一問題,除了低幀率高分辨率的主視頻,還提供一個(gè)高幀率低分辨率的輔助視頻來提供時(shí)序信息。作者提出了一個(gè)由對(duì)齊和外觀估計(jì)組成的兩階段深度學(xué)習(xí)系統(tǒng),來從混合視頻輸入中重建高分辨率慢動(dòng)作視頻。作者使用合成的混合視頻數(shù)據(jù)集訓(xùn)練了網(wǎng)絡(luò),并搭建了一個(gè)簡(jiǎn)單的雙攝裝置,來驗(yàn)證文章方法的表現(xiàn)。
論文名稱:Cross-GCN: Enhancing Graph Convolutional Network with $k$-Order Feature Interactions
作者: Fuli Feng /Xiangnan He /Hanwang Zhang /Tat-Seng Chua
發(fā)表時(shí)間:2020/3/5
論文鏈接:https://paper.yanxishe.com/review/13480?from=leiphonecolumn_paperreview0318
推薦原因
1 核心問題:
在過往的研究中,圖卷積網(wǎng)絡(luò)(GCN)顯示了強(qiáng)大的表示能力,在推薦系統(tǒng)和相關(guān)文檔分類中取得了亮眼的效果。本文主要解決了傳統(tǒng)的圖卷積網(wǎng)絡(luò)放棄建模交叉特征的問題。
2 創(chuàng)新點(diǎn):
本文提出了一個(gè)交叉特征圖卷積運(yùn)算符,此運(yùn)算符提供了一個(gè)新的特征轉(zhuǎn)換模塊,該模塊以任意順序編碼交叉特征,并且具有依據(jù)特征維數(shù)和順序大小的線性復(fù)雜度。接著,在此運(yùn)算符的基礎(chǔ)上,本文提出了一個(gè)新的基于圖學(xué)習(xí)的方法。
3 研究意義:
過往的圖卷積網(wǎng)絡(luò)放棄了對(duì)圖交叉特征的建模,這影響了圖卷積網(wǎng)絡(luò)在交叉特征相對(duì)重要的數(shù)據(jù)集上取得的效果和效率。本文提出的Cross-GCN在交叉特征的建模上具有實(shí)用性,特別是在低層上的特征提取上。同時(shí),Cross-GCN在低維稀疏數(shù)據(jù)集上取得了更大的效果提升。
論文名稱:Selective Kernel Network
作者: Xiang Li;Wenhai Wang;Xiaolin Hu;Jian Yang
發(fā)表時(shí)間:2019/5/16
論文鏈接:https://paper.yanxishe.com/review/13537?from=leiphonecolumn_paperreview0318
推薦原因
在神經(jīng)科學(xué)界,視皮層神經(jīng)元的感受野大小受刺激的調(diào)節(jié),即對(duì)不同刺激,卷積核的大小應(yīng)該不同,但這在構(gòu)建CNN時(shí)一般在同一層只采用一種卷積核,很少考慮多個(gè)卷積核的作用。文中提出了一種在CNN中對(duì)卷積核的動(dòng)態(tài)選擇機(jī)制,該機(jī)制允許每個(gè)神經(jīng)元根據(jù)輸入信息的多尺度自適應(yīng)地調(diào)整其感受野(卷積核)的大小。設(shè)計(jì)了一個(gè)稱為選擇性內(nèi)核單元(SK)的構(gòu)建塊,其中,多個(gè)具有不同內(nèi)核大小的分支在這些分支中的信息引導(dǎo)下,使用SoftMax進(jìn)行融合。由多個(gè)SK單元組成SKNet,SKNet中的神經(jīng)元能夠捕獲不同尺度的目標(biāo)物體。
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
今日 Paper | 雙向ConvLSTMU-Net卷積;SAU-Net;立體匹配;深度語義分割等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。