0
本文作者: AI研習(xí)社 | 2020-03-18 15:08 |
CausalML:用于因果機(jī)器學(xué)習(xí)的Python包
用于3D重建和形狀補(bǔ)全的特征空間中的隱式函數(shù)
基于混合成像系統(tǒng)的慢動作視頻重建
交叉圖卷積網(wǎng)絡(luò)(Cross-GCN):使用k順序特征交互來增強(qiáng)圖卷積網(wǎng)絡(luò)
選擇核網(wǎng)絡(luò)
論文名稱:CausalML: Python Package for Causal Machine Learning
作者: Huigang Chen*
發(fā)表時間:2020/3/2
論文鏈接:https://paper.yanxishe.com/review/14227?from=leiphonecolumn_paperreview0318
推薦原因
本文主要內(nèi)容:
本文提出了一種新的機(jī)器學(xué)習(xí)算法包——CausalML,這是一種采用ython語言編寫而成用于解決因果推理(causalinference)與機(jī)器學(xué)習(xí)(machine learning)任務(wù)的算法,并且已經(jīng)封裝成型,提供了API接口供學(xué)習(xí)者使用。對于CausalML包的使用用途,作者從三方面進(jìn)行介紹,分別為 定位優(yōu)化(Targeting Optimization)、因果影響分析(Causal Impact Analysis)以及模型的個性化(Personalization)。此外作者也對后續(xù)的研究提出了自己的觀點(diǎn)??傊?,本文適合于剛?cè)霗C(jī)器學(xué)習(xí)方向的同學(xué)學(xué)習(xí)研究。
論文名稱:Implicit Functions in Feature Space for 3D Shape Reconstruction and Completion
作者: Julian Chibane /Thiemo Alldieck /Gerard Pons-Moll
發(fā)表時間:2020/3/3
論文鏈接:https://paper.yanxishe.com/review/13186?from=leiphonecolumn_paperreview0318
推薦原因
這篇文章被CVPR2020接收!文章主要考慮從各種各樣的3D輸入來進(jìn)行3D重建和形狀補(bǔ)全的工作,能夠處理低和高分辨率體素、稀疏和稠密電云、完整或不完整的數(shù)據(jù)等等。
作者通過神經(jīng)網(wǎng)絡(luò)從輸入數(shù)據(jù)提取基于三維張量表達(dá)的多尺度特征,并將該張量與嵌入原始形狀的歐式空間進(jìn)行對齊,然后從張量提取的深層特征進(jìn)行分類。實(shí)驗(yàn)表明文章提出的模型根據(jù)全局和局部形狀結(jié)構(gòu)做出決策,能夠得到更準(zhǔn)確的重建結(jié)果。文章的方法能夠提供連續(xù)的輸出,可以處理多種拓?fù)?,可以從缺失或者稀疏的輸入?shù)據(jù)生成完整的形狀,并且可以重建3D人體并保留表面細(xì)節(jié)。
論文名稱:Deep Slow Motion Video Reconstruction with Hybrid Imaging System
作者: Avinash Paliwal /Nima Khademi Kalantari
發(fā)表時間:2020/2/27
論文鏈接:https://paper.yanxishe.com/review/12733?from=leiphonecolumn_paperreview0318
推薦原因
慢動作視頻在近些年來變得越來越流行,但以極高的幀率捕獲高分辨率視頻需要專業(yè)的高速相機(jī),對于普通消費(fèi)者或者攝影愛好者比較難實(shí)現(xiàn)。文章提出了一種重建高分辨率慢動作視頻的方法。
當(dāng)前的慢動作視頻生成方法大多是通過線性插幀來實(shí)現(xiàn),對于運(yùn)動較小的簡單情況能夠得到不錯的結(jié)果,但是對于稍微復(fù)雜的情況,結(jié)果就變得很差,會得到不自然的結(jié)果。文章將兩個視頻流作為輸入來解決這一問題,除了低幀率高分辨率的主視頻,還提供一個高幀率低分辨率的輔助視頻來提供時序信息。作者提出了一個由對齊和外觀估計(jì)組成的兩階段深度學(xué)習(xí)系統(tǒng),來從混合視頻輸入中重建高分辨率慢動作視頻。作者使用合成的混合視頻數(shù)據(jù)集訓(xùn)練了網(wǎng)絡(luò),并搭建了一個簡單的雙攝裝置,來驗(yàn)證文章方法的表現(xiàn)。
論文名稱:Cross-GCN: Enhancing Graph Convolutional Network with $k$-Order Feature Interactions
作者: Fuli Feng /Xiangnan He /Hanwang Zhang /Tat-Seng Chua
發(fā)表時間:2020/3/5
論文鏈接:https://paper.yanxishe.com/review/13480?from=leiphonecolumn_paperreview0318
推薦原因
1 核心問題:
在過往的研究中,圖卷積網(wǎng)絡(luò)(GCN)顯示了強(qiáng)大的表示能力,在推薦系統(tǒng)和相關(guān)文檔分類中取得了亮眼的效果。本文主要解決了傳統(tǒng)的圖卷積網(wǎng)絡(luò)放棄建模交叉特征的問題。
2 創(chuàng)新點(diǎn):
本文提出了一個交叉特征圖卷積運(yùn)算符,此運(yùn)算符提供了一個新的特征轉(zhuǎn)換模塊,該模塊以任意順序編碼交叉特征,并且具有依據(jù)特征維數(shù)和順序大小的線性復(fù)雜度。接著,在此運(yùn)算符的基礎(chǔ)上,本文提出了一個新的基于圖學(xué)習(xí)的方法。
3 研究意義:
過往的圖卷積網(wǎng)絡(luò)放棄了對圖交叉特征的建模,這影響了圖卷積網(wǎng)絡(luò)在交叉特征相對重要的數(shù)據(jù)集上取得的效果和效率。本文提出的Cross-GCN在交叉特征的建模上具有實(shí)用性,特別是在低層上的特征提取上。同時,Cross-GCN在低維稀疏數(shù)據(jù)集上取得了更大的效果提升。
論文名稱:Selective Kernel Network
作者: Xiang Li;Wenhai Wang;Xiaolin Hu;Jian Yang
發(fā)表時間:2019/5/16
論文鏈接:https://paper.yanxishe.com/review/13537?from=leiphonecolumn_paperreview0318
推薦原因
在神經(jīng)科學(xué)界,視皮層神經(jīng)元的感受野大小受刺激的調(diào)節(jié),即對不同刺激,卷積核的大小應(yīng)該不同,但這在構(gòu)建CNN時一般在同一層只采用一種卷積核,很少考慮多個卷積核的作用。文中提出了一種在CNN中對卷積核的動態(tài)選擇機(jī)制,該機(jī)制允許每個神經(jīng)元根據(jù)輸入信息的多尺度自適應(yīng)地調(diào)整其感受野(卷積核)的大小。設(shè)計(jì)了一個稱為選擇性內(nèi)核單元(SK)的構(gòu)建塊,其中,多個具有不同內(nèi)核大小的分支在這些分支中的信息引導(dǎo)下,使用SoftMax進(jìn)行融合。由多個SK單元組成SKNet,SKNet中的神經(jīng)元能夠捕獲不同尺度的目標(biāo)物體。
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
今日 Paper | 雙向ConvLSTMU-Net卷積;SAU-Net;立體匹配;深度語義分割等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。