丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能學(xué)術(shù) 正文
發(fā)私信給AI研習(xí)社
發(fā)送

0

今日 Paper | CausalML;隱式函數(shù);慢動(dòng)作視頻重建;交叉圖卷積網(wǎng)絡(luò)等

本文作者: AI研習(xí)社 2020-03-18 15:08
導(dǎo)語:為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊。
今日 Paper | CausalML;隱式函數(shù);慢動(dòng)作視頻重建;交叉圖卷積網(wǎng)絡(luò)等

  目錄

CausalML:用于因果機(jī)器學(xué)習(xí)的Python包

用于3D重建和形狀補(bǔ)全的特征空間中的隱式函數(shù)

基于混合成像系統(tǒng)的慢動(dòng)作視頻重建

交叉圖卷積網(wǎng)絡(luò)(Cross-GCN):使用k順序特征交互來增強(qiáng)圖卷積網(wǎng)絡(luò)

選擇核網(wǎng)絡(luò)

  CausalML:用于因果機(jī)器學(xué)習(xí)的Python包

論文名稱:CausalML: Python Package for Causal Machine Learning

作者: Huigang Chen*

發(fā)表時(shí)間:2020/3/2

論文鏈接:https://paper.yanxishe.com/review/14227?from=leiphonecolumn_paperreview0318

推薦原因

本文主要內(nèi)容:

本文提出了一種新的機(jī)器學(xué)習(xí)算法包——CausalML,這是一種采用ython語言編寫而成用于解決因果推理(causalinference)與機(jī)器學(xué)習(xí)(machine learning)任務(wù)的算法,并且已經(jīng)封裝成型,提供了API接口供學(xué)習(xí)者使用。對(duì)于CausalML包的使用用途,作者從三方面進(jìn)行介紹,分別為 定位優(yōu)化(Targeting Optimization)、因果影響分析(Causal Impact Analysis)以及模型的個(gè)性化(Personalization)。此外作者也對(duì)后續(xù)的研究提出了自己的觀點(diǎn)??傊?,本文適合于剛?cè)霗C(jī)器學(xué)習(xí)方向的同學(xué)學(xué)習(xí)研究。

今日 Paper | CausalML;隱式函數(shù);慢動(dòng)作視頻重建;交叉圖卷積網(wǎng)絡(luò)等

  用于3D重建和形狀補(bǔ)全的特征空間中的隱式函數(shù)

論文名稱:Implicit Functions in Feature Space for 3D Shape Reconstruction and Completion

作者: Julian Chibane /Thiemo Alldieck /Gerard Pons-Moll

發(fā)表時(shí)間:2020/3/3

論文鏈接:https://paper.yanxishe.com/review/13186?from=leiphonecolumn_paperreview0318

推薦原因

這篇文章被CVPR2020接收!文章主要考慮從各種各樣的3D輸入來進(jìn)行3D重建和形狀補(bǔ)全的工作,能夠處理低和高分辨率體素、稀疏和稠密電云、完整或不完整的數(shù)據(jù)等等。

作者通過神經(jīng)網(wǎng)絡(luò)從輸入數(shù)據(jù)提取基于三維張量表達(dá)的多尺度特征,并將該張量與嵌入原始形狀的歐式空間進(jìn)行對(duì)齊,然后從張量提取的深層特征進(jìn)行分類。實(shí)驗(yàn)表明文章提出的模型根據(jù)全局和局部形狀結(jié)構(gòu)做出決策,能夠得到更準(zhǔn)確的重建結(jié)果。文章的方法能夠提供連續(xù)的輸出,可以處理多種拓?fù)?,可以從缺失或者稀疏的輸入?shù)據(jù)生成完整的形狀,并且可以重建3D人體并保留表面細(xì)節(jié)。

今日 Paper | CausalML;隱式函數(shù);慢動(dòng)作視頻重建;交叉圖卷積網(wǎng)絡(luò)等
今日 Paper | CausalML;隱式函數(shù);慢動(dòng)作視頻重建;交叉圖卷積網(wǎng)絡(luò)等

  基于混合成像系統(tǒng)的慢動(dòng)作視頻重建

論文名稱:Deep Slow Motion Video Reconstruction with Hybrid Imaging System

作者: Avinash Paliwal /Nima Khademi Kalantari

發(fā)表時(shí)間:2020/2/27

論文鏈接:https://paper.yanxishe.com/review/12733?from=leiphonecolumn_paperreview0318

推薦原因

慢動(dòng)作視頻在近些年來變得越來越流行,但以極高的幀率捕獲高分辨率視頻需要專業(yè)的高速相機(jī),對(duì)于普通消費(fèi)者或者攝影愛好者比較難實(shí)現(xiàn)。文章提出了一種重建高分辨率慢動(dòng)作視頻的方法。

當(dāng)前的慢動(dòng)作視頻生成方法大多是通過線性插幀來實(shí)現(xiàn),對(duì)于運(yùn)動(dòng)較小的簡(jiǎn)單情況能夠得到不錯(cuò)的結(jié)果,但是對(duì)于稍微復(fù)雜的情況,結(jié)果就變得很差,會(huì)得到不自然的結(jié)果。文章將兩個(gè)視頻流作為輸入來解決這一問題,除了低幀率高分辨率的主視頻,還提供一個(gè)高幀率低分辨率的輔助視頻來提供時(shí)序信息。作者提出了一個(gè)由對(duì)齊和外觀估計(jì)組成的兩階段深度學(xué)習(xí)系統(tǒng),來從混合視頻輸入中重建高分辨率慢動(dòng)作視頻。作者使用合成的混合視頻數(shù)據(jù)集訓(xùn)練了網(wǎng)絡(luò),并搭建了一個(gè)簡(jiǎn)單的雙攝裝置,來驗(yàn)證文章方法的表現(xiàn)。

今日 Paper | CausalML;隱式函數(shù);慢動(dòng)作視頻重建;交叉圖卷積網(wǎng)絡(luò)等
今日 Paper | CausalML;隱式函數(shù);慢動(dòng)作視頻重建;交叉圖卷積網(wǎng)絡(luò)等

  交叉圖卷積網(wǎng)絡(luò)(Cross-GCN):使用k順序特征交互來增強(qiáng)圖卷積網(wǎng)絡(luò)

論文名稱:Cross-GCN: Enhancing Graph Convolutional Network with $k$-Order Feature Interactions

作者: Fuli Feng /Xiangnan He /Hanwang Zhang /Tat-Seng Chua

發(fā)表時(shí)間:2020/3/5

論文鏈接:https://paper.yanxishe.com/review/13480?from=leiphonecolumn_paperreview0318

推薦原因

1 核心問題:

在過往的研究中,圖卷積網(wǎng)絡(luò)(GCN)顯示了強(qiáng)大的表示能力,在推薦系統(tǒng)和相關(guān)文檔分類中取得了亮眼的效果。本文主要解決了傳統(tǒng)的圖卷積網(wǎng)絡(luò)放棄建模交叉特征的問題。

2 創(chuàng)新點(diǎn):

本文提出了一個(gè)交叉特征圖卷積運(yùn)算符,此運(yùn)算符提供了一個(gè)新的特征轉(zhuǎn)換模塊,該模塊以任意順序編碼交叉特征,并且具有依據(jù)特征維數(shù)和順序大小的線性復(fù)雜度。接著,在此運(yùn)算符的基礎(chǔ)上,本文提出了一個(gè)新的基于圖學(xué)習(xí)的方法。

3 研究意義:

過往的圖卷積網(wǎng)絡(luò)放棄了對(duì)圖交叉特征的建模,這影響了圖卷積網(wǎng)絡(luò)在交叉特征相對(duì)重要的數(shù)據(jù)集上取得的效果和效率。本文提出的Cross-GCN在交叉特征的建模上具有實(shí)用性,特別是在低層上的特征提取上。同時(shí),Cross-GCN在低維稀疏數(shù)據(jù)集上取得了更大的效果提升。

今日 Paper | CausalML;隱式函數(shù);慢動(dòng)作視頻重建;交叉圖卷積網(wǎng)絡(luò)等
今日 Paper | CausalML;隱式函數(shù);慢動(dòng)作視頻重建;交叉圖卷積網(wǎng)絡(luò)等

  選擇核網(wǎng)絡(luò)

論文名稱:Selective Kernel Network

作者: Xiang Li;Wenhai Wang;Xiaolin Hu;Jian Yang

發(fā)表時(shí)間:2019/5/16

論文鏈接:https://paper.yanxishe.com/review/13537?from=leiphonecolumn_paperreview0318

推薦原因

在神經(jīng)科學(xué)界,視皮層神經(jīng)元的感受野大小受刺激的調(diào)節(jié),即對(duì)不同刺激,卷積核的大小應(yīng)該不同,但這在構(gòu)建CNN時(shí)一般在同一層只采用一種卷積核,很少考慮多個(gè)卷積核的作用。文中提出了一種在CNN中對(duì)卷積核的動(dòng)態(tài)選擇機(jī)制,該機(jī)制允許每個(gè)神經(jīng)元根據(jù)輸入信息的多尺度自適應(yīng)地調(diào)整其感受野(卷積核)的大小。設(shè)計(jì)了一個(gè)稱為選擇性內(nèi)核單元(SK)的構(gòu)建塊,其中,多個(gè)具有不同內(nèi)核大小的分支在這些分支中的信息引導(dǎo)下,使用SoftMax進(jìn)行融合。由多個(gè)SK單元組成SKNet,SKNet中的神經(jīng)元能夠捕獲不同尺度的目標(biāo)物體。

今日 Paper | CausalML;隱式函數(shù);慢動(dòng)作視頻重建;交叉圖卷積網(wǎng)絡(luò)等
今日 Paper | CausalML;隱式函數(shù);慢動(dòng)作視頻重建;交叉圖卷積網(wǎng)絡(luò)等

今日 Paper | CausalML;隱式函數(shù);慢動(dòng)作視頻重建;交叉圖卷積網(wǎng)絡(luò)等

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

相關(guān)文章:

今日 Paper | 雙向ConvLSTMU-Net卷積;SAU-Net;立體匹配;深度語義分割等

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

今日 Paper | CausalML;隱式函數(shù);慢動(dòng)作視頻重建;交叉圖卷積網(wǎng)絡(luò)等

分享:
相關(guān)文章

編輯

聚焦數(shù)據(jù)科學(xué),連接 AI 開發(fā)者。更多精彩內(nèi)容,請(qǐng)?jiān)L問:yanxishe.com
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說