丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能學(xué)術(shù) 正文
發(fā)私信給AI研習(xí)社
發(fā)送

0

今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等

本文作者: AI研習(xí)社 2020-01-09 16:14
導(dǎo)語(yǔ):每天都為你精選關(guān)于人工智能的前沿學(xué)術(shù)論文供你學(xué)習(xí)參考。

為了幫助各位學(xué)術(shù)青年更好地學(xué)習(xí)前沿研究成果和技術(shù),AI科技評(píng)論聯(lián)合Paper 研習(xí)社(paper.yanxishe.com),重磅推出【今日 Paper】欄目, 每天都為你精選關(guān)于人工智能的前沿學(xué)術(shù)論文供你學(xué)習(xí)參考。以下是今日的精選內(nèi)容——

  目錄

  • Causal Mosaic: Cause-Effect Inference via Nonlinear ICA and Ensemble Method

  • Intrinsic Motivation and Episodic Memories for Robot Exploration of High-Dimensional Sensory Spaces

  • Deep Reinforcement Learning for Active Human Pose Estimation

  • Kervolutional Neural Networks

  • Deep Video Super-Resolution using HR Optical Flow Estimation

  • A Strong Baseline and Batch Normalization Neck for Deep Person Re-identification

  • FACLSTM: ConvLSTM with Focused Attention for Scene Text Recognition

  • End-To-End Trainable Video Super-Resolution Based>

  • TableNet: Deep Learning model for end-to-end Table detection and Tabular data extraction from Scanned Document Images

  • Mutual Mean-Teaching: Pseudo Label Refinery for Unsupervised Domain Adaptation

  因果馬賽克:通過(guò)非線(xiàn)性ICA和集成方法進(jìn)行因果推斷

論文名稱(chēng):Causal Mosaic: Cause-Effect Inference via Nonlinear ICA and Ensemble Method

作者:Wu Pengzhou /Fukumizu Kenji

發(fā)表時(shí)間:2020/1/7

論文鏈接:https://paper.yanxishe.com/review/8418?from=leiphonecolumn_paperreview0109

推薦理由:作者解決了在雙變量設(shè)置中區(qū)分因果關(guān)系的問(wèn)題?;诜蔷€(xiàn)性獨(dú)立分量分析(ICA)的最新發(fā)展,作者訓(xùn)練了允許非加性噪聲的非參數(shù)通用非線(xiàn)性因果模型。此外,作者建立了一個(gè)整體框架,即因果馬賽克,它通過(guò)混合非線(xiàn)性模型來(lái)模擬因果對(duì)。

作者在人工和現(xiàn)實(shí)世界基準(zhǔn)數(shù)據(jù)集上將此方法與其他最近的方法進(jìn)行了比較,并且其方法顯示了最新的性能。

今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等
今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等

  高維感官空間機(jī)器人探索的內(nèi)在動(dòng)機(jī)和情節(jié)記憶

論文名稱(chēng):Intrinsic Motivation and Episodic Memories for Robot Exploration of High-Dimensional Sensory Spaces

作者:Schillaci Guido /Villalpando Antonio Pico /Hafner Verena Vanessa /Hanappe Peter /Colliaux David /Wintz Timothée

發(fā)表時(shí)間:2020/1/7

論文鏈接:https://paper.yanxishe.com/review/8419?from=leiphonecolumn_paperreview0109

推薦理由:本文的工作提出了一種體系結(jié)構(gòu),該體系結(jié)構(gòu)可以為微型農(nóng)業(yè)機(jī)器人的圖像傳感器生成好奇心驅(qū)動(dòng)的目標(biāo)導(dǎo)向的探索行為。已經(jīng)使用了深度神經(jīng)網(wǎng)絡(luò)的組合,用于從圖像中進(jìn)行離線(xiàn)的無(wú)監(jiān)督學(xué)習(xí),以進(jìn)行低維特征的學(xué)習(xí),以及用于淺層神經(jīng)網(wǎng)絡(luò)的在線(xiàn)學(xué)習(xí),用于表示系統(tǒng)的逆向運(yùn)動(dòng)和正向運(yùn)動(dòng)學(xué)。人工好奇心系統(tǒng)將興趣值分配給一組預(yù)定義的目標(biāo),并將探索驅(qū)向那些有望最大程度地提高學(xué)習(xí)進(jìn)度的探索。

作者建議將情景記憶整合到內(nèi)在動(dòng)機(jī)系統(tǒng)中,以應(yīng)對(duì)災(zāi)難性的遺忘問(wèn)題,這些問(wèn)題通常在執(zhí)行人工神經(jīng)網(wǎng)絡(luò)的在線(xiàn)更新時(shí)會(huì)遇到。我們的結(jié)果表明,采用情景存儲(chǔ)系統(tǒng)不僅可以防止計(jì)算模型迅速忘記先前已獲得的知識(shí),而且還為調(diào)節(jié)模型的可塑性和穩(wěn)定性之間的平衡提供了新途徑。

今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等
今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等
今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等
今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等

  用于主動(dòng)人體姿態(tài)估計(jì)的深度強(qiáng)化學(xué)習(xí)

論文名稱(chēng):Deep Reinforcement Learning for Active Human Pose Estimation

作者:G?rtner Erik /Pirinen Aleksis /Sminchisescu Cristian

發(fā)表時(shí)間:2020/1/7

論文鏈接:https://paper.yanxishe.com/review/8416?from=leiphonecolumn_paperreview0109

推薦理由:已有的3D人體姿勢(shì)估計(jì)方法都假定從一個(gè)視頻或者多個(gè)視角中收集的場(chǎng)景圖像是可以用的,因此它們專(zhuān)注于通過(guò)融合空間或時(shí)間信息來(lái)利用先驗(yàn)知識(shí)和度量信息。這篇論文研究了主動(dòng)觀(guān)察者可以自由移動(dòng)并探索場(chǎng)景的3D人體姿勢(shì)估計(jì)問(wèn)題,并提出了一個(gè)名為Pose-DRL的基于增強(qiáng)學(xué)習(xí)的人體姿勢(shì)估計(jì)模型。Pose-DRL可以在空間和時(shí)間維度上選擇最好的視角來(lái)進(jìn)行姿勢(shì)估計(jì)。在Panoptic多視角數(shù)據(jù)集上的實(shí)驗(yàn)表明,與基準(zhǔn)模型相比,Pose-DRL學(xué)會(huì)了如何選擇能夠產(chǎn)生更為準(zhǔn)確的姿勢(shì)估計(jì)值的視角。

今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等
今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等
今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等
今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等

  內(nèi)核卷積神經(jīng)網(wǎng)絡(luò)

論文名稱(chēng):Kervolutional Neural Networks

作者:Wang Chen /Yang Jianfei /Xie Lihua /Yuan Junsong

發(fā)表時(shí)間:2019/4/8

論文鏈接:https://paper.yanxishe.com/review/8415?from=leiphonecolumn_paperreview0109

推薦理由:現(xiàn)有的卷積神經(jīng)網(wǎng)絡(luò)相關(guān)的研究大多依賴(lài)于激活層,而現(xiàn)有的激活層只能提供逐點(diǎn)非線(xiàn)性。為了解決這個(gè)問(wèn)題,這篇論文提出了一種新的內(nèi)核卷積(Kervolution)運(yùn)算,利用內(nèi)核技巧來(lái)近似人類(lèi)感知系統(tǒng)的復(fù)雜行為。內(nèi)核卷積操作通過(guò)逐塊內(nèi)核函數(shù)來(lái)增強(qiáng)模型容量并捕獲要素的高階交互,而無(wú)需引入其他參數(shù)。大量的實(shí)驗(yàn)表明,與基線(xiàn)CNN相比,基于內(nèi)核卷積的神經(jīng)網(wǎng)絡(luò)具有更高的準(zhǔn)確性和更快的收斂速度。

今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等
今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等
今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等

  利用光流重構(gòu)估計(jì)的深度視頻超分辨率

論文名稱(chēng):Deep Video Super-Resolution using HR Optical Flow Estimation

作者:Wang Longguang /Guo Yulan /Liu Li /Lin Zaiping /Deng Xinpu /An Wei

發(fā)表時(shí)間:2020/1/6

論文鏈接:https://paper.yanxishe.com/review/8414?from=leiphonecolumn_paperreview0109

推薦理由:現(xiàn)有的基于深度學(xué)習(xí)的方法通常會(huì)估計(jì)低分辨率幀之間的光流以提供時(shí)間依賴(lài)性,但是低分辨率光流和高分辨率輸出之間的分辨率沖突會(huì)妨礙幀中的細(xì)節(jié)恢復(fù)。為了解決這個(gè)問(wèn)題,這篇論文提出了一種名為Optical Flow Reconstruction Network (OFRnet)的端到端的光流重構(gòu)網(wǎng)絡(luò),其中來(lái)自低分辨率幀的光流提供了準(zhǔn)確的時(shí)間依賴(lài)性,并最終提高了視頻超分辨率任務(wù)的性能表現(xiàn)。文章使用高分辨率光流執(zhí)行運(yùn)動(dòng)補(bǔ)償以對(duì)時(shí)間依賴(lài)性進(jìn)行編碼,最終低分辨率輸入會(huì)作為一個(gè)超分辨率網(wǎng)絡(luò)的輸入,從而生成超分辨率結(jié)果。這篇論文中的實(shí)驗(yàn)證明了高分辨率光流對(duì)改善超分辨率性能的有效性,在Vid4和DAVIS-10數(shù)據(jù)集上的實(shí)驗(yàn)也證明了OFRnet達(dá)到了SOTA的性能表現(xiàn)。

今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等
今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等
今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等
今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等
今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等

  用于深度行人重識(shí)別的強(qiáng)基線(xiàn)和批量歸一化結(jié)構(gòu)

論文名稱(chēng):A Strong Baseline and Batch Normalization Neck for Deep Person Re-identification

作者:Luo Hao /Jiang Wei /Gu Youzhi /Liu Fuxu /Liao Xingyu /Lai Shenqi /Gu Jianyang

發(fā)表時(shí)間:2019/6/19

論文鏈接:https://paper.yanxishe.com/review/8413?from=leiphonecolumn_paperreview0109

推薦理由:這篇論文考慮的是行人重識(shí)別的問(wèn)題。深度神經(jīng)網(wǎng)絡(luò)在行人重識(shí)別問(wèn)題中得到了大量的應(yīng)用,然后這些模型往往過(guò)于復(fù)雜。這篇論文收集并評(píng)估了現(xiàn)有行人重識(shí)別論文中出現(xiàn)的有效的訓(xùn)練技巧,通過(guò)結(jié)合這些技巧,文章僅使用ResNet50,就可以在Market1501數(shù)據(jù)集上達(dá)到94.5%的rank-1和85.9%的平均準(zhǔn)確率。這篇論文還提出了一個(gè)名為Batch Normalization Neck (BNNeck)的新結(jié)構(gòu),在全局池化層之后添加了一個(gè)批量歸一化層,以將度量和分類(lèi)損失分為兩個(gè)不同的特征空間。這篇論文通過(guò)大量實(shí)驗(yàn)表明BNNeck可以提升基準(zhǔn)模型的性能表現(xiàn)。

今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等
今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等
今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等

  FACLSTM:重點(diǎn)關(guān)注場(chǎng)景文本識(shí)別的ConvLSTM

論文名稱(chēng):FACLSTM: ConvLSTM with Focused Attention for Scene Text Recognition

作者:Wang Qingqing /Jia Wenjing /He Xiangjian /Lu Yue /Blumenstein Michael /Huang Ye

發(fā)表時(shí)間:2019/4/20

論文鏈接:https://paper.yanxishe.com/review/8412?from=leiphonecolumn_paperreview0109

推薦理由:這篇論文要解決的是場(chǎng)景文本識(shí)別的問(wèn)題,已經(jīng)被Science China Information Science接收。

這篇論文認(rèn)為場(chǎng)景文本識(shí)別本質(zhì)上是二維圖像輸入的時(shí)空預(yù)測(cè)問(wèn)題,并基于此提出了一個(gè)基于卷積LSTM的場(chǎng)景文本識(shí)別模型FACLSTM,利用LSTM來(lái)執(zhí)行順序預(yù)測(cè),并可以充分利用像素的空間相關(guān)性。同時(shí)這篇論文還通過(guò)卷積運(yùn)算將注意力機(jī)制整合到ConvLSTM結(jié)構(gòu)中,從而將注意力集中在正確的特征區(qū)域上。在基準(zhǔn)數(shù)據(jù)集IIIT5K,SVT和CUTE上的實(shí)驗(yàn)結(jié)果表明,F(xiàn)ACLSTM在常規(guī)的低分辨率和嘈雜的文本圖像上表現(xiàn)出具有競(jìng)爭(zhēng)力的優(yōu)勢(shì),并且在彎曲文本上以較大的幅度勝過(guò)了最新的方法。

今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等
今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等
今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等

  基于一種新的隱式運(yùn)動(dòng)估計(jì)和補(bǔ)償機(jī)制的端到端可訓(xùn)練視頻超分辨率

論文名稱(chēng):End-To-End Trainable Video Super-Resolution Based>作者:Liu Xiaohong /Kong Lingshi /Zhou Yang /Zhao Jiying /Chen Jun

發(fā)表時(shí)間:2020/1/5

論文鏈接:https://paper.yanxishe.com/review/8411?from=leiphonecolumn_paperreview0109

推薦理由:這篇論文被WACV 2020接收,考慮的是視頻超分辨率的問(wèn)題。

視頻超分辨率是在從低分辨率對(duì)應(yīng)生成高分辨率視頻。許多最近提出的視頻超分辨率方法將卷積神經(jīng)網(wǎng)絡(luò)與顯式運(yùn)動(dòng)補(bǔ)償結(jié)合使用,以利用低分辨率幀內(nèi)和跨低分辨率幀的統(tǒng)計(jì)依賴(lài)性。這篇論文提出了一種新的動(dòng)態(tài)局部濾波器網(wǎng)絡(luò),采用針對(duì)目標(biāo)像素量身定制的特定于樣本和特定于位置的動(dòng)態(tài)局部濾波器,來(lái)執(zhí)行隱式運(yùn)動(dòng)估計(jì)和補(bǔ)償。這篇論文還提出了一個(gè)基于ResBlock和自動(dòng)編碼器結(jié)構(gòu)的全局優(yōu)化網(wǎng)絡(luò),以利用非局部相關(guān)性并增強(qiáng)超分辨幀的空間一致性。實(shí)驗(yàn)結(jié)果表明這篇論文中的方法優(yōu)于當(dāng)前最佳技術(shù)并在局部變換處理、時(shí)間一致性及邊緣清晰度方面等方面顯示了優(yōu)越性。

今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等
今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等
今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等

  TableNet:用于從掃描的文檔圖像進(jìn)行端到端表格檢測(cè)和表格數(shù)據(jù)提取的深度學(xué)習(xí)模型

論文名稱(chēng):TableNet: Deep Learning model for end-to-end Table detection and Tabular data extraction from Scanned Document Images

作者:Paliwal Shubham /D Vishwanath /Rahul Rohit /Sharma Monika /Vig Lovekesh

發(fā)表時(shí)間:2020/1/6

論文鏈接:https://paper.yanxishe.com/review/8410?from=leiphonecolumn_paperreview0109

推薦理由:這篇論文考慮的是從掃描的文檔圖像進(jìn)行表格檢測(cè)和表格數(shù)據(jù)提取的問(wèn)題。

從掃描圖像中提取表格數(shù)據(jù)的主要障礙是這些圖像通常包含表格形式信息,而從表格子圖像中提取數(shù)據(jù)存在一系列挑戰(zhàn),包括精確檢測(cè)圖像中的表格區(qū)域以及隨后從檢測(cè)到的表格行和列中檢測(cè)和提取信息?,F(xiàn)有方法嘗試使用兩個(gè)單獨(dú)的模型來(lái)獨(dú)立解決表格檢測(cè)和結(jié)構(gòu)識(shí)別問(wèn)題。這篇論文提出了TableNet,一種用于表檢測(cè)和結(jié)構(gòu)識(shí)別的新型端到端深度學(xué)習(xí)模型。該模型利用表檢測(cè)和表結(jié)構(gòu)識(shí)別這兩個(gè)任務(wù)之間的相互依賴(lài)性來(lái)分割表格的列區(qū)域,從已識(shí)別的表格子區(qū)域中基于語(yǔ)義規(guī)則進(jìn)行行的提取。TableNet在ICDAR 2013和Marmot Table數(shù)據(jù)集上取得了目前最佳結(jié)果。此外,這篇論文證明提供其他語(yǔ)義特征可以進(jìn)一步提高模型性能,并且所提方法還展示了跨數(shù)據(jù)集的遷移學(xué)習(xí)。

今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等
今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等
今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等

  相互均值教學(xué):用于提煉行人重識(shí)別的無(wú)監(jiān)督領(lǐng)域適配偽標(biāo)簽

論文名稱(chēng):Mutual Mean-Teaching: Pseudo Label Refinery for Unsupervised Domain Adaptation>作者:Ge Yixiao /Chen Dapeng /Li Hongsheng

發(fā)表時(shí)間:2020/1/6

論文鏈接:https://paper.yanxishe.com/review/8317?from=leiphonecolumn_paperreview0109

推薦理由:這篇論文被ICLR 2020接收,考慮的是行人重識(shí)別問(wèn)題。

為了減輕聚類(lèi)過(guò)程中的噪聲偽標(biāo)簽的影響,這篇論文提出了一種名為相互均值教學(xué)(Mutual Mean-Teaching, MMT)的無(wú)監(jiān)督框架,可以交互地離線(xiàn)微調(diào)硬偽標(biāo)簽并在線(xiàn)微調(diào)軟偽標(biāo)簽,從目標(biāo)域中學(xué)習(xí)更好的功能。另外傳統(tǒng)三元組損失不適于軟標(biāo)簽。為解決該問(wèn)題,這篇論文進(jìn)一步提出一種新的軟三元組損失,支持使用偽三元組標(biāo)簽進(jìn)行學(xué)習(xí),以實(shí)現(xiàn)最佳的域自適應(yīng)性能。經(jīng)過(guò)試驗(yàn),MMT框架在Duke-to-Market,Market-to-MSMT,Duke-to-MSMT數(shù)據(jù)集的無(wú)監(jiān)督域適應(yīng)任務(wù)上分別實(shí)現(xiàn)了14.4%,18.2%,13.1%和16.4%的mAP的顯著提升。

今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等
今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等

今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

相關(guān)文章:

今日 Paper | 3D手勢(shì)估計(jì);自學(xué)習(xí)機(jī)器人;魯棒語(yǔ)義分割;卷積神經(jīng)網(wǎng)絡(luò);混合高斯過(guò)程等

今日 Paper | 精簡(jiǎn)BERT;面部交換;三維點(diǎn)云;DeepFakes 及 5G 等

今日 Paper | 虛假新聞檢測(cè);馬爾可夫決策過(guò)程;場(chǎng)景文本識(shí)別;博弈論框架等

今日 Paper | 問(wèn)答系統(tǒng);3D人體形狀和姿勢(shì);面部偽造檢測(cè);AdderNet等

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知

今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等

分享:
相關(guān)文章

編輯

聚焦數(shù)據(jù)科學(xué),連接 AI 開(kāi)發(fā)者。更多精彩內(nèi)容,請(qǐng)?jiān)L問(wèn):yanxishe.com
當(dāng)月熱門(mén)文章
最新文章
請(qǐng)?zhí)顚?xiě)申請(qǐng)人資料
姓名
電話(huà)
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶(hù)安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)