丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能學術 正文
發(fā)私信給AI研習社
發(fā)送

0

今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等

本文作者: AI研習社 2020-01-09 16:14
導語:每天都為你精選關于人工智能的前沿學術論文供你學習參考。

為了幫助各位學術青年更好地學習前沿研究成果和技術,AI科技評論聯(lián)合Paper 研習社(paper.yanxishe.com),重磅推出【今日 Paper】欄目, 每天都為你精選關于人工智能的前沿學術論文供你學習參考。以下是今日的精選內(nèi)容——

  目錄

  • Causal Mosaic: Cause-Effect Inference via Nonlinear ICA and Ensemble Method

  • Intrinsic Motivation and Episodic Memories for Robot Exploration of High-Dimensional Sensory Spaces

  • Deep Reinforcement Learning for Active Human Pose Estimation

  • Kervolutional Neural Networks

  • Deep Video Super-Resolution using HR Optical Flow Estimation

  • A Strong Baseline and Batch Normalization Neck for Deep Person Re-identification

  • FACLSTM: ConvLSTM with Focused Attention for Scene Text Recognition

  • End-To-End Trainable Video Super-Resolution Based>

  • TableNet: Deep Learning model for end-to-end Table detection and Tabular data extraction from Scanned Document Images

  • Mutual Mean-Teaching: Pseudo Label Refinery for Unsupervised Domain Adaptation

  因果馬賽克:通過非線性ICA和集成方法進行因果推斷

論文名稱:Causal Mosaic: Cause-Effect Inference via Nonlinear ICA and Ensemble Method

作者:Wu Pengzhou /Fukumizu Kenji

發(fā)表時間:2020/1/7

論文鏈接:https://paper.yanxishe.com/review/8418?from=leiphonecolumn_paperreview0109

推薦理由:作者解決了在雙變量設置中區(qū)分因果關系的問題?;诜蔷€性獨立分量分析(ICA)的最新發(fā)展,作者訓練了允許非加性噪聲的非參數(shù)通用非線性因果模型。此外,作者建立了一個整體框架,即因果馬賽克,它通過混合非線性模型來模擬因果對。

作者在人工和現(xiàn)實世界基準數(shù)據(jù)集上將此方法與其他最近的方法進行了比較,并且其方法顯示了最新的性能。

今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等
今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等

  高維感官空間機器人探索的內(nèi)在動機和情節(jié)記憶

論文名稱:Intrinsic Motivation and Episodic Memories for Robot Exploration of High-Dimensional Sensory Spaces

作者:Schillaci Guido /Villalpando Antonio Pico /Hafner Verena Vanessa /Hanappe Peter /Colliaux David /Wintz Timothée

發(fā)表時間:2020/1/7

論文鏈接:https://paper.yanxishe.com/review/8419?from=leiphonecolumn_paperreview0109

推薦理由:本文的工作提出了一種體系結構,該體系結構可以為微型農(nóng)業(yè)機器人的圖像傳感器生成好奇心驅動的目標導向的探索行為。已經(jīng)使用了深度神經(jīng)網(wǎng)絡的組合,用于從圖像中進行離線的無監(jiān)督學習,以進行低維特征的學習,以及用于淺層神經(jīng)網(wǎng)絡的在線學習,用于表示系統(tǒng)的逆向運動和正向運動學。人工好奇心系統(tǒng)將興趣值分配給一組預定義的目標,并將探索驅向那些有望最大程度地提高學習進度的探索。

作者建議將情景記憶整合到內(nèi)在動機系統(tǒng)中,以應對災難性的遺忘問題,這些問題通常在執(zhí)行人工神經(jīng)網(wǎng)絡的在線更新時會遇到。我們的結果表明,采用情景存儲系統(tǒng)不僅可以防止計算模型迅速忘記先前已獲得的知識,而且還為調節(jié)模型的可塑性和穩(wěn)定性之間的平衡提供了新途徑。

今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等
今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等
今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等
今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等

  用于主動人體姿態(tài)估計的深度強化學習

論文名稱:Deep Reinforcement Learning for Active Human Pose Estimation

作者:G?rtner Erik /Pirinen Aleksis /Sminchisescu Cristian

發(fā)表時間:2020/1/7

論文鏈接:https://paper.yanxishe.com/review/8416?from=leiphonecolumn_paperreview0109

推薦理由:已有的3D人體姿勢估計方法都假定從一個視頻或者多個視角中收集的場景圖像是可以用的,因此它們專注于通過融合空間或時間信息來利用先驗知識和度量信息。這篇論文研究了主動觀察者可以自由移動并探索場景的3D人體姿勢估計問題,并提出了一個名為Pose-DRL的基于增強學習的人體姿勢估計模型。Pose-DRL可以在空間和時間維度上選擇最好的視角來進行姿勢估計。在Panoptic多視角數(shù)據(jù)集上的實驗表明,與基準模型相比,Pose-DRL學會了如何選擇能夠產(chǎn)生更為準確的姿勢估計值的視角。

今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等
今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等
今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等
今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等

  內(nèi)核卷積神經(jīng)網(wǎng)絡

論文名稱:Kervolutional Neural Networks

作者:Wang Chen /Yang Jianfei /Xie Lihua /Yuan Junsong

發(fā)表時間:2019/4/8

論文鏈接:https://paper.yanxishe.com/review/8415?from=leiphonecolumn_paperreview0109

推薦理由:現(xiàn)有的卷積神經(jīng)網(wǎng)絡相關的研究大多依賴于激活層,而現(xiàn)有的激活層只能提供逐點非線性。為了解決這個問題,這篇論文提出了一種新的內(nèi)核卷積(Kervolution)運算,利用內(nèi)核技巧來近似人類感知系統(tǒng)的復雜行為。內(nèi)核卷積操作通過逐塊內(nèi)核函數(shù)來增強模型容量并捕獲要素的高階交互,而無需引入其他參數(shù)。大量的實驗表明,與基線CNN相比,基于內(nèi)核卷積的神經(jīng)網(wǎng)絡具有更高的準確性和更快的收斂速度。

今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等
今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等
今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等

  利用光流重構估計的深度視頻超分辨率

論文名稱:Deep Video Super-Resolution using HR Optical Flow Estimation

作者:Wang Longguang /Guo Yulan /Liu Li /Lin Zaiping /Deng Xinpu /An Wei

發(fā)表時間:2020/1/6

論文鏈接:https://paper.yanxishe.com/review/8414?from=leiphonecolumn_paperreview0109

推薦理由:現(xiàn)有的基于深度學習的方法通常會估計低分辨率幀之間的光流以提供時間依賴性,但是低分辨率光流和高分辨率輸出之間的分辨率沖突會妨礙幀中的細節(jié)恢復。為了解決這個問題,這篇論文提出了一種名為Optical Flow Reconstruction Network (OFRnet)的端到端的光流重構網(wǎng)絡,其中來自低分辨率幀的光流提供了準確的時間依賴性,并最終提高了視頻超分辨率任務的性能表現(xiàn)。文章使用高分辨率光流執(zhí)行運動補償以對時間依賴性進行編碼,最終低分辨率輸入會作為一個超分辨率網(wǎng)絡的輸入,從而生成超分辨率結果。這篇論文中的實驗證明了高分辨率光流對改善超分辨率性能的有效性,在Vid4和DAVIS-10數(shù)據(jù)集上的實驗也證明了OFRnet達到了SOTA的性能表現(xiàn)。

今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等
今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等
今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等
今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等
今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等

  用于深度行人重識別的強基線和批量歸一化結構

論文名稱:A Strong Baseline and Batch Normalization Neck for Deep Person Re-identification

作者:Luo Hao /Jiang Wei /Gu Youzhi /Liu Fuxu /Liao Xingyu /Lai Shenqi /Gu Jianyang

發(fā)表時間:2019/6/19

論文鏈接:https://paper.yanxishe.com/review/8413?from=leiphonecolumn_paperreview0109

推薦理由:這篇論文考慮的是行人重識別的問題。深度神經(jīng)網(wǎng)絡在行人重識別問題中得到了大量的應用,然后這些模型往往過于復雜。這篇論文收集并評估了現(xiàn)有行人重識別論文中出現(xiàn)的有效的訓練技巧,通過結合這些技巧,文章僅使用ResNet50,就可以在Market1501數(shù)據(jù)集上達到94.5%的rank-1和85.9%的平均準確率。這篇論文還提出了一個名為Batch Normalization Neck (BNNeck)的新結構,在全局池化層之后添加了一個批量歸一化層,以將度量和分類損失分為兩個不同的特征空間。這篇論文通過大量實驗表明BNNeck可以提升基準模型的性能表現(xiàn)。

今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等
今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等
今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等

  FACLSTM:重點關注場景文本識別的ConvLSTM

論文名稱:FACLSTM: ConvLSTM with Focused Attention for Scene Text Recognition

作者:Wang Qingqing /Jia Wenjing /He Xiangjian /Lu Yue /Blumenstein Michael /Huang Ye

發(fā)表時間:2019/4/20

論文鏈接:https://paper.yanxishe.com/review/8412?from=leiphonecolumn_paperreview0109

推薦理由:這篇論文要解決的是場景文本識別的問題,已經(jīng)被Science China Information Science接收。

這篇論文認為場景文本識別本質上是二維圖像輸入的時空預測問題,并基于此提出了一個基于卷積LSTM的場景文本識別模型FACLSTM,利用LSTM來執(zhí)行順序預測,并可以充分利用像素的空間相關性。同時這篇論文還通過卷積運算將注意力機制整合到ConvLSTM結構中,從而將注意力集中在正確的特征區(qū)域上。在基準數(shù)據(jù)集IIIT5K,SVT和CUTE上的實驗結果表明,F(xiàn)ACLSTM在常規(guī)的低分辨率和嘈雜的文本圖像上表現(xiàn)出具有競爭力的優(yōu)勢,并且在彎曲文本上以較大的幅度勝過了最新的方法。

今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等
今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等
今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等

  基于一種新的隱式運動估計和補償機制的端到端可訓練視頻超分辨率

論文名稱:End-To-End Trainable Video Super-Resolution Based>作者:Liu Xiaohong /Kong Lingshi /Zhou Yang /Zhao Jiying /Chen Jun

發(fā)表時間:2020/1/5

論文鏈接:https://paper.yanxishe.com/review/8411?from=leiphonecolumn_paperreview0109

推薦理由:這篇論文被WACV 2020接收,考慮的是視頻超分辨率的問題。

視頻超分辨率是在從低分辨率對應生成高分辨率視頻。許多最近提出的視頻超分辨率方法將卷積神經(jīng)網(wǎng)絡與顯式運動補償結合使用,以利用低分辨率幀內(nèi)和跨低分辨率幀的統(tǒng)計依賴性。這篇論文提出了一種新的動態(tài)局部濾波器網(wǎng)絡,采用針對目標像素量身定制的特定于樣本和特定于位置的動態(tài)局部濾波器,來執(zhí)行隱式運動估計和補償。這篇論文還提出了一個基于ResBlock和自動編碼器結構的全局優(yōu)化網(wǎng)絡,以利用非局部相關性并增強超分辨幀的空間一致性。實驗結果表明這篇論文中的方法優(yōu)于當前最佳技術并在局部變換處理、時間一致性及邊緣清晰度方面等方面顯示了優(yōu)越性。

今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等
今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等
今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等

  TableNet:用于從掃描的文檔圖像進行端到端表格檢測和表格數(shù)據(jù)提取的深度學習模型

論文名稱:TableNet: Deep Learning model for end-to-end Table detection and Tabular data extraction from Scanned Document Images

作者:Paliwal Shubham /D Vishwanath /Rahul Rohit /Sharma Monika /Vig Lovekesh

發(fā)表時間:2020/1/6

論文鏈接:https://paper.yanxishe.com/review/8410?from=leiphonecolumn_paperreview0109

推薦理由:這篇論文考慮的是從掃描的文檔圖像進行表格檢測和表格數(shù)據(jù)提取的問題。

從掃描圖像中提取表格數(shù)據(jù)的主要障礙是這些圖像通常包含表格形式信息,而從表格子圖像中提取數(shù)據(jù)存在一系列挑戰(zhàn),包括精確檢測圖像中的表格區(qū)域以及隨后從檢測到的表格行和列中檢測和提取信息?,F(xiàn)有方法嘗試使用兩個單獨的模型來獨立解決表格檢測和結構識別問題。這篇論文提出了TableNet,一種用于表檢測和結構識別的新型端到端深度學習模型。該模型利用表檢測和表結構識別這兩個任務之間的相互依賴性來分割表格的列區(qū)域,從已識別的表格子區(qū)域中基于語義規(guī)則進行行的提取。TableNet在ICDAR 2013和Marmot Table數(shù)據(jù)集上取得了目前最佳結果。此外,這篇論文證明提供其他語義特征可以進一步提高模型性能,并且所提方法還展示了跨數(shù)據(jù)集的遷移學習。

今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等
今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等
今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等

  相互均值教學:用于提煉行人重識別的無監(jiān)督領域適配偽標簽

論文名稱:Mutual Mean-Teaching: Pseudo Label Refinery for Unsupervised Domain Adaptation>作者:Ge Yixiao /Chen Dapeng /Li Hongsheng

發(fā)表時間:2020/1/6

論文鏈接:https://paper.yanxishe.com/review/8317?from=leiphonecolumn_paperreview0109

推薦理由:這篇論文被ICLR 2020接收,考慮的是行人重識別問題。

為了減輕聚類過程中的噪聲偽標簽的影響,這篇論文提出了一種名為相互均值教學(Mutual Mean-Teaching, MMT)的無監(jiān)督框架,可以交互地離線微調硬偽標簽并在線微調軟偽標簽,從目標域中學習更好的功能。另外傳統(tǒng)三元組損失不適于軟標簽。為解決該問題,這篇論文進一步提出一種新的軟三元組損失,支持使用偽三元組標簽進行學習,以實現(xiàn)最佳的域自適應性能。經(jīng)過試驗,MMT框架在Duke-to-Market,Market-to-MSMT,Duke-to-MSMT數(shù)據(jù)集的無監(jiān)督域適應任務上分別實現(xiàn)了14.4%,18.2%,13.1%和16.4%的mAP的顯著提升。

今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等
今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等

今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

相關文章:

今日 Paper | 3D手勢估計;自學習機器人;魯棒語義分割;卷積神經(jīng)網(wǎng)絡;混合高斯過程等

今日 Paper | 精簡BERT;面部交換;三維點云;DeepFakes 及 5G 等

今日 Paper | 虛假新聞檢測;馬爾可夫決策過程;場景文本識別;博弈論框架等

今日 Paper | 問答系統(tǒng);3D人體形狀和姿勢;面部偽造檢測;AdderNet等

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉載。詳情見轉載須知

今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等

分享:
相關文章

編輯

聚焦數(shù)據(jù)科學,連接 AI 開發(fā)者。更多精彩內(nèi)容,請訪問:yanxishe.com
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說