丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能 正文
發(fā)私信給隔壁王大喵
發(fā)送

0

ICRA的4篇機器視覺論文大盤點 | ICRA 2017

導(dǎo)語:ICRA的最佳4篇機器視覺論文大盤點新鮮出爐啦!

雷鋒網(wǎng)AI科技評論按:ICRA全稱為“IEEE International Conference on Robotics and Automation”(機器人與自動化會議),是機器人技術(shù)領(lǐng)域最有影響力的國際學(xué)術(shù)會議之一。ICRA 2017于5月29日至6月4日舉行,雷鋒網(wǎng)AI科技評論將從新加坡帶來一線報道。該會議舉辦期間,雷鋒網(wǎng)將圍繞會議議程及獲獎?wù)撐恼归_系列專題報道,敬請期待。

ICRA的4篇機器視覺論文大盤點 | ICRA 2017

論文一:《Self-supervised Learning of Dense Visual Descriptors》

論文作者:Schmidt, Tanner; Newcombe, Richard; Fox, Dieter

作者主頁:http://homes.cs.washington.edu/~tws10/

相關(guān)機構(gòu):華盛頓大學(xué)

論文摘要:

圖像像素間對應(yīng)關(guān)系的魯棒性估計是機器人技術(shù)中一個重要的問題。它被應(yīng)用于對象、環(huán)境和其它代理的跟蹤、映射與識別任務(wù)中。對應(yīng)評估(Correspondence estimation)長期以來都是屬于手工特征工程的領(lǐng)域。但是,最近深度學(xué)習(xí)技術(shù)為從原始數(shù)據(jù)中學(xué)習(xí)特征的任務(wù)提供了強大的工具。不過深度學(xué)習(xí)的缺點就是需要大量的(通常需要帶有標簽)訓(xùn)練數(shù)據(jù)來支持訓(xùn)練學(xué)習(xí)過程。據(jù)雷鋒網(wǎng)了解,該論文提出了一種學(xué)習(xí)密集圖像對應(yīng)任務(wù)(Dense image correspondences)的新方法,其中研究員們利用強大的3D生成模型來實現(xiàn)程序自動標記視頻數(shù)據(jù)中的對應(yīng)關(guān)系。論文中使用了對比損失來訓(xùn)練完全卷積神經(jīng)網(wǎng)絡(luò),以生成視點和照明不變的特征。

作為一個概念證明,研究員收集了兩個數(shù)據(jù)集:第一個數(shù)據(jù)集描繪了一個人在各種各樣的環(huán)境當中,但是視頻的主體始終是這個人的上身與頭部;第二個則描繪了許多天內(nèi)的同一間辦公室,而不同時間內(nèi)辦公室物體擺放方式不同。據(jù)悉,該數(shù)據(jù)集專注于重新訪問相同的對象和環(huán)境,并且論文也表明了,僅通過本地跟蹤數(shù)據(jù)(Local tracking data)訓(xùn)練CNN,所學(xué)習(xí)到的視覺描述符能夠分辨出無標簽視頻間的對應(yīng)關(guān)系。

論文鏈接:https://ieeexplore.ieee.org/document/7762851/

論文二:《Probabilistic Articulated Real-Time Tracking for Robot Manipulation》

論文作者:Garcia Cifuentes, Cristina; Issac, Jan; Wüthrich, Manuel; Schaal, Stefan; Bohg, Jeannette

作者主頁:http://am.is.tue.mpg.de/people/ccifuentes

相關(guān)機構(gòu):德國斯圖加特的研究所

論文摘要:

據(jù)雷鋒網(wǎng)了解,該論文提出了一種概率濾波方法(Probabilistic filtering method),它將聯(lián)合測量(Joint measurements)與深度圖像(Depth images)融合,以產(chǎn)生相機框架中末端執(zhí)行器姿態(tài)(End-effector pose)的準確且實時的估計。在組合使用框架與視覺對象跟蹤的時候,這樣做可以避免框架轉(zhuǎn)換。另外本文中通過對聯(lián)合測量中的偏差進行建模和校正,以及機器人模型中的不準確性(比如較差的外置相機校準)來提高精度。

ICRA的4篇機器視覺論文大盤點 | ICRA 2017

該論文的研究員通過基于坐標粒子濾波器(Coordinate Particle Filter)的異步深度圖像更新和聯(lián)合測量的卡爾曼濾波器(Kalman filtering)的原則組合,使得算法在計算效率上更加高效。該論文還在一個自主構(gòu)建的數(shù)據(jù)集上定量評估算法,該數(shù)據(jù)集采集自一個真實的機器人平臺,并且通過運動捕捉系統(tǒng)標注了真實數(shù)據(jù)(Ground truth)。實驗還表明了,即使在諸如快速運動(Fast motion)、顯著和長期閉塞(Significant and long-term occlusions)以及時變偏差等(Time-varying biases)挑戰(zhàn)性條件下,該算法也具有穩(wěn)健性和準確性。另外,為了方便其它研究員進行定量比較,該論文作者還將數(shù)據(jù)集和算法代碼開放了出來。

論文鏈接:https://arxiv.org/abs/1610.04871

論文三:《SE3-Nets: Learning Rigid Body Motion using Deep Neural Networks》

論文作者:Byravan, Arunkumar; Fox, Dieter

作者主頁:http://homes.cs.washington.edu/~barun/

相關(guān)機構(gòu):華盛頓大學(xué)

論文摘要:

據(jù)雷鋒網(wǎng)了解,該論文介紹了SE3-Nets算法,這是一個旨在從原始點云數(shù)據(jù)中建模和學(xué)習(xí)剛體運動的深度神經(jīng)網(wǎng)絡(luò)。據(jù)悉,SE3-Nets僅僅依靠伴隨著動作向量的深度圖像(Depth images)序列和點數(shù)據(jù)關(guān)聯(lián)(Point wise data associations),就能學(xué)會分割受影響對象并且預(yù)測出它們由于所施加的外力而導(dǎo)致的運動。SE3-Nets并不是直接學(xué)習(xí)點流向量(Point wise flow vectors),而是預(yù)測場景中不同部分的SE(3)變換。

ICRA的4篇機器視覺論文大盤點 | ICRA 2017

通過使用桌面場景的模擬深度數(shù)據(jù)和機器人操縱器,研究員們證明了,相比于傳統(tǒng)的基于流的網(wǎng)絡(luò),SE3-Nets的結(jié)構(gòu)使得它能夠在對象運動預(yù)測的任務(wù)中產(chǎn)生更加一致的預(yù)測結(jié)果。另外研究員還進行了其它的實驗,該額外的實驗內(nèi)容是,使用深度攝像機觀察一個Baxter機器人在桌面上推動物體,并且實驗表明SE3-Nets在真實數(shù)據(jù)中也能取得很好的效果。

論文鏈接:https://arxiv.org/abs/1606.02378

論文四:《A Comparative Analysis of Tightly-Coupled Monocular, Binocular, and Stereo VINS》

論文作者:Paul, Mrinal Kanti; Wu, Kejian; Hesch, Joel A.; Nerurkar, Esha; Stergios Roumeliotis

作者主頁:http://www-users.cs.umn.edu/~paulx152/

相關(guān)機構(gòu):明尼蘇達大學(xué)

論文摘要:

本論文提出了一種可應(yīng)用于Square-root inverse領(lǐng)域的“滑動窗口雙攝像機視覺輔助慣性導(dǎo)航系統(tǒng)(Sliding-window two-camera vision-aided inertial navigation system, VINS)”。據(jù)雷鋒網(wǎng)了解,研究員們在兩種情形下評估了該系統(tǒng)的系性能。這兩種情形分別是在兩個攝像機圖像之間的特征匹配被處理和兩個攝像機圖像間的特征匹配沒有任何立體約束(比如,立體圖像與雙目的比較)。

ICRA的4篇機器視覺論文大盤點 | ICRA 2017

據(jù)悉,為了更好地分析實驗結(jié)果,該論文還提出了從雙目轉(zhuǎn)換為立體圖像時信息增益(Information gain)的理論分析方法。另外,論文中還評估了在單眼VINS上使用雙攝像機(立體圖像和雙目)系統(tǒng)的優(yōu)點。除此之外,論文也嘗試量化了不同圖像處理前端(Image-processing frontends)和估計器設(shè)計選擇(Estimator design choices)對最終實現(xiàn)精度的影響。最后,論文還在各種場景和運動曲線下,全面評估了算法的處理需求(即要求在移動處理器上達到實時的效果),同時也提供了與其它算法的準確性比較。

論文鏈接:http://mars.cs.umn.edu/research/stereo_vins.php

Via ICRA 2017

雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

ICRA的4篇機器視覺論文大盤點 | ICRA 2017

分享:
相關(guān)文章

知情人士

我也是個旅途的浪人
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說