0
本文作者: 隔壁王大喵 | 編輯:郭奕欣 | 2017-05-25 20:40 | 專題:ICRA 2017:創(chuàng)新、創(chuàng)業(yè)和解決方法 |
雷鋒網(wǎng)AI科技評(píng)論按:ICRA全稱為“IEEE International Conference on Robotics and Automation”(機(jī)器人與自動(dòng)化會(huì)議),是機(jī)器人技術(shù)領(lǐng)域最有影響力的國際學(xué)術(shù)會(huì)議之一。ICRA 2017于5月29日至6月4日舉行,雷鋒網(wǎng)AI科技評(píng)論將從新加坡帶來一線報(bào)道。該會(huì)議舉辦期間,雷鋒網(wǎng)將圍繞會(huì)議議程及獲獎(jiǎng)?wù)撐恼归_系列專題報(bào)道,敬請(qǐng)期待。
論文作者:Schmidt, Tanner; Newcombe, Richard; Fox, Dieter
作者主頁:http://homes.cs.washington.edu/~tws10/
相關(guān)機(jī)構(gòu):華盛頓大學(xué)
論文摘要:
圖像像素間對(duì)應(yīng)關(guān)系的魯棒性估計(jì)是機(jī)器人技術(shù)中一個(gè)重要的問題。它被應(yīng)用于對(duì)象、環(huán)境和其它代理的跟蹤、映射與識(shí)別任務(wù)中。對(duì)應(yīng)評(píng)估(Correspondence estimation)長(zhǎng)期以來都是屬于手工特征工程的領(lǐng)域。但是,最近深度學(xué)習(xí)技術(shù)為從原始數(shù)據(jù)中學(xué)習(xí)特征的任務(wù)提供了強(qiáng)大的工具。不過深度學(xué)習(xí)的缺點(diǎn)就是需要大量的(通常需要帶有標(biāo)簽)訓(xùn)練數(shù)據(jù)來支持訓(xùn)練學(xué)習(xí)過程。據(jù)雷鋒網(wǎng)了解,該論文提出了一種學(xué)習(xí)密集圖像對(duì)應(yīng)任務(wù)(Dense image correspondences)的新方法,其中研究員們利用強(qiáng)大的3D生成模型來實(shí)現(xiàn)程序自動(dòng)標(biāo)記視頻數(shù)據(jù)中的對(duì)應(yīng)關(guān)系。論文中使用了對(duì)比損失來訓(xùn)練完全卷積神經(jīng)網(wǎng)絡(luò),以生成視點(diǎn)和照明不變的特征。
作為一個(gè)概念證明,研究員收集了兩個(gè)數(shù)據(jù)集:第一個(gè)數(shù)據(jù)集描繪了一個(gè)人在各種各樣的環(huán)境當(dāng)中,但是視頻的主體始終是這個(gè)人的上身與頭部;第二個(gè)則描繪了許多天內(nèi)的同一間辦公室,而不同時(shí)間內(nèi)辦公室物體擺放方式不同。據(jù)悉,該數(shù)據(jù)集專注于重新訪問相同的對(duì)象和環(huán)境,并且論文也表明了,僅通過本地跟蹤數(shù)據(jù)(Local tracking data)訓(xùn)練CNN,所學(xué)習(xí)到的視覺描述符能夠分辨出無標(biāo)簽視頻間的對(duì)應(yīng)關(guān)系。
論文鏈接:https://ieeexplore.ieee.org/document/7762851/
論文作者:Garcia Cifuentes, Cristina; Issac, Jan; Wüthrich, Manuel; Schaal, Stefan; Bohg, Jeannette
作者主頁:http://am.is.tue.mpg.de/people/ccifuentes
相關(guān)機(jī)構(gòu):德國斯圖加特的研究所
論文摘要:
據(jù)雷鋒網(wǎng)了解,該論文提出了一種概率濾波方法(Probabilistic filtering method),它將聯(lián)合測(cè)量(Joint measurements)與深度圖像(Depth images)融合,以產(chǎn)生相機(jī)框架中末端執(zhí)行器姿態(tài)(End-effector pose)的準(zhǔn)確且實(shí)時(shí)的估計(jì)。在組合使用框架與視覺對(duì)象跟蹤的時(shí)候,這樣做可以避免框架轉(zhuǎn)換。另外本文中通過對(duì)聯(lián)合測(cè)量中的偏差進(jìn)行建模和校正,以及機(jī)器人模型中的不準(zhǔn)確性(比如較差的外置相機(jī)校準(zhǔn))來提高精度。
該論文的研究員通過基于坐標(biāo)粒子濾波器(Coordinate Particle Filter)的異步深度圖像更新和聯(lián)合測(cè)量的卡爾曼濾波器(Kalman filtering)的原則組合,使得算法在計(jì)算效率上更加高效。該論文還在一個(gè)自主構(gòu)建的數(shù)據(jù)集上定量評(píng)估算法,該數(shù)據(jù)集采集自一個(gè)真實(shí)的機(jī)器人平臺(tái),并且通過運(yùn)動(dòng)捕捉系統(tǒng)標(biāo)注了真實(shí)數(shù)據(jù)(Ground truth)。實(shí)驗(yàn)還表明了,即使在諸如快速運(yùn)動(dòng)(Fast motion)、顯著和長(zhǎng)期閉塞(Significant and long-term occlusions)以及時(shí)變偏差等(Time-varying biases)挑戰(zhàn)性條件下,該算法也具有穩(wěn)健性和準(zhǔn)確性。另外,為了方便其它研究員進(jìn)行定量比較,該論文作者還將數(shù)據(jù)集和算法代碼開放了出來。
論文鏈接:https://arxiv.org/abs/1610.04871
論文作者:Byravan, Arunkumar; Fox, Dieter
作者主頁:http://homes.cs.washington.edu/~barun/
相關(guān)機(jī)構(gòu):華盛頓大學(xué)
論文摘要:
據(jù)雷鋒網(wǎng)了解,該論文介紹了SE3-Nets算法,這是一個(gè)旨在從原始點(diǎn)云數(shù)據(jù)中建模和學(xué)習(xí)剛體運(yùn)動(dòng)的深度神經(jīng)網(wǎng)絡(luò)。據(jù)悉,SE3-Nets僅僅依靠伴隨著動(dòng)作向量的深度圖像(Depth images)序列和點(diǎn)數(shù)據(jù)關(guān)聯(lián)(Point wise data associations),就能學(xué)會(huì)分割受影響對(duì)象并且預(yù)測(cè)出它們由于所施加的外力而導(dǎo)致的運(yùn)動(dòng)。SE3-Nets并不是直接學(xué)習(xí)點(diǎn)流向量(Point wise flow vectors),而是預(yù)測(cè)場(chǎng)景中不同部分的SE(3)變換。
通過使用桌面場(chǎng)景的模擬深度數(shù)據(jù)和機(jī)器人操縱器,研究員們證明了,相比于傳統(tǒng)的基于流的網(wǎng)絡(luò),SE3-Nets的結(jié)構(gòu)使得它能夠在對(duì)象運(yùn)動(dòng)預(yù)測(cè)的任務(wù)中產(chǎn)生更加一致的預(yù)測(cè)結(jié)果。另外研究員還進(jìn)行了其它的實(shí)驗(yàn),該額外的實(shí)驗(yàn)內(nèi)容是,使用深度攝像機(jī)觀察一個(gè)Baxter機(jī)器人在桌面上推動(dòng)物體,并且實(shí)驗(yàn)表明SE3-Nets在真實(shí)數(shù)據(jù)中也能取得很好的效果。
論文鏈接:https://arxiv.org/abs/1606.02378
論文作者:Paul, Mrinal Kanti; Wu, Kejian; Hesch, Joel A.; Nerurkar, Esha; Stergios Roumeliotis
作者主頁:http://www-users.cs.umn.edu/~paulx152/
相關(guān)機(jī)構(gòu):明尼蘇達(dá)大學(xué)
論文摘要:
本論文提出了一種可應(yīng)用于Square-root inverse領(lǐng)域的“滑動(dòng)窗口雙攝像機(jī)視覺輔助慣性導(dǎo)航系統(tǒng)(Sliding-window two-camera vision-aided inertial navigation system, VINS)”。據(jù)雷鋒網(wǎng)了解,研究員們?cè)趦煞N情形下評(píng)估了該系統(tǒng)的系性能。這兩種情形分別是在兩個(gè)攝像機(jī)圖像之間的特征匹配被處理和兩個(gè)攝像機(jī)圖像間的特征匹配沒有任何立體約束(比如,立體圖像與雙目的比較)。
據(jù)悉,為了更好地分析實(shí)驗(yàn)結(jié)果,該論文還提出了從雙目轉(zhuǎn)換為立體圖像時(shí)信息增益(Information gain)的理論分析方法。另外,論文中還評(píng)估了在單眼VINS上使用雙攝像機(jī)(立體圖像和雙目)系統(tǒng)的優(yōu)點(diǎn)。除此之外,論文也嘗試量化了不同圖像處理前端(Image-processing frontends)和估計(jì)器設(shè)計(jì)選擇(Estimator design choices)對(duì)最終實(shí)現(xiàn)精度的影響。最后,論文還在各種場(chǎng)景和運(yùn)動(dòng)曲線下,全面評(píng)估了算法的處理需求(即要求在移動(dòng)處理器上達(dá)到實(shí)時(shí)的效果),同時(shí)也提供了與其它算法的準(zhǔn)確性比較。
論文鏈接:http://mars.cs.umn.edu/research/stereo_vins.php
Via ICRA 2017
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。
本專題其他文章