0
本文作者: 吳華秀 | 2025-05-30 15:13 | 專題:ICRA 2017:創(chuàng)新、創(chuàng)業(yè)和解決方法 |
2025 年 IEEE 國(guó)際機(jī)器人與自動(dòng)化大會(huì)(ICRA 2025)已于 5 月 23 日在美國(guó)亞特蘭大·喬治亞世界會(huì)議中心落幕,最佳論文等獎(jiǎng)項(xiàng)消息隨之傳來, 其中上海交通大學(xué)盧策吾團(tuán)隊(duì)與新加坡國(guó)立大學(xué)邵林團(tuán)隊(duì)分別斬獲 Best Paper 獎(jiǎng)項(xiàng)。
作為機(jī)器人與自動(dòng)化領(lǐng)域最具影響力的國(guó)際頂級(jí)會(huì)議之一,ICRA 匯聚全球科研先鋒、產(chǎn)業(yè)巨擘與創(chuàng)新力量,評(píng)選出的最佳論文通常代表著前沿技術(shù)與重大突破。
本次 ICRA 2025 共收到全球超 3000 篇論文投稿,吸引 7000 余名參會(huì)者。大會(huì)公布的 Best Paper 獎(jiǎng)項(xiàng)共設(shè) 12 項(xiàng),每項(xiàng)獎(jiǎng)項(xiàng)的入圍論文通常僅3篇,最終從中遴選出一篇最佳論文,競(jìng)爭(zhēng)態(tài)勢(shì)激烈。
其中上海交通大學(xué)盧策吾團(tuán)隊(duì)斬獲“Best Paper Award on Human-Robot Interaction”(人機(jī)交互最佳論文獎(jiǎng)),新加坡國(guó)立大學(xué)助理教授邵林團(tuán)隊(duì)榮獲“Best Paper Award on Robot Manipulation and Locomotion”(機(jī)器人操作與運(yùn)動(dòng)最佳論文獎(jiǎng))。
ICRA 2025 共有 50 篇論文入圍,其中最佳論文獎(jiǎng)有 16 篇。
官網(wǎng)鏈接:https://2025.ieee-icra.org/program/awards-and-finalists/
最佳論文
本屆 ICRA 總共評(píng)選出 2 篇最佳論文。
第一篇最佳論文頒給了由加拿大多倫多大學(xué)、蒙特利爾麥吉爾大學(xué)共同發(fā)布的《Marginalizing and Conditioning Gaussians Onto Linear Approximations of Smooth Manifolds with Applications in Robotics》。
論文鏈接:https://arxiv.org/pdf/2409.09871
作者:Zi Cong Guo, James Richard Forbes, and Timothy Barfoot
論文介紹:本文給出對(duì)高斯分布進(jìn)行邊緣化和條件化到線性流形上的閉式表達(dá)式,并展示如何將這些表達(dá)式應(yīng)用于對(duì)非線性流形進(jìn)行線性化。盡管邊緣化和條件化操作已得到了充分研究,但將其應(yīng)用于非軸對(duì)齊流形的操作還未被充分理解。本文通過三個(gè)應(yīng)用展示了這些表達(dá)式的效用:1)投影正態(tài)分布,隨著問題非線性程度的增加,線性近似的質(zhì)量也會(huì)提高;2)科普曼(Koopman)同時(shí)定位與地圖構(gòu)建(SLAM),展示了在真實(shí)世界數(shù)據(jù)集上,協(xié)方差收縮問題會(huì)隨著非線性程度的增加而減輕;3)約束廣義時(shí)間同步與空間感知(GTSAM),展示了在模擬中協(xié)方差收縮是一致的。
第二篇最佳論文屬于來自卡內(nèi)基梅隆大學(xué)、上海交通大學(xué)團(tuán)隊(duì)共同推出的《MAC-VO: Metrics-Aware Covariance for Learning-Based Stereo Visual Odometry》,這一工作由國(guó)防科技與工程局(DSTA)贊助。
論文鏈接:https://arxiv.org/pdf/2409.09479
作者:Yuheng Qiu, Yutian Chen, Zihao Zhang, Wenshan Wang, and Sebastian Scherer
論文介紹:本文提出了MAC-VO,一種基于學(xué)習(xí)的立體視覺里程計(jì)(VO)方法,其性能優(yōu)于視覺里程計(jì),甚至在具有挑戰(zhàn)性的數(shù)據(jù)集上超越了同時(shí)定位與地圖構(gòu)建(SLAM)算法。在本文當(dāng)前的工作中,模型聚焦于兩幀姿態(tài)優(yōu)化。本文認(rèn)為未來的工作將集中在通過光束平差法、多幀優(yōu)化和回環(huán)檢測(cè)帶來的優(yōu)勢(shì)上。此外,本文計(jì)劃將此度量感知協(xié)方差模型應(yīng)用于多傳感器融合,例如與慣性測(cè)量單元(IMUs)融合。
最佳學(xué)生論文
今年的最佳學(xué)生論文一共有 4 篇獲獎(jiǎng)。
第一篇頒給了由卡內(nèi)基梅隆大學(xué)、新加坡國(guó)立大學(xué)共同推出的《Deploying Ten Thousand Robots: Scalable Imitation Learning for Lifelong Multi-Agent Path Finding》。
論文鏈接:https://arxiv.org/pdf/2410.21415
作者:He Jiang, Yutong Wang, Rishi Veerapaneni, Tanishq Harish Duhan, Guillaume Adrien Sartoretti, Jiaoyang Li
論文介紹:終身多智能體路徑規(guī)劃(LMAPF)旨在為不斷有新目標(biāo)的多個(gè)智能體找無碰撞路徑。近來該領(lǐng)域用基于學(xué)習(xí)的方法,依局部觀測(cè)生成單步動(dòng)作,但要比肩先進(jìn)算法仍具挑戰(zhàn),尤其在大規(guī)模場(chǎng)景。本研究提出基于模仿學(xué)習(xí)的 LMAPF 求解器,引入新通信模塊及系統(tǒng)單步碰撞解決與全局引導(dǎo)技術(shù)??蓴U(kuò)展模仿學(xué)習(xí)算法(SILLM)兼具基于學(xué)習(xí)方法的快速推理和GPU加持下基于搜索方法的高求解質(zhì)量。在六個(gè)大規(guī)模地圖(含多達(dá) 10,000 智能體)測(cè)試中,SILLM 優(yōu)于最佳學(xué)習(xí)和搜索基線算法,平均吞吐量分別提升 13.7% 和 16.0% ,還在 2023 年國(guó)際 LMAPF 競(jìng)賽勝出。最后,在模擬倉庫用 10 個(gè)真實(shí)、100 個(gè)虛擬機(jī)器人驗(yàn)證了SILLM 。
第二篇是《ShadowTac: Dense Measurement of Shear and Normal Deformation of a Tactile Membrane from Colored Shadows》
作者:Giuseppe Vitrani, Basile Pasquale, and Michael Wiertlewski
論文介紹:機(jī)器人需通過豐富觸覺感知機(jī)械作用以處理物體,新型觸覺傳感器借微型攝像頭實(shí)現(xiàn)相關(guān)測(cè)量與信息提取?;厣鋫鞲须m能解析物體形狀,但無法檢測(cè)橫向位移,會(huì)忽略關(guān)鍵摩擦信息,而嵌入不透明標(biāo)記物又難以制造。本文提出 ShadowTac 觸覺傳感器,將回射照明與彩色陰影形成的非侵入性標(biāo)記物結(jié)合,其回射表面有亞毫米凹坑圖案,不遮擋視覺且能投射可見陰影,可捕獲密集法向和精確橫向位移場(chǎng),且易于制造。經(jīng)評(píng)估,它測(cè)量可靠,能有效估計(jì)物體初始滑動(dòng),適合追蹤機(jī)器人與操作物體間動(dòng)態(tài)作用。
第三篇是《Point and Go: Intuitive Reference Frame Reallocation in Mode Switching for Assistive Robotics》
作者:Allie Wang, Chen Jiang, Michael Przystupa, Justin Valentine, and Martin Jagersand
論文介紹:對(duì)于輪椅搭載機(jī)器人操縱器的用戶而言,操作高自由度機(jī)器人頗具挑戰(zhàn),笛卡爾空間模式切換存在控制參考系不直觀、控制分離及運(yùn)動(dòng)受限等問題。本文提出“Point and Go”模式切換,以新掃動(dòng)動(dòng)作定義平移軸構(gòu)建直觀動(dòng)作空間,含平移與旋轉(zhuǎn)模式,旋轉(zhuǎn)模式結(jié)合位置控制與末端執(zhí)行器定向框架。經(jīng)三任務(wù)用戶研究對(duì)比,該模式使任務(wù)完成時(shí)間減 31%、停頓減 41% 、模式切換次數(shù)減 33% ,且收獲用戶高度認(rèn)可。
第二篇頒給華盛頓大學(xué)團(tuán)隊(duì)發(fā)布的《TinySense: A Lighter Weight and More Power-Efficient Avionics System for Flying Insect-Scale Robots》,本研究部分由美國(guó)國(guó)家科學(xué)基金資助。
論文鏈接:https://arxiv.org/pdf/2501.03416
作者:Zhitao Yu, Josh Tran, Claire Li, Aaron Weber, Yash P. Talwekar, and Sawyer Fuller
論文介紹:本文介紹自主飛行昆蟲機(jī)器人(FIR)傳感器套件方面的進(jìn)展,該機(jī)器人重量小于一克,采用 FIR 技術(shù),因?yàn)槠渲亓枯p,所以有可能實(shí)現(xiàn)大規(guī)模部署和可擴(kuò)展性。然而,其尺寸小帶來了顯著的控制挑戰(zhàn),包括高帶寬動(dòng)力學(xué)、功率受限以及有效載荷能力有限等問題。雖然在開發(fā)輕量級(jí)傳感器方面已有進(jìn)展,且許多靈感源自生物系統(tǒng),但亞克級(jí)無人機(jī)仍無法實(shí)現(xiàn)無需依賴外部傳感(如運(yùn)動(dòng)捕捉系統(tǒng))的持續(xù)懸停。
在本次最佳論文名錄里,各單項(xiàng)最佳論文獎(jiǎng)項(xiàng)與當(dāng)前具身智能產(chǎn)業(yè)界的重點(diǎn)議題緊密呼應(yīng)。相較于去年的最佳論文方向,今年新增了機(jī)器人學(xué)習(xí)、運(yùn)動(dòng)與操作、規(guī)劃與控制等方向的獎(jiǎng)項(xiàng)論文。
ICRA 2025 機(jī)器人操作與運(yùn)動(dòng)最佳論文獎(jiǎng)屬于新加坡國(guó)立大學(xué)助理教授邵林團(tuán)隊(duì)的《D(R,O) Grasp: A Unified Representation of Robot and Object Interaction for Cross-Embodiment Dexterous Grasping》
論文鏈接:https://arxiv.org/pdf/2410.01702
作者:Zhenyu Wei、Zhixuan Xu、Jing翔Guo、Yiwen Hou、Chongkai Gau、Zhehao Cai、Jiayu Luo、Lin Shao
操作與運(yùn)動(dòng)是具身智能兩大重點(diǎn)方向,也是廣受探討的議題。據(jù)了解,邵林團(tuán)隊(duì)此次獲獎(jiǎng),是近五年來亞洲機(jī)構(gòu)首次以第一單位身份斬獲該獎(jiǎng)項(xiàng)。
文中提出一種用于改進(jìn)靈巧抓取的新方法,即引入 D(R,O) 表示法,該方法捕捉了機(jī)器人手與物體交互的本質(zhì)。與現(xiàn)有的高度依賴物體或機(jī)器人特定表示的方法不同,該方法通過統(tǒng)一框架彌合了差距,能很好地在不同機(jī)器人和物體幾何形狀間通用。此外,本文訓(xùn)練方法增強(qiáng)了模型適應(yīng)不同手構(gòu)型的能力,使其適用于廣泛的機(jī)器人系統(tǒng)。實(shí)驗(yàn)結(jié)果證實(shí),本文方法在成功率、多樣性和計(jì)算效率方面均有顯著提升。
在 ICRA 2025 獲獎(jiǎng)名單中,一支中國(guó)團(tuán)隊(duì)榮獲人機(jī)交互領(lǐng)域最佳論文獎(jiǎng)。
論文鏈接:https://arxiv.org/pdf/2407.00299
ICRA 2025 機(jī)器人交互最佳論文獎(jiǎng)?lì)C給由上海交通大學(xué)人工智能學(xué)院和伊利諾伊大學(xué)厄巴納-香檳分校(UIUC)聯(lián)合推出的《Human - Agent Joint Learning for Efficient Robot Manipulation Skill Acquisition》。
在機(jī)器人操作領(lǐng)域,如何高效地讓機(jī)器人從人類示范中學(xué)習(xí)技能一直是研究的核心挑戰(zhàn)。傳統(tǒng)遙操作系統(tǒng)依賴人類手動(dòng)控制機(jī)器人完成任務(wù),然而,生理結(jié)構(gòu)差異、缺乏觸覺反饋等問題導(dǎo)致數(shù)據(jù)收集效率低下,操作者需耗費(fèi)大量精力重復(fù)執(zhí)行任務(wù)。
例如,在基于視覺的遙操作中,即使使用先進(jìn)的 3D 手勢(shì)估計(jì)算法,手部動(dòng)作與機(jī)器人末端執(zhí)行器的映射誤差仍顯著影響操作精度,尤其在開抽屜、工具使用等接觸密集型任務(wù)中,人類難以通過視覺精準(zhǔn)控制力度和角度,導(dǎo)致數(shù)據(jù)收集成功率低、耗時(shí)長(zhǎng)。
為解決上述難題,研究團(tuán)隊(duì)吸收繼承了傳統(tǒng)的 shared autonomy 的思想,將數(shù)據(jù)采集和模型訓(xùn)練兩個(gè)過程深度耦合,使得數(shù)據(jù)采集能夠伴隨著模型訓(xùn)練的推進(jìn),提出 Human-Agent Joint Learning(HAJL)框架通過創(chuàng)新“人-智能體聯(lián)合學(xué)習(xí)”范式,應(yīng)對(duì)機(jī)器人操作技能學(xué)習(xí)中高質(zhì)量數(shù)據(jù)獲取成本高、效率低的核心難題,與傳統(tǒng)方法相比,數(shù)據(jù)收集成功率提高了30%,收集速度幾乎翻倍,同時(shí)減少人類操作員的適應(yīng)需求??蓴U(kuò)展的具身數(shù)采和大規(guī)模訓(xùn)練奠定了基礎(chǔ)。
具體而言,Human-Agent Joint Learning(HAJL)核心是通過動(dòng)態(tài)共享控制機(jī)制,實(shí)現(xiàn)人類與學(xué)習(xí)型代理的協(xié)作。該框架引入擴(kuò)散模型輔助代理,通過 “正向擴(kuò)散 - 反向去噪” 過程融合人類動(dòng)作與代理動(dòng)作:
正向過程為人類動(dòng)作添加高斯噪聲,模擬操作中的不確定性;
反向過程則通過神經(jīng)網(wǎng)絡(luò)對(duì)噪聲動(dòng)作進(jìn)行去噪,生成兼顧人類意圖與代理優(yōu)化的協(xié)作動(dòng)作。通過調(diào)整 “控制比例 γ”(0 為全手動(dòng),1 為全自主),人類只需提供高層意圖(如 “抓取物體”),代理自動(dòng)補(bǔ)全底層動(dòng)作細(xì)節(jié)(如手指彎曲角度)。例如,在拾取雞蛋任務(wù)中,人類指定抓取目標(biāo)后,代理可根據(jù)歷史數(shù)據(jù)自動(dòng)計(jì)算最佳抓握力度,避免因人工控制過緊導(dǎo)致物體損壞。
這個(gè)過程反復(fù)進(jìn)行,智能體不斷地加噪和去噪,逐步優(yōu)化人類的初始動(dòng)作,最終得到一個(gè)高質(zhì)量、精確的操作結(jié)果。
在訓(xùn)練的開始階段,研究者會(huì)收集少量的數(shù)據(jù),并使用這些少量的數(shù)據(jù)開始進(jìn)行模型的訓(xùn)練;此時(shí)的模型因?yàn)閿?shù)據(jù)不足并不能很好的完成目標(biāo)任務(wù),但卻可以對(duì)任務(wù)有大致的理解,或者能夠在任務(wù)的某些簡(jiǎn)單環(huán)節(jié)掌握一定的技巧,因而研究者讓模型開始與遙操作員共享對(duì)機(jī)器人的控制,這種共享控制會(huì)讓數(shù)據(jù)采集的過程變得輕松。
例如人可能只需要將手朝著目標(biāo)位置做比較輕微的移動(dòng),機(jī)械臂就可以在人與模型共享控制下移動(dòng)到接近目標(biāo)位置的狀態(tài)。這樣,采集員能夠更快速更輕易地收集數(shù)據(jù);而隨著數(shù)據(jù)的積累,模型能力會(huì)逐漸增強(qiáng),研究者也就可以將模型共享控制權(quán)重逐漸升高,數(shù)據(jù)采集也愈發(fā)輕松,直到模型能夠完整的勝任目標(biāo)任務(wù);數(shù)據(jù)采集和模型訓(xùn)練過程也便同時(shí)完成了。
本文作者呂峻解釋這背后的更深層的想法在于,其認(rèn)為遙操作采集數(shù)據(jù)訓(xùn)練模型本質(zhì)上是機(jī)器人的示教系統(tǒng),而手把手的、一毫米對(duì)一毫米的遙操作應(yīng)當(dāng)是一種過時(shí)的示教,好的示教應(yīng)當(dāng)如同人類教人類一樣——很多時(shí)候只需要語言甚至是肢體語言一點(diǎn)即通、必要的精細(xì)操作才需要手把手這樣費(fèi)時(shí)費(fèi)力的指導(dǎo),這篇文章的背后更多是希望去探索一種更加靈活的示教范式。
在模擬環(huán)境中,研究團(tuán)隊(duì)測(cè)試了 6 類任務(wù)(包括靈巧手和夾爪操作),結(jié)果表明:
成功率提升 30%:如工具使用任務(wù)中,共享控制模式成功率從純手動(dòng)的 42% 提升至 66.5%;
收集速度翻倍:拾取放置任務(wù)的效率從 176 樣本 / 小時(shí)提升至 320 樣本 / 小時(shí);
軌跡更平滑:平均軌跡長(zhǎng)度降低 40%,動(dòng)作連貫性顯著改善。
在真實(shí)物理實(shí)驗(yàn)中,基于 Flexiv Rizon4 機(jī)械臂和 RealSense 相機(jī)的測(cè)試顯示,共享控制模式收集的數(shù)據(jù)訓(xùn)練出的模型性能與純?nèi)祟悢?shù)據(jù)相當(dāng),部分任務(wù)(如推立方體)甚至更優(yōu)。用戶反饋也證實(shí),系統(tǒng)顯著降低了操作負(fù)擔(dān),易用性和滿意度評(píng)分分別達(dá)到 Cronbach’s α=0.852 和 α=0.769。
這篇論文的共同一作分別為羅盛成、彭泉泉(上交ACM班大三本科生)、呂峻,合作者為 Kaiwen Hong(UIUC)、Katherine Rose Driggs-Campbell(UIUC助理教授)、盧策吾(上交人工智能學(xué)院教授、副院長(zhǎng),上海創(chuàng)智學(xué)院副院長(zhǎng)),通訊作者為李永露(上交人工智能學(xué)院助理教授、上海創(chuàng)智學(xué)院全時(shí)導(dǎo)師)。
參考鏈接:https://2025.ieee-icra.org/program/awards-and-finalists/
雷峰網(wǎng)雷峰網(wǎng)(公眾號(hào):雷峰網(wǎng))
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。
本專題其他文章