0
本文作者: 汪思穎 | 2018-02-05 17:23 |
雷鋒網(wǎng) AI 研習(xí)社消息,日前,上海交通大學(xué)盧策吾團隊開源 AlphaPose。AlphaPose 是一個多人姿態(tài)估計系統(tǒng),具有極高的精準度。
據(jù)盧策吾團隊介紹, AlphaPose 在姿態(tài)估計(Pose Estimation)標準測試集 MSCOCO 上比 Mask-RCNN 相對提高 8.2%,比 OpenPose(CMU)相對提高 17%。除此之外,在 MPII 排行榜上,AlphaPose 以 6% 的相對優(yōu)勢占據(jù)榜首。
盧策吾:上海交通大學(xué)研究員,博士生導(dǎo)師。主要從事計算機視覺與深度學(xué)習(xí)相關(guān)研究,入選國家「青年千人」計劃,原斯坦福 AI Lab 博士后研究員(導(dǎo)師:Fei-Fei Li 和 Leo Guibas),為斯坦福-豐田無人車重要研究人員之一。
AlphaPose 是基于騰訊優(yōu)圖和盧策吾團隊在 ICCV 2017 上的分區(qū)域多人姿態(tài)識別算法(RMPE),該算法主要為了解決在人物檢測結(jié)果不準的情況下進行穩(wěn)定的多人姿態(tài)識別問題。雷鋒網(wǎng) AI 科技評論之前對該算法有過介紹,
綜合利用了對稱性空間遷移網(wǎng)絡(luò)(Symmetric Spatial Transformer Network)和單人姿態(tài)估計算法,從而擺脫了多人姿態(tài)識別任務(wù)對人物檢測準確性的依賴,并且進一步通過參數(shù)化的人物姿態(tài)表達對識別結(jié)果進行了優(yōu)化。根據(jù)在公開數(shù)據(jù)集MPII上的測試結(jié)果,該算法相較CMU提出的OpenPose算法提升了1個百分點,尤其是對手肘、手腕、膝蓋、腳踝等細小關(guān)鍵點的改善尤為明顯。
據(jù)雷鋒網(wǎng) AI 研習(xí)社了解,AlphaPose 是第一個在 COCO 數(shù)據(jù)集上的 mAP 超過 70 (72.3 mAP),在 MPII 數(shù)據(jù)集上的 mAP 超過 80 (82.1 mAP) 的開源系統(tǒng)。
據(jù)悉,該系統(tǒng)目前有兩個應(yīng)用:
一是視頻姿態(tài)跟蹤(Pose Tracking)。為了匹配同一個人在不同幀中的姿態(tài),他們開源了一個高效的線上姿態(tài)跟蹤器(Pose Tracker)——Pose Flow。Pose Flow 是第一個在 PoseTrack Challenge 數(shù)據(jù)集上的 mAP 超過 60 (66.5 mAP) 、MOTA 超過50 (58.3 MOTA) 的線上開源姿態(tài)跟蹤器(Pose Tracker)。
論文:Pose Flow: Efficient Online Pose Tracking
二是視覺副詞識別(Visual Adverb Recognition)。他們提出對視覺副詞進行研究,提供了新的 ADHA 數(shù)據(jù)集,以及一個基于該姿態(tài)估計系統(tǒng)的算法。不過準確率目前較低。
論文:Human Action Adverb Recognition: ADHA Dataset and Four-Stream Hybrid Model
結(jié)果展示
下圖為 AlphaPose 姿態(tài)估計的效果:
在 COCO test-dev 2015 上的得分如下:
在 MPII 測試全集上的得分如下:
下圖是姿態(tài)跟蹤的效果:
在 PoseTrack Challenge 驗證集上的效果如下:
任務(wù) 2:多人姿態(tài)估計(mAP)
任務(wù) 3:姿態(tài)跟蹤(MOTA)
據(jù)悉,他們將很快公開姿態(tài)跟蹤的代碼,雷鋒網(wǎng) AI 研習(xí)社也會第一時間關(guān)注。
via:GitHub,上海交大機器視覺與智能實驗室
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。