0
雷鋒網(wǎng) AI 科技評論按:今年 2 月,我們報道過上海交通大學盧策吾團隊開源 AlphaPose 的消息。
AlphaPose 是一個多人姿態(tài)估計系統(tǒng),具有極高的精準度。據(jù)盧策吾團隊介紹, AlphaPose 在姿態(tài)估計(Pose Estimation)標準測試集 MSCOCO 上達到 72.3 mAP,是首個超過 70 mAP 的開源系統(tǒng),比 Mask-RCNN 相對提高 8.2%,比 OpenPose(CMU)相對提高 17%。除此之外,在 MPII 排行榜上,AlphaPose 以 6% 的相對優(yōu)勢占據(jù)榜首。AlphaPose 基于騰訊優(yōu)圖和盧策吾團隊在 ICCV 2017 上發(fā)表的分區(qū)域多人姿態(tài)識別算法(RMPE)。
近日,AlphaPose 迎來一次重大更新。在不損失精度的情況下,他們把識別速度提升到實時。系統(tǒng)采用PyTorch 框架,在姿態(tài)估計的標準測試集MSCOCO上,達到 71mAP 的精度,同時,速度達到 20FPS(平均每張圖像中有 4. 6 人)。代碼支持 Linux 和 Windows。
據(jù)盧策吾團隊介紹,新版 AlphaPose 系統(tǒng),架設在 PyTorch 框架上,得益于 PyTorch 的靈活性,新系統(tǒng)對用戶更加友好,安裝使用過程更加簡易,也方便進行二次開發(fā)。同時,系統(tǒng)支持圖片、視頻、攝像頭輸入,實時在線計算出多人的姿態(tài)結果。
為了在兼顧速度的同時保持精度,新版 AlphaPose 提出了一個新的姿態(tài)估計模型。模型的骨架網(wǎng)絡使用 ResNet101,在下采樣部分添加 SE 模塊作為 attention 模塊。除此之外,使用 PixelShuffle 進行3次上采樣,輸出關鍵點的熱度圖,在提高分辨率的同時,保持特征信息不丟失,技術論文會在近期公布。
另一方面,盧策吾本人在知乎上表示,「alphapose 系統(tǒng)接下來計劃上線 3D pose,密集人群 pose,超輕量級 pose,pose-action 聯(lián)合預測模塊,等等,每一個模塊一般會對應一篇學術論文。MVIG 團隊會持續(xù)優(yōu)化速度,精度。希望能像 Yolo 一樣持續(xù)更新成為一個對大家有用的系統(tǒng)。學術上,有新的算法第一時間更新,并投稿頂級會議。工程上,也會做到方便二次開發(fā)?!箯倪@樣的路線圖可以看到,AlphaPose 目標是成為一個對學界、業(yè)界都開放、有用的代碼庫,我們也非常期待 AlphaPose 的未來更新。
項目鏈接:
https://github.com/MVIG-SJTU/AlphaPose/tree/pytorch
項目主頁:
http://www.mvig.org/research/alphapose.html
ICCV 2017 RMPE論文鏈接:
http://cn.arxiv.org/abs/1612.00137
人體關鍵點檢測對于描述人體姿態(tài),預測人體行為至關重要。因此人體關鍵點檢測是諸多計算機視覺任務的基礎。其在動作分類,異常行為檢測,以及人機交互等領域有著很廣闊的應用前景,是計算機視覺領域中一個既具有研究價值、同時又極具挑戰(zhàn)性的熱門課題。
盧策吾:上海交通大學研究員,博士生導師。主要從事計算機視覺與深度學習相關研究,入選國家「青年千人」計劃,原斯坦福 AI Lab 博士后研究員(導師:Fei-Fei Li 和 Leo Guibas),為斯坦福-豐田無人車重要研究人員之一。
雷鋒網(wǎng) AI 科技評論報道。上海交大機器視覺與智能實驗室公眾號推文參見這里。
雷峰網(wǎng)版權文章,未經(jīng)授權禁止轉載。詳情見轉載須知。