0
本文作者: AI研習(xí)社-譯站 | 2017-09-28 14:28 |
歡迎來到,空氣中都飄散著 “論文味” 的夏威夷。
今年,國際計(jì)算機(jī)視覺與模式識別頂級會(huì)議(CVPR 2017)將于7月21日—7月26日在美國夏威夷召開。我們的記者團(tuán)也特赴夏威夷,在接下來幾天為大家?guī)硪皇謭?bào)道。
會(huì)議官方網(wǎng)站最新的數(shù)據(jù)顯示,今年,CVPR 共收到2680有效投稿,一共有783篇論文被接收,其中有71篇獲得12分鐘口頭報(bào)告(Oral ),144篇獲得4分鐘短報(bào)告(Spotlights)的展示機(jī)會(huì)。
雷鋒網(wǎng)字幕組精選其中5篇論文,帶大家概覽國際學(xué)術(shù)界在動(dòng)作識別、計(jì)算呈像、視覺跟蹤、時(shí)間定位、圖像數(shù)據(jù)庫方面的創(chuàng)新成果,除了論文下載、項(xiàng)目地址等資源鏈接,還有即將呈現(xiàn)在大會(huì)現(xiàn)場口頭報(bào)告的視頻,讓大家先睹為快。
1. 即時(shí)多人動(dòng)作姿勢辨識
Realtime Multi-Person 2D Human Pose Estimation using Part Affinity Fields(CVPR 2017 Oral)
(2016 CHAMPION OF MSCOCO KEYPOINT DETECTION)
這是卡內(nèi)基美隆(CMU)Robostic Institute的作品——Multi-Person Pose Estimation。
至于什么是 Multi-Person 2D Human Pose Estimation,請參考下面的鬼畜動(dòng)圖:
GitHub 代碼地址: http://t.cn/RIrCg6k
論文地址:https://arxiv.org/abs/1611.08050
論文作者: Zhe Cao, Tomas Simon, Shih-En Wei, Yaser Sheikh
2. 電網(wǎng)計(jì)算呈像
Computational Imaging on the Electric Grid (CVPR 2017 Oral)
這是以色列理工大學(xué)(Technion-Israel Institute of Technology)和多倫多大學(xué)(University of Toronto)學(xué)生的夜間交流電照明作品。
跟著忽明忽暗的電流搖擺,搜集和制作燈泡響應(yīng)函數(shù)數(shù)據(jù)庫,讓我們看到以下新場景:
論文簡介:https://www.marksheinin.com/acam
論文地址:http://t.cn/RKusjIq
論文作者:Mark Sheinin, Yoav Y. Schechner, Kiriakos. N. Kutulakos
3. 視覺跟蹤技術(shù)
Action-Decision Networks for Visual Tracking with Deep Reinforcement Learning (CVPR 2017)
這款基于深度加強(qiáng)學(xué)習(xí)的一種新視覺跟蹤系統(tǒng),在實(shí)現(xiàn)光計(jì)算的同時(shí),在位置和刻度上都更加精準(zhǔn)。
在高速運(yùn)動(dòng)中識別人臉,還是相當(dāng)厲害的:
論文簡介:https://sites.google.com/view/cvpr2017-adnet
論文作者:Sangdoo Yun,Jongwon Choi,Youngjoon Yoo,Kimin Yun,Jin Young Choi
4. 時(shí)間操作定位
CDC: Conv-De-Conv Networks for Precise Temporal Action Localization (CVPR 2017 Oral)
運(yùn)用Conv-De-Conv Networks,更好地進(jìn)行精準(zhǔn)時(shí)間定位。不僅知道一個(gè)動(dòng)作在視頻中是否發(fā)生,還知道動(dòng)作發(fā)生在視頻的哪段時(shí)間,擊球、投球、回旋時(shí)間都能精準(zhǔn)定位,適用各種體育賽事。
代碼:https://bitbucket.org/columbiadvmm/cdc
論文下載:https://arxiv.org/abs/1703.01515
論文作者: Zheng Shou, Jonathan Chan, Alireza Zareian, Shih-Fu Chang,Kazuyuki Miyazawa
5. 三維圖像重建室內(nèi)場景
ScanNet: Richly-annotated 3D Reconstructions of Indoor Scenes (CVPR 2017 Spotlight)
斯坦福大學(xué)、普林斯頓大學(xué)以及慕尼黑工業(yè)大學(xué)聯(lián)合推出了一個(gè)龐大的三維圖像數(shù)據(jù)庫 ScanNet ,可以作為機(jī)器人識物的數(shù)據(jù)輸入。
機(jī)器人識別房間里各種各樣的物體,什么是門,什么是墻,拎得倍兒清。
項(xiàng)目頁面:http://www.scan-net.org/
論文作者:Angela Dai,Angel X. Chang , Manolis Savva,Maciej Halber Thomas Funkhouser,MatthiasNie?ner
歡迎關(guān)注雷鋒網(wǎng)雷鋒字幕組專欄,獲得更多AI知識~感謝雷鋒網(wǎng)雷鋒字幕組志愿者對本期內(nèi)容作出貢獻(xiàn)。
全部論文名單地址:http://www.cvpapers.com/cvpr2017.html
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。