0
本文作者: 奕欣 | 2018-06-20 01:01 |
第 31 屆計(jì)算機(jī)視覺(jué)和模式識(shí)別大會(huì)(Conference on Computer Vision and Pattern Recognition, CVPR)在 6 月 18 日至 22 日于美國(guó)鹽湖城召開(kāi)。
雷鋒網(wǎng) AI 科技評(píng)論進(jìn)行全程專(zhuān)題報(bào)道。我們從多方渠道了解到,截止目前,雷鋒網(wǎng) AI 科技評(píng)論是唯一申請(qǐng)了媒體通道的與會(huì)媒體。這也就意味著,雷鋒網(wǎng) AI 科技評(píng)論將為國(guó)內(nèi)讀者們帶來(lái)更多獨(dú)家的一手消息及報(bào)道,目前專(zhuān)題頁(yè)面已經(jīng)上線,敬請(qǐng)了解:CVPR 2018。
CVPR 2018 大會(huì)主席 Byran Morse 向與會(huì)者們介紹了大會(huì)的基本情況。
CVPR 今年共收到 3309 篇有效投稿,共接收了 979 篇論文,比 2017 年多出了 25%,比 2016 年多出了 52%。其中包含了 70 篇口頭報(bào)告論文(2.1%),224 篇亮點(diǎn)口頭報(bào)告論文(6.6%),共計(jì) 294 篇。此外,大會(huì)還收錄了 685 篇海報(bào)展示論文(20.4%)??傮w而言,提交上來(lái)的工作中有 29% 的論文會(huì)被接收發(fā)表,而被接收的論文中又有 30% 的論文會(huì)被推薦作為口頭報(bào)告。近年來(lái),所有被接收的論文都會(huì)能獲得海報(bào)展示的機(jī)會(huì),包括 oral 和 spotlights 論文。
而今年的與會(huì)人數(shù)也再創(chuàng)新高,共有 6512 人注冊(cè)了今年的 CVPR 2018。并迎來(lái)了 149 家贊助商與參展商,帶來(lái)超 200 萬(wàn)美金的贊助經(jīng)費(fèi)。
從圖中不難看到,CVPR 的參會(huì)人數(shù)與論文錄用數(shù)都在呈爆炸性增長(zhǎng),這也為審稿帶來(lái)了不少挑戰(zhàn)。在 3359 篇總投稿中,共有 3309 篇論文屬于有效提交,方能進(jìn)入評(píng)審環(huán)節(jié)。每篇論文平均有超過(guò)三位評(píng)審人進(jìn)行審核。組委會(huì)原本邀請(qǐng)了 2385 名評(píng)審人,最終整個(gè) CVPR 大會(huì)共產(chǎn)生了超過(guò)一萬(wàn)條論文評(píng)審意見(jiàn)。
其中,AC(區(qū)域主席)們的努力也不可或缺。108 位 AC 與四位 PC(程序主席)及 3 位 GC(大會(huì)主席)在多倫多召開(kāi)會(huì)議,最終決議通過(guò)了 979 篇錄用論文的結(jié)果。
在三天主會(huì)中要看完 979 篇論文顯然是不可能的,因此今年的 CVPR 2018 也采用了多線程多論文并行的模式。這一點(diǎn)在此前雷鋒網(wǎng) AI 科技評(píng)論的報(bào)道中有提及,不再贅述。
由于種種原因,今年的 plenary talk 臨時(shí)取消,相應(yīng)地,論文海報(bào)展示與午餐時(shí)間也延長(zhǎng)了。
大會(huì)主席在感謝完 CVPR 2018 組委會(huì)成員及贊助商后,就進(jìn)入了頒獎(jiǎng)環(huán)節(jié)。CVPR 2018 共有五大獎(jiǎng)項(xiàng)頒布。
Taskonomy: Disentangling Task Transfer Learning
任務(wù)學(xué):任務(wù)遷移學(xué)習(xí)的解耦
論文作者來(lái)自斯坦福大學(xué)和 UC 伯克利大學(xué):Amir R. Zamir, Alexander Sax, William Shen, Leonidas J. Guibas, Jitendra Malik, Silvio Savarese
論文摘要
視覺(jué)任務(wù)之間有什么聯(lián)系嗎?比如說(shuō),表面正交能不能簡(jiǎn)化圖像深度的估計(jì)?憑直覺(jué)回答的話好像可以,這似乎表明不同的視覺(jué)任務(wù)之間有一種共通的結(jié)構(gòu)。對(duì)這種結(jié)構(gòu)的了解顯然有著不小的價(jià)值:這正是遷移學(xué)習(xí)之中蘊(yùn)含的概念,也為不同任務(wù)之間去除冗余的內(nèi)容提供了一種原則化的方法,例如可以在相關(guān)的多個(gè)任務(wù)中無(wú)縫地重復(fù)利用監(jiān)督信息,或者在同一個(gè)系統(tǒng)解決多種問(wèn)題,同時(shí)卻不會(huì)大幅提高復(fù)雜度。
這篇論文中作者們提出了一種完全可計(jì)算化的方法為視覺(jué)任務(wù)的空間結(jié)構(gòu)進(jìn)行建模。他們的方法是在一組數(shù)量為 26 個(gè)的 2D、2.5D、3D 以及語(yǔ)義任務(wù)中尋找(一階和更高階的)隱空間中的遷移學(xué)習(xí)依賴(lài)項(xiàng)。得到的結(jié)果是一種可計(jì)算的用于任務(wù)遷移學(xué)習(xí)的分類(lèi)學(xué)映射。作者們研究了這種結(jié)構(gòu)的價(jià)值,比如非平凡的合并關(guān)系,然后用它們降低對(duì)標(biāo)注數(shù)據(jù)的需求。作者們也提供了一系列工具用于計(jì)算以及尋找這種分類(lèi)學(xué)結(jié)構(gòu),包括一個(gè)用戶(hù)可以為自己的使用需求尋找監(jiān)督策略的求解器。
論文地址
Total Capture: A 3D Deformation Model for Tracking Faces, Hands, and Bodies
完全捕捉:一個(gè)用于追蹤臉、手、身體姿態(tài)的 3D 變形模型
論文作者來(lái)自卡內(nèi)基梅隆大學(xué)的 Hanbyul Joo 以及 Facebook 現(xiàn)實(shí)實(shí)驗(yàn)室(Facebook Reality Labs)的 Tomas Simon, Yaser Sheikh
論文摘要
論文中作者們介紹了一種用于追蹤無(wú)標(biāo)記的人類(lèi)動(dòng)作的統(tǒng)一變形模型,它可以在多個(gè)尺度下工作,包括面部表情、身體動(dòng)作以及手部姿態(tài)。把人類(lèi)身體不同部位分別的建模結(jié)果局部拼合起來(lái)就生成了一個(gè)初始模型,作者們把它稱(chēng)為「Frank」。這個(gè)模型就只需要一個(gè)無(wú)縫的模型就可以對(duì)身體各個(gè)部位的動(dòng)作進(jìn)行完全的表達(dá),包括面部和手部。作者們創(chuàng)建了一個(gè)數(shù)據(jù)集,其中包含了人們穿著日常衣服的數(shù)據(jù),并對(duì) Frank 模型進(jìn)行優(yōu)化,得到「Adam」,這是一個(gè)經(jīng)過(guò)校準(zhǔn)的模型,它和最初的 Frank 模型具有一樣的骨骼層次,但參數(shù)化要簡(jiǎn)單一些。最后,作者們展示了這些模型在多視角的環(huán)境設(shè)置下做完全的動(dòng)作追蹤的效果,它可以同時(shí)捕捉一小群人的大尺度身體動(dòng)作以及微小的臉部和手部動(dòng)作。
論文地址
http://openaccess.thecvf.com/content_cvpr_2018/papers/Joo_Total_Capture_A_CVPR_2018_paper.pdf
共四篇,分別是:
Deep Learning of Graph Matching
Andrei Zanfir, Cristian Sminchisescu
SPLATNet: Sparse Lattice Networks for Point Cloud Processing
Hang Su, Varun Jampani, Deqing Sun, Subhransu Maji, Evangelos Kalogerakis, Ming-Hsuan Yang, Jan Kautz
CodeSLAM — Learning a Compact, Optimisable
Representation for Dense Visual SLAM
Michael Bloesch, Jan Czarnowski, Ronald Clark, Stefan Leutenegger, Andrew J. Davison
Efficient Optimization for Rank-Based Loss Functions
Pritish Mohapatra, Michal Roli?nek, C.V. Jawahar, Vladimir Kolmogorov, M. Pawan Kumar
這一「十年時(shí)間檢驗(yàn)獎(jiǎng)」在去年頒給了 《Object Retrieval with Large Vocabularies and Fast Spatial Matching》,作者是牛津大學(xué)的 James Philbin、Ondrej Chum、Josef Sivic 和 Andrew Zisserman,以及微軟研究院的 Michael Isard。今年的獎(jiǎng)項(xiàng)頒給了:《A Discriminatively Trained Multiscale, Deformable Part Model》,作者 Pedro Felzenszwalb, David McAllester, Deva Ramanan.
這一獎(jiǎng)項(xiàng)今年頒給了德國(guó)蒂賓根大學(xué)教授 Andreas Geiger 和 Facebook 研究員何愷明。何愷明團(tuán)隊(duì)在去年 ICCV 2017 年斬獲兩篇最佳論文,今年再次獲得 CVPR 相應(yīng)獎(jiǎng)項(xiàng),可算實(shí)至名歸。
關(guān)于他的相關(guān)報(bào)道,可參考:
Double Kill!何愷明包攬全部?jī)身?xiàng)最佳論文獎(jiǎng)!清華北航上交論文活躍度名列前十 | ICCV 2017
這一獎(jiǎng)項(xiàng)頒給了 Lucidyne Technologies 的高級(jí)視覺(jué)科學(xué)家 Eric Mortensen.
以上便是 CVPR 2018 大會(huì)的頒獎(jiǎng)內(nèi)容,更多報(bào)道敬請(qǐng)關(guān)注雷鋒網(wǎng) AI 科技評(píng)論。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。