0
本文作者: 奕欣 | 2018-06-20 01:01 |
第 31 屆計算機(jī)視覺和模式識別大會(Conference on Computer Vision and Pattern Recognition, CVPR)在 6 月 18 日至 22 日于美國鹽湖城召開。
雷鋒網(wǎng) AI 科技評論進(jìn)行全程專題報道。我們從多方渠道了解到,截止目前,雷鋒網(wǎng) AI 科技評論是唯一申請了媒體通道的與會媒體。這也就意味著,雷鋒網(wǎng) AI 科技評論將為國內(nèi)讀者們帶來更多獨家的一手消息及報道,目前專題頁面已經(jīng)上線,敬請了解:CVPR 2018。
CVPR 2018 大會主席 Byran Morse 向與會者們介紹了大會的基本情況。
CVPR 今年共收到 3309 篇有效投稿,共接收了 979 篇論文,比 2017 年多出了 25%,比 2016 年多出了 52%。其中包含了 70 篇口頭報告論文(2.1%),224 篇亮點口頭報告論文(6.6%),共計 294 篇。此外,大會還收錄了 685 篇海報展示論文(20.4%)。總體而言,提交上來的工作中有 29% 的論文會被接收發(fā)表,而被接收的論文中又有 30% 的論文會被推薦作為口頭報告。近年來,所有被接收的論文都會能獲得海報展示的機(jī)會,包括 oral 和 spotlights 論文。
而今年的與會人數(shù)也再創(chuàng)新高,共有 6512 人注冊了今年的 CVPR 2018。并迎來了 149 家贊助商與參展商,帶來超 200 萬美金的贊助經(jīng)費。
從圖中不難看到,CVPR 的參會人數(shù)與論文錄用數(shù)都在呈爆炸性增長,這也為審稿帶來了不少挑戰(zhàn)。在 3359 篇總投稿中,共有 3309 篇論文屬于有效提交,方能進(jìn)入評審環(huán)節(jié)。每篇論文平均有超過三位評審人進(jìn)行審核。組委會原本邀請了 2385 名評審人,最終整個 CVPR 大會共產(chǎn)生了超過一萬條論文評審意見。
其中,AC(區(qū)域主席)們的努力也不可或缺。108 位 AC 與四位 PC(程序主席)及 3 位 GC(大會主席)在多倫多召開會議,最終決議通過了 979 篇錄用論文的結(jié)果。
在三天主會中要看完 979 篇論文顯然是不可能的,因此今年的 CVPR 2018 也采用了多線程多論文并行的模式。這一點在此前雷鋒網(wǎng) AI 科技評論的報道中有提及,不再贅述。
由于種種原因,今年的 plenary talk 臨時取消,相應(yīng)地,論文海報展示與午餐時間也延長了。
大會主席在感謝完 CVPR 2018 組委會成員及贊助商后,就進(jìn)入了頒獎環(huán)節(jié)。CVPR 2018 共有五大獎項頒布。
Taskonomy: Disentangling Task Transfer Learning
任務(wù)學(xué):任務(wù)遷移學(xué)習(xí)的解耦
論文作者來自斯坦福大學(xué)和 UC 伯克利大學(xué):Amir R. Zamir, Alexander Sax, William Shen, Leonidas J. Guibas, Jitendra Malik, Silvio Savarese
論文摘要
視覺任務(wù)之間有什么聯(lián)系嗎?比如說,表面正交能不能簡化圖像深度的估計?憑直覺回答的話好像可以,這似乎表明不同的視覺任務(wù)之間有一種共通的結(jié)構(gòu)。對這種結(jié)構(gòu)的了解顯然有著不小的價值:這正是遷移學(xué)習(xí)之中蘊含的概念,也為不同任務(wù)之間去除冗余的內(nèi)容提供了一種原則化的方法,例如可以在相關(guān)的多個任務(wù)中無縫地重復(fù)利用監(jiān)督信息,或者在同一個系統(tǒng)解決多種問題,同時卻不會大幅提高復(fù)雜度。
這篇論文中作者們提出了一種完全可計算化的方法為視覺任務(wù)的空間結(jié)構(gòu)進(jìn)行建模。他們的方法是在一組數(shù)量為 26 個的 2D、2.5D、3D 以及語義任務(wù)中尋找(一階和更高階的)隱空間中的遷移學(xué)習(xí)依賴項。得到的結(jié)果是一種可計算的用于任務(wù)遷移學(xué)習(xí)的分類學(xué)映射。作者們研究了這種結(jié)構(gòu)的價值,比如非平凡的合并關(guān)系,然后用它們降低對標(biāo)注數(shù)據(jù)的需求。作者們也提供了一系列工具用于計算以及尋找這種分類學(xué)結(jié)構(gòu),包括一個用戶可以為自己的使用需求尋找監(jiān)督策略的求解器。
論文地址
Total Capture: A 3D Deformation Model for Tracking Faces, Hands, and Bodies
完全捕捉:一個用于追蹤臉、手、身體姿態(tài)的 3D 變形模型
論文作者來自卡內(nèi)基梅隆大學(xué)的 Hanbyul Joo 以及 Facebook 現(xiàn)實實驗室(Facebook Reality Labs)的 Tomas Simon, Yaser Sheikh
論文摘要
論文中作者們介紹了一種用于追蹤無標(biāo)記的人類動作的統(tǒng)一變形模型,它可以在多個尺度下工作,包括面部表情、身體動作以及手部姿態(tài)。把人類身體不同部位分別的建模結(jié)果局部拼合起來就生成了一個初始模型,作者們把它稱為「Frank」。這個模型就只需要一個無縫的模型就可以對身體各個部位的動作進(jìn)行完全的表達(dá),包括面部和手部。作者們創(chuàng)建了一個數(shù)據(jù)集,其中包含了人們穿著日常衣服的數(shù)據(jù),并對 Frank 模型進(jìn)行優(yōu)化,得到「Adam」,這是一個經(jīng)過校準(zhǔn)的模型,它和最初的 Frank 模型具有一樣的骨骼層次,但參數(shù)化要簡單一些。最后,作者們展示了這些模型在多視角的環(huán)境設(shè)置下做完全的動作追蹤的效果,它可以同時捕捉一小群人的大尺度身體動作以及微小的臉部和手部動作。
論文地址
http://openaccess.thecvf.com/content_cvpr_2018/papers/Joo_Total_Capture_A_CVPR_2018_paper.pdf
共四篇,分別是:
Deep Learning of Graph Matching
Andrei Zanfir, Cristian Sminchisescu
SPLATNet: Sparse Lattice Networks for Point Cloud Processing
Hang Su, Varun Jampani, Deqing Sun, Subhransu Maji, Evangelos Kalogerakis, Ming-Hsuan Yang, Jan Kautz
CodeSLAM — Learning a Compact, Optimisable
Representation for Dense Visual SLAM
Michael Bloesch, Jan Czarnowski, Ronald Clark, Stefan Leutenegger, Andrew J. Davison
Efficient Optimization for Rank-Based Loss Functions
Pritish Mohapatra, Michal Roli?nek, C.V. Jawahar, Vladimir Kolmogorov, M. Pawan Kumar
這一「十年時間檢驗獎」在去年頒給了 《Object Retrieval with Large Vocabularies and Fast Spatial Matching》,作者是牛津大學(xué)的 James Philbin、Ondrej Chum、Josef Sivic 和 Andrew Zisserman,以及微軟研究院的 Michael Isard。今年的獎項頒給了:《A Discriminatively Trained Multiscale, Deformable Part Model》,作者 Pedro Felzenszwalb, David McAllester, Deva Ramanan.
這一獎項今年頒給了德國蒂賓根大學(xué)教授 Andreas Geiger 和 Facebook 研究員何愷明。何愷明團(tuán)隊在去年 ICCV 2017 年斬獲兩篇最佳論文,今年再次獲得 CVPR 相應(yīng)獎項,可算實至名歸。
關(guān)于他的相關(guān)報道,可參考:
Double Kill!何愷明包攬全部兩項最佳論文獎!清華北航上交論文活躍度名列前十 | ICCV 2017
這一獎項頒給了 Lucidyne Technologies 的高級視覺科學(xué)家 Eric Mortensen.
以上便是 CVPR 2018 大會的頒獎內(nèi)容,更多報道敬請關(guān)注雷鋒網(wǎng) AI 科技評論。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。