0
本文作者: 叢末 | 2019-10-29 14:04 | 專題:ICCV 2019 |
雷鋒網(wǎng) AI 科技評論:10 月 27 日至 11 月 2 日,兩年一屆的 ICCV 2019 來到韓國首爾,選址 COEX 會展中心舉行。嚴謹且嚴肅的國際頂級學(xué)術(shù)會議與充滿著熱情與活力的首爾將在這個楓葉開得正紅的季節(jié)碰撞出怎樣的火花呢?雷鋒網(wǎng) AI 科技評論在現(xiàn)場帶大家一起看!
29 日,經(jīng)過 2 天 Workshop 和 Tutorial 的前期預(yù)熱和醞釀,ICCV 2019 開幕式在籠罩著一片溫煦秋陽的清晨如期而至。
開幕式開始前,幾位主席在臺上合影
韓國時間八點四十五一到,ICCV 2019 四位大會主席(General Chair)之一、首爾大學(xué)(Seoul National University)教授 Kyoung Mu Lee 上臺宣布會議開幕并進行開幕致辭。他首先逐一介紹并感謝了包括其它大會主席、程序主席,并向其他各領(lǐng)域的主席們致謝。
說到中途,他話鋒一轉(zhuǎn)向臺下各位寒暄到「這幾天首爾是不是很冷?」臺下一片掌聲和歡笑聲后,他接著簡單介紹了本次 ICCV 的整體數(shù)據(jù)。正如之前所報道的,今年 ICCV 共收到 4303 篇投稿,最終收錄了 1075 篇,雖然整體數(shù)據(jù)都有所提高的,但是由于分母——總投稿量的大幅增加,今年收錄率為 25%,比去年 28.9% 的收錄率要低上不少。
而今年參會人數(shù)的數(shù)據(jù)非常驚人驚訝:人數(shù)達 7501 人,比去年增加了 2.41 倍之多!而值得一提的是,今年參會人數(shù)中有 2964 位來自韓國,1264 位來自中國,1199 位來自美國以及 260 位來自日本,從這些數(shù)據(jù)來看,臨近國才是最「捧場」的區(qū)域所在呀!
雖然 ICCV 的贊助商數(shù)量不如今年 CVPR 那么壯觀,但數(shù)據(jù)相比于其他學(xué)術(shù)頂會而言,也算不錯,獲得了 56 家企業(yè)的贊助以及 72 家展商參展。
UIUC 副教授 Svetlana Lazebnik 作為 ICCV 2019 的程序主席之一,隨后對今年 ICCV 的論文情況進行了解說。今年的 4303 篇投稿,相比去年增加了一倍,其中參與論文的作者人數(shù)達 1 萬人;最終接受論文數(shù)為 1075 篇,收錄比為 25%,其中包括 200 篇 Oral 論文,并且所有 Oral 論文都如 CVPR 2019 一樣——都為短論文。
從論文主題來看,最熱門的關(guān)鍵詞如圖所示,排在前幾位的依次是 Learning、Image、Network、Deep、3D、Object 等,這也反映了該領(lǐng)域內(nèi)研究人員們對于各個細分課題的關(guān)注程度。
從論文的區(qū)域分布來看,今年接收論文數(shù)量最多的國家是中國,超過 350 篇,其次是美國、德國、韓國和英國。在這組數(shù)據(jù)發(fā)布前,大家都知道這次華人研究者表現(xiàn)很好,但不知道論文收錄數(shù)量比美國還多!
而這些論文被收錄的背后,同樣的也離不開程序委員會的工作。據(jù) Svetlana Lazebnik 介紹,今年除了 4 位程序主席,還安排了 172 位領(lǐng)域主席以及 2506 位審稿人參與論文評審,其中,每位領(lǐng)域主席需要評審的論文為 20 至 30 篇,而 2506 位審稿人有 68% 的研究者或高校教師和 32% 的學(xué)生組成,各自需要評審的論文分別最多達 9 篇、5 篇。
緊接著,開幕式迎來了高潮環(huán)節(jié)——公布獎項!
獎項中最受關(guān)注的最佳論文獎(Best Paper Award)、最佳學(xué)生論文獎(Best Student Paper Award)、最佳論文提名獎(Best Paper Honorable Mentions)、以及最佳論文一般提名(Best Paper Nomination)繼續(xù)由 Svetlana Lazebnik 公布。
一、最佳論文獎
1、最佳論文獎(Marr 獎)
本屆最佳論文獎(Marr獎)為《SinGAN: Learning a Generative Model from a Single Natural Image》,論文第一作者Tamar Rott Shaham來自以色列理工(Technion):
SinGAN: Learning a Generative Model from a Single Natural Image
SinGAN:從單張自然圖像學(xué)習(xí)生成式模型
作者:Tamar Rott Shaham, Tali Dekel, Tomer Michaeli
單位:Technion(以色列理工), Google
論文地址:https://arxiv.org/abs/1905.01164
論文摘要:作者們提出了 SinGAN,這是一個可以從單張自然圖像學(xué)習(xí)的非條件性生成式模型。這個模型可以捕捉給定圖像中各個小塊內(nèi)的內(nèi)在分布,接著就能夠生成帶有和給定圖像中的視覺內(nèi)容相同的高質(zhì)量且多樣的新圖像。SinGAN的結(jié)構(gòu)是多個全卷積GANs組成的金字塔,這些全卷積GANs都負責(zé)學(xué)習(xí)圖像中的某個小塊中的數(shù)據(jù)分布,不同的GANs學(xué)習(xí)的小塊的大小不同。
這種設(shè)計可以讓它生成具有任意大小和比例的新圖像,這些新圖像在具有給定的訓(xùn)練圖像的全局結(jié)構(gòu)和細節(jié)紋理的同時,還可以有很高的可變性。與此前的從單張圖像學(xué)習(xí)GAN的研究不同的是,作者們的這個方法不僅僅可以學(xué)習(xí)圖像中的紋理,而且是一個非條件性模型(也就是說它是從噪聲生成圖像的)。作者們做實驗讓人分辨原始圖像和生成的圖像,結(jié)果表明很難區(qū)分。作者們也在多種圖像操控任務(wù)中展示了SinGAN的作用。
2、最佳學(xué)生論文獎
最佳學(xué)生論文的第一作者 Timothy Duff 來自佐治亞理工學(xué)院。
PLMP -- Point-Line Minimal Problems in Complete Multi-View Visibility
PLMP —— 多視角完全可見條件下的點-線極小問題研究
作者:Timothy Duff, Kathlén Kohn, Anton Leykin, Tomas Pajdla
單位:Georgia Tech(佐治亞理工學(xué)院),KTH(瑞典皇家理工學(xué)院),Czech Technical University in Prague(布拉格捷克理工大學(xué))
論文地址:https://arxiv.org/abs/1903.10008
論文摘要:極小問題(minimal problem)指在三維重建過程中根據(jù)給定圖像反解出攝像頭的姿態(tài)和世界坐標,而且要求隨機給定的輸入樣本可以得到有限數(shù)目的解。在這篇論文中,作者們以觀察者相機經(jīng)過矯正、圖中一般的點和線全部可見為條件,對所有的極小問題進行了分類。
作者們表明,極小問題一共只有30種,對于有超過6個相機、或者超過5個點、超過6條線的情況,極小問題都是可解的。作者們進行了一系列檢測極小性的測試,從對自由度計數(shù)開始,最終對有代表性的樣本進行了完整的符號和數(shù)值驗證。對于所有發(fā)現(xiàn)的極小問題,作者們都給出了它們的代數(shù)度數(shù),即解的數(shù)目,這也是問題的本征難度的衡量指標;從這里可以看出隨著視角數(shù)目的增加,問題的難度是如何變化的。一個重要的點是,一些新出現(xiàn)的極小問題其實只有很小的代數(shù)度數(shù),這意味著它們可以在圖像匹配和三維重建任務(wù)中得到實際應(yīng)用。
3、最佳論文榮譽提名(Best paper Honorable Mentions)
共有兩篇論文被榮譽提名,如下:
最佳論文榮譽提名 1
Asynchronous Single-Photon 3D Imaging
非同步單光子3D成像
作者:Anant Gupta, Atul Ingle, Mohit Gupta
單位:University of Wisconsin-Madison(威斯康星大學(xué)麥迪遜分校)
論文地址:https://arxiv.org/abs/1908.06372
論文摘要:單光子雪崩二極管(SPAD)在基于飛行時間(time-of-flight)的深度測量中得到了越來越多的應(yīng)用,因為它們具有以皮秒精度捕捉單個光子的獨特能力。不過,環(huán)境光照(比如陽光)會對基于SPAD的3D相機產(chǎn)生干擾,給捕捉到的波形帶來嚴重的非線性失真(連續(xù)命中),總而造成深度測量錯誤。作者們在論文中提出了新的非同步式單光子3D成像,這是一類可以緩解光子捕捉過程中的連續(xù)命中問題的新的捕捉模式。非同步捕捉捕捉模式會根據(jù)預(yù)定義的、或者隨機設(shè)定的偏移量,故意短期錯過激光發(fā)射到SPAD測量的時間窗口。
作者們這樣做的考慮是,如果選擇一系列時間窗口的偏移量,讓這些偏移量可以對應(yīng)全部的測量深度,那么他們就可以根據(jù)沒有發(fā)射激光的時候收集到的信號(看作本底噪聲)把正常采集信號中的干擾部分抵消掉。作者們開發(fā)了一個通用的圖像成像模型,并進行了理論分析,探索非同步采集模式的各種可能的做法,并找到具有很好表現(xiàn)的模式。作者們的仿真實驗和實際實驗都表明了他們的方法相比于當前最優(yōu)秀的方法可以在各種成像條件下(尤其是具有強烈環(huán)境光照的)都帶來深度檢測精度提升,最高可以提升一個數(shù)量級。
最佳論文榮譽提名 2
Specifying Object Attributes and Relations in Interactive Scene Generation
從交互性的場景生成中指定物體屬性和關(guān)系
作者:Oron Ashual, Lior Wolf
單位:Tel-Aviv University(以色列特拉維夫大學(xué))
論文地址:https://arxiv.org/abs/1909.05379
論文摘要:作者們提出了一種從場景圖(scene graph)輸入生成圖像的方法。這個方法會分別生成一個布局嵌入和一個外觀嵌入。在兩個嵌入的共同作用下,生成的圖像可以更好地匹配輸入的場景圖,有更高的視覺質(zhì)量,而且能支持更復(fù)雜的場景圖。
除此之外,這個嵌入方法支持為同一個場景圖生成多個不同的輸出圖像,用戶也能控制這個生成過程。作者們展示了兩種控制圖像中的物體的方法:1,參照其他的圖像中的元素;2,在物體空間中導(dǎo)覽,找到外觀原型。作者們把代碼開源在了 http://github.com/ashual/scene_generation。
4、最佳論文提名
本屆最佳論文提名共有 7 篇文章,其中僅有兩篇一作為華人,其一是來自中山大學(xué)的Ruijia Xu,另一位則是斯坦福大學(xué)的Chengxu Zhuang。當然何愷明團隊也獲得了提名。
最佳論文一般提名1:
Larger Norm More Transferable: An Adaptive Feature Norm Approach for Unsupervised Domain Adaptation
更大的常態(tài)有更好的可遷移性:用于無監(jiān)督領(lǐng)域適應(yīng)的一種自適應(yīng)特征常態(tài)方法
作者:Ruijia Xu, Guanbin Li, Jihan Yang, Liang Lin
單位:Sun Yat-sen University(中山大學(xué))、DarkMatter AI Research
鏈接:https://arxiv.org/abs/1811.07456
最佳論文一般提名 2:
Deep Hough Voting for 3D Object Detection in Point Clouds
用于點云中的三維物體檢測的深度Hough投票方法
作者:Charles R. Qi, Or Litany, Kaiming He(何愷明), Leonidas J. Guibas
單位:Facebook AI Research,Stanford University
鏈接:https://arxiv.org/abs/1904.09664
最佳論文一般提名 3:
Unsupervised Deep Learning for Structured Shape Matching
用于結(jié)構(gòu)形狀匹配的無監(jiān)督深度學(xué)習(xí)方法
作者:Jean-Michel Roufosse, Abhishek Sharma, Maks Ovsjanikov
單位:LIX,Ecole Polytechnique(巴黎綜合理工大學(xué))
鏈接:https://arxiv.org/abs/1812.03794
最佳論文一般提名 4:
Gated2Depth: Real-time Dense Lidar from Gated Images
Gated2Depth:從門圖像實時生成雷達質(zhì)量的密度圖像
作者:Tobias Gruber, Frank Julca-Aguilar, Mario Bijelic, Werner Ritter, Klaus Dietmayer, Felix Heide
單位:Daimler AG(戴姆勒), Algolux, Ulm University(德國烏爾姆大學(xué)), Princeton University
鏈接:https://arxiv.org/abs/1902.04997
最佳論文一般提名 5:
Local Aggregation for Unsupervised Learning of Visual Embeddings
視覺嵌入中無監(jiān)督學(xué)習(xí)的局部聚合
作者:Chengxu Zhuang, Alex Lin Zhai, Daniel Yamins
單位:Stanford University
鏈接:https://arxiv.org/abs/1903.12355
最佳論文一般提名 6:
Habitat: A Platform for Embodied AI Research
Habitat:一個實體AI研究平臺
作者:Manolis Savva, Abhishek Kadian, Oleksandr Maksymets, Yili Zhao, Erik Wijmans, Bhavana Jain, Julian Straub, Jia Liu, Vladlen Koltun, Jitendra Malik, Devi Parikh, Dhruv Batra
單位:Facebook AI Research, Facebook Reality Labs, Georgia Institute of Technology, Simon Fraser University, Intel Labs, UC Berkeley
鏈接:https://arxiv.org/abs/1904.01201
最佳論文一般提名 7:
Robust Change Captioning
魯棒的場景變化說明
作者:Dong Huk Park, Trevor Darrell, Anna Rohrbach
University of California, Berkeley
鏈接:https://arxiv.org/abs/1901.02527
二、PAMI TC 獎項
這幾項重磅獎項揭曉后,PAMI 服務(wù)主席 Bryan Morse 上臺頒布四大 PAMI TC 獎項,包括 Helmholtz 獎、Everingham 獎、Azriel Rosenfeld 終身成就獎以及杰出研究者獎。
1、Helmholtz Prize
該獎項以 19 世紀物理學(xué)家赫爾曼·馮·赫姆霍茲(Hermann von Helmholtz)命名,每兩年頒發(fā)一次,旨在表彰在計算機視覺領(lǐng)域做出的基礎(chǔ)性貢獻,且只頒發(fā)給 10 年前在 ICCV 上發(fā)表且產(chǎn)生重大影響的論文。本屆共有兩篇發(fā)表于 2009 年的論文入選,分別為:
1)Building Rome in a Day(華盛頓大學(xué))
2)Attribute and Simile Classifiers for Face Verification(哥倫比亞大學(xué))
2、Everingham Prize
該獎項用來紀念 Mark Everingham,并鼓勵其他研究者和他一樣推動整個計算機視覺領(lǐng)域的進步。這個獎會頒發(fā)給一位研究人員,或者是一個研究團隊;評獎標準是,他們?yōu)橛嬎銠C視覺大家庭中的別的成員作出了重大的、無私的貢獻。這次也頒發(fā)了兩個獎。
第一個獎頒發(fā)給了單個研究員,獲獎?wù)呤?Gerard Medioni
頒獎詞:他在過去的幾十年中為 CVPR 和 ICCV 會議的組織提供了充分的、持續(xù)的幫助,還為整個 CV 大家庭提供了很多其它的服務(wù)。除此之外,他設(shè)計了會議和 workshop 使用的統(tǒng)一護照注冊系統(tǒng),還是計算機視覺基金會 CVF 的聯(lián)合創(chuàng)始人之一。
第二個獎項頒發(fā)給了 2007 年提出了 LFW 人臉識別數(shù)據(jù)集,并在此后舉辦 LFW 人臉識別比賽并持續(xù)維護的團隊。LFW 數(shù)據(jù)集幫助整個領(lǐng)域向著更缺乏條件控制的、更面向真實世界情境的人臉識別技術(shù)進行研究。
3、Azriel Rosenfeld 終身成就獎
Azriel Rosenfeld 終身成就獎是在里約熱內(nèi)盧舉辦的 ICCV 2007 上設(shè)立的,以表彰那些在長期職業(yè)生涯中對計算機視覺領(lǐng)域做出了杰出貢獻的研究人員。該獎?wù)乱约o念已故的計算機科學(xué)家和數(shù)學(xué)家教授 Azriel Rosenfeld。
本屆獲獎?wù)邽橐陨形浩澛茖W(xué)研究所(Weizmann Institute of Science, Israel)的 Shimon Ullman 教授。
Ullman 出生于 1948 年,并于 1977 年在 MIT 獲得博士學(xué)位,師從計算機視覺之父 David Marr。其主要研究領(lǐng)域為人與機器視覺處理的研究。具體來說,他專注于物體和面部識別,并在該領(lǐng)域取得了許多重要見解,包括與 Christof Koch 一起在哺乳動物視覺系統(tǒng)中建立了視覺顯著圖,以調(diào)節(jié)選擇性的空間注意力。
4、杰出研究者獎(Distinguished Researcher Award)
杰出研究者獎(Distinguished Researcher Award)授予 MIT 的 William T. Freeman 與哥倫比亞大學(xué)的 Shree Nayar 兩人。
William T.Freeman 現(xiàn)就職于 MIT。研究領(lǐng)域包括應(yīng)用于 CV 的 ML、可視化感知的貝葉斯模型、計算攝影學(xué)等。其最有影響力的研究成果是與 Alex Efros 在 2001 年 SIGGRAPH 上發(fā)表了」Image quilting for texture synthesis and transfer」,其思想是從已知圖像中獲得小塊,然后將這些小塊拼接 mosaic 一起,形成新的圖像。該算法也是圖像紋理合成中經(jīng)典中的經(jīng)典。
Shree Nayar 現(xiàn)就職于哥倫比亞大學(xué)。其研究領(lǐng)域主要在新型相機的創(chuàng)建、基于物理的視覺模型和圖像理解算法。Nayar 曾提出了計算攝影學(xué)的概念,也是計算攝影領(lǐng)域的先驅(qū)人物。曾于 1990 年和 1995 年先后獲得兩次 Marr 獎,是當時計算機視覺領(lǐng)域炙手可熱的青年學(xué)者之一。
最后,Kyoung Mu Lee 再次站上舞臺專程為各參會者介紹了一份「官方參會指南」,包括整個會場的分布情況、社交活動、注意事項,乃至于去哪里用餐、如何連接 WIFI 等等事宜,讓人倍感溫暖。
在會議召開之前,隨著華人學(xué)者在 ICCV 2019 再度取得的一系列傲人成績的相關(guān)消息相繼出爐,各位關(guān)注 ICCV 動態(tài)的同學(xué)們想必也對今年將于中國鄰國——韓國召開的 ICCV 2019 充滿了期待。而本次會議中,無論是在各大議程和競賽中頻頻刷臉的華人面孔,還是張貼在展廳各個角落的寫著華人作者姓名的 poster,更是讓今年在異國參會的華人研究者們在心底涌流著一股濃濃的自豪感。AI 科技評論記者站在人潮如流的參會人群中,也切身地感受著這一切。
然而,在與去年「何愷明包攬全部兩項最佳論文獎」光環(huán)的比照下,今年華人在獎項上的表現(xiàn)略顯慘淡:除了中山大學(xué)的《Larger Norm More Transferable: An Adaptive Feature Norm Approach for Unsupervised Domain Adaptation》和何愷明參與的一篇論文《Deep Hough Voting for 3D Object Detection in Point Clouds》入選最佳論文一般提名,其他獲獎?wù)叨紴榉侨A人學(xué)者。這也給所有參加會議的華人學(xué)者心中留下了些許的遺憾。
接下來,雷鋒網(wǎng) AI 科技評論還將在現(xiàn)場與一系列計算機視覺領(lǐng)域的大佬級研究者進行交流,例如今年 CVPR 最佳學(xué)生論文一作王鑫,去年包攬大會全部兩項 Best Paper Award 的何愷明,以及顏水成、孫劍、林達華、程明明、盧湖川等一眾大家熟悉的「老面孔」們,為大家?guī)硖貏e報道,請大家持續(xù)關(guān)注!
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。