0
本文作者: 楊文 | 2017-08-09 22:09 | 專題:CVPR 2017 |
CVPR(國際計(jì)算機(jī)視覺與模式識別會(huì)議)是IEEE 舉辦的年度學(xué)術(shù)性會(huì)議,會(huì)議主要關(guān)注計(jì)算機(jī)視覺與模式識別等方面的技術(shù)內(nèi)容。在各種學(xué)術(shù)會(huì)議統(tǒng)計(jì)中,CVPR 有著非常強(qiáng)的影響力和高排名。在美國夏威夷剛剛結(jié)束的CVPR 2017大會(huì)上,學(xué)術(shù)界和工業(yè)界都給予了極高的關(guān)注度,無論是收錄的論文數(shù)和參會(huì)人數(shù)都刷新了CVPR 的歷史紀(jì)錄。
對于這樣一場頂尖學(xué)術(shù)會(huì)議,廣大沒有機(jī)會(huì)出席活動(dòng)現(xiàn)場的同學(xué)們除了閱讀相關(guān)文章之外,還能如何更深度地了解CVPR 2017的學(xué)術(shù)成果呢?
8月12日下午,由雷鋒網(wǎng)主辦的“GAIR大講堂CVPR 上海交大專場”將在上海交通大學(xué)正式開幕。作為雷鋒網(wǎng)旗下高端學(xué)術(shù)分享品牌,GAIR 大講堂將通過舉辦高頻次的線下校園學(xué)術(shù)分享活動(dòng),實(shí)現(xiàn)學(xué)術(shù)專家、AI業(yè)者與學(xué)校同學(xué)們之間的深度交流。本次活動(dòng)中,雷鋒網(wǎng)特地邀請5位CVPR 2017的前方論文講者,邀請他們講解各自的論文,同時(shí)分享CVPR 的參會(huì)心得。相信5位學(xué)術(shù)青年原汁原味的分享,將會(huì)為大家?guī)黻P(guān)于CVPR 更生動(dòng)的介紹。
主辦方:雷鋒網(wǎng)
合作單位:上海交通大學(xué)、AI研習(xí)社、阿里AI 實(shí)驗(yàn)室、AI MOOC 學(xué)院
指導(dǎo)單位:中國計(jì)算機(jī)學(xué)會(huì)(CCF)
合作媒體:AI科技評論
時(shí)間:8月12日下午2:00-6:30
地點(diǎn):上海交通大學(xué)(閔行校區(qū))電信三號樓200號報(bào)告廳
2:00-2:05 主辦方介紹本次活動(dòng)
2:05-2:15 校方領(lǐng)導(dǎo)致辭
2:15-2:55 MIT EECS系三年級博士生 吳佳俊
分享主題:用于從單張圖像中重建三維物體的點(diǎn)云生成網(wǎng)絡(luò)
A Point Set Generation Network for 3D Object Reconstruction from a Single Image
2:55-3:35 阿里巴巴人工智能實(shí)驗(yàn)室資深算法工程師 汪洋
分享主題:Contextual Attention-based Memory Networks for Scene Labeling
3:35-4:15 上海交通大學(xué)研究生 楊蕊
分享主題:Video Segmentation via Multiple Granularity Analysis
4:15-4:30 現(xiàn)場休息
4:30-5:10 上海交通大學(xué)研究生 林天威
分享主題:Single Shot Temporal Action Detection
5:10-5:50 上海交通大學(xué)博士生 王敏思
分享主題:Recurrent Modeling of Interaction Context for Collective Activity Recognition
5:50-6:20 現(xiàn)場統(tǒng)一提問問答
6:20 活動(dòng)結(jié)束
吳佳俊,MIT EECS系三年級博士生,導(dǎo)師Bill Freeman教授和Josh Tenenbaum教授。 他的研究興趣在于計(jì)算機(jī)視覺,機(jī)器學(xué)習(xí),和計(jì)算認(rèn)知科學(xué)的交叉。 在此之前,他于2014年在清華大學(xué)交叉信息院獲得學(xué)士學(xué)位。 他曾在微軟,F(xiàn)acebook和百度的研究實(shí)驗(yàn)室實(shí)習(xí)。
主題:A Point Set Generation Network for 3D Object Reconstruction from a Single Image(用于從單張圖像中重建三維物體的點(diǎn)云生成網(wǎng)絡(luò))
分享內(nèi)容:通過深層神經(jīng)網(wǎng)絡(luò)生成三維數(shù)據(jù)在學(xué)術(shù)界越來越受到關(guān)注。現(xiàn)存的大多數(shù)方法都采取常規(guī)的三位數(shù)據(jù)表示,例如三位體素或圖像集合。在這篇CVPR文章里,作者試圖從單張圖像中直接生成三維點(diǎn)云坐標(biāo),并進(jìn)行三維重建。作者針對問題設(shè)計(jì)了相應(yīng)的神經(jīng)網(wǎng)絡(luò)架構(gòu),損失函數(shù)和學(xué)習(xí)范式。實(shí)驗(yàn)結(jié)果也證明了所提出的方法的良好性能。
汪洋,阿里巴巴人工智能實(shí)驗(yàn)室資深算法工程師。2014年畢業(yè)于電子科技大學(xué)電子工程學(xué)院,期間研究方向?yàn)樾盘柵c信息處理。同年加入阿里巴巴,先后從事數(shù)據(jù)挖掘、機(jī)器學(xué)習(xí)、計(jì)算機(jī)視覺等方面的工作,目前主要研究興趣為目標(biāo)檢測與跟蹤、語義分割以及深度網(wǎng)絡(luò)壓縮與加速等。
主題:Contextual Attention-based Memory Networks for Scene Labeling(上下文注意力機(jī)制記憶網(wǎng)絡(luò)在場景標(biāo)記中的應(yīng)用)
分享內(nèi)容:場景標(biāo)注旨在解決的問題是預(yù)測圖像每個(gè)像素所屬的類別,實(shí)際上它可視為一個(gè)序列到序列的預(yù)測任務(wù)。因此,如何充分利用相關(guān)上下文信息是提高標(biāo)注效果的關(guān)鍵所在。論文提出了一種Episodic CAMN方法,并在該方法的基礎(chǔ)上定義了一種由全卷積神經(jīng)網(wǎng)絡(luò)(Fully Connected Network,F(xiàn)CN)和帶有反饋連接的注意力機(jī)制記憶網(wǎng)絡(luò)(Attention-based Memory Network with Feedback Connections)構(gòu)成的統(tǒng)一框架來實(shí)現(xiàn)上下文信息的選擇和調(diào)整。在PASCAL Context,SIFT Flow和PASCAL VOC 2011等場景標(biāo)注數(shù)據(jù)集上進(jìn)行一系列評測,取得了不錯(cuò)的效果。
楊蕊,上海交通大學(xué)研究生。
主題:Video Segmentation via Multiple Granularity Analysis(基于多粒度分析的視頻分割)
分享內(nèi)容:視頻目標(biāo)分割是指講視頻中的目標(biāo)物體在每一幀中沿輪廓進(jìn)行分割。采用一個(gè)多粒度框架可以通過從粗到細(xì)的方式對視頻進(jìn)行精準(zhǔn)分割。視頻分割可以被理解為一個(gè)時(shí)序上的超像素打標(biāo)過程,在精準(zhǔn)的視頻跟蹤技術(shù)的幫助下,時(shí)空上的多實(shí)例學(xué)習(xí)算法可以將超像素進(jìn)行二分類,并緊接著用圖割的方式在像素級別進(jìn)行細(xì)化,最終實(shí)現(xiàn)準(zhǔn)確的分割。
林天威,上海交通大學(xué)自動(dòng)化系計(jì)算機(jī)視覺實(shí)驗(yàn)室的研一學(xué)生,導(dǎo)師為趙旭老師。主要關(guān)注計(jì)算機(jī)視覺,深度學(xué)習(xí),視頻分析等方向的工作,主要研究視頻動(dòng)作分析領(lǐng)域中的時(shí)序動(dòng)作檢測問題。
主題: Single Shot Temporal Action Detection(單鏡頭時(shí)序行為檢測)
分享內(nèi)容:時(shí)序行為檢測是要在視頻序列中確定動(dòng)作發(fā)生的時(shí)間區(qū)間(包括開始時(shí)間與結(jié)束時(shí)間)以及動(dòng)作的類別。與其關(guān)系緊密的一個(gè)領(lǐng)域是基于圖像的物體檢測(object detection),物體檢測是檢測物體在圖像中的位置,包括長和寬兩個(gè)維度,而時(shí)序行為檢測則只需要確定時(shí)間維度上動(dòng)作的位置。本論文投稿于ACM multimedia 2017
王敏思,上海交通大學(xué)博士生。
主題:Recurrent Modeling of Interaction Context for Collective Activity Recognition(通過對互動(dòng)信息的遞歸建模來進(jìn)行群體行為識別)
分享內(nèi)容:群體行為識別旨在判斷場景中整個(gè)人群的行為。群體行為通常包括多個(gè)層次的互動(dòng)信息(Interaction Context),包括單個(gè)人的運(yùn)動(dòng)信息,局部群組內(nèi)人與人的互動(dòng)信息,以及局部組群與組群之間的互動(dòng)信息。針對此現(xiàn)象,論文提出了一個(gè)基于多層次遞歸神經(jīng)網(wǎng)絡(luò)的群體行為識別算法,該算法在每個(gè)層次的互動(dòng)信息建模中,使用LSTM節(jié)點(diǎn),低級層次的信息會(huì)聚后作為高級層次的信息節(jié)點(diǎn)輸入,主要分為person-level,group-level, scene-level三個(gè)不同層次的LSTM。最終通過多層次的LSTM結(jié)構(gòu),實(shí)現(xiàn)跨層次的群體行為識別。該方法在群體行為數(shù)據(jù)庫Collective-Activity獲得了目前很好的識別精度。
以上就是本次活動(dòng)的簡要介紹,想要近距離了解更多論文投稿細(xì)節(jié),就快來報(bào)名參會(huì)吧。另外,本次活動(dòng)全程免費(fèi),現(xiàn)場還有送書活動(dòng),獎(jiǎng)品就是最近賣到脫銷的《Deep Learning》一書。還等什么?掃描下方活動(dòng)海報(bào)二維碼即可報(bào)名參加,也可以點(diǎn)擊活動(dòng)鏈接報(bào)名。
往期活動(dòng)直播回顧:http://www.mooc.ai/course/151/lesson/list
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。
本專題其他文章