丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能 正文
發(fā)私信給楊文
發(fā)送

0

錯過CVPR 2017?絕對不能錯過GAIR大講堂——上海交大專場開啟報名

本文作者: 楊文 2017-08-09 22:09 專題:CVPR 2017
導(dǎo)語:錯過CVPR 2017?你絕對不能錯過GAIR大講堂!

CVPR(國際計算機視覺與模式識別會議)是IEEE 舉辦的年度學(xué)術(shù)性會議,會議主要關(guān)注計算機視覺與模式識別等方面的技術(shù)內(nèi)容。在各種學(xué)術(shù)會議統(tǒng)計中,CVPR 有著非常強的影響力和高排名。在美國夏威夷剛剛結(jié)束的CVPR 2017大會上,學(xué)術(shù)界和工業(yè)界都給予了極高的關(guān)注度,無論是收錄的論文數(shù)和參會人數(shù)都刷新了CVPR 的歷史紀錄。

對于這樣一場頂尖學(xué)術(shù)會議,廣大沒有機會出席活動現(xiàn)場的同學(xué)們除了閱讀相關(guān)文章之外,還能如何更深度地了解CVPR 2017的學(xué)術(shù)成果呢?

8月12日下午,由雷鋒網(wǎng)主辦的“GAIR大講堂CVPR 上海交大專場”將在上海交通大學(xué)正式開幕。作為雷鋒網(wǎng)旗下高端學(xué)術(shù)分享品牌,GAIR 大講堂將通過舉辦高頻次的線下校園學(xué)術(shù)分享活動,實現(xiàn)學(xué)術(shù)專家、AI業(yè)者與學(xué)校同學(xué)們之間的深度交流。本次活動中,雷鋒網(wǎng)特地邀請5位CVPR 2017的前方論文講者,邀請他們講解各自的論文,同時分享CVPR 的參會心得。相信5位學(xué)術(shù)青年原汁原味的分享,將會為大家?guī)黻P(guān)于CVPR 更生動的介紹。

活動概況

主辦方:雷鋒網(wǎng)

合作單位:上海交通大學(xué)、AI研習(xí)社、阿里AI 實驗室、AI MOOC 學(xué)院

指導(dǎo)單位:中國計算機學(xué)會(CCF)

合作媒體:AI科技評論

時間:8月12日下午2:00-6:30

地點:上海交通大學(xué)(閔行校區(qū))電信三號樓200號報告廳

活動流程

2:00-2:05 主辦方介紹本次活動

2:05-2:15 校方領(lǐng)導(dǎo)致辭

2:15-2:55 MIT EECS系三年級博士生 吳佳俊

分享主題:用于從單張圖像中重建三維物體的點云生成網(wǎng)絡(luò)

A Point Set Generation Network for 3D Object Reconstruction from a Single Image

2:55-3:35  阿里巴巴人工智能實驗室資深算法工程師 汪洋

分享主題:Contextual Attention-based Memory Networks for Scene Labeling

3:35-4:15 上海交通大學(xué)研究生 楊蕊

分享主題:Video Segmentation via Multiple Granularity Analysis

4:15-4:30 現(xiàn)場休息

4:30-5:10 上海交通大學(xué)研究生 林天威

分享主題:Single Shot Temporal Action Detection

5:10-5:50 上海交通大學(xué)博士生 王敏思

分享主題:Recurrent Modeling of Interaction Context for Collective Activity Recognition

5:50-6:20 現(xiàn)場統(tǒng)一提問問答

6:20 活動結(jié)束

嘉賓介紹

錯過CVPR 2017?絕對不能錯過GAIR大講堂——上海交大專場開啟報名

吳佳俊,MIT EECS系三年級博士生,導(dǎo)師Bill Freeman教授和Josh Tenenbaum教授。 他的研究興趣在于計算機視覺,機器學(xué)習(xí),和計算認知科學(xué)的交叉。 在此之前,他于2014年在清華大學(xué)交叉信息院獲得學(xué)士學(xué)位。 他曾在微軟,F(xiàn)acebook和百度的研究實驗室實習(xí)。

主題:A Point Set Generation Network for 3D Object Reconstruction from a Single Image(用于從單張圖像中重建三維物體的點云生成網(wǎng)絡(luò))

分享內(nèi)容:通過深層神經(jīng)網(wǎng)絡(luò)生成三維數(shù)據(jù)在學(xué)術(shù)界越來越受到關(guān)注?,F(xiàn)存的大多數(shù)方法都采取常規(guī)的三位數(shù)據(jù)表示,例如三位體素或圖像集合。在這篇CVPR文章里,作者試圖從單張圖像中直接生成三維點云坐標,并進行三維重建。作者針對問題設(shè)計了相應(yīng)的神經(jīng)網(wǎng)絡(luò)架構(gòu),損失函數(shù)和學(xué)習(xí)范式。實驗結(jié)果也證明了所提出的方法的良好性能。

錯過CVPR 2017?絕對不能錯過GAIR大講堂——上海交大專場開啟報名

汪洋,阿里巴巴人工智能實驗室資深算法工程師。2014年畢業(yè)于電子科技大學(xué)電子工程學(xué)院,期間研究方向為信號與信息處理。同年加入阿里巴巴,先后從事數(shù)據(jù)挖掘、機器學(xué)習(xí)、計算機視覺等方面的工作,目前主要研究興趣為目標檢測與跟蹤、語義分割以及深度網(wǎng)絡(luò)壓縮與加速等。

主題:Contextual Attention-based Memory Networks for Scene Labeling(上下文注意力機制記憶網(wǎng)絡(luò)在場景標記中的應(yīng)用)

分享內(nèi)容:場景標注旨在解決的問題是預(yù)測圖像每個像素所屬的類別,實際上它可視為一個序列到序列的預(yù)測任務(wù)。因此,如何充分利用相關(guān)上下文信息是提高標注效果的關(guān)鍵所在。論文提出了一種Episodic CAMN方法,并在該方法的基礎(chǔ)上定義了一種由全卷積神經(jīng)網(wǎng)絡(luò)(Fully Connected Network,F(xiàn)CN)和帶有反饋連接的注意力機制記憶網(wǎng)絡(luò)(Attention-based Memory Network with Feedback Connections)構(gòu)成的統(tǒng)一框架來實現(xiàn)上下文信息的選擇和調(diào)整。在PASCAL Context,SIFT Flow和PASCAL VOC 2011等場景標注數(shù)據(jù)集上進行一系列評測,取得了不錯的效果。

錯過CVPR 2017?絕對不能錯過GAIR大講堂——上海交大專場開啟報名

楊蕊,上海交通大學(xué)研究生。

主題:Video Segmentation via Multiple Granularity Analysis(基于多粒度分析的視頻分割)

分享內(nèi)容:視頻目標分割是指講視頻中的目標物體在每一幀中沿輪廓進行分割。采用一個多粒度框架可以通過從粗到細的方式對視頻進行精準分割。視頻分割可以被理解為一個時序上的超像素打標過程,在精準的視頻跟蹤技術(shù)的幫助下,時空上的多實例學(xué)習(xí)算法可以將超像素進行二分類,并緊接著用圖割的方式在像素級別進行細化,最終實現(xiàn)準確的分割。

錯過CVPR 2017?絕對不能錯過GAIR大講堂——上海交大專場開啟報名

林天威,上海交通大學(xué)自動化系計算機視覺實驗室的研一學(xué)生,導(dǎo)師為趙旭老師。主要關(guān)注計算機視覺,深度學(xué)習(xí),視頻分析等方向的工作,主要研究視頻動作分析領(lǐng)域中的時序動作檢測問題。

主題: Single Shot Temporal Action Detection(單鏡頭時序行為檢測)

分享內(nèi)容:時序行為檢測是要在視頻序列中確定動作發(fā)生的時間區(qū)間(包括開始時間與結(jié)束時間)以及動作的類別。與其關(guān)系緊密的一個領(lǐng)域是基于圖像的物體檢測(object detection),物體檢測是檢測物體在圖像中的位置,包括長和寬兩個維度,而時序行為檢測則只需要確定時間維度上動作的位置。本論文投稿于ACM multimedia 2017

錯過CVPR 2017?絕對不能錯過GAIR大講堂——上海交大專場開啟報名

王敏思,上海交通大學(xué)博士生。

主題:Recurrent Modeling of Interaction Context for Collective Activity Recognition(通過對互動信息的遞歸建模來進行群體行為識別)

分享內(nèi)容:群體行為識別旨在判斷場景中整個人群的行為。群體行為通常包括多個層次的互動信息(Interaction Context),包括單個人的運動信息,局部群組內(nèi)人與人的互動信息,以及局部組群與組群之間的互動信息。針對此現(xiàn)象,論文提出了一個基于多層次遞歸神經(jīng)網(wǎng)絡(luò)的群體行為識別算法,該算法在每個層次的互動信息建模中,使用LSTM節(jié)點,低級層次的信息會聚后作為高級層次的信息節(jié)點輸入,主要分為person-level,group-level, scene-level三個不同層次的LSTM。最終通過多層次的LSTM結(jié)構(gòu),實現(xiàn)跨層次的群體行為識別。該方法在群體行為數(shù)據(jù)庫Collective-Activity獲得了目前很好的識別精度。

以上就是本次活動的簡要介紹,想要近距離了解更多論文投稿細節(jié),就快來報名參會吧。另外,本次活動全程免費,現(xiàn)場還有送書活動,獎品就是最近賣到脫銷的《Deep Learning》一書。還等什么?掃描下方活動海報二維碼即可報名參加,也可以點擊活動鏈接報名。

錯過CVPR 2017?絕對不能錯過GAIR大講堂——上海交大專場開啟報名

往期活動直播回顧:http://www.mooc.ai/course/151/lesson/list

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

錯過CVPR 2017?絕對不能錯過GAIR大講堂——上海交大專場開啟報名

分享:
相關(guān)文章

編輯&記者

AI科技評論員,微信:yeohandwin
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說