2
本文作者: 宗仁 | 2016-06-30 20:42 |
CVPR 2016正在拉斯維加斯如火如荼地舉行,關(guān)于它涌現(xiàn)的前沿技術(shù),雷鋒網(wǎng)已經(jīng)在上一篇文章《 CVPR 2016:這些黑科技在悄悄爆紅》中詳細介紹;而它涌現(xiàn)的前沿理論,勢必要根據(jù)前來參加CVPR圓桌論壇的學(xué)術(shù)大牛們來按圖索驥,除了李飛飛為首的女性學(xué)術(shù)大牛代表隊(頭條詳細介紹),還出現(xiàn)了這些在CVPR上異常重要的學(xué)術(shù)大牛們。
圓桌1—在圖像識別和碎片重組中反饋的重要性
根據(jù)知乎介紹,他所在組在做出了高性能PHP虛擬機HHVM。他的主要研究方向是人體行為識別。其個人主頁 http://www.mmp.rwth-aachen.de/,大家可以登錄去學(xué)習(xí)一下。
Jitendra Malik為加州伯克利大學(xué)分校的教授,1985年畢業(yè)于美國斯坦福大學(xué),現(xiàn)任加州大學(xué)伯克利分校電子工程與計算機科學(xué)系的資深教授,曾于2004年~2006年任該系系主任。Jitendra Malik教授主要研究方向為計算機視覺和生理認知建模,涉及圖像分割、視覺組織、紋理分析、立體視覺、物體識別、智能交通系統(tǒng)等廣泛內(nèi)容,在這些領(lǐng)域發(fā)表了超過150篇文章,其中有五篇文章引用率超過1000。Jitendra Malik教授已培養(yǎng)了26位博士生,其中不乏國際研究界和工業(yè)界的知名教授與專家。
深度學(xué)習(xí)有很多優(yōu)勢,但在視覺識別領(lǐng)域它能做的工作還不算太多,此次Piotr Dollar和Jitendra Malik在論壇上,主要討論,目前深度學(xué)習(xí)用于視覺識別領(lǐng)域優(yōu)點和缺點,以及如何通過反饋和記憶網(wǎng)絡(luò),能讓前饋視覺架構(gòu)有所改善。
圓桌2—視覺問答的挑戰(zhàn)(包括視覺,語言和常識內(nèi)容的回答)
其主要研究計算機視覺和語言問題,且是微軟目前「認知」小組的創(chuàng)辦會員和唯一的女性研究員。近期她所在小組曾開發(fā)新技術(shù):教會AI看圖講故事 http://www.tuicool.com/articles/QJreEfv
谷歌總部研究科學(xué)家,曾任英屬哥倫比亞大學(xué)的算機科學(xué)和統(tǒng)計學(xué)副教授。他撰寫了1100頁的教科書《機器學(xué)習(xí):概率視角》,這本書獲得了2013年國際貝葉斯分析學(xué)會頒發(fā)的DeGroot 統(tǒng)計科學(xué)最佳書籍獎。研究方向包括機器感覺、機器智能、數(shù)據(jù)挖掘和建模、自然語言處理、以及算法和理論。
其所在小組還曾開發(fā)出一款應(yīng)用,能夠告訴你圖片中的雞蛋、土司或者餐盤中的培根擁有多少卡路里。
之前是卡耐基梅隆大學(xué)機器人系博士, 前谷歌無人車組的一員。之前因為AlphaGo大戰(zhàn)李世石,這位華裔學(xué)術(shù)青年在國內(nèi)被人所熟知。
在圖片搜索引擎,自動駕駛,計算攝影,視覺圖形領(lǐng)域,人機互動領(lǐng)域,場景識別的要求越來越高,此次Margaret Mitchell,Kevin Murphy ,田淵棟在論壇上,主要討論這個領(lǐng)域最近的創(chuàng)新和創(chuàng)意,討論焦點包括場景分類,現(xiàn)場對象互動中的建模和識別等。
圓桌3——在自動駕駛上的計算機視覺
前百度深度學(xué)習(xí)研究院(IDL)副院長,現(xiàn)地平線CEO,2016年3月的時候向外界展示在真車上同時實現(xiàn)車道線/車輛/行人檢測的ADAS(智能駕駛輔助系統(tǒng))產(chǎn)品原型系統(tǒng)討論主題。這次CVPR討論的主題也是ADAS相關(guān)——密集預(yù)測地圖中的高性能目標(biāo)檢測以及其在ADAS中的應(yīng)用。
于2009年獲得香港科技大學(xué)學(xué)士和碩士學(xué)位,2013年獲得麻省理工學(xué)院博士學(xué)位。然后去了美國普林斯頓大學(xué)計算機科學(xué)系當(dāng)助理教授,再具體的,就是普林斯頓視覺研究組負責(zé)人。CVPR圓桌論壇上,其討論的主題——自動駕駛中的深度學(xué)習(xí),(行人)檢測,(圖像)分割和控制以外的東西。
討論主題,百度無人駕駛向Level 4進階的過程。
這三個華裔學(xué)術(shù)大牛都不約而同地選擇了自動駕駛領(lǐng)域的分支圓桌,此次在論壇上,他們將重點討論密集預(yù)測地圖中的高性能目標(biāo)檢測以及其在ADAS中的應(yīng)用,自動駕駛中的深度學(xué)習(xí),(行人)檢測,(圖像)分割和控制以外的東西,以及百度無人駕駛向Level 4進階的過程話題。
圓桌3——景物理解
2006年從MIT博士畢業(yè),現(xiàn)任University of Texas at Austin的助理教授。這個女孩一年發(fā)表7篇CVPR和4篇ICCV文章。
主要討論內(nèi)容跟上面圓桌2類似。
圓桌4—大規(guī)模場景理解的挑戰(zhàn)
早在20世紀80年代末,LeCun就作為貝爾實驗室的研究員開發(fā)出了卷積網(wǎng)絡(luò)技術(shù),并展示如何使用它來大幅度提高手寫識別能力;目前美國許多手寫支票依然是用他的方法在進行處理。上世紀末本世紀初,當(dāng)神經(jīng)網(wǎng)絡(luò)失寵,LeCun是少數(shù)幾名一直堅持研究的科學(xué)家之一。他于2003年成為紐約大學(xué)教授,并從此引領(lǐng)了深度學(xué)習(xí)的發(fā)展。
最近,深度學(xué)習(xí)及其相關(guān)領(lǐng)域已然成為最活躍的計算機研究領(lǐng)域之一。LeCun在2013年底加入Facebook負責(zé)新成立的人工智能實驗室。
大規(guī)模場景理解已經(jīng)成為計算機視覺中不可避免的問題,此次在論壇上,Yann LeCun 等將討論場景分類,顯著性檢測,房間布局估計以及字幕生成的問題。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。