3
本文作者: 宗仁 | 2016-06-28 19:17 |
計(jì)算機(jī)視覺(jué)和模式識(shí)別領(lǐng)域頂級(jí)學(xué)術(shù)會(huì)議CVPR正在美國(guó)召開(kāi),因?yàn)樯婕暗綑C(jī)器人、無(wú)人機(jī)、VR、AR、自動(dòng)駕駛、生物醫(yī)療、工業(yè)自動(dòng)化和檢測(cè)等眾多領(lǐng)域,很多學(xué)術(shù)圈之外的人不得不對(duì)這個(gè)頂級(jí)學(xué)術(shù)會(huì)議刮目相看,因?yàn)檫@個(gè)學(xué)術(shù)會(huì)議已成為前沿理論和前沿技術(shù)的聚集地,下面一起來(lái)看看CVPR 2016我們應(yīng)該主動(dòng)關(guān)注什么。
CVPR2016上,麻省理工學(xué)院計(jì)算機(jī)科學(xué)和人工智能實(shí)驗(yàn)室(CSAIL)將發(fā)布一份關(guān)于可預(yù)測(cè)人類(lèi)行為的算法的研究報(bào)告。通過(guò)給此算法導(dǎo)入近600小時(shí)的電視秀(其中包括《生活大爆炸》《絕望主婦》《辦公室》等劇集),來(lái)測(cè)試機(jī)器是否能準(zhǔn)確預(yù)測(cè)人類(lèi)在各場(chǎng)景互動(dòng)中的行為。此次實(shí)驗(yàn)數(shù)據(jù)是人工智能“預(yù)測(cè)想象力”技術(shù)的顯著進(jìn)步。
點(diǎn)擊查看詳情。
來(lái)自于美國(guó)普渡大學(xué)C Design 實(shí)驗(yàn)室的研究成果——DeepHand(深度手勢(shì)識(shí)別),基于“深度學(xué)習(xí)”解析人手塑造的角度和扭曲等動(dòng)作,這是一個(gè)新的突破,可以在未來(lái)加強(qiáng)VR設(shè)備的交互上有廣泛應(yīng)用前景。
點(diǎn)擊查看詳情。
HoloPortation將人物全息圖像投射到另一個(gè)房間,使該房間內(nèi)的人可以和全息影像實(shí)時(shí)互動(dòng),系統(tǒng)通過(guò)追蹤人物身體的高質(zhì)量細(xì)節(jié),重建每一個(gè)特征。
項(xiàng)目主管Shahram Izadi透露,最開(kāi)始他們只是想緩解思鄉(xiāng)病。Shahram Izadi的劍橋(英國(guó))團(tuán)隊(duì)專(zhuān)注于用3D傳感器技術(shù)、機(jī)器學(xué)習(xí)來(lái)解決下一代計(jì)算問(wèn)題,花了兩年半時(shí)間,團(tuán)隊(duì)才和華盛頓Redmond 的HoloLens團(tuán)隊(duì)融為一體。Izadi已為人父,視頻中出現(xiàn)的女孩是他的女兒。
CVPR上,來(lái)自麻省理工學(xué)院開(kāi)發(fā)的算法演示他們將如何精準(zhǔn)預(yù)測(cè)聲音。當(dāng)研究員將一個(gè)擊打物品的短視頻交給算法,算法就可以生成一個(gè)打擊的聲音,真實(shí)到可以糊弄住觀看視頻的人類(lèi)。點(diǎn)擊連接中的視頻,看看算法生成的聲音能不能糊弄住你。
點(diǎn)擊查看論文。
華盛頓大學(xué)的一位計(jì)算機(jī)助理教授Ira Kemelmacher表示,我們需要一個(gè)更大規(guī)模數(shù)據(jù)集的評(píng)測(cè)標(biāo)準(zhǔn),幫助研究人員找到自己識(shí)別算法中的缺陷。他們首先建成了一個(gè)來(lái)自Flickr網(wǎng)站上的69萬(wàn)人的100幅人臉照片,允許其他研究人員遵循創(chuàng)作共用許可協(xié)議下載數(shù)據(jù)集,使用自己的算法從數(shù)據(jù)集中進(jìn)行匹配。
谷歌的FaceNet算法識(shí)別準(zhǔn)確率最優(yōu),在小規(guī)模數(shù)據(jù)集中準(zhǔn)確率幾乎完美,在百萬(wàn)規(guī)模數(shù)據(jù)下達(dá)到75%的準(zhǔn)確率,另一個(gè)與之接近的團(tuán)隊(duì)是俄羅斯的N-TechLab,他們實(shí)現(xiàn)73%的準(zhǔn)確率。相比之下,其他算法在小規(guī)模數(shù)據(jù)集能達(dá)到95%以上,但是百萬(wàn)規(guī)模下的識(shí)別準(zhǔn)確率下降到33%左右谷歌的FaceNet算法識(shí)別準(zhǔn)確率最優(yōu),在小規(guī)模數(shù)據(jù)集中準(zhǔn)確率幾乎完美,在百萬(wàn)規(guī)模數(shù)據(jù)下達(dá)到75%的準(zhǔn)確率,另一個(gè)與之接近的團(tuán)隊(duì)是俄羅斯的N-TechLab,他們實(shí)現(xiàn)73%的準(zhǔn)確率。相比之下,其他算法在小規(guī)模數(shù)據(jù)集能達(dá)到95%以上,但是百萬(wàn)規(guī)模下的識(shí)別準(zhǔn)確率下降到33%左右。目前有超過(guò)300支團(tuán)隊(duì)在使用MegaFace數(shù)據(jù)集進(jìn)行訓(xùn)練。
初步討論結(jié)果將在CVPR 2016上呈現(xiàn)。
點(diǎn)擊查看原文。
迪尼斯研究院和復(fù)旦大學(xué)在CVPR 26日的大會(huì)上展示了如何用深度學(xué)習(xí)自動(dòng)識(shí)別剛剛上傳到Y(jié)ouTube視頻里正在發(fā)生什么大事以及新鮮事。來(lái)幫助開(kāi)發(fā)之前視頻上傳后丟失的大部分有潛在價(jià)值的信息。
點(diǎn)擊查看原文。
斯坦福大學(xué)的研究人員們也是費(fèi)盡了心思,他們制造了一個(gè)叫Jackrabbot的原型機(jī)器人,希望他們的Jackrabbot機(jī)器人能夠自行在街道上行走,又不會(huì)與其他行人碰撞,或者遇到迎面而來(lái)的人時(shí)不知往左往右,未來(lái)這些走路的經(jīng)驗(yàn)還可以分享給其他的機(jī)器人。
上面就是CVPR已經(jīng)出現(xiàn)或者即將出現(xiàn)的黑科技亮點(diǎn),相對(duì)CVPR官網(wǎng)凌亂的導(dǎo)航,順著這些黑科技按圖索驥會(huì)幫你更快地找到大會(huì)的重心和亮點(diǎn)。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。