3
本文作者: 宗仁 | 2016-06-28 19:17 |
計算機視覺和模式識別領(lǐng)域頂級學術(shù)會議CVPR正在美國召開,因為涉及到機器人、無人機、VR、AR、自動駕駛、生物醫(yī)療、工業(yè)自動化和檢測等眾多領(lǐng)域,很多學術(shù)圈之外的人不得不對這個頂級學術(shù)會議刮目相看,因為這個學術(shù)會議已成為前沿理論和前沿技術(shù)的聚集地,下面一起來看看CVPR 2016我們應(yīng)該主動關(guān)注什么。
CVPR2016上,麻省理工學院計算機科學和人工智能實驗室(CSAIL)將發(fā)布一份關(guān)于可預(yù)測人類行為的算法的研究報告。通過給此算法導入近600小時的電視秀(其中包括《生活大爆炸》《絕望主婦》《辦公室》等劇集),來測試機器是否能準確預(yù)測人類在各場景互動中的行為。此次實驗數(shù)據(jù)是人工智能“預(yù)測想象力”技術(shù)的顯著進步。
點擊查看詳情。
來自于美國普渡大學C Design 實驗室的研究成果——DeepHand(深度手勢識別),基于“深度學習”解析人手塑造的角度和扭曲等動作,這是一個新的突破,可以在未來加強VR設(shè)備的交互上有廣泛應(yīng)用前景。
點擊查看詳情。
HoloPortation將人物全息圖像投射到另一個房間,使該房間內(nèi)的人可以和全息影像實時互動,系統(tǒng)通過追蹤人物身體的高質(zhì)量細節(jié),重建每一個特征。
項目主管Shahram Izadi透露,最開始他們只是想緩解思鄉(xiāng)病。Shahram Izadi的劍橋(英國)團隊專注于用3D傳感器技術(shù)、機器學習來解決下一代計算問題,花了兩年半時間,團隊才和華盛頓Redmond 的HoloLens團隊融為一體。Izadi已為人父,視頻中出現(xiàn)的女孩是他的女兒。
CVPR上,來自麻省理工學院開發(fā)的算法演示他們將如何精準預(yù)測聲音。當研究員將一個擊打物品的短視頻交給算法,算法就可以生成一個打擊的聲音,真實到可以糊弄住觀看視頻的人類。點擊連接中的視頻,看看算法生成的聲音能不能糊弄住你。
點擊查看論文。
華盛頓大學的一位計算機助理教授Ira Kemelmacher表示,我們需要一個更大規(guī)模數(shù)據(jù)集的評測標準,幫助研究人員找到自己識別算法中的缺陷。他們首先建成了一個來自Flickr網(wǎng)站上的69萬人的100幅人臉照片,允許其他研究人員遵循創(chuàng)作共用許可協(xié)議下載數(shù)據(jù)集,使用自己的算法從數(shù)據(jù)集中進行匹配。
谷歌的FaceNet算法識別準確率最優(yōu),在小規(guī)模數(shù)據(jù)集中準確率幾乎完美,在百萬規(guī)模數(shù)據(jù)下達到75%的準確率,另一個與之接近的團隊是俄羅斯的N-TechLab,他們實現(xiàn)73%的準確率。相比之下,其他算法在小規(guī)模數(shù)據(jù)集能達到95%以上,但是百萬規(guī)模下的識別準確率下降到33%左右谷歌的FaceNet算法識別準確率最優(yōu),在小規(guī)模數(shù)據(jù)集中準確率幾乎完美,在百萬規(guī)模數(shù)據(jù)下達到75%的準確率,另一個與之接近的團隊是俄羅斯的N-TechLab,他們實現(xiàn)73%的準確率。相比之下,其他算法在小規(guī)模數(shù)據(jù)集能達到95%以上,但是百萬規(guī)模下的識別準確率下降到33%左右。目前有超過300支團隊在使用MegaFace數(shù)據(jù)集進行訓練。
初步討論結(jié)果將在CVPR 2016上呈現(xiàn)。
點擊查看原文。
迪尼斯研究院和復旦大學在CVPR 26日的大會上展示了如何用深度學習自動識別剛剛上傳到Y(jié)ouTube視頻里正在發(fā)生什么大事以及新鮮事。來幫助開發(fā)之前視頻上傳后丟失的大部分有潛在價值的信息。
點擊查看原文。
斯坦福大學的研究人員們也是費盡了心思,他們制造了一個叫Jackrabbot的原型機器人,希望他們的Jackrabbot機器人能夠自行在街道上行走,又不會與其他行人碰撞,或者遇到迎面而來的人時不知往左往右,未來這些走路的經(jīng)驗還可以分享給其他的機器人。
上面就是CVPR已經(jīng)出現(xiàn)或者即將出現(xiàn)的黑科技亮點,相對CVPR官網(wǎng)凌亂的導航,順著這些黑科技按圖索驥會幫你更快地找到大會的重心和亮點。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。