0
本文作者: 楊曉凡 | 2017-07-22 21:59 | 專題:CVPR 2017 |
雷鋒網(wǎng) AI 科技評論按:計算機視覺的頂級會議 CVPR 2017 已經(jīng)開始了,AI 研究巨頭 Facebook 今天也發(fā)出一篇博文介紹自己都將在本屆 CVPR 中展現(xiàn)哪些成果。博文中主要內(nèi)容編譯如下。
Facebook 連接性實驗室研究員 Ilke Demir、Ramesh Raskar 等人與 MIT 媒體實驗室共同完成的論文「Robocodes: Towards Generative Street Addresses from Satellite Imagery」(用衛(wèi)星圖像生成街道地址的 Robocodes 系統(tǒng))獲得了本屆 CVPR 的最佳 workshop 論文獎。這項研究會在 EarthVision Workshop 中展示,這個 workshop 關注的內(nèi)容就是用于遙測感知圖像的大規(guī)模計算機視覺。
這篇論文的主要內(nèi)容是:隨著全球地理空間內(nèi)容的數(shù)量不斷增長,地圖的作用越來越重要。然而世界上仍然有高達70%的區(qū)域尚未詳細繪制在地圖中,而且也沒有什么生成式的方法可以自動繪制這些未知區(qū)域。目前的方法都還依靠準確的路面幾何特征,而論文中的新方法就解決了地理特征標識的語義問題,能夠基于 5m x 5m 的網(wǎng)格為街道生成地址。
計算機視覺和遙測感知研究社區(qū)近期開始把注意力轉(zhuǎn)向從衛(wèi)星照片中學習重要特征。有許多研究成果以前看起來理論性很強,現(xiàn)在都可以用來對世界產(chǎn)生實實在在的影響。
“這個世界以及用于理解這個的技術(shù)正在從信號、文本、語音這樣的單維度數(shù)據(jù)轉(zhuǎn)變?yōu)槎嗑S度的,比如圖像、視頻和三維空間。計算機視覺技術(shù)就正在縮小這個真實的多維世界和我們個人的Facebook世界之間的距離。我們的研究就是為了讓用戶與世界之間的距離更小?!盕acebook的博士后研究員 Ilke Demir 如此說道?!矮@得這項最佳論文獎也讓我們更加堅信我們的系統(tǒng)完成以后可以為世界上的其它區(qū)域進行不重復的定位,尤其是在自然災害高發(fā)區(qū)、地圖上未繪制的地區(qū)這樣的缺乏城市基礎設施的地方?!?/p>
訓練、部署人工智能模型經(jīng)常需要和大規(guī)模數(shù)據(jù)中心甚至超級計算機聯(lián)系起來,為了能夠連續(xù)地處理、創(chuàng)建和優(yōu)化模型,這樣的資源往往是必須的,這樣模型才有能力處理海量的圖像、視頻、文字和語音信息。如果想要在移動設備上部署這些模型,還要足夠快、輕量,同樣對許許多多的研究人員來說是個大麻煩。為了解決這些麻煩,F(xiàn)acebook 幾個月前發(fā)布了 Caffe2,為以上的問題提供了一個魯棒的、靈活的、可移動的深度學習框架。Caffe2的輕量、模塊式的結(jié)構(gòu)不僅大幅度提高了可移動性,而且還保持了同等的可拓展性和計算性能。
在此次 CVPR 中,F(xiàn)acebook 就會在7月24號下午5點到6點舉行一個見面會,會上關注的主要內(nèi)容是各方對于Caffe2的反饋。Facebook 同時還鼓勵研究人員們運用 Caffe2 進行智能理解、構(gòu)建智能系統(tǒng)的研究,并申請 Caffe2 研究獎(https://research.fb.com/programs/research-awards/proposals/caffe2-rfp/ )。大家的老熟人、Facebook 研發(fā)科學家賈楊清也說:“我們會一直致力于為人工智能研究社區(qū)提供高性能的機器學習工具,這樣每個人都能夠創(chuàng)建屬于自己的智能應用和服務?!?/p>
讓計算機理解圖像中的東西是什么,然后把它和聊天機器人對話聯(lián)系起來,這種任務對內(nèi)容理解的要求達到了新的高度。在本屆 CVPR 中,F(xiàn)acebook 的研究員們就會帶來數(shù)篇這方面的論文。
另外,7月26日那天 Facebook 還會與喬治亞理工大學、弗吉尼亞理工大學一起主持一場視覺問題問答 Workshop (Visual Question Answering),到時會有很多對視覺問題問答感興趣的專家共同分享他們眼中最優(yōu)秀的方案、最佳的實驗經(jīng)歷以及多模態(tài)人工智能的未來方向。
這個 workshop 的目的是帶來第二版的視覺問題問答挑戰(zhàn)賽,這個挑戰(zhàn)賽基于的是 CVPR 2017論文「Making the V in VQA Matter: Elevating the Role of Image Understanding in Visual Question Answering」中提出的 VQA 數(shù)據(jù)集的2.0版本。這項比賽給基于 VQA 2.0版本數(shù)據(jù)集的算法提供了一個測試機會,并且要從中發(fā)現(xiàn)能夠真正理解 VQA 數(shù)據(jù)集中的圖像內(nèi)容從而發(fā)揮出良好表現(xiàn)的最先進的算法。
Facebook 希望 CVPR 的參會者們到時候可以留意一下 Facebook 的研究人員和工程師們的最新成果,最好也能在 session 結(jié)束以后一起在展廳聊聊。
此次 CVPR 中 Facebook 將要展示的研究成果有如下這么多,感興趣的讀者可以具體關注一下。
Aggregated Residual Transformations for Deep Neural Networks
CLEVR: A Diagnostic Dataset for Compositional Language and Elementary Visual Reasoning
Hard Mixtures of Experts for Large Scale Weakly Supervised Vision
Link the Head to the “Beak”: Zero Shot Learning From Noisy Text Description at Part Precision
Relationship Proposal Networks
Robocodes: Towards Generative Street Addresses from Satellite Imagery
Visual Dialog
另外,雷鋒網(wǎng) AI 科技評論記者已經(jīng)到達 CVPR 會場,并將全方位地報道此次 CVPR 大會。請繼續(xù)關注雷鋒網(wǎng) AI 科技評論對近期各大學術(shù)會議的報道文章。
相關文章:
本次CVPR上,李飛飛團隊都中了哪8篇論文? | CVPR 2017
CVPR第一天前線速報:展臺布置緊鑼密鼓,tutorial和workshop緊湊而充實|CVPR 2017
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。
本專題其他文章