丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能 正文
發(fā)私信給楊曉凡
發(fā)送

0

Facebook為CVPR2017準備了多出好戲,一起來看看“節(jié)目單”

本文作者: 楊曉凡 2017-07-22 21:59 專題:CVPR 2017
導語:計算機視覺的頂級會議 CVPR 2017 馬上就要開始了,AI 研究巨頭 Facebook 今天也發(fā)出一篇博文介紹自己都將在本屆 CVPR 中展現(xiàn)哪些成果

雷鋒網(wǎng) AI 科技評論按:計算機視覺的頂級會議 CVPR 2017 已經(jīng)開始了,AI 研究巨頭 Facebook 今天也發(fā)出一篇博文介紹自己都將在本屆 CVPR 中展現(xiàn)哪些成果。博文中主要內(nèi)容編譯如下。

最佳 workshop 論文獎

Facebook 連接性實驗室研究員 Ilke Demir、Ramesh Raskar 等人與 MIT 媒體實驗室共同完成的論文「Robocodes: Towards Generative Street Addresses from Satellite Imagery」(用衛(wèi)星圖像生成街道地址的 Robocodes 系統(tǒng))獲得了本屆 CVPR 的最佳 workshop 論文獎。這項研究會在 EarthVision Workshop 中展示,這個 workshop 關注的內(nèi)容就是用于遙測感知圖像的大規(guī)模計算機視覺。

這篇論文的主要內(nèi)容是:隨著全球地理空間內(nèi)容的數(shù)量不斷增長,地圖的作用越來越重要。然而世界上仍然有高達70%的區(qū)域尚未詳細繪制在地圖中,而且也沒有什么生成式的方法可以自動繪制這些未知區(qū)域。目前的方法都還依靠準確的路面幾何特征,而論文中的新方法就解決了地理特征標識的語義問題,能夠基于 5m x 5m 的網(wǎng)格為街道生成地址。

計算機視覺和遙測感知研究社區(qū)近期開始把注意力轉(zhuǎn)向從衛(wèi)星照片中學習重要特征。有許多研究成果以前看起來理論性很強,現(xiàn)在都可以用來對世界產(chǎn)生實實在在的影響。

“這個世界以及用于理解這個的技術(shù)正在從信號、文本、語音這樣的單維度數(shù)據(jù)轉(zhuǎn)變?yōu)槎嗑S度的,比如圖像、視頻和三維空間。計算機視覺技術(shù)就正在縮小這個真實的多維世界和我們個人的Facebook世界之間的距離。我們的研究就是為了讓用戶與世界之間的距離更小?!盕acebook的博士后研究員 Ilke Demir 如此說道?!矮@得這項最佳論文獎也讓我們更加堅信我們的系統(tǒng)完成以后可以為世界上的其它區(qū)域進行不重復的定位,尤其是在自然災害高發(fā)區(qū)、地圖上未繪制的地區(qū)這樣的缺乏城市基礎設施的地方?!?/p>

Caffe2見面會

訓練、部署人工智能模型經(jīng)常需要和大規(guī)模數(shù)據(jù)中心甚至超級計算機聯(lián)系起來,為了能夠連續(xù)地處理、創(chuàng)建和優(yōu)化模型,這樣的資源往往是必須的,這樣模型才有能力處理海量的圖像、視頻、文字和語音信息。如果想要在移動設備上部署這些模型,還要足夠快、輕量,同樣對許許多多的研究人員來說是個大麻煩。為了解決這些麻煩,F(xiàn)acebook 幾個月前發(fā)布了 Caffe2,為以上的問題提供了一個魯棒的、靈活的、可移動的深度學習框架。Caffe2的輕量、模塊式的結(jié)構(gòu)不僅大幅度提高了可移動性,而且還保持了同等的可拓展性和計算性能。

在此次 CVPR 中,F(xiàn)acebook 就會在7月24號下午5點到6點舉行一個見面會,會上關注的主要內(nèi)容是各方對于Caffe2的反饋。Facebook 同時還鼓勵研究人員們運用 Caffe2 進行智能理解、構(gòu)建智能系統(tǒng)的研究,并申請 Caffe2 研究獎(https://research.fb.com/programs/research-awards/proposals/caffe2-rfp/ )。大家的老熟人、Facebook 研發(fā)科學家賈楊清也說:“我們會一直致力于為人工智能研究社區(qū)提供高性能的機器學習工具,這樣每個人都能夠創(chuàng)建屬于自己的智能應用和服務?!?/p>

視覺問題問答Workshop

讓計算機理解圖像中的東西是什么,然后把它和聊天機器人對話聯(lián)系起來,這種任務對內(nèi)容理解的要求達到了新的高度。在本屆 CVPR 中,F(xiàn)acebook 的研究員們就會帶來數(shù)篇這方面的論文。

另外,7月26日那天 Facebook 還會與喬治亞理工大學、弗吉尼亞理工大學一起主持一場視覺問題問答 Workshop (Visual Question Answering),到時會有很多對視覺問題問答感興趣的專家共同分享他們眼中最優(yōu)秀的方案、最佳的實驗經(jīng)歷以及多模態(tài)人工智能的未來方向。

這個 workshop 的目的是帶來第二版的視覺問題問答挑戰(zhàn)賽,這個挑戰(zhàn)賽基于的是 CVPR 2017論文「Making the V in VQA Matter: Elevating the Role of Image Understanding in Visual Question Answering」中提出的 VQA 數(shù)據(jù)集的2.0版本。這項比賽給基于 VQA 2.0版本數(shù)據(jù)集的算法提供了一個測試機會,并且要從中發(fā)現(xiàn)能夠真正理解 VQA 數(shù)據(jù)集中的圖像內(nèi)容從而發(fā)揮出良好表現(xiàn)的最先進的算法。

Facebook 希望 CVPR 的參會者們到時候可以留意一下 Facebook 的研究人員和工程師們的最新成果,最好也能在 session 結(jié)束以后一起在展廳聊聊。

Facebook 的參會內(nèi)容

此次 CVPR 中 Facebook 將要展示的研究成果有如下這么多,感興趣的讀者可以具體關注一下。

另外,雷鋒網(wǎng) AI 科技評論記者已經(jīng)到達 CVPR 會場,并將全方位地報道此次 CVPR 大會。請繼續(xù)關注雷鋒網(wǎng) AI 科技評論對近期各大學術(shù)會議的報道文章。

相關文章:

本次CVPR上,李飛飛團隊都中了哪8篇論文? | CVPR 2017

CVPR第一天前線速報:展臺布置緊鑼密鼓,tutorial和workshop緊湊而充實|CVPR 2017

雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

Facebook為CVPR2017準備了多出好戲,一起來看看“節(jié)目單”

分享:
相關文章

讀論文為生

日常笑點滴,學術(shù)死腦筋
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說