丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能 正文
發(fā)私信給楊曉凡
發(fā)送

0

Facebook介紹ICCV2017收錄論文,其中五分之一都有何愷明的名字(附下載鏈接)

本文作者: 楊曉凡 編輯:郭奕欣 2017-10-23 17:42 專題:ICCV 2017
導(dǎo)語:15篇Facebook論文中,3篇都出現(xiàn)了何愷明的名字~ 還有一篇有李飛飛

Facebook介紹ICCV2017收錄論文,其中五分之一都有何愷明的名字(附下載鏈接)

雷鋒網(wǎng) AI 科技評論按:本周,全球的計算機(jī)視覺專家們即將齊聚威尼斯參加 ICCV (International Conference on Computer Vision)2017,展示計算機(jī)視覺和相關(guān)領(lǐng)域的最新研究進(jìn)展。ICCV由IEEE主辦,與計算機(jī)視覺模式識別會議(CVPR)和歐洲計算機(jī)視覺會議(ECCV)并稱計算機(jī)視覺方向的三大頂級會議。CVPR每年召開一次,而ECCV和ICCV在世界范圍內(nèi)每年間隔召開。ICCV論文錄用率很低,也符合它頂級會議的地位。

今年ICCV中,F(xiàn)acebook有15篇論文被收錄,同時Facebook的研究員們也會參與多個workshop和tutotial。總體情況而言,ICCV 2017 共收到2143篇論文投稿,其中621篇被選為大會論文,錄用比例29%。下面是Facebook此次收錄的論文列表,按照不同的研究主題分組。(雷鋒網(wǎng) AI 科技評論發(fā)現(xiàn),何愷明有多達(dá)三篇論文被收錄;而谷歌的李飛飛也參與了一篇Facebook的論文)

語義和圖像分割

Mask R-CNN

  • 作者:何愷明,Georgia Gkioxari, Piotr Dollar, Ross Girshick

  • 論文簡介:這篇論文介紹了一個新型系統(tǒng),它可以預(yù)測圖像中的每一個像素屬于哪一類中的哪一個物體。也就是說,這個系統(tǒng)不僅可以勾畫出圖中羊的輪廓并告訴你它們是羊(這一步屬于語義分割),同時還能告訴你圖像中的哪些部分對應(yīng)著哪一只羊(實例分割)。Mask R-CNN是最早成功達(dá)到這類目標(biāo)的系統(tǒng)之一。Facebook CTO Mike Schroepfer今年早些時候就在 F8 的主題演講中展示了幾個Mask R-CNN的應(yīng)用例子。

  • 雷鋒網(wǎng) AI 科技評論之前寫過這篇論文的解析文章,參見 Mask R-CNN實例分割通用框架,檢測,分割和特征點定位一次搞定

Predicting Deeper into the Future of Semantic Segmentation

  • 向著語義分割的未來做更深遠(yuǎn)的預(yù)測

  • 作者:Pauline Luc, Natalia Neverova, Camille Couprie, Jakob Verbeek, Yann LeCun

  • 論文簡介:這篇論文中,作者們開發(fā)了一個深度學(xué)習(xí)模型,它可以從給定的一幀來自視頻的畫面嘗試預(yù)測下一幀會發(fā)生什么。換句話說,它在嘗試猜測視頻中的未來會如何。這篇論文表明,得到的模型可以提升計算機(jī)視覺系統(tǒng)在語義分割之類的任務(wù)中的表現(xiàn)。

Segmentation-Aware Convolutional Networks Using Local Attention Masks

  • 運用局部注意力遮罩的分割敏感的卷積網(wǎng)絡(luò)

  • 作者:Adam W. Harley, Konstantinos G. Derpanis, Iasonas Kokkinos

  • 論文簡介:隨著卷積層不斷向后推進(jìn),卷積神經(jīng)網(wǎng)絡(luò)中的單個神經(jīng)元要觀察的圖像區(qū)域也越來越大。這會帶來局部性非常差、并且模糊的響應(yīng),就是因為神經(jīng)元要觀察的圖像范圍太大了。在這篇論文中,作者們讓每個神經(jīng)元只關(guān)注部分感興趣的區(qū)域,從而讓神經(jīng)元的響應(yīng)變得更明確。

Dense and Low-Rank Gaussian CRFs Using Deep Embeddings

  • 使用深度嵌入的密集、低排序高斯CRF算法

  • 作者:Siddhartha Chandra, Nicolas Usunier, Iasonas Kokkinos

  • 論文簡介:雖然卷積神經(jīng)網(wǎng)絡(luò)可以準(zhǔn)確地把圖像中的像素分為不同的類別(比如汽車,飛機(jī)等等),但臨近區(qū)域的分類結(jié)果卻經(jīng)常不一致,一個物體的一半可能會被識別為“床”,另一半則可能被識別為“沙發(fā)”。這篇論文提出了一種方法,連接了所有像素的分類結(jié)果,形成連續(xù)一致的預(yù)測結(jié)果,同時還保持了很高的效率。

物體識別

Focal Loss for Dense Object Detection

  • 密集物體檢測中的焦距損失

  • 作者:Tsung-Yi Lin, Priya Goyal, Ross Girshick, 何愷明, Piotr Dollár

  • 論文簡介:這篇論文中介紹了一個用于物體識別的新系統(tǒng)。它和現(xiàn)有頂尖的物體識別方案采用了不同的技術(shù)路徑。目前多數(shù)其它系統(tǒng)都由多個階段組成,每個階段都由不同的模型實現(xiàn),這篇論文中設(shè)計了一個模型在一個階段中解決整個物體識別問題。這種方法的簡單性極其誘人,因為這讓這個系統(tǒng)的實現(xiàn)和使用都簡單了許多。

  • 雷鋒網(wǎng) AI 科技評論之前寫過這篇論文的解析文章,參見 兩屆CVPR最佳論文得主何愷明新作:應(yīng)對樣本的不平衡分布,刷新密集物體檢測表現(xiàn)上限

Low-shot Visual Recognition by Shrinking and Hallucinating Features

  • 通過縮放和變幻進(jìn)行小樣本視覺識別

  • 作者:Bharath Hariharan, Ross Girshick

  • 論文簡介:一般來說,物體檢測系統(tǒng)都要先用需要識別物體的照片進(jìn)行訓(xùn)練,每個類別都需要數(shù)以千計的照片。這篇論文針對的問題是如何在僅僅看過一種新物體的很少幾張樣本后就能對它進(jìn)行識別。它使用的方法是產(chǎn)生更多的要學(xué)習(xí)的物體的樣本(縮放和變幻)。

Transitive Invariance for Self-supervised Visual Representation Learning

  • 具有變換不變性的自我監(jiān)督視覺表征識別

  • 作者:Xiaolong Wang, 何愷明, Abhinav Gupta

  • 論文簡介:這篇論文的目標(biāo)是為物體檢測學(xué)習(xí)更好的模型,途徑是觀察視頻中的物體外觀如何變化。比如,視頻中一輛汽車開過,在不同的幀中展示了汽車不同的側(cè)面。由于已知視頻中的每一幀都展示的是同一輛車,用這些信息學(xué)習(xí)的模型就可以更好地理解同一個物體在不同視角下的樣子。然后就可以用得到的模型改善物體檢測的效果。

圖像分類

Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization

  • Grad-CAM:通過基于梯度的本地化展示深度網(wǎng)絡(luò)的視覺解釋

  • 作者:Ramprasaath R. Selvaraju, Michael Cogswell, Abhishek Das, Ramakrishna Vedantam, Devi Parikh, Dhruv Batra

  • 論文簡介:多數(shù)現(xiàn)代圖像分類系統(tǒng)都基于卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)。這些網(wǎng)絡(luò)的表現(xiàn)當(dāng)然很不錯,但是它們也還在很大程度上是“黑盒子”。這篇論文介紹了一種新的方法可以揭開這個黑盒子,把圖片中能夠讓系統(tǒng)識別出結(jié)果的區(qū)域用特定的方式進(jìn)行可視化。

Learning Visual N-Grams from Web Data

  • 從網(wǎng)絡(luò)數(shù)據(jù)學(xué)習(xí)視覺N維信息

  • 作者:Ang Li, Allan Jabri, Armand Joulin, Laurens van der Maaten

  • 論文簡介:多數(shù)圖像識別系統(tǒng)都是用人工標(biāo)注的大規(guī)模圖像數(shù)據(jù)庫訓(xùn)練的,當(dāng)中這個標(biāo)注過程又枯燥又無法擴(kuò)展。這篇論文中開發(fā)了一個圖像識別系統(tǒng),它是用5千萬張圖像和對應(yīng)的用戶評論訓(xùn)練的,不需要人工標(biāo)注。這個系統(tǒng)可以識別物體、地標(biāo),以及數(shù)個單詞長的場景,比如“金門大橋”或者“自由女神像”。

視覺和語言綜合應(yīng)用

Inferring and Executing Programs for Visual Reasoning

  • 用于視覺推理的推斷和執(zhí)行程序

  • 作者:Justin Johnson, Bharath Hariharan, Laurens van der Maaten, Judy Hoffman, 李飛飛, C. Lawrence Zitnick, Ross Girshick

  • 論文簡介:這篇論文討論了這樣一個視覺推理任務(wù):給定一張圖像,要讓模型回答“綠色盒子前面的那個東西是什么形狀?”模型的工作方式是使用一個“模塊化網(wǎng)絡(luò)”,這個網(wǎng)絡(luò)會把問題轉(zhuǎn)換成一個簡單的計算機(jī)程序,然后用神經(jīng)網(wǎng)絡(luò)實現(xiàn)其中的每一個指令。這篇論文還展示了一個新的數(shù)據(jù)集用于視覺推理,名為“CLEVR-Humans”

Learning Cooperative Visual Dialog Agents with Deep Reinforcement Learning

  • 用深度強(qiáng)化學(xué)習(xí)訓(xùn)練合作視覺對話機(jī)器人

  • 作者:Abhishek Das, Satwik Kottur, Jos. M. F. Moura, Stefan Lee, Dhruv Batra

  • 論文簡介:這篇論文中,作者們開發(fā)了一個聊天機(jī)器人,它能回答關(guān)于圖像的問題。你可以問它“那個女人的傘是什么顏色的”這樣的問題。如果圖像中有兩個女人,這個聊天機(jī)器人會問你:“哪個女人?”你答復(fù)它:“黑色頭發(fā)的那個”,然后聊天機(jī)器人會告訴你:“傘是藍(lán)色的?!彪x真正解決這類問題還有很遠(yuǎn)的距離,但這是這個領(lǐng)域的首項研究,對這個問題做出努力。

Learning to Reason: End-to-End Module Networks for Visual Question Answering

  • 學(xué)習(xí)推理:用于視覺問題回答的端到端模型網(wǎng)絡(luò)

  • 作者:Ronghang Hu, Jacob Andreas, Marcus Rohrbach, Trevor Darrell, Kate Saenko

  • 論文簡介:這篇論文介紹了一種用于回答“紫色的圓柱體左側(cè)的球是什么顏色”這類問題的新方法。在新方法中,問題會首先被轉(zhuǎn)換為一個小型計算機(jī)程序;然后程序中的每個指令都會由一個神經(jīng)網(wǎng)絡(luò)來執(zhí)行。程序生成器和程序執(zhí)行器都是從成對的圖像和問題中學(xué)習(xí)的。

Speaking the Same Language: Matching Machine to Human Captions by Adversarial Training

  • 講一樣的話:通過對抗性訓(xùn)練讓機(jī)器符合人類生成的標(biāo)題

  • 作者:Rakshith Shetty, Marcus Rohrbach, Lisa Anne Hendricks, Mario Fritz, Bernt Schiele

  • 論文簡介:這篇論文要處理的問題是圖像標(biāo)題的自動生成,也就是說,用自然語言描述一副圖像。主要的技術(shù)創(chuàng)新是,它嘗試讓系統(tǒng)生成的標(biāo)題更像是人類生成的。

圖像生成

Unsupervised Creation of Parameterized Avatars

  • 無監(jiān)督創(chuàng)作參數(shù)化漫畫照片

  • 作者:Lior Wolf, Yaniv Taigman, Adam Polyak

  • 論文簡介:這篇論文中開發(fā)了一個新的系統(tǒng),它可以基于一張正常的臉部照片,生成一個看起來很像你的漫畫照片。主要的技術(shù)創(chuàng)新是,系統(tǒng)是以一種無監(jiān)督的方法訓(xùn)練的。這意味著它并不是用成對的臉部照片和對應(yīng)的漫畫照片訓(xùn)練的,它拿到的只有整整一組人臉照片和另一組漫畫的照片。系統(tǒng)會自動學(xué)習(xí)如何找到人臉照片和漫畫照片之間的對應(yīng)關(guān)系。

3D視覺

Deltille Grids for Geometric Camera Calibration

  • 用于幾何相機(jī)矯正的Deltille網(wǎng)格

  • 作者:Hyowon Ha, Michal Perdoch, Hatem Alismail, In So Kweon, Yaser Sheikh

  • 論文簡介:物體的三維模型在很多場景下都會用到,比如虛擬顯示VR中。在一個圓頂一樣的空間內(nèi)布置上百個相機(jī),讓它們同時拍一張照片,就可以建立出一個三維模型。這些相機(jī)都需要先進(jìn)行校準(zhǔn),這樣如果系統(tǒng)知道所有相機(jī)的確切位置,它就可以把所有的照片都進(jìn)行合并,生成這個物體的三維模型。在過去的幾十年中,相機(jī)的校準(zhǔn)工作都是通過拍一張標(biāo)準(zhǔn)標(biāo)定板完成的。這篇文章中的成果表明,如果拍攝一張帶有三角形區(qū)域的標(biāo)定板,相機(jī)可以被校準(zhǔn)得更加準(zhǔn)確。

論文下載

為了方便國內(nèi)的小伙伴們閱讀,我們已經(jīng)把這15篇論文從Facebook官網(wǎng)搬運并打包,下載地址 https://pan.baidu.com/s/1missH9e 

其它ICCV活動

除了以上的收錄論文外,F(xiàn)acebook還會參加以下的多個Tutorial和Workshop

  • Instance-Level Visual Recognition Tutorial(何愷明會去這個,有同學(xué)想要去現(xiàn)場堵他的嗎?)

  • Closing the Loop between Vision and Language Workshop

  • Generative Adversarial Networks tutorial

  • Role of Simulation in Computer Vision workshop

  • Workshop on Web-Scale Vision and Social Media

  • Workshop on Computer Vision for Virtual Reality

  • COCO + Places Workshop

  • PoseTrack Challenge Workshop

ICCV2017期間,雷鋒網(wǎng) AI 科技評論也會繼續(xù)發(fā)出更多相關(guān)報道,請繼續(xù)關(guān)注。

雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

Facebook介紹ICCV2017收錄論文,其中五分之一都有何愷明的名字(附下載鏈接)

分享:
相關(guān)文章

讀論文為生

日常笑點滴,學(xué)術(shù)死腦筋
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說