丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能 正文
發(fā)私信給哈帝?白求恩
發(fā)送

0

Facebook 在CVPR 2017的四篇論文精選解讀|CVPR 2017

本文作者: 哈帝?白求恩 編輯:郭奕欣 2017-07-22 03:40 專題:CVPR 2017
導(dǎo)語:Facebook在CVPR上的四篇論文解讀。

CVPR是IEEE一年一度的計算機(jī)視覺與模式識別技術(shù)會議,也是計算機(jī)視覺的世界三大頂會之一。2017年的CVPR會議將于7月21日到26日于夏威夷Convention中心召開,雷鋒網(wǎng)將赴前線做覆蓋與報道。

論文一:ResNext:Aggregated Residual Transformations for Deep Neural Networks

深層神經(jīng)網(wǎng)絡(luò)的聚合殘差變換

論文作者:Saining Xie, Ross Girshick, Piotr Dollar, Zhuowen Tu1, Kaiming He

論文鏈接:https://arxiv.org/abs/1611.05431

論文摘要:

據(jù)雷鋒網(wǎng)(公眾號:雷鋒網(wǎng))了解,F(xiàn)acebook團(tuán)隊和圣地亞哥大學(xué)的AI研究員提出了一種采用VGG / ResNets重復(fù)層次策略的圖像分類網(wǎng)絡(luò)架構(gòu)。該網(wǎng)絡(luò)中的一個模塊執(zhí)行一組轉(zhuǎn)換,每個轉(zhuǎn)換都是低維嵌入的,其輸出是通過求和計算得到的。為了簡單的實現(xiàn)這個想法,這些聚合的轉(zhuǎn)換都具有相同的拓?fù)?。這種設(shè)計可以自由的擴(kuò)展到任何大量的轉(zhuǎn)換,而無需專門設(shè)計。

在這種簡化的情況下,該模型有兩種其他等效形式。

Facebook 在CVPR 2017的四篇論文精選解讀|CVPR 2017

ResNeXt的等效構(gòu)建塊。 (a):聚集殘余變換(b):等同于(a),執(zhí)行早期并置。 (c):等同于(a,b),執(zhí)行分組卷積。

該團(tuán)隊的簡單設(shè)計產(chǎn)生了一個均一的多分支架構(gòu),只需要設(shè)定幾個超參數(shù)。這個策略揭示了一個全新的維度,稱為“基數(shù)”(即轉(zhuǎn)換集合的大?。?,它是除了深度和寬度的尺寸之外的又一個重要因素。

在ImageNet-1K數(shù)據(jù)集上,該團(tuán)隊的實驗表明,即使在保持復(fù)雜性的限制條件下,增加基數(shù)也能夠提高分類精度。此外,當(dāng)增加容量的時候,增加基數(shù)相對于增加深度和寬度而言更加有效。隨著基數(shù)C從1增加到32,保持復(fù)雜性的同時,錯誤率卻不斷降低。

Facebook 在CVPR 2017的四篇論文精選解讀|CVPR 2017

ImageNet-1K消融實驗。 (上半部分):ResNet-50具有復(fù)雜性(41億FLOP); (下半部分):ResNet-101具有復(fù)雜性(78億FLOP)。 錯誤率在224?224個像素的單個體上進(jìn)行評估。

該團(tuán)隊的名為ResNeXt的模型,是他們打入ILSVRC 2016分類任務(wù)的基礎(chǔ),他們在此次任務(wù)當(dāng)中獲得了第二名。該團(tuán)隊還進(jìn)一步調(diào)查了ImageNet-5K集和COCO檢測集上的ResNeXt,與ResNet對應(yīng)相比,都顯示出更好的結(jié)果。


論文二:Feature Pyramid Networks for Object Detection

 用于對象檢測的特征金字塔網(wǎng)絡(luò)

論文作者:Tsung-Yi Lin, Piotr Doll, Ross Girshick, Kaiming He, Bharath Hariharan, Serge Belongie

論文鏈接: https://arxiv.org/pdf/1612.03144.pdf

論文摘要:

特征圖像金字塔(featurized image pyramids)是用于檢測不同尺度物體的識別系統(tǒng)的基本組成部分。但最近的深度學(xué)習(xí)對象檢測器避免了使用金字塔表示方法,部分原因是由于它們是由計算得出的并且內(nèi)存緊張。

Facebook 在CVPR 2017的四篇論文精選解讀|CVPR 2017

圖1(a)使用圖像金字塔構(gòu)建特征金字塔。 在每個圖像尺度上獨(dú)立地計算特征,速度很慢。 (b)最近的檢測系統(tǒng)選擇僅使用單一尺度特征來更快地檢測。 (c)一個替代方案是重新使用由ConvNet計算得到的金字塔特征層次,就好像它是一個特征化的圖像金字塔。 (d)本文提出的特征金字塔網(wǎng)絡(luò)(FPN)如(b)和(c)所示,但更準(zhǔn)確。 在該圖中,特征圖由藍(lán)色輪廓表示,較粗的輪廓表示語義上更強(qiáng)的特征。

在本文中,谷歌團(tuán)隊和康奈爾大學(xué)團(tuán)隊利用深度卷積網(wǎng)絡(luò)((ConvNets))的特征結(jié)構(gòu)的金字塔形狀,同時創(chuàng)建一個具有強(qiáng)大語義的特征金字塔。 為了實現(xiàn)這一目標(biāo),需要依靠一種通過自上而下的路徑和橫向連接低分辨率、語義強(qiáng)大的特征與高分辨率,語義薄弱的特征,將它們連接組成架構(gòu)(圖1(d))。 結(jié)果是組成一個在所有級別都具有豐富的語義的特征金字塔,并且可以使用單個輸入圖像快速構(gòu)建。 換句話說,本文展示了如何創(chuàng)建網(wǎng)絡(luò)中的特征金字塔,可以用來替代特征圖像金字塔而同時不犧牲速度或內(nèi)存。該方法利用架構(gòu)作為特征金字塔,其中每個級別獨(dú)立地做出預(yù)測(例如,對象檢測)

通過對小型,中型和大型對象(ARs,ARm和ARl)的平均回憶AR,以及COCO-style的平均回憶(AR)來進(jìn)行評估。 報告每個圖像100和1000個提案的結(jié)果(AR100和AR1k)。

Facebook 在CVPR 2017的四篇論文精選解讀|CVPR 2017

表1.使用RPN的邊界框提案結(jié)果,對COCO最小值進(jìn)行了評估。 所有型號都在trainval35k上訓(xùn)練。 “橫向”和“自頂向下”列分別表示側(cè)向和自頂向下的連接。 列“特征”表示頂部附著的特征圖。 所有結(jié)果都基于ResNet-50,并且共享相同的超參數(shù)。

Facebook 在CVPR 2017的四篇論文精選解讀|CVPR 2017

表2.使用 Fast R-CNN 對固定的提案集(RPN,{Pk},表1(c))的對象檢測結(jié)果,在COCO最小值集上進(jìn)行評估。 模型在trainval35k上訓(xùn)練。 所有結(jié)果都基于ResNet-50,并且共享相同的超參數(shù)。

Facebook 在CVPR 2017的四篇論文精選解讀|CVPR 2017

表3.使用Faster R-CNN [29]的對象檢測結(jié)果對COCO最小值進(jìn)行了評估。 RPN網(wǎng)絡(luò)與Fast R-CNN一致。 模型在trainval35k上進(jìn)行培訓(xùn),并使用ResNet-50。

這種稱為功能金字塔網(wǎng)絡(luò)(FPN)的架構(gòu)在幾個應(yīng)用程序中作為通用特征提取器都顯示出了顯著的改進(jìn)。在basic Faster R-CNN系統(tǒng)中使用FPN,能夠在COCO檢測基準(zhǔn)上獲得最先進(jìn)的單一模型結(jié)果,在沒有響鈴和口哨聲的情況下,超過了所有現(xiàn)有的單一模型條目,包括了COCO 2016挑戰(zhàn)賽的獲獎?wù)?。此外,該金字塔結(jié)構(gòu)可以用所有尺度進(jìn)行訓(xùn)練,并在訓(xùn)練/測試時間也可以一致的使用。 因此,F(xiàn)PN能夠比所有現(xiàn)有的方法獲得更高的精度。 此外,這種改進(jìn)是在單一規(guī)模基線上不增加測試時間的情況下實現(xiàn)的。 研究者相信這些進(jìn)展將有助于未來的研究和應(yīng)用。該方法可以在GPU上以6 FPS運(yùn)行,因此是多尺度對象檢測的實用且準(zhǔn)確的解決方案。

論文一:Learning Features by Watching Objects Move

通過觀察物體移動來學(xué)習(xí)特征

論文作者:Deepak Pathak, Ross Girshick, Piotr Doll, Trevor Darrell, Bharath Hariharan1

Learning Features by Watching Objects Move

論文鏈接:https://arxiv.org/abs/1612.06370

論文摘要:

本文提出了一種新穎而直觀的無監(jiān)管特征學(xué)習(xí)方法。 該方法是受到人類視覺系統(tǒng)的啟發(fā)而得來的。一起移動的像素往往是同屬于一個物體的。 解析靜態(tài)場景的能力隨著時間的推移而改善,這表明基于運(yùn)動的分組出現(xiàn)在早期,靜態(tài)分組將在隨后可能是基于由運(yùn)動線索引導(dǎo)而獲取的。

Facebook 在CVPR 2017的四篇論文精選解讀|CVPR 2017

圖1.低等級的外觀線索導(dǎo)致錯誤的分組(右上角)。 運(yùn)動可以幫助正確地分組,在一起移動的像素(左下方)將被識別為同一組的單個對象(右下)。使用無監(jiān)督的基于運(yùn)動的分組來訓(xùn)練ConvNet來分割靜態(tài)圖像中的對象,并顯示出網(wǎng)絡(luò)能夠?qū)W習(xí)特征,并將其應(yīng)用到其他任務(wù)中。

該團(tuán)隊在探討是否可以使用基于低級運(yùn)動的分組線索來學(xué)習(xí)有效的視覺表示。 具體來說,他們將使用無監(jiān)督的基于運(yùn)動的視頻片段來獲得分段,并將其用作“偽地面真相”來訓(xùn)練卷積網(wǎng)絡(luò),以從單個幀中分割識別對象。

Facebook 在CVPR 2017的四篇論文精選解讀|CVPR 2017

圖2.方法概述 使用運(yùn)動線索來分割視頻中的對象而無需任何監(jiān)督。 然后,對ConvNet進(jìn)行訓(xùn)練,從靜態(tài)幀中預(yù)測這些分段,即沒有任何運(yùn)動線索。 然后,將學(xué)習(xí)的到的物體表示應(yīng)用到其他識別任務(wù)中。

Facebook 在CVPR 2017的四篇論文精選解讀|CVPR 2017

圖7. ConvNet上生成的圖像分段示例。 ConvNet能夠識別運(yùn)動對象,并從單個框架中分割出來。 掩碼并不完美,但它們確實能捕捉到一般物體的形狀。

鑒于廣泛證據(jù)顯示,運(yùn)動在人類視覺系統(tǒng)發(fā)展中發(fā)揮著關(guān)鍵作用,他們希望這種無監(jiān)督學(xué)習(xí)的直接的方法將比在文獻(xiàn)中研究的巧妙設(shè)計的任務(wù)更有效。 事實上,廣泛的實驗表明,用于物體檢測的轉(zhuǎn)移學(xué)習(xí)時,該方法的表現(xiàn)在多種設(shè)置中都顯著優(yōu)于以前的無監(jiān)督方法。特別是當(dāng)目標(biāo)任務(wù)的訓(xùn)練數(shù)據(jù)很少時,即使大多數(shù)ConvNet參數(shù)被凍結(jié),該方法也保持著良好的性能。

雷鋒網(wǎng)整理

雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

Facebook 在CVPR 2017的四篇論文精選解讀|CVPR 2017

分享:
相關(guān)文章
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說