丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能 正文
發(fā)私信給AI研習社-譯站
發(fā)送

0

DilatedNet - 擴張卷積(語義分割)

本文作者: AI研習社-譯站 2019-04-03 10:37
導語:這次,對來自普林斯頓大學和英特爾實驗室的Dilated Convolution一文進行了簡要回顧。

DilatedNet - 擴張卷積(語義分割)

本文為 AI 研習社編譯的技術博客,原標題 :

Review: DilatedNet?—?Dilated Convolution (Semantic Segmentation)

作者 | Sik-Ho Tsang

翻譯 | 斯蒂芬·二狗子         

校對 | 醬番梨        審核 | 約翰遜·李加薪       整理 | 立魚王

原文鏈接:

https://towardsdatascience.com/review-dilated-convolution-semantic-segmentation-9d5a5bd768f5

注:本文的相關鏈接請訪問文末【閱讀原文】

這次,對來自普林斯頓大學和英特爾實驗室的Dilated Convolution一文進行了簡要回顧。擴張卷積的思想來自小波分解。它也被稱為“atrous convolution”,“algorithmeàtrous”和“hole algorithm”。因此,如果我們能夠將它們轉變?yōu)樯疃葘W習框架,那么可以認為過去的任何想法仍然是有用的。

當我寫這篇故事時,這個擴張卷積已經在2016年ICLR上發(fā)表,引用超過1000次。(SH Tsang @ Medium)

涉及的內容

  1. 擴張卷積

  2. 多尺度上下文聚合(上下文模塊)

  3. 結果


   1.擴張卷積

DilatedNet - 擴張卷積(語義分割)

標準卷積(左),擴張卷積(右)

左邊是標準卷積。正確的是擴張卷積。我們可以看到,在求和時,s+lt=p 我們將在卷積期間跳過一些點。

當  l = 1時,它是標準卷積。

當  l > 1時,它是擴張的卷積。

DilatedNet - 擴張卷積(語義分割)

標準卷積(l = 1)

DilatedNet - 擴張卷積(語義分割)

擴張卷積(l = 2)

上面給出了當l = 2 時擴張卷積的一個例子  。我們可以看到,與標準卷積相比,感受野更大。

DilatedNet - 擴張卷積(語義分割)

l = 1(左),l = 2(中),l = 4(右)

上圖顯示了有關感受野的三個示例。


   2.多尺度的上下文聚合(上下文模塊)

基于擴張卷積來構建的上下文模塊Context Module,如下所示:

DilatedNet - 擴張卷積(語義分割)

 基礎的上下文模塊,和大的上下文模塊

如圖,context module有7層,這些層采用不同擴張率的3×3 kernel size 的擴張卷積,擴張的率分別為1,1,2,4,8,16,1。

最后一層用了一個1×1的卷積,將通道數映射為與輸入通道數相同大小。因此,輸入和輸出具有相同數量的通道。它可以插入到不同類型的卷積神經網絡中。

基本上下文模塊basic context module在整個模塊中僅有1個通道(1C,1 channel),而大上下文模塊large context module從1C 作為輸入到第7層的32C的通道數。


   3.結果

3.1. PASCAL VOC 2012

VGG-16 作為一個前端模塊(預訓練)。刪除了最后的兩個池化層和striding 層,并將context上下文模塊插入其中。中間的特征圖的padding也被移除了。作者只是對輸入的特征圖加了一個寬度為33的padding。Zero Padding (填充0)和 reflection padding(使用輸入邊界的反射填充,一種padding方式)在我們的實驗中得出了類似的結果。此外,使用輸入和輸出的通道channels的數量的權重來初始化的方式代替標準隨機初始化模型參數。

DilatedNet - 擴張卷積(語義分割)

PASCAL VOC 2012 測試集

與原作者訓練的公共模型相比,擴張卷積方法在測試集上的性能優(yōu)于FCN-8s 模型 和 DeepLabv1 模型 約5個百分點。

獲得了67.6%的mean IoU(平均交并比)

DilatedNet - 擴張卷積(語義分割)

PASCAL VOC 2012 驗證集

通過對來自 微軟-COCO數據集 的圖像進行訓練,如上所示,對擴張卷積本身進行消融實驗研究。

  • Front end:前端模塊

  • Basic:基本上下文模塊

  • Large:大型上下文模塊

  • CRF:使用DeepLabv1和  DeepLabv2中 提到的條件隨機場的對模型輸做處理步驟 

  • RNN:通過遞歸神經網絡使用條件隨機場的后處理步驟

我們可以看到采用擴張卷積(basic 或 large)總能改善結果,并且還可以繼續(xù)使用其他后續(xù)處理步驟,如CRF。

獲得了73.9%的mean IoU(平均交并比)  

DilatedNet - 擴張卷積(語義分割)

PASCAL VOC 2012  測試集

上表中的前端模塊也是通過對來自Microsoft COCO數據集進行訓練而獲得的。使用CRF-RNN(即上表中的RNN),獲得75.3%的平均IoU。雷鋒網雷鋒網雷鋒網

3.2. 定性結果

DilatedNet - 擴張卷積(語義分割)

PASCAL VOC 2012

所有模型都使用  VGG-16  進行特征提取,使用擴張卷積在分割結果上具有更好的效果

DilatedNet - 擴張卷積(語義分割)

PASCAL VOC 2012

使用CRF-RNN作為后面的處理步驟,以獲得了更好的結果。但CRF-RNN使得該過程不是端到端的學習。

DilatedNet - 擴張卷積(語義分割)

失敗案例

如上所示的一些模型分割出錯的情況,當對象被遮擋時,分割出錯。

在附錄中給出不同的數據集的測試結果,即CamVid,KITTI和Cityscapes,請隨時閱讀本文。他們還發(fā)布了應用擴張卷積的殘差網絡Dilated Residual Networks。希望我能在將來寫到它。:)

參考

[2016 ICLR] [Dilated Convolutions]

Multi-Scale Context Aggregation by Dilated Convolutions

我的相關評論

[ VGGNet ] [ FCN ] [ DeconvNet ] [ DeepLabv1和DeepLabv2 ]

想要繼續(xù)查看該篇文章相關鏈接和參考文獻?

點擊DilatedNet - 擴張卷積(語義分割)即可訪問:

https://ai.yanxishe.com/page/TextTranslation/1538

機器學習大禮包

限時免費\18本經典書籍/Stanford經典教材+論文

點擊鏈接即可獲取:

https://ai.yanxishe.com/page/resourceDetail/574



雷峰網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知。

DilatedNet - 擴張卷積(語義分割)

分享:
相關文章

知情人士

AI研習社(yanxishe.com)譯站頻道,傳播前沿人工智能知識,讓語言不再成為學習知識的門檻。(原雷鋒字幕組)
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說