0
本文作者: AI研習社-譯站 | 2019-04-03 10:37 |
本文為 AI 研習社編譯的技術博客,原標題 :
Review: DilatedNet?—?Dilated Convolution (Semantic Segmentation)
作者 | Sik-Ho Tsang
翻譯 | 斯蒂芬·二狗子
校對 | 醬番梨 審核 | 約翰遜·李加薪 整理 | 立魚王
原文鏈接:
https://towardsdatascience.com/review-dilated-convolution-semantic-segmentation-9d5a5bd768f5
注:本文的相關鏈接請訪問文末【閱讀原文】
這次,對來自普林斯頓大學和英特爾實驗室的Dilated Convolution一文進行了簡要回顧。擴張卷積的思想來自小波分解。它也被稱為“atrous convolution”,“algorithmeàtrous”和“hole algorithm”。因此,如果我們能夠將它們轉變?yōu)樯疃葘W習框架,那么可以認為過去的任何想法仍然是有用的。
當我寫這篇故事時,這個擴張卷積已經在2016年ICLR上發(fā)表,引用超過1000次。(SH Tsang @ Medium)
涉及的內容
擴張卷積
多尺度上下文聚合(上下文模塊)
結果
標準卷積(左),擴張卷積(右)
左邊是標準卷積。正確的是擴張卷積。我們可以看到,在求和時,s+lt=p 我們將在卷積期間跳過一些點。
當 l = 1時,它是標準卷積。
當 l > 1時,它是擴張的卷積。
標準卷積(l = 1)
擴張卷積(l = 2)
上面給出了當l = 2 時擴張卷積的一個例子 。我們可以看到,與標準卷積相比,感受野更大。
l = 1(左),l = 2(中),l = 4(右)
上圖顯示了有關感受野的三個示例。
基于擴張卷積來構建的上下文模塊Context Module,如下所示:
基礎的上下文模塊,和大的上下文模塊
如圖,context module有7層,這些層采用不同擴張率的3×3 kernel size 的擴張卷積,擴張的率分別為1,1,2,4,8,16,1。
最后一層用了一個1×1的卷積,將通道數映射為與輸入通道數相同大小。因此,輸入和輸出具有相同數量的通道。它可以插入到不同類型的卷積神經網絡中。
基本上下文模塊basic context module在整個模塊中僅有1個通道(1C,1 channel),而大上下文模塊large context module從1C 作為輸入到第7層的32C的通道數。
VGG-16 作為一個前端模塊(預訓練)。刪除了最后的兩個池化層和striding 層,并將context上下文模塊插入其中。中間的特征圖的padding也被移除了。作者只是對輸入的特征圖加了一個寬度為33的padding。Zero Padding (填充0)和 reflection padding(使用輸入邊界的反射填充,一種padding方式)在我們的實驗中得出了類似的結果。此外,使用輸入和輸出的通道channels的數量的權重來初始化的方式代替標準隨機初始化模型參數。
PASCAL VOC 2012 測試集
與原作者訓練的公共模型相比,擴張卷積方法在測試集上的性能優(yōu)于FCN-8s 模型 和 DeepLabv1 模型 約5個百分點。
獲得了67.6%的mean IoU(平均交并比)
PASCAL VOC 2012 驗證集
通過對來自 微軟-COCO數據集 的圖像進行訓練,如上所示,對擴張卷積本身進行消融實驗研究。
Front end:前端模塊
Basic:基本上下文模塊
Large:大型上下文模塊
CRF:使用DeepLabv1和 DeepLabv2中 提到的條件隨機場的對模型輸做處理步驟
RNN:通過遞歸神經網絡使用條件隨機場的后處理步驟
我們可以看到采用擴張卷積(basic 或 large)總能改善結果,并且還可以繼續(xù)使用其他后續(xù)處理步驟,如CRF。
獲得了73.9%的mean IoU(平均交并比)
PASCAL VOC 2012 測試集
上表中的前端模塊也是通過對來自Microsoft COCO數據集進行訓練而獲得的。使用CRF-RNN(即上表中的RNN),獲得75.3%的平均IoU。雷鋒網雷鋒網雷鋒網
PASCAL VOC 2012
所有模型都使用 VGG-16 進行特征提取,使用擴張卷積在分割結果上具有更好的效果
PASCAL VOC 2012
使用CRF-RNN作為后面的處理步驟,以獲得了更好的結果。但CRF-RNN使得該過程不是端到端的學習。
失敗案例
如上所示的一些模型分割出錯的情況,當對象被遮擋時,分割出錯。
在附錄中給出不同的數據集的測試結果,即CamVid,KITTI和Cityscapes,請隨時閱讀本文。他們還發(fā)布了應用擴張卷積的殘差網絡Dilated Residual Networks。希望我能在將來寫到它。:)
[2016 ICLR] [Dilated Convolutions]
Multi-Scale Context Aggregation by Dilated Convolutions
[ VGGNet ] [ FCN ] [ DeconvNet ] [ DeepLabv1和DeepLabv2 ]
想要繼續(xù)查看該篇文章相關鏈接和參考文獻?
點擊【DilatedNet - 擴張卷積(語義分割)】即可訪問:
https://ai.yanxishe.com/page/TextTranslation/1538
機器學習大禮包
限時免費\18本經典書籍/Stanford經典教材+論文
點擊鏈接即可獲取:
https://ai.yanxishe.com/page/resourceDetail/574
雷峰網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知。