丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能 正文
發(fā)私信給AI研習社-譯站
發(fā)送

0

一文帶你讀懂 DeconvNet 上采樣層(語義分割)

本文作者: AI研習社-譯站 2019-03-18 10:07
導語:在本文中,我們簡要回顧了DeconvNet,反卷積網絡(DeconvNet)由反卷積deconvolution 和上池化unpooling層組成。

一文帶你讀懂 DeconvNet 上采樣層(語義分割)

本文為 AI 研習社編譯的技術博客,原標題 :

Review: DeconvNet?—?Unpooling Layer (Semantic Segmentation)

作者 | SH Tsang

翻譯 | 斯蒂芬·二狗子       

校對 | 醬番梨        審核 | 約翰遜·李加薪       整理 | 立魚王

原文鏈接:

https://towardsdatascience.com/review-deconvnet-unpooling-layer-semantic-segmentation-55cf8a6e380e

在本文中,我們簡要回顧了DeconvNet,反卷積網絡(DeconvNet)由反卷積deconvolution 和上池化unpooling層組成。

對于傳統(tǒng)的全卷積網絡FCN,輸出是通過高比率(32×,16×和8×倍)的上采樣獲得的,這可能引起粗分割輸出結果(標簽圖)。在DeconvNet中,最終的輸出標簽是通過逐漸進行的反卷積和上池化獲得的。這篇論文發(fā)表于2015年ICCV上,當我寫這篇博文時,已經有一千多的引用量(SH Tsang @ Medium)。

本文涉及的內容

  1. 上池化和反卷積

  2. 實例分割

  3. 兩階段訓練

  4. 模型結果


   1.上采樣和反卷積

以下是DeconvNet的整體架構:


一文帶你讀懂 DeconvNet 上采樣層(語義分割)

DeconvNet 的架構

正如我們看到的,該網絡使用VGG作為其backbone框架。第一部分是卷積網絡,像FCN一樣,具有卷積和池化層。第二部分是反卷積網絡,這是本文中的一個新穎部分。

一文帶你讀懂 DeconvNet 上采樣層(語義分割)

Pooling過程(左),模型記住位置信息,在Unpooling期間使用位置信息(右)

要執(zhí)行上池化,我們需要記住執(zhí)行最大池時每個最大激活值的位置,如上所示。然后,記住的位置信息用于上池化操作,如上所示。

一文帶你讀懂 DeconvNet 上采樣層(語義分割)

卷積是將輸入轉換為更小的尺寸(左),反卷積是將輸入轉換回更大的尺寸(右)

反卷積只是為了將輸入轉換回更大的尺寸。 (如有興趣,請閱讀我的有關FCN評論一文,詳細了解。)

一文帶你讀懂 DeconvNet 上采樣層(語義分割)

一個反卷積Deconvolution 和上池化Unpooling的例子

上圖是一個例子。 (b)是14×14 反卷積層的輸出。 (c)是上池化后的輸出,依此順序類推。我們可以在(j)中看到自行車的標簽圖可以在最后的224×224 反卷積層重建,這表明學習特征的這些卷積核可以捕獲類特定的形狀信息。

一文帶你讀懂 DeconvNet 上采樣層(語義分割)

輸入圖像(左),F(xiàn)CN-8s(中),DeconvNet(右)

上面展示的其他示例表明DeconvNet比FCN-8可以給出更精確的形狀。


   2.實例分割

一文帶你讀懂 DeconvNet 上采樣層(語義分割)

不使用區(qū)域提議Region Proposals的語義分割任務的不好的例子

如上所示,基本上大于或小于感受野的物體可能被模型給碎片化分割或貼上錯誤的標簽。像素較小的目標經常被忽略并歸類為背景。

語義分割可以看為是實例分割問題。首先,通過對象檢測方法EdgeBox檢測2000個區(qū)域建議region proposals中的前50個(邊界框)。然后,DeconvNet應用于每個區(qū)域,并將所有建議區(qū)域的輸出匯總回原始圖像。通過使用 proposals  ,可以有效地處理各種規(guī)模的圖片分割問題。


   3.兩階段訓練

第一階段訓練

使用ground-truth標注來裁剪目標實例,使目標在裁剪的邊界框中居中,然后進行訓練。這有助于減少對象位置和大小的變化。

第二階段訓練

使用更具挑戰(zhàn)性的例子。這些例子是由重疊的ground-truth 分割的區(qū)域建議生成/裁剪的。

其他細節(jié)

  • BN 在網絡中使用

  • 使用VGG的權重來初始化卷積層的參數(shù)

  • 反卷積層的參數(shù)初始化為0均值的高斯分布

  • 每batch樣本數(shù)量是64


   4.結果

一文帶你讀懂 DeconvNet 上采樣層(語義分割)

mean Iou結果

  • FCN-8s:只有 64.4% mean IoU.

  • DeconvNet: 69.6%

  • DeconvNet+CRF: 70.5% (其中CRF只是一個模型輸出后的處理步驟)

  • EDeconvNet: 71.5% (EDeconvNet 是指DeconvNet和FCN-8s模型集成后的結果)

  • EDeconvNet+CRF: 72.5%具有最高的mean IoU結果。

一文帶你讀懂 DeconvNet 上采樣層(語義分割)

實例分割的優(yōu)勢

從上圖中知道,實例分割有助于逐個實例地逐步分割,而不是一次對所有實例進行分段。

值得注意的是,DeconvNet的優(yōu)勢不僅來逐步的反卷積和上池,還可能來自實例分割和兩階段 two-stage的訓練。

一文帶你讀懂 DeconvNet 上采樣層(語義分割)

一些可視化結果

即使EConvNet + CRF輸出結果比FCN差,但通常它的實際效果還是很好的。

參考文獻

[2015 ICCV] [DeconvNet]
Learning Deconvolution Network for Semantic Segmentation

我的其他文章

[FCN] [VGGNet]

想要繼續(xù)查看該篇文章相關鏈接和參考文獻?

點擊【一文帶你讀懂 DeconvNet 上采樣層(語義分割)】或長按下方地址:

https://ai.yanxishe.com/page/TextTranslation/1530

AI研習社今日推薦:雷鋒網雷鋒網雷鋒網

李飛飛主講王牌課程,計算機視覺的深化課程,神經網絡在計算機視覺領域的應用,涵蓋圖像分類、定位、檢測等視覺識別任務,以及其在搜索、圖像理解、應用、地圖繪制、醫(yī)學、無人駕駛飛機和自動駕駛汽車領域的前沿應用。

加入小組免費觀看視頻:https://ai.yanxishe.com/page/groupDetail/19

一文帶你讀懂 DeconvNet 上采樣層(語義分割)

雷峰網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知。

一文帶你讀懂 DeconvNet 上采樣層(語義分割)

分享:
相關文章

知情人士

AI研習社(yanxishe.com)譯站頻道,傳播前沿人工智能知識,讓語言不再成為學習知識的門檻。(原雷鋒字幕組)
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說