丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能 正文
發(fā)私信給奕欣
發(fā)送

0

CVPR 18 論文解讀:基于空洞卷積神經(jīng)網(wǎng)絡(luò)的高密度人群理解方法 | CVPR 2018

本文作者: 奕欣 2018-03-07 11:34 專題:CVPR 2018
導(dǎo)語:來自北京郵電大學(xué)和美國伊利諾伊大學(xué)(UIUC)的研究者們提出一種適用于密集人群計數(shù)的空洞卷積神經(jīng)網(wǎng)絡(luò)模型 CSRNet。

雷鋒網(wǎng) AI 科技評論按:本文作者為美國伊利諾伊大學(xué)(UIUC)張曉帆,他為 AI 科技評論撰寫了基于 CVPR 錄用論文《CSRNet: Dilated Convolutional Neural Networks for Understanding the Highly Congested Scenes》的獨家解讀稿件,未經(jīng)許可不得轉(zhuǎn)載。

論文地址:https://arxiv.org/pdf/1802.10062.pdf

來自北京郵電大學(xué)和美國伊利諾伊大學(xué)(UIUC)的研究者們提出一種適用于密集人群計數(shù)的空洞卷積神經(jīng)網(wǎng)絡(luò)模型 CSRNet。該網(wǎng)絡(luò)模型擺脫以往廣泛應(yīng)用于人群計數(shù)的多通道卷積網(wǎng)絡(luò)方案,在大幅削減網(wǎng)絡(luò)參數(shù)量和網(wǎng)絡(luò)訓(xùn)練難度的同時,顯著提升了人群計數(shù)的精度和人群分布密度圖的還原度。該研究已被 CVPR 2018 接收。

人群計數(shù)和人群密度估計有著重要的安防應(yīng)用場景。隨著城市人口的日益增長,在地鐵站,商場,各種節(jié)日集會中,超額聚集的人群帶來潛在危險,極容易造成踩踏、騷亂等悲劇。因此,人群計數(shù)和人群的密度分布估計成為安防領(lǐng)域的熱門課題。近年來,人群計數(shù)的算法性能在與深度學(xué)習(xí)的結(jié)合下得到了很大的提升。

人群計數(shù)的目的是找出特定場景中的人數(shù),而人群密度分布估計需要獲取空間密度信息和人數(shù)(密度圖求和)。人群計數(shù)的難點在于,場景的變化跨度大,目標(biāo)的尺度變化不盡相同,人和人、人和景物之間存在不同程度的遮擋等等。如圖 1 所示,三張圖均包含了 95 人,但是他們的空間分布完全不同。

CVPR 18 論文解讀:基于空洞卷積神經(jīng)網(wǎng)絡(luò)的高密度人群理解方法 | CVPR 2018

圖 1 人群計數(shù)場景

作者研究發(fā)現(xiàn),被廣泛運用在人群計數(shù)上的多通道卷積網(wǎng)絡(luò)(MCNN)存在著結(jié)構(gòu)冗余、參數(shù)繁多、訓(xùn)練困難的局限性。此類多通道卷積網(wǎng)絡(luò)在不同通道上采取大小不等感受域的卷積網(wǎng)絡(luò),以適應(yīng)不同場景(如高、中、低密集程度)的人群計數(shù)需要。但研究發(fā)現(xiàn),不同通道學(xué)習(xí)到的特征重合度很高(圖 2),并沒有因場景密集程度不同而出現(xiàn)明顯差異。多通道網(wǎng)絡(luò)表現(xiàn)冗余。為作對比,作者采用一個參數(shù)更少、更深層、更易訓(xùn)練的單通道卷積網(wǎng)絡(luò)(A deeper CNN),獲得比多通道網(wǎng)絡(luò)更好的效果(表 1)。

CVPR 18 論文解讀:基于空洞卷積神經(jīng)網(wǎng)絡(luò)的高密度人群理解方法 | CVPR 2018 

圖 2 多通道卷積網(wǎng)絡(luò)中的大、中、小通道在 ShanghaiTech PartA 中的測試表現(xiàn)相似

CVPR 18 論文解讀:基于空洞卷積神經(jīng)網(wǎng)絡(luò)的高密度人群理解方法 | CVPR 2018 表 1 更深的單通道卷積網(wǎng)絡(luò)使用較少參數(shù)卻在 ShanghaiTech PartA 中獲得更小誤差

此外,作者為了避免過度使用降采樣而導(dǎo)致密度圖的分辨率損失,在網(wǎng)絡(luò)的后半部分引入了空洞卷積層,利用空洞卷積增大感受域并維持分辨率(圖 3),并提出 CSRNet 網(wǎng)絡(luò)模型(表 2)。CSRNet 后端四組不同的配置在 ShanghaiTech PartA 中性能測試如表 3。

CVPR 18 論文解讀:基于空洞卷積神經(jīng)網(wǎng)絡(luò)的高密度人群理解方法 | CVPR 2018

圖 3 使用卷積+池化+上采樣(上)與空洞卷積(下)輸出同樣分辨率圖像,空洞卷積可保留更多圖像細節(jié)

CVPR 18 論文解讀:基于空洞卷積神經(jīng)網(wǎng)絡(luò)的高密度人群理解方法 | CVPR 2018 表 2 CSRNet 網(wǎng)絡(luò)結(jié)構(gòu),卷積以參數(shù)命名為(conv kernel size – channel – dilation rate)

CVPR 18 論文解讀:基于空洞卷積神經(jīng)網(wǎng)絡(luò)的高密度人群理解方法 | CVPR 2018

 表 3 CSRNet 的四種后端配置在人群計數(shù)中精度對比,其中方案 B 精度最高

由于采用比多通道網(wǎng)絡(luò)更簡單的結(jié)構(gòu),CSRNet 在訓(xùn)練時可直接采用端到端訓(xùn)練并快速復(fù)現(xiàn)實驗結(jié)果,也可利用遷移學(xué)習(xí)提高訓(xùn)練效果。得益于簡單、規(guī)整的網(wǎng)絡(luò)結(jié)構(gòu),CSRNet 對硬件實現(xiàn)更加友好,可以高效地部署在物聯(lián)網(wǎng)設(shè)備中。

實驗表明,CSRNet 在四個公開人群數(shù)據(jù)集(ShanghaiTech dataset、the UCF CC 50 dataset、the WorldEXPO'10 dataset、the UCSD dataset)和一個車輛數(shù)據(jù)集(TRANCOS dataset)上均達到了最高水平的精確度(State-of-the-art Performance),詳見表 4 至表 8。

CVPR 18 論文解讀:基于空洞卷積神經(jīng)網(wǎng)絡(luò)的高密度人群理解方法 | CVPR 2018

表 4 ShanghaiTech 數(shù)據(jù)集測試結(jié)果

CVPR 18 論文解讀:基于空洞卷積神經(jīng)網(wǎng)絡(luò)的高密度人群理解方法 | CVPR 2018 表 5 UCF CC 50 數(shù)據(jù)集測試結(jié)果

CVPR 18 論文解讀:基于空洞卷積神經(jīng)網(wǎng)絡(luò)的高密度人群理解方法 | CVPR 2018 表 6 WorldExpo' 10 數(shù)據(jù)集測試結(jié)果

CVPR 18 論文解讀:基于空洞卷積神經(jīng)網(wǎng)絡(luò)的高密度人群理解方法 | CVPR 2018

表 7 UCSD 數(shù)據(jù)集測試結(jié)果

CVPR 18 論文解讀:基于空洞卷積神經(jīng)網(wǎng)絡(luò)的高密度人群理解方法 | CVPR 2018

表 8 TRANCOS 數(shù)據(jù)集測試結(jié)果

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

CVPR 18 論文解讀:基于空洞卷積神經(jīng)網(wǎng)絡(luò)的高密度人群理解方法 | CVPR 2018

分享:
相關(guān)文章
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說