0
本文作者: 隔壁王大喵 | 2017-08-22 07:49 |
雷鋒網(wǎng) AI 科技評(píng)論按:CV大牛何愷明在Facebook人工智能實(shí)驗(yàn)室的新作,一起來圍觀!
何愷明博士,2007年清華大學(xué)畢業(yè)之后開始在微軟亞洲研究院(MSRA)實(shí)習(xí),2011年香港中文大學(xué)博士畢業(yè)后正式加入MSRA,目前在Facebook人工智能實(shí)驗(yàn)室(FAIR)實(shí)驗(yàn)室擔(dān)任研究科學(xué)家。何愷明博士最讓人印象深刻的是曾兩次以第一作者身份摘得CVPR最佳論文獎(jiǎng)(2009和2016),其中2016年CVPR最佳論文為圖像識(shí)別中的深度殘差學(xué)習(xí)(Deep Residual Learning for Image Recognition),就是舉世聞名的152層深度殘差網(wǎng)絡(luò) ResNet-152。
這次,何愷明博士的新論文名為「Focal Loss for Dense Object Detection」,利用“焦距損失”的方法,應(yīng)對(duì)樣本不均衡的問題,從而大幅度提升了物體檢測效果,以下是雷鋒網(wǎng) AI 科技評(píng)論對(duì)這篇論文的介紹。
物體檢測(Object detection)是計(jì)算機(jī)視覺研究領(lǐng)域的一項(xiàng)重要任務(wù),而迄今為止表現(xiàn)最好的物體檢測方法是由于R-CNN而流行開來的兩階段法,這種方法現(xiàn)在第一階段首先生成一個(gè)包含所有物體、過濾了大多數(shù)沒有物體的背景區(qū)域的稀疏侯選集合,然后在第二階段重新判別所有的候選點(diǎn),把它們明確地分為前景類別以及背景。R-CNN的運(yùn)用就是在兩階段法中用一個(gè)卷積網(wǎng)絡(luò)作為第二階段的分類器,取得了精度的大幅度進(jìn)步。在多年的改進(jìn)中,R-CNN也經(jīng)歷了許多升級(jí),速度和準(zhǔn)確率都有繼續(xù)的提升。
另一種物體檢測方法是單階段法,以近期的 SSD 和 YOLO 為代表。它們的好處是速度有很大提升,代價(jià)是犧牲了精度;SSD的識(shí)別準(zhǔn)確率要低10%~20%,YOLO 則更加注重速度,準(zhǔn)確率的犧牲更大。如下圖中字母的位置就是不同的網(wǎng)絡(luò)在準(zhǔn)確率和推理時(shí)間取得的平衡。近期的研究也顯示出,如果想要加速兩階段法的網(wǎng)絡(luò),降低輸入圖像的分辨率即可達(dá)到很好的效果,但是想要提升單階段方法的準(zhǔn)確率的話,很高的計(jì)算開銷也收效甚微,表現(xiàn)改善陷入了困境。
而圖中的兩條線則是這篇論文中提出的模型的表現(xiàn)。作者們的目的是讓單階段方法也有很高的準(zhǔn)確率。那么他們的最終結(jié)果 RetinaNet,分別在同樣的推理時(shí)間下,比所有現(xiàn)有模型都取得了更高的準(zhǔn)確率。而且根據(jù)不同的網(wǎng)絡(luò)大小也可以在速度和準(zhǔn)確率之間取得不同的平衡。效果可謂是驚人地好。
據(jù)雷鋒網(wǎng) AI 科技評(píng)論了解,研究員們在探究單階段網(wǎng)絡(luò)準(zhǔn)確率表現(xiàn)不佳的狀況時(shí),發(fā)現(xiàn)在密集檢測器(Dense detectors)訓(xùn)練期間遇到了極端的前景-背景類別不平衡(Extreme foreground-background class imbalance)是一個(gè)重要原因。比如SSD中,檢測器需要在每張圖像中評(píng)價(jià)一萬個(gè)到十萬個(gè)候選位置,然而其中只有很少的點(diǎn)真的含有目標(biāo)物體。這就導(dǎo)致了訓(xùn)練效率低下和簡單的負(fù)面樣本引發(fā)整個(gè)模型表現(xiàn)下降的問題。
所以,研究員們提出了通過重塑標(biāo)準(zhǔn)交叉熵?fù)p失來解決這一類不平衡問題。他們的想法是降低簡單的負(fù)面樣本所占的權(quán)重,所以他們提出的焦點(diǎn)損失(Focal Loss)方法將訓(xùn)練集中在一系列難點(diǎn)上,并且防止了大量的簡單負(fù)面例子在訓(xùn)練過程中阻礙探測器學(xué)習(xí)。如上圖,參數(shù) γ 的值選擇得越大,模型就會(huì)對(duì)已經(jīng)得到了很好的分類的樣本忽略得越多,越專注于難的樣本的學(xué)習(xí)。這樣的機(jī)制就讓他們的檢測器在密集對(duì)象檢測這樣的真實(shí)正面樣本比例很低的情況下取得了很高的準(zhǔn)確率。
由于論文作者中有 ResNet 提出者何愷明博士的名字,我們也不意外地發(fā)現(xiàn),ResNet 的成果在 RetinaNet 中得到了運(yùn)用。ResNet 的部分高水平地提取圖像中的特征,而在附加網(wǎng)絡(luò)中實(shí)現(xiàn)了樣本不平衡的調(diào)節(jié)。
圖一,上圖展示了單階段網(wǎng)絡(luò)RetinaNet的架構(gòu)。該架構(gòu)在前饋ResNet架構(gòu)(a)頂部使用特征金字塔網(wǎng)絡(luò)(Feature Pyramid Network, FPN)骨架,以生成更加豐富和多尺度的卷積特征金字塔(b)。RetinaNet在后面還附加了兩個(gè)子網(wǎng),一個(gè)是用于分類的錨盒(Anchor boxes)(c),另一個(gè)則是用于實(shí)現(xiàn)錨盒到Ground-truth物體盒之間的回歸(d)。該神經(jīng)網(wǎng)絡(luò)被有意設(shè)計(jì)成這種比較簡單的形式,這樣使得這項(xiàng)工作的精力能夠集中于焦點(diǎn)損失(Focal loss)函數(shù)上。該焦點(diǎn)損失函數(shù)消除了單階段檢測器與最新的兩階段檢測器之間的準(zhǔn)確率差距,并且運(yùn)行速度還更加快。
根據(jù) RetinaNet 中使用的 ResNet 網(wǎng)絡(luò)大小不同,形成了 RetinaNet-101 和 RetinaNet-50,兩個(gè)模型在大小為500、600、700、800的圖像上的表現(xiàn)就繪制出了文章開頭這張性能/時(shí)間對(duì)比圖中的兩條線。而這兩條線也就一起描繪出了現(xiàn)有方法的表現(xiàn)上限。
對(duì)于應(yīng)對(duì)樣本不平衡問題的關(guān)鍵方法“焦距損失”,作者們在論文中還提出了兩種不同的表現(xiàn)形式,都起到了很好的效果。更多模型細(xì)節(jié)可以查看原論文,論文地址:https://arxiv.org/abs/1708.02002
雷鋒網(wǎng) AI 科技評(píng)論編譯。
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。