0
本文作者: 隔壁王大喵 | 2017-08-22 07:49 |
雷鋒網(wǎng) AI 科技評論按:CV大牛何愷明在Facebook人工智能實驗室的新作,一起來圍觀!
何愷明博士,2007年清華大學畢業(yè)之后開始在微軟亞洲研究院(MSRA)實習,2011年香港中文大學博士畢業(yè)后正式加入MSRA,目前在Facebook人工智能實驗室(FAIR)實驗室擔任研究科學家。何愷明博士最讓人印象深刻的是曾兩次以第一作者身份摘得CVPR最佳論文獎(2009和2016),其中2016年CVPR最佳論文為圖像識別中的深度殘差學習(Deep Residual Learning for Image Recognition),就是舉世聞名的152層深度殘差網(wǎng)絡(luò) ResNet-152。
這次,何愷明博士的新論文名為「Focal Loss for Dense Object Detection」,利用“焦距損失”的方法,應對樣本不均衡的問題,從而大幅度提升了物體檢測效果,以下是雷鋒網(wǎng) AI 科技評論對這篇論文的介紹。
物體檢測(Object detection)是計算機視覺研究領(lǐng)域的一項重要任務,而迄今為止表現(xiàn)最好的物體檢測方法是由于R-CNN而流行開來的兩階段法,這種方法現(xiàn)在第一階段首先生成一個包含所有物體、過濾了大多數(shù)沒有物體的背景區(qū)域的稀疏侯選集合,然后在第二階段重新判別所有的候選點,把它們明確地分為前景類別以及背景。R-CNN的運用就是在兩階段法中用一個卷積網(wǎng)絡(luò)作為第二階段的分類器,取得了精度的大幅度進步。在多年的改進中,R-CNN也經(jīng)歷了許多升級,速度和準確率都有繼續(xù)的提升。
另一種物體檢測方法是單階段法,以近期的 SSD 和 YOLO 為代表。它們的好處是速度有很大提升,代價是犧牲了精度;SSD的識別準確率要低10%~20%,YOLO 則更加注重速度,準確率的犧牲更大。如下圖中字母的位置就是不同的網(wǎng)絡(luò)在準確率和推理時間取得的平衡。近期的研究也顯示出,如果想要加速兩階段法的網(wǎng)絡(luò),降低輸入圖像的分辨率即可達到很好的效果,但是想要提升單階段方法的準確率的話,很高的計算開銷也收效甚微,表現(xiàn)改善陷入了困境。
而圖中的兩條線則是這篇論文中提出的模型的表現(xiàn)。作者們的目的是讓單階段方法也有很高的準確率。那么他們的最終結(jié)果 RetinaNet,分別在同樣的推理時間下,比所有現(xiàn)有模型都取得了更高的準確率。而且根據(jù)不同的網(wǎng)絡(luò)大小也可以在速度和準確率之間取得不同的平衡。效果可謂是驚人地好。
據(jù)雷鋒網(wǎng) AI 科技評論了解,研究員們在探究單階段網(wǎng)絡(luò)準確率表現(xiàn)不佳的狀況時,發(fā)現(xiàn)在密集檢測器(Dense detectors)訓練期間遇到了極端的前景-背景類別不平衡(Extreme foreground-background class imbalance)是一個重要原因。比如SSD中,檢測器需要在每張圖像中評價一萬個到十萬個候選位置,然而其中只有很少的點真的含有目標物體。這就導致了訓練效率低下和簡單的負面樣本引發(fā)整個模型表現(xiàn)下降的問題。
所以,研究員們提出了通過重塑標準交叉熵損失來解決這一類不平衡問題。他們的想法是降低簡單的負面樣本所占的權(quán)重,所以他們提出的焦點損失(Focal Loss)方法將訓練集中在一系列難點上,并且防止了大量的簡單負面例子在訓練過程中阻礙探測器學習。如上圖,參數(shù) γ 的值選擇得越大,模型就會對已經(jīng)得到了很好的分類的樣本忽略得越多,越專注于難的樣本的學習。這樣的機制就讓他們的檢測器在密集對象檢測這樣的真實正面樣本比例很低的情況下取得了很高的準確率。
由于論文作者中有 ResNet 提出者何愷明博士的名字,我們也不意外地發(fā)現(xiàn),ResNet 的成果在 RetinaNet 中得到了運用。ResNet 的部分高水平地提取圖像中的特征,而在附加網(wǎng)絡(luò)中實現(xiàn)了樣本不平衡的調(diào)節(jié)。
圖一,上圖展示了單階段網(wǎng)絡(luò)RetinaNet的架構(gòu)。該架構(gòu)在前饋ResNet架構(gòu)(a)頂部使用特征金字塔網(wǎng)絡(luò)(Feature Pyramid Network, FPN)骨架,以生成更加豐富和多尺度的卷積特征金字塔(b)。RetinaNet在后面還附加了兩個子網(wǎng),一個是用于分類的錨盒(Anchor boxes)(c),另一個則是用于實現(xiàn)錨盒到Ground-truth物體盒之間的回歸(d)。該神經(jīng)網(wǎng)絡(luò)被有意設(shè)計成這種比較簡單的形式,這樣使得這項工作的精力能夠集中于焦點損失(Focal loss)函數(shù)上。該焦點損失函數(shù)消除了單階段檢測器與最新的兩階段檢測器之間的準確率差距,并且運行速度還更加快。
根據(jù) RetinaNet 中使用的 ResNet 網(wǎng)絡(luò)大小不同,形成了 RetinaNet-101 和 RetinaNet-50,兩個模型在大小為500、600、700、800的圖像上的表現(xiàn)就繪制出了文章開頭這張性能/時間對比圖中的兩條線。而這兩條線也就一起描繪出了現(xiàn)有方法的表現(xiàn)上限。
對于應對樣本不平衡問題的關(guān)鍵方法“焦距損失”,作者們在論文中還提出了兩種不同的表現(xiàn)形式,都起到了很好的效果。更多模型細節(jié)可以查看原論文,論文地址:https://arxiv.org/abs/1708.02002
雷鋒網(wǎng) AI 科技評論編譯。
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。