1
雷鋒網(wǎng) AI科技評論按:本文源自YaqiLYU在知乎問題【計(jì)算機(jī)視覺中,目前有哪些經(jīng)典的目標(biāo)跟蹤算法?】下的回答,雷鋒網(wǎng) AI科技評論已獲得授權(quán)發(fā)布。
上部分內(nèi)容請查閱計(jì)算機(jī)視覺中,究竟有哪些好用的目標(biāo)跟蹤算法(上)
五
VOT2015競賽 VOT2015 Challenge | Home(http://votchallenge.net/vot2015/) 如期而至,這一年有60個精挑細(xì)選的序列,62個tracker,最大看點(diǎn)是深度學(xué)習(xí)開始進(jìn)擊tracking,MDNet直接拿下當(dāng)年的冠軍,而結(jié)合深度特征的相關(guān)濾波方法DeepSRDCF是第二名,主要解決邊界效應(yīng)的SRDCF僅HOG特征排在第四:
隨著VOT競賽的影響力擴(kuò)大,舉辦方也是用心良苦,經(jīng)典的和頂尖的齊聚一堂,百家爭鳴,多達(dá)62個tracker皇城PK,華山論劍。除了前面介紹的深度學(xué)習(xí)和相關(guān)濾波,還有結(jié)合object proposals(類物體區(qū)域檢測)的EBT(EBT:Proposal與Tracking不得不說的秘密 - 知乎專欄)(https://zhuanlan.zhihu.com/p/26654891)排第三,Mean-Shift類顏色算法ASMS是推薦實(shí)時算法,還請注意另一個顏色算法DAT,而第9的那個Struck已經(jīng)不是原來的了。除此之外,還能看到經(jīng)典方法如OAB, STC, CMT, CT, NCC等都排在倒數(shù)位置, 經(jīng)典方法已經(jīng)被遠(yuǎn)遠(yuǎn)拉開了距離,所以在決定用那些經(jīng)典方法之前,可以先測試幾個新算法看看,說不定有驚喜。
在介紹SRDCF之前,先來分析下相關(guān)濾波有什么缺點(diǎn)??傮w來說,相關(guān)濾波類方法對快速變形和快速運(yùn)動情況的跟蹤效果不好。
快速變形主要因?yàn)镃F是模板類方法。容易跟丟這個比較好理解,前面分析了相關(guān)濾波是模板類方法,如果目標(biāo)快速變形,那基于HOG的梯度模板肯定就跟不上了,如果快速變色,那基于CN的顏色模板肯定也就跟不上了。這個還和模型更新策略與更新速度有關(guān),固定學(xué)習(xí)率的線性加權(quán)更新,如果學(xué)習(xí)率太大,部分或短暫遮擋和任何檢測不準(zhǔn)確,模型就會學(xué)習(xí)到背景信息,積累到一定程度模型跟著背景私奔了,一去不復(fù)返。如果學(xué)習(xí)率太小,目標(biāo)已經(jīng)變形了而模板還是那個模板,就會變得不認(rèn)識目標(biāo)。(舉個例子,多年不見的同學(xué),你很可能就認(rèn)不出了,而經(jīng)常見面的同學(xué),即使變化很大你也認(rèn)識,因?yàn)槌R姷耐瑢W(xué)在你大腦里面的模型在持續(xù)更新,而多年不見就是很久不更新)
快速運(yùn)動主要是邊界效應(yīng)(Boundary Effets),而且邊界效應(yīng)產(chǎn)生的錯誤樣本會造成分類器判別力不夠強(qiáng),下面分訓(xùn)練階段和檢測階段分別討論。
訓(xùn)練階段,合成樣本降低了判別能力。如果不加余弦窗,那么移位樣本是長這樣的:
除了那個最原始樣本,其他樣本都是“合成”的,100*100的圖像塊,只有1/10000的樣本是真實(shí)的,這樣的樣本集根本不能拿來訓(xùn)練。如果加了余弦窗,由于圖像邊緣像素值都是0,循環(huán)移位過程中只要目標(biāo)保持完整那這個樣本就是合理的,只有目標(biāo)中心接近邊緣時,目標(biāo)跨越邊界的那些樣本是錯誤的,這樣雖不真實(shí)但合理的樣本數(shù)量增加到了大約2/3(padding= 1),即使這樣仍然有1/3(3000/10000)的樣本是不合理的,這些樣本會降低分類器的判別能力。再者,加余弦窗也不是“免費(fèi)的”,余弦窗將圖像塊的邊緣區(qū)域像素全部變成0,大量過濾掉分類器本來非常需要學(xué)習(xí)的背景信息,原本訓(xùn)練時判別器能看到的背景信息就非常有限,我們還加了個余弦窗擋住了背景,這樣進(jìn)一步降低了分類器的判別力(是不是上帝在我前遮住了簾。不是上帝,是余弦窗)。
檢測階段,相關(guān)濾波對快速運(yùn)動的目標(biāo)檢測比較乏力。相關(guān)濾波訓(xùn)練的圖像塊和檢測的圖像塊大小必須是一樣的,這就是說你訓(xùn)練了一個100*100的濾波器,那你也只能檢測100*100的區(qū)域,如果打算通過加更大的padding來擴(kuò)展檢測區(qū)域,那樣除了擴(kuò)展了復(fù)雜度,并不會有什么好處。目標(biāo)運(yùn)動可能是目標(biāo)自身移動,或攝像機(jī)移動,按照目標(biāo)在檢測區(qū)域的位置分四種情況來看:
1、如果目標(biāo)在中心附近,檢測準(zhǔn)確且成功。
2、如果目標(biāo)移動到了邊界附近但還沒有出邊界,加了余弦窗以后,部分目標(biāo)像素會被過濾掉,這時候就沒法保證這里的響應(yīng)是全局最大的,而且,這時候的檢測樣本和訓(xùn)練過程中的那些不合理樣本很像,所以很可能會失敗。
3、如果目標(biāo)的一部分已經(jīng)移出了這個區(qū)域,而我們還要加余弦窗,很可能就過濾掉了僅存的目標(biāo)像素,檢測失敗。
4、如果整個目標(biāo)已經(jīng)位移出了這個區(qū)域,那肯定就檢測失敗了。
以上就是邊界效應(yīng)(Boundary Effets),推薦兩個主流的解決邊界效應(yīng)的方法,但速度比較慢,并不推薦用于實(shí)時場合。
一種方法是Martin Danelljan大牛的SRDCF Learning Spatially Regularized Correlation Filters for Visual Tracking(http://www.cvl.isy.liu.se/research/objrec/visualtracking/regvistrack/index.html),主要思路:既然邊界效應(yīng)發(fā)生在邊界附近,那就忽略所有移位樣本的邊界部分像素,或者說邊界附近濾波器系數(shù)為0:
Danelljan M, Hager G, Shahbaz Khan F, et al. Learning spatially regularized correlation filters for visual tracking [C]// ICCV. 2015.
SRDCF基于DCF,類SAMF多尺度,采用更大的檢測區(qū)域(padding = 4),同時加入空域正則化,懲罰邊界區(qū)域的濾波器系數(shù),沒有閉合解,采用高斯-塞德爾方法迭代優(yōu)化。
另一種方法是Hamed Kiani提出的基于灰度特征MOSSE的CFLM Correlation Filters with Limited Boundaries (http://www.hamedkiani.com/cfwlb.html)和基于HOG特征的BACF,主要思路是采用較大尺寸檢測圖像塊和較小尺寸濾波器來提高真實(shí)樣本的比例,或者說濾波器填充0以保持和檢測圖像一樣大,同樣沒有閉合解,采用ADMM迭代優(yōu)化:
Kiani Galoogahi H, Sim T, Lucey S. Correlation filters with limited boundaries [C]// CVPR, 2015.
Kiani Galoogahi H,, Fagg A, Lucey S. Learning Background-Aware Correlation Filters for Visual Tracking [C]// arXiv preprint arXiv:1703.04590, 2017.
其實(shí)這兩個解決方案挺像的,都是用更大的檢測和更新圖像塊,訓(xùn)練作用域比較小的相關(guān)濾波器,不同點(diǎn)是SRDCF的濾波器系數(shù)從中心到邊緣平滑過渡到0,而CFLM直接用0填充濾波器邊緣。
VOT2015相關(guān)濾波方面還有排在第二名,結(jié)合深度特征的DeepSRDCF,因?yàn)樯疃忍卣鞫挤浅B贑PU上別說高速,實(shí)時都到不了,雖然性能非常高,但這里就不推薦,先跳過。
六
VOT2016競賽 VOT2016 Challenge | Home(http://votchallenge.net/vot2016/),依然是VOT2015那60個序列,不過這次做了重新標(biāo)注更加公平合理,今年有70位參賽選手,意料之中深度學(xué)習(xí)已經(jīng)雄霸天下了,8個純CNN方法和6個結(jié)合深度特征的CF方法大都名列前茅,還有一片的CF方法,最最最重要的是,良心舉辦方竟然公開了他們能拿到的38個tracker,部分tracker代碼和主頁下載地址:VOT2016 Challenge | Trackers (http://votchallenge.net/vot2016/trackers.html)(以后媽媽再也不用擔(dān)心我找不到源碼了~),注意部分是下載鏈接,部分是源碼壓縮包,部分源碼是二進(jìn)制文件,好不好用一試便知,方便對比和研究,需要的趕快去試試。馬上來看競賽結(jié)果(這里僅列舉前60個):
標(biāo)出來了前面介紹過的或比較重要的方法,結(jié)合多層深度特征的相關(guān)濾波C-COT排第一名,而CNN方法TCNN是VOT2016的冠軍,作者和MDNet是同一人,純顏色方法DAT和ASMS都在中等水平(其實(shí)兩種方法實(shí)測表現(xiàn)非常接近),其他tracker的情況請參考論文。再來看速度,SMACF沒有公開代碼,ASMS依然那么快,排在前10的方法中也有兩個速度比較快,分別是排第5的Staple,和其改進(jìn)算法排第9的STAPLE+,而且STAPLE+是今年的推薦實(shí)時算法。首先恭喜Luca Bertinetto大牛的SiamFC和Staple都表現(xiàn)非常不錯,然后再為大牛默哀三分鐘(VOT2016的paper原文):
This was particularly obvious in case of SiamFC trackers, which runs orders higher than realtime (albeit on GPU), and Staple, which is realtime, but are incorrectly among the non-realtime trackers.
VOT2016竟然發(fā)生了烏龍事件,Staple在論文中是80FPS,怎么EFO在這里只有11?幸好公開代碼有Staple和STAPLE+,有興趣您可以去實(shí)測下,雖然我電腦不如Luca Bertinetto大牛,但Staple我也能跑60-70FPS,而更可笑的是,STAPLE+比Staple慢了大約7-8倍,竟然EFO高出4倍,到底怎么回事呢?
首先看Staple的代碼,如果您直接下載Staple并設(shè)置params.visualization = 1來跑,Staple調(diào)用Computer Vision System Toolbox來顯示序列圖像,而恰好如果您沒有這個工具箱,默認(rèn)每幀都會用imshow(im)來顯示圖像所以非常非常慢,而設(shè)置params.visualization = 0就跑的飛快,建議您將顯示圖像部分代碼替換成DSST中對應(yīng)部分代碼就可以正常跑和顯示了。
再來看STAPLE+的代碼,改進(jìn)包括額外從顏色概率圖中提取HOG特征,特征增加到56通道(Staple是28通道),平移檢測額外加入了大位移光流運(yùn)動估計(jì)的響應(yīng),所以才會這么慢,而且肯定會這么慢。
所以很大可能是VOT舉辦方把Staple和STAPLE+的EFO弄反了,VOT2016的實(shí)時推薦算法應(yīng)該是排第5的Staple,相關(guān)濾波結(jié)合顏色方法,沒有深度特征更沒有CNN,跑80FPS還能排在第五,這就是接下來主要介紹的,2016年最NIUBILITY的目標(biāo)跟蹤算法之一Staple (讓排在后面的一眾深度學(xué)習(xí)算法汗顏,懷疑人生)。
顏色特征,在目標(biāo)跟蹤中顏色是個非常重要的特征,不管多少個人在一起,只要目標(biāo)穿不同顏色的衣服就非常明顯。前面介紹過2014年CVPR的CN是相關(guān)濾波框架下的模板顏色方法,這里隆重介紹統(tǒng)計(jì)顏色特征方法DAT Learning, Recognition, and Surveillance @ ICG,幀率15FPS:
Possegger H, Mauthner T, Bischof H. In defense of color-based model-free tracking [C]// CVPR, 2015.
如果要用一句話介紹Luca Bertinetto大牛(牛津大學(xué))的Staple Staple tracker(http://www.robots.ox.ac.uk/~luca/staple.html),那就是把模板特征方法DSST(基于DCF)和統(tǒng)計(jì)特征方法DAT結(jié)合:
Bertinetto L, Valmadre J, Golodetz S, et al. Staple: Complementary Learners for Real-Time Tracking [C]// CVPR, 2016.
前面分析了相關(guān)濾波模板類特征(HOG)對快速變形和快速運(yùn)動效果不好,但對運(yùn)動模糊光照變化等情況比較好;而顏色統(tǒng)計(jì)特征(顏色直方圖)對變形不敏感,而且不屬于相關(guān)濾波框架沒有邊界效應(yīng),快速運(yùn)動當(dāng)然也是沒問題的,但對光照變化和背景相似顏色不好。綜上,這兩類方法可以互補(bǔ),也就是說DSST和DAT可以互補(bǔ)結(jié)合:
兩個框架的算法高效無縫結(jié)合,25FPS的DSST和15FPS的DAT,而結(jié)合后速度竟然達(dá)到了80FPS。DSST框架把跟蹤劃分為兩個問題,即平移檢測和尺度檢測,DAT就加在平移檢測部分,相關(guān)濾波有一個響應(yīng)圖,像素級前景概率也有一個響應(yīng)圖,兩個響應(yīng)圖線性加權(quán)得到最終響應(yīng)圖,其他部分與DSST類似,平移濾波器、尺度濾波器和顏色概率模型都以固定學(xué)習(xí)率線性加權(quán)更新。
另一種相關(guān)濾波結(jié)合顏色概率的方法是CSR-DCF,提出了空域可靠性和通道可靠性,13FPS性能直逼C-COT:
Luke?i? A, Vojí? T, ?ehovin L, et al. Discriminative Correlation Filter with Channel and Spatial Reliability [C]// CVPR, 2017.
CSR-DCF中的空域可靠性得到的二值掩膜就類似于CFLM中的掩膜矩陣P,在這里自適應(yīng)選擇更容易跟蹤的目標(biāo)區(qū)域且減小邊界效應(yīng);以往多通道特征都是直接求和,而CSR-DCF中通道采用加權(quán)求和,而通道可靠性就是那個自適應(yīng)加權(quán)系數(shù)。采用ADMM迭代優(yōu)化。
相關(guān)濾波還有第一名的C-COT,和DeepSRDCF一樣先跳過。
七
以前提到的很多CF算法,也包括VOT競賽,都是針對short-term的跟蹤問題,即短期跟蹤,我們只關(guān)注短期內(nèi)(如100~500幀)跟蹤是否準(zhǔn)確。但在實(shí)際應(yīng)用場合,我們希望正確跟蹤時間長一點(diǎn),如幾分鐘或十幾分鐘,這就是長期跟蹤問題。
Long-term就是希望tracker能長期正確跟蹤,我們分析了前面介紹的方法不適合這種應(yīng)用場合,必須是short-term tracker + detecter配合才能實(shí)現(xiàn)正確的長期跟蹤。
用一句話介紹Long-term,就是給普通tracker配一個detecter,在發(fā)現(xiàn)跟蹤出錯的時候調(diào)用自帶detecter重新檢測并矯正tracker。
接下來介紹CF方向一篇比較有代表性的long-term方法,馬超大神的LCT chaoma99/lct-tracker(https://github.com/chaoma99/lct-tracker):
Ma C, Yang X, Zhang C, et al. Long-term correlation tracking[C]// CVPR, 2015.
LCT在DSST一個平移相關(guān)濾波Rc和一個尺度相關(guān)濾波的基礎(chǔ)上,又加入第三個負(fù)責(zé)檢測目標(biāo)置信度的相關(guān)濾波Rt,檢測模塊Online Detector是TLD中所用的隨機(jī)蕨分類器(random fern),在代碼中改為SVM。第三個相關(guān)濾波類似MOSSE不加padding,而且特征也不加cosine窗,放在平移檢測之后。
LCT加入檢測機(jī)制,對遮擋和出視野等情況理論上較好,速度27fps,實(shí)驗(yàn)只跑了OTB-2013,跟蹤精度非常高,根據(jù)其他論文,LCT在OTB-2015和 VOT上效果略差一點(diǎn)可能是兩個核心閾值沒有自適應(yīng), 關(guān)于long-term,TLD和LCT的思想都值得參考 。
接下來介紹跟蹤置信度。 跟蹤算法需要能反映每一次跟蹤結(jié)果的可靠程度,這一點(diǎn)非常重要,不然就可能造成跟丟了還不知道的情況。有兩種指標(biāo)可以反映相關(guān)濾波類方法的跟蹤置信度:前面見過的最大響應(yīng)值,和沒見過的響應(yīng)模式,或者綜合反映這兩點(diǎn)的指標(biāo)。
LMCF(MM Wang的目標(biāo)跟蹤專欄:目標(biāo)跟蹤算法 - 知乎專欄 )提出了多峰檢測和高置信度更新:
Wang M, Liu Y, Huang Z. Large Margin Object Tracking with Circulant Feature Maps [C]// CVPR, 2017.
高置信度更新,只有在跟蹤置信度比較高的時候才更新跟蹤模型,避免目標(biāo)模型被污染,同時提升速度。 第一個置信度指標(biāo)是最大響應(yīng)分?jǐn)?shù)Fmax,就是最大響應(yīng)值(Staple和LCT中都有提到)。第二個置信度指標(biāo)是平均峰值相關(guān)能量(average peak-to correlation energy, APCE),反映響應(yīng)圖的波動程度和檢測目標(biāo)的置信水平,這個(可能)是目前最好的指標(biāo),推薦:
跟蹤置信度指標(biāo)還有,MOSSE中的峰值旁瓣比(Peak to Sidelobe Ratio, PSR), 由相關(guān)濾波峰值,與11*11峰值窗口以外旁瓣的均值與標(biāo)準(zhǔn)差計(jì)算得到,推薦:
跟蹤置信度指標(biāo)還有,在CSR-DCF的空域可靠性中,也用了兩個類似指標(biāo)反映通道可靠性, 第一個指標(biāo)也是每個通道的最大響應(yīng)峰值,就是Fmax,第二個指標(biāo)是響應(yīng)圖中第二和第一主模式之間的比率,反映每個通道響應(yīng)中主模式的表現(xiàn)力,但需要先做極大值檢測:
以上就是目前相關(guān)濾波方法中提到的比較好的跟蹤置信度指標(biāo)。
八
最后這部分是Martin Danelljan的專場,主要介紹他的一些工作,尤其是結(jié)合深度特征的相關(guān)濾波方法,代碼都在他主頁Visual Tracking(http://www.cvl.isy.liu.se/research/objrec/visualtracking/),就不一一貼出了。
Danelljan M, Shahbaz Khan F, Felsberg M, et al. Adaptive color attributes for real-time visual tracking [C]// CVPR, 2014.
在CN中提出了非常重要的多通道顏色特征Color Names,用于CSK框架取得非常好的效果,還提出了加速算法CN2,通過類PCA的自適應(yīng)降維方法,對特征通道數(shù)量降維(10 -> 2),平滑項(xiàng)增加跨越不同特征子空間時的代價,也就是PCA中的協(xié)方差矩陣線性更新防止降維矩陣變化太大。
Danelljan M, Hager G, Khan F S, et al. Discriminative Scale Space Tracking [J]. IEEE TPAMI, 2017.
DSST是VOT2014的第一名,開創(chuàng)了平移濾波+尺度濾波的方式。在fDSST中對DSST進(jìn)行加速,PCA方法將平移濾波HOG特征的通道降維(31 -> 18),QR方法將尺度濾波器~1000*17的特征降維到17*17,最后用三角插值(頻域插值)將尺度數(shù)量從17插值到33以獲得更精確的尺度定位。
SRDCF是VOT2015的第四名,為了減輕邊界效應(yīng)擴(kuò)大檢測區(qū)域,優(yōu)化目標(biāo)增加了空間約束項(xiàng),用高斯-塞德爾方法迭代優(yōu)化,并用牛頓法迭代優(yōu)化平移檢測的子網(wǎng)格精確目標(biāo)定位。
Danelljan M, Hager G, Shahbaz Khan F, et al. Adaptive decontamination of the training set: A unified formulation for discriminative visual tracking [C]// CVPR, 2016.
SRDCFdecon在SRDCF的基礎(chǔ)上,改進(jìn)了樣本和學(xué)習(xí)率問題。以前的相關(guān)濾波都是固定學(xué)習(xí)率線性加權(quán)更新模型,雖然這樣比較簡單不用保存以前樣本,但在定位不準(zhǔn)確、遮擋、背景擾動等情況會污染模型導(dǎo)致漂移。SRDCFdecon選擇保存以往樣本(圖像塊包括正,負(fù)樣本),在優(yōu)化目標(biāo)函數(shù)中添加樣本權(quán)重參數(shù)和正則項(xiàng),采用交替凸搜索,首先固定樣本權(quán)重,高斯-塞德爾方法迭代優(yōu)化模型參數(shù),然后固定模型參數(shù),凸二次規(guī)劃方法優(yōu)化樣本權(quán)重。
Danelljan M, Hager G, Shahbaz Khan F, et al. Convolutional features for correlation filter based visual tracking [C]// ICCVW, 2015.
DeepSRDCF是VOT2015的第二名,將SRDCF中的HOG特征替換為CNN中單層卷積層的深度特征(也就是卷積網(wǎng)絡(luò)的激活值),效果有了極大提升。這里用imagenet-vgg-2048 network,VGG網(wǎng)絡(luò)的遷移能力比較強(qiáng),而且MatConvNet就是VGG組的,MATLAB調(diào)用非常方便。論文還測試了不同卷積層在目標(biāo)跟蹤任務(wù)中的表現(xiàn):
第1層表現(xiàn)最好,第2和第5次之。由于卷積層數(shù)越高語義信息越多,但紋理細(xì)節(jié)越少,從1到4層越來越差的原因之一就是特征圖的分辨率越來越低,但第5層反而很高,是因?yàn)榘ㄍ暾恼Z義信息,判別力比較強(qiáng)(本來就是用來做識別的)。
注意區(qū)分這里的深度特征和基于深度學(xué)習(xí)的方法,深度特征來自ImageNet上預(yù)訓(xùn)練的圖像分類網(wǎng)絡(luò),沒有fine-turn這一過程,不存在過擬合的問題。而基于深度學(xué)習(xí)的方法大多需要在跟蹤序列上end-to-end訓(xùn)練或fine-turn,如果樣本數(shù)量和多樣性有限就很可能過擬合。
Ma C, Huang J B, Yang X, et al. Hierarchical convolutional features for visual tracking [C]// ICCV, 2015.
值得一提的還有馬超大神的HCF,結(jié)合多層卷積特征提升效果,用了VGG19的Conv5-4, Conv4-4和Conv3-4的激活值作為特征,所有特征都縮放到圖像塊分辨率,雖然按照論文應(yīng)該是由粗到細(xì)確定目標(biāo),但代碼中比較直接,三種卷積層的響應(yīng)以固定權(quán)值1, 0.5, 0.02線性加權(quán)作為最終響應(yīng)。雖然用了多層卷積特征,但沒有關(guān)注邊界效應(yīng)而且線性加權(quán)的方式過于簡單,HCF在VOT2016僅排在28名(單層卷積深度特征的DeepSRDCF是第13名)。
Danelljan M, Robinson A, Khan F S, et al. Beyond correlation filters: Learning continuous convolution operators for visual tracking [C]// ECCV, 2016.
C-COT是VOT2016的第一名,綜合了SRDCF的空域正則化和SRDCFdecon的自適應(yīng)樣本權(quán)重,還將DeepSRDCF的單層卷積的深度特征擴(kuò)展為多層卷積的深度特征(VGG第1和5層),為了應(yīng)對不同卷積層分辨率不同的問題,提出了連續(xù)空間域插值轉(zhuǎn)換操作,在訓(xùn)練之前通過頻域隱式插值將特征圖插值到連續(xù)空域,方便集成多分辨率特征圖,并且保持定位的高精度。目標(biāo)函數(shù)通過共軛梯度下降方法迭代優(yōu)化,比高斯-塞德爾方法要快,自適應(yīng)樣本權(quán)值直接采用先驗(yàn)權(quán)值,沒有交替凸優(yōu)化過程,檢測中用牛頓法迭代優(yōu)化目標(biāo)位置。
注意以上SRDCF, SRDCFdecon,DeepSRDCF,C-COT都無法實(shí)時,這一系列工作雖然效果越來越好,但也越來越復(fù)雜,在相關(guān)濾波越來越慢失去速度優(yōu)勢的時候,Martin Danelljan在2017CVPR的ECO來了一腳急剎車,大神來告訴我們什么叫又好又快,不忘初心:
Danelljan M, Bhat G, Khan F S, et al. ECO: Efficient Convolution Operators for Tracking [C]// CVPR, 2017.
ECO是C-COT的加速版,從模型大小、樣本集大小和更新策略三個方面加速,速度比C-COT提升了20倍,加量還減價,EAO提升了13.3%,最最最厲害的是, hand-crafted features的ECO-HC有60FPS。吹完了,來看看具體做法。
第一減少模型參數(shù),定義了factorized convolution operator(分解卷積操作),效果類似PCA,用PCA初始化,然后僅在第一幀優(yōu)化這個降維矩陣,以后幀都直接用,簡單來說就是有監(jiān)督降維,深度特征時模型參數(shù)減少了80%。
第二減少樣本數(shù)量, compact generative model(緊湊的樣本集生成模型),采用Gaussian Mixture Model (GMM)合并相似樣本,建立更具代表性和多樣性的樣本集,需要保存和優(yōu)化的樣本集數(shù)量降到C-COT的1/8。
第三改變更新策略,sparser updating scheme(稀疏更新策略),每隔5幀做一次優(yōu)化更新模型參數(shù),不但提高了算法速度,而且提高了對突變、遮擋等情況的穩(wěn)定性。但樣本集是每幀都更新的,稀疏更新并不會錯過間隔期的樣本變化信息。
ECO的成功當(dāng)然還有很多細(xì)節(jié),而且有些我也看的不是很懂,總之很厲害就是了。ECO實(shí)驗(yàn)跑了四個庫(VOT2016, UAV123, OTB-2015, and TempleColor)都是第一,而且沒有過擬合的問題,僅性能來說ECO是目前最好的相關(guān)濾波算法,也有可能是最好的目標(biāo)跟蹤算法。hand-crafted features版本的ECO-HC,降維部分原來HOG+CN的42維特征降到13維,其他部分類似,實(shí)驗(yàn)結(jié)果雖然沒給ECO-HC在VOT2016的結(jié)果,但其他三個都很高,而且論文給出速度是60FPS。
最后是來自Luca Bertinetto的CFNet End-to-end representation learning for Correlation Filter based tracking(http://www.robots.ox.ac.uk/~luca/cfnet.html),除了上面介紹的相關(guān)濾波結(jié)合深度特征,相關(guān)濾波也可以end-to-end方式在CNN中訓(xùn)練了:
Valmadre J, Bertinetto L, Henriques J F, et al. End-to-end representation learning for Correlation Filter based tracking [C]// CVPR, 2017.
在SiamFC的基礎(chǔ)上,將相關(guān)濾波也作為CNN中的一層,最重要的是cf層的前向傳播和反向傳播公式推導(dǎo),兩層卷積層的CFNet在GPU上是75FPS,綜合表現(xiàn)并沒有很驚艷,可能是難以處理CF層的邊界效應(yīng)吧,持觀望態(tài)度。
九
目前相關(guān)濾波方向貢獻(xiàn)最多的是以下兩個組(有創(chuàng)新有代碼):
牛津大學(xué):Joao F. Henriques和Luca Bertinetto,代表:CSK, KCF/DCF, Staple, CFNet (其他SiamFC, Learnet)
林雪平大學(xué):Martin Danelljan,代表:CN, DSST, SRDCF, DeepSRDCF, SRDCFdecon, C-COT, ECO
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。