999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

判別式相關濾波器的目標跟蹤綜述

2020-12-09 09:27:18王娟娟郭曉雨趙增順
小型微型計算機系統 2020年12期
關鍵詞:深度特征模型

徐 寧,王娟娟,郭曉雨,趙增順

(山東科技大學 電子信息工程學院,山東 青島 266590)

1 引 言

目標跟蹤是計算機視覺領域中一個基礎性問題,在無人駕駛、人機交互、視頻監控等領域具有廣泛的應用.目標跟蹤根據跟蹤數量,分為單目標和多目標跟蹤,單目標跟蹤針對目標的外觀與運動軌跡進行建模,實現目標位置的估計[1].在一般的跟蹤任務中,給定初始目標位置,跟蹤器能夠在級聯的視頻序列中估計目標狀態[2],在有限的訓練樣本中克服目標的旋轉、遮擋、光照變化、快速運動、模糊、低分辨率等挑戰[3,4],考驗著跟蹤器的準確性、魯棒性、實時性.

近年來,基于判別式相關濾波器(Discriminative Correlation Filters,DCF)方法在跟蹤任務中展現了卓越的性能[4-11].生成式方法通常使用參數模型來描述目標的外觀模型,在候選集中選擇重構誤差最小的作為目標圖像.判別式方法是將跟蹤任務視為分類或者嶺回歸問題,通過估計給定輸入標簽的條件概率分布實現對候選目標的輸出[12],判別式相關濾波器通過訓練濾波器預測目標的分類分數[4],將目標從背景中辨別出.DCF類跟蹤器不僅通過快速傅里葉變換(FFT)加快運算速度,還得益于特征表示、空間正則項、時間平滑項[13]、流程優化等環節的優勢,在Visual Object Tracking[14-17](VOT)競賽中獲得了極大成功.在具體的跟蹤任務中,跟蹤器主要將跟蹤任務分為位置估計與尺度估計[7,10].測試數據集[14-22]評價工具的標準化[14,22]與VOT競賽極大地促進了跟蹤領域的發展.

第2章以圍繞著DCF類中的KCF算法進行橫向展開;第3章介紹基于預訓練模型和DCF與神經網絡相結合的跟蹤器;第4章總結了DCF線路演進圖;第5章為部分跟蹤器在OTB-100與VOT-2017/2018數據集中的結果對比;第6章為部分算法的實際應用簡介;第7章為總結部分,文章編排與文獻[23,24]類似.

2 DCF方法的開端

2010年,Bolme等[8]提出MOSSE,將信號的相關性用于跟蹤任務.該算法通過計算灰度序列圖像的最小化實際與期望的均方誤差來訓練濾波器,通過使用循環相關性,作者證明了僅使用FFT和點乘便能有效地計算濾波器.在MOSSE的基礎上,Henriques等[9]設計了CSK提出可以用循環位移代替隨機采樣從而實現密集采樣,利用頻域平移等效的實現該理論,并推導了不同核函數的封閉解.在CSK的基礎上,KCF[3]采用多通道的HOG[25]特征探究了不同核函數對跟蹤的影響,對比了性能稍優的KCF(Kernelized Correlation Filter)與運行速度更快的DCF(Dual Correlation Filter).至此,基于判別式相關濾波器的基礎理論工作趨于完善,后續跟蹤器針對DCF的問題進行有針對性地改進,從特征降維、特征選擇、通道權重、跟蹤器結構設計等角度提升跟蹤器性能.

2.1 DCF一般公式與算法流程

DCF模型的任務是最小化采樣xk與回歸目標y的均方誤差,其目標函數可寫為[11]:

(1)

xk∈RD,RD為輸入圖片集,D為M×N像素空間調整為m×n模型大小,K表示樣本xk的通道數,ωk*xk為濾波器與采樣的相關操作,y為期望相關響應(高斯矩陣),λ為正則參數減少模型的過擬合.目標函數通過FFT轉到頻域進行高效求解[3,8],DCF的變形公式可參見文獻[2,5,6,11,12].模型ω的增量更新[9]為:

(2)

其中ωpre為當前模型,ωmodel為濾波器模型,α∈[0,1]為模型更新速率.基于檢測跟蹤框架[2,7,10,11]的DCF算法,一般主要分為位置估計與尺度估計兩個模塊,流程參見圖1.

圖1 DCF流程Fig.1 Flow chart of DCF

2.2 通道與特征表示

MOSSE與STC[26]使用了單通道的灰度特征,對于快速移動與變形等挑戰易丟失,采用多通道特征的跟蹤器性能更強,例如:MCCF[27]、KCF將多通道的HOG特征融入到DCF框架中,文獻[28]采用的11通道的CN特征等.通道的概念主要使得高維特征數據、不同特征集成到DCF框架中.所采用的手工特征如Histogram of Oriented Gradient[25,29](HOG)、Color Names[28](CN)、SHIFT[30]、顏色特征[28,31-33]等來獲取目標的形狀、顏色等信息.其中HOG特征主要描述目標的形狀信息[34],但對目標的快速移動與旋轉不魯棒.CN與Staple[32]主要是描述目標的顏色信息,與HOG特征具有一定的互補性,對于目標的快速運動、變形具有一定的魯棒性[32,33].CN特征主要將RGB圖像轉換為11維(10維顏色特征,1維灰度特征)的顏色特征數據,Staple是對目標前景與背景進行顏色直方圖統計.伴隨著深度學習的發展,表現能力更強的Convolutional Neural Network(CNN)特征得到了廣泛采用,采用CNN特征的跟蹤器主要在第三章描述.

為加快模型的速度與效率,對特征通常采取特征降維、通道選擇、特征選擇與模型的稀疏更新等策略.如DSST[7]的快速版fDSST[35]通過Principal Component Analysis(PCA)將31維的HOG特征減少到17維,實現兩倍于DSST的運行速度;CSRDCF[31]為實現快速運行,HOG特征僅采用18維;LADCF[12]實現了模型特征自適應的選擇,獲得了稀疏的模型;ECO[6]針對C-COT[5]特征冗余的問題,模型采取稀疏更新的策略.

2.3 尺度估計研究

在MOSSE、CSK與KCF中,目標的特征采集窗口為固定的尺度大小,雖然簡單易實現,但是當目標外觀尺度產生改變時,跟蹤器在更新過程中由于樣本特征采集偏差引起模型漂移,導致跟蹤任務失敗.由此產生了兩種經典的尺度設計方案DSST[7]與SAMF[10].

DSST基于CSK,采用HOG特征將跟蹤任務分為平移估計與尺度估計,尺度估計設計了33層的尺度金字塔,選擇置信度最大值對應的尺度因子,平移估計與尺度估計相互獨立.SAMF基于KCF采用HOG特征和CN特征,以尺度池的形式完成不同尺度圖像特征的提取,選擇置信度最大值為對應尺度.對比于DSST,SAMF思路將跟蹤與尺度設計融為一體,減少了跟蹤器結構的設計,但額外的增加尺度池特征提取的計算量.兩種尺度估計方法均能夠集成到其他DCF跟蹤器[2,11,12,31]中.

KCF采用固定值的窗函數,sKCF[36]設計出一個自適應窗動態的調整跟蹤器對目標的感受視野,實現跟蹤器對目標尺度特征的正確采集.對于窗函數的感受視野也可以通過對搜索框的動態調整,實現單一核跟蹤器對目標的感受[2,11,12].

DSST和SAMF思路進行尺度估計時,目標的縱橫比不能隨著目標的改變實現恰當的調整,只能按照初始化的縱橫比進行等比例調整,DCF本身不具備尺度估計功能,但是能根據信號的相關性提供置信度和位置信息.因此,基于part-based文獻[37-40]采取增設DCF數量的方式,用位置信息實現尺度的確定.文獻[37]把目標圖像分為5塊,分別用獨立的濾波器進行單獨訓練,最后采用貝葉斯原理完成位置確定.文獻[38]采用ADMM算法對目標圖像進行聯立相關濾波器實現目標定位.DPT[39]采用級聯層視覺模型理論[41],先由顏色信息完成粗定位,中層表示用4個DCF濾波器在拓撲圖上進行動態的調整,完成最終定位.采用CNN特征的IBCCF[40]用更為直觀的形式進行尺度實現.IBCCF處理過程:先通過二維中心濾波器CCF確定目標位置,然后用4個獨立的一維邊界濾波器BCFs完成目標邊緣特征的檢測,將BCFs得到的位置信息再與CCF的結果進行比較,最后確定目標位置.模型加入近正交正則化項使用ADMM方法進行求解,該方法能很好的處理縱橫比變化的目標,但不能滿足實時性的要求.DCCO[42]將子濾波器以線性結合的方式集成到C-COT[5]的連續域公式中,在尺度變化與旋轉上較C-COT有優勢.基于part-based因為增設不同位置的濾波器,可以感知邊界狀態的動態變化,在應對遮擋、形變等挑戰存在優勢,但目標邊界圖像動態范圍大,邊緣特征提取易受背景信息干擾,如何整合部分信息進行全局目標的定位存在難點.

粒子濾波器實現尺度估計.RPT[43]使用粒子濾波器完成不同位置的信息采集,每種采樣單獨增設KCF,根據粒子信息推斷位置與尺度的改變.RCPF[44]將KCF與粒子濾波器進行結合,以狀態引導的方式減少粒子采樣數量,平衡速度與精確度,相比于KCF能夠克服部分尺度變化與遮擋問題.采用CNN特征的MCPF[45]將粒子濾波器與多任務處理器MCF進行結合,MCF主要將多層CNN特征進行集成,粒子采樣過程與RCPF類似.采樣方式和粒子濾波器的數量直接對跟蹤器的性能產生影響[45],但運行速度也會隨之下降.

2.4 質量評價與丟失再檢測

基于檢測跟蹤框架的跟蹤器,較少對跟蹤結果進行分析與利用,在KCF的檢測階段,模型漂移時,置信圖上會表現出多峰現象[46],利用置信圖的信息在跟蹤過程中構建反饋環節優化跟蹤過程成為提升跟蹤器性能的一條途徑.

針對置信圖的評價,MOSSE提出PSR(Peak to Sidelobe Ratio)作為衡量置信圖的檢測依據.LMCF[46]提出APCE(Average Peak-to-Correlation Energy),通過比較置信圖的APCE值的變化過程,實現目標狀態的預估,模型的更新考慮置信圖峰值與APCE兩個標準,當目標處于遮擋與形變狀態時,APCE值會下降.MLCFT[47]結合KCF將每層CNN的響應圖使用KL散度(Kullback-Leibler divergence)進行了融合,作為前檢測模塊,應用LMCF再檢測策略選擇峰值靠前點級聯再檢測模塊,模型更新系數設計成自適應.為提升多峰檢測效率,兩者使用二值矩陣對峰值范圍進行限制來提升檢測效率,但不利于位置快速運動的目標檢測.CPT[48]提出了AFER(Aerage Feature Energy Ratio)用于CNN特征響應圖的計算,實現自適應卷積通道的選擇.SRDCFdecon[3]為減少訓練模型中樣本的退化,結合外觀模型與樣本質量,提出了針對樣本的質量評價公式.UPDT[49]提出最小加權置信區間(Minimal Weighted Confidence Margin)衡量候選目標質量,用于模型的深度與淺層分數的自適應融合.

Ma等[50]提出LCT,整個跟蹤器由平移模塊、目標模塊、尺度模塊(與DSST類似)和分類器(k近鄰分類器與隨機蕨分類器),目標模塊發揮長期記憶功能,當置信圖峰值低于閾值,啟動隨機蕨分類器(后期版本LCT+[51]換為SVM分類器)進行再檢測.對比于LCT,MUSTer[52]采用認知記憶模型(Atkinson-Shiffrin Memory Model),分為了關鍵點的長期記憶模塊(SIFT)、短時記憶模塊(DCF),當跟蹤失敗或者遮擋,更新短時模塊.文獻[53]在ECO的基礎上,提出了結合全局模型與本地目標模型進行目標丟失再檢測,根據置信結果用困難負例挖掘訓練全局模型,目標丟失后,全局模型檢索全圖搜尋目標,目標模型繼續保持更新.

2.5 邊界效應與公式創新

標準DCF跟蹤器[4,9]采用循環位移理論獲得真實樣本與合成樣本,受邊界效應影響,合成樣本不能完全反應采樣信息[2,54],模型容易產生過擬合.

為克服邊界效應,SRDCF[2]加入空域正則化以獎懲的形式完成對邊界背景區域信息的篩選,使得中心區域集中更多能量.模型求解使用Gaus-Seidel方法,但由于正則優化成本高,且權重系數不能隨著目標的變化而改變,均速為6~7幀/s,達不到實時性的要求.BACF[11]基于CFLB[54],提出將整幅圖像的正負樣本全部用于濾波器的訓練,通過二進制標記矩陣(裁剪)實現搜索框內背景信息的抑制,提取目標區域特征,實現跟蹤器的密集采樣過程,采用ADMM優化算法.為滿足實時性的要求,僅采用HOG特征,性能上超越了部分采用CNN特征的跟蹤器[71,75].其中對濾波器系數的標記策略在后續的跟蹤器[31,57-60,79,81]中得到廣泛采用.CACF[55]考量了全局信息,背景參考在目標四周進行選取,在濾波器的封閉解[4]中加入背景懲罰項,該框架能融入求取封閉解的跟蹤器[4,10,32].CSRDCF[31]結合了SRDCF與CFLB,通過對搜索區域內的顏色分割完成前景與背景區分,將前景標記矩陣用于濾波器系數的選取,系數的選取較CFLB與BACF進行更為細致的空域限制,通道權重建立了歷史模型,但由于僅采用顏色信息限制,標記矩陣的提取會受到背景和光照變化干擾.

DCF由此產生了兩條主要的方向,一類是以SRDCF為基礎進行空域正則化、特征降維、特征插值與置信圖融合[5,6,49]的思路;另一類是采用BACF圍繞目標區域標記的策略,進行空域特征限制,在模型中增添限制項[12,13,57-60].

為減少過擬合的產生,KCF公式求解中加入懲罰因子λ,在DCF公式中加入合理的限制項成為提升跟蹤器性能的一條重要方向.對于以公式模型創新的跟蹤器[2,12,13,57-60],由于DCF模型及其拉格朗日推導式為凸函數,Alternating Direction Method of Multipliers[56](ADMM)算法幾乎成為標配.STRCF[57]在模型中加入了時間正則項來減少模型的過擬合,減少了因目標遮擋和變形而造成的跟蹤失敗.ASRCF[58]綜合SRDCF與BACF加入了自適應空間正則項,在遮擋時模型自適應懲罰濾波器系數,尺度估計使用HOG特征,對比以往深度特征跟蹤器,尺度估計上通過減少了深度特征的提取次數實現速度的提升,位置估計使用融合特征.針對BACF中背景信息造成置信圖上出現的多峰現象,ARCF[59]將其視為異常事件,引入正則項比較當前置信圖與前一幀置信圖的歐式距離實現對異常部分的限制.BEVT[60]綜合SRDCF的空域正則化和BACF的背景抑制思想,采用深度特征,模型更新根據置信圖結果進行變速率更新.LADCF[12]在模型中加入時間一致性的限制,來增強跟蹤器的魯棒性,為減少模型的退化,使用Lasso回歸權衡濾波器特征,用其近似解實現特征的自適應選擇,用稀疏的模型實現對目標的檢測,LADCF獲得VOT-2018短時公開視頻集的第1名.與ECO、C-COT通過空域正則化實現稀疏性不同的是,GFS-DCF[13]對空域與通道組自適應的收縮來實現稀疏性.在LADCF的基礎上,GFSDCF在公式中添加空域、通道、時間正則項實現稀疏的特征選擇和通道選擇,通道選擇主要針對深度特征通道冗余的問題,時間項提出低秩限制條件概念,并等效的參照以往時間序列濾波器系數進行實現,加入了自適應傳統特征與深度特征的權重計算,實現濾波器在低維流形空間自適應的進行時間-空域-通道的學習.

2.6 其 他

RGB-D跟蹤器.該類型跟蹤器主要是應用于Simultaneous Localization And Mapping(SLAM)系統中,用于機器人的目標識別、定位與跟蹤,得益于傳感器的優勢,機器人不僅能獲得RGB圖像,還能獲得圖像的深度(Depth)信息.但又受于平臺的限制,需要跟蹤器具備良好的實時性與較低的計算量.得益于CSRDCF的C++語言版本優異的實時性[72](VOT-2017挑戰賽中,實時性標準中第一名),在SLAM中有改進版本.較CSRDCF單一顏色信息在標記矩陣的限制,CSRDCF++[61]在前景標記矩陣中,集成了先驗信息、顏色信息、空域信息和深度信息,增強跟蹤器的魯棒性,優化跟蹤流程實現遮擋檢測與遮擋恢復.OTR[62]使用Iterative Closest Point(ICP)對目標進行3D重建,從3D到2D投影影響標記矩陣對于前景的感知.文獻[63],在CSRDCF的二值掩膜矩陣上加入了對源圖像的深度分割,使得空域限制更為精準.

STC[26]采用貝葉斯原理,針對目標建立時空上下文模型.RAJSSC[72]針對目標的旋轉,將極坐標加入到DCF框架中.文獻[65]在KCF的基礎上引入了方向場策略,構建目標的運動估計信息.MKCFup[67]是MKCF[66]的升級版,該算法的主要思路是針對不同特征(HOG、CN)采取不同值的核函數,為加快運行速度,采用了fDSST的加速技術.

3 深度學習與DCF的碰撞

伴隨著深度學習的發展,應用深度學習技術使得DCF的性能得到了進一步提升.在DCF框架中主要分為基于預訓練模型的特征提取和神經網絡與DCF相結合的兩種形式.基于預訓練模型進行特征提取主要以C-COT、ECO技術框架進行展開,神經網絡與DCF相結合方面主要介紹Siamese類網絡結構與DCF相結合的跟蹤器.

3.1 特征融合/基于預訓練網絡特征提取

卷積神經網絡在目標分類與圖像識別[68-70,77]方面存在廣泛應用[104],也為跟蹤器的特征提取提供了更多的選擇.采用預訓練模型得到的深度特征較傳統特征擁有更強的魯棒性與精準度,但也面臨著計算復雜的問題.全連接層具有較高的語義信息,但缺少足夠的空間分辨率,卷積層較全連接層不僅能提供語義信息,還有著較強的空間分辨率[71,72].淺層CNN特征包含較高的空間分辨率,能夠提供精準的位置信息.深層特征由于包括較多的語義信息而具有較強的魯棒性,但空間分辨率較低.關于淺層特征與深層特征的性能對比可以參見DMSRDCF[74].在預訓練模型的選取上,殘差類網絡ResNet[70]在特征表現上更優,預訓練模型對跟蹤器性能的影響可參見MFT[80]與UPDT[49].

HCF[75]將多層CNN特征結果以權重相加的形式融入到DCF框架中,后期版本HCF+[76]加入了尺度估計與再檢測環節.DeepSRDCF[34]將CNN特征融入到SRDCF框架中,并比較了不同卷積層對跟蹤器性能的影響,使用了PCA降維策略.HDT[71]將每層CNN特征結果視為弱跟蹤器,通過Hedged算法將弱跟蹤結果整合成強跟蹤器.

針對DCF中多特征采用單一分辨率問題,C-COT[5]綜合跟蹤器[2,3,34],通過頻域插值的形式整合卷積層特征與傳統特征進行分治,實現在空域的連續性,通過融合的置信圖確定目標位置,實現了對目標亞像素定位的精度.ECO[6]針對C-COT的運行速度與過擬合問題,通過卷積因式分解、樣本的分組(采用高斯混合模型)與樣本特征降維、模型的稀疏更新等策略,加快模型的運行速度.為進一步探究預訓練網絡結構特征對跟蹤器精度和魯棒性的影響,UPDT[49]利用深層與淺層特征的互補特性,區分對待,使用數據增強訓練神經網絡,引入魯棒性性/精確度平衡策略和預測質量評價公式實現深層與淺層置信圖的自適應融合.在VOT競賽中,以C-COT和ECO為基線的跟蹤器排名靠前[15-17],充分證明了空域正則化、特征插值與融合線路的卓越性.

為加快模型的運行速度,與特征降維[6,35]和模型稀疏更新[3,22,50]思路不同的是,CPT[48]使用經過剪枝的VGG-16[78]模型完成信息提取.為突出目標結構性信息,DRT[79]在ECO的基礎上加入了目標區域內濾波器系數可靠性的概念,結合BACF的標記策略,對目標區域劃分為3×3的感受單元刻畫不同子區域的重要性,實現模型的可變權重更新.

C-COT采用了CNN、HOG和CN特征,特征信息存在大量的冗余,模型易過擬合.與ECO(例:將31維HOG壓縮到10維,將10維CN特征壓縮到3維)不同的是,CFWCR[74]僅采用CNN特征,對ECO中的每層特征標準化,調整了特征權重.MFT[80]在CFWCR的基礎上增加了運動估計模塊,采用自適應權重策略,實現多分辨率下的濾波器的自適應融合.為解決濾波器系數的過擬合問題,不同于ECO使用投影矩陣對模型進行壓縮的策略,RPCF[81]引入深度學習中對特征圖ROI(Region of Interest)樣本的池化操作概念,通過對濾波器目標區域系數限制等效的在頻域實現.與UPDT針對深度特征采取融合策略不同的是,LSDCF[103]先由深度特征實現目標的粗定位,再由聯合特征(深度與手工特征)實現目標的精確定位,豐富了檢測環節.MCCT[82]以特征池的形式將HOG、CN與CNN特征進行組合,通過對目標區域前景與背景的直方圖統計完成特征的預篩選,提出穩健性評價策略實現特征組的選擇和模型的自適應更新.

3.2 DCF在神經網絡中的作用

伴隨著MDNet[83]的成功,應用神經網絡進行目標跟蹤受到越來越多的關注,Siamese網絡結構作為其中的代表展現了優異的性能[17,86].Siamese網絡主要包括兩部分,參照分支與測試分支,主干網絡一般直接選取預訓練神經網絡模型[68-70],通過參照圖像與測試圖像的相似性完成跟蹤任務[73].DCF在與神經網絡的結合過程中,主要利用DCF的判別能力,將DCF作為部分網絡結構集成到神經網絡中.

在神經網絡的端到端訓練中,數據集對于模型的訓練尤為重要.以TrackingNet[18]為例,該數據庫是專門用于視頻跟蹤的大規模測試與訓練集,在視頻的數量與挑戰上超越以往的OTB數據集[21,22]、VOT數據集[14-16]、TC-128[20]等,基于深度學習框架下的跟蹤器[83,84]通過大規模訓練均獲得性能的提升.CFNet[84]基于SiamFC[87],在Siamese網絡結構中,將DCF視為一層網絡結構,增添到Siamese網絡中進行端到端訓練,通過反向傳播實現DCF過程.CREST[88]將單層卷積層過程視為DCF過程(克服邊界效應)進行端到端訓練,通過在線反向傳播實現卷積層的更新.使用殘差學習[70](空域與時域)比較當前幀與初始幀獲得目標的特征變化信息,通過融合的響應圖估計目標位置,CREST對目標的劇烈變化具有一定的魯棒性.

DCFNet[89]在訓練過程中,將DCF系數轉換成一層網絡結構,進行端到端訓練.跟蹤時由輕量化的網絡結構獲得檢測特征,由標準DCF框架得到分辨結果,并完成更新.SACF[90]主要包含SAM(Spatial Alignment Module)與在線學習模塊(DCF).SAM基于STN(Spatial Transformer Network)網絡以空間對齊的形式調整了樣本的提取方式,使樣本具有恰當的尺度與縱橫比,跟蹤部分參考了DCFNet.

CFCF[91]基于網絡的損失函數提出了高效的反向傳播算法,主干網絡采用VOT-2015[14]和ILSVRC[92]數據集進行訓練,將得到的CNN特征接入到C-COT框架中.ATOM[93]將跟蹤任務分為目標估計與目標分類模塊.在目標分類模塊中采用DCF內容,優化了以往跟蹤器[2,6,79]中共軛梯度算法的實現.針對核嶺回歸算法中忽略目標的空間結構信息和CNN網絡難訓練的問題,LSART[94]提出空間交叉相似的嶺回歸算法,利用局部目標塊的相似權重實現模板內可靠性的度量,并等效的重構為神經網絡,采用SGD進行端到端訓練實現模型的更新,引入雙路訓練策略減少模型的過擬合.

4 脈絡總結

結合VOT競賽[14-17]及原圖(1)https://github.com/foolwood/benchmark_results/tree/master,梳理了關于DCF的線路圖(見圖2).可以看出,以KCF為主干的DCF類跟蹤器涌現了很多思路.對比于以特征插值與置信圖融合為主線的跟蹤器[2,5,6,49],采用ADMM算法增添限制項進行公式創新[11,12,57-59]的思路為DCF發展提供了另一條方向,但模型在求解過程中也越來越復雜.在與神經網絡相結合中,由于網絡能直接勝任跟蹤任務[86],在與DCF相結合的內容相對有限.在ECO分支中,RPCF與DRT中采用了BACF的部分思路.

圖2 DCF演進圖Fig.2 Evolution chart of DCF

5 實驗對比

本文的實驗環境為Win10(64位),實驗軟件為Matlab 2017a,主機Inter(R)i5-8400(2.8GHz),16G RAM,1070TI顯卡.

5.1 OTB-100數據集對比結果

OTB-100[22]數據集中涵蓋了OTB-50[22]與OTB-2013[21],共100組測試序列.序列中的挑戰劃分為形變(DEF)、低分辨(LR)、快速移動(FM)等11種挑戰,在具體的魯棒性評價標準中分為一次通過評價(OPE)、時間魯棒性評價(TRE)和空域魯棒性評價(SRE),本文選擇的為OPE評價標準運行的結果.精度繪畫是指跟蹤器序列圖像的中心結果與基準數據的中心位置誤差(CLE),本文中選擇距離誤差20像素.用曲線下面積(AUC)描述不同閾值(S)下的跟蹤成功率.

(3)

rt是跟蹤器結果,ra為基準標定,rt∩ra為兩組數據重疊面積,rt∪ra為兩組數據覆蓋面積.

結果對比主要選擇了圖2中的部分跟蹤器(見圖3,共48組,部分結果源自文獻[95]),并在結果中加入了IVT[96]、Struck[97]、DAT[33]、MDNet、CNN-SVM[98]與Siamese類[87-89]跟蹤器進行對比.對比于最初的MOSSE、CSK與KCF,后續的DCF類跟蹤器在特征選擇、公式模型、樣本的處理等方面不斷地提升跟蹤器性能,對比于生成式模型IVT,判別式模型整體較優.在尺度的處理上,DSST與SAMF均較其基線算法得到了提升,而粒子濾波器與DCF相結合的算法MCPF、RPT,由于粒子數量的增設帶來巨大的計算負擔,達不到實時性要求(見圖5),IBCCF也由于過程的冗余帶來了巨大的計算負擔.因此尺度設計上DSST與SAMF兩種尺度處理方式被廣泛采用.以LCT、MUSTer、LMCF等為代表的跟蹤器說明對跟蹤流程上的優化,性能提升相對有限,但是能夠對檢測跟蹤框架的流程進行補充,提升跟蹤器性能.DAT、CN、Staple、CSRDCF等說明了顏色相關信息能與DCF良好結合,并與傳統特征構成互補關系,值得一提的是MCCT,僅采用基礎DCF框架,通過特征與特征、幀與幀的結果評價取得了不錯的跟蹤效果.SRDCF、BACF、Staple-CA(CACF框架與Staple的結合)、CSRDCF等,都在嘗試進行解決邊界效應,對比之下BACF所代表的處理模式更為優秀,但加入CN特征的BACF-HC版本,性能出現略微下降.SRDCF及其變種SRDCFdecon、deepSRDCF、C-COT等證明該線路的優秀.以GFSDCF、ASRCF、STRCF等為代表的模型創新思路,通過添加合理的限制項成功超越了C-COT與ECO路線,同時該類模型在求解過程中加入了短時歷史幀信息的考量,當目標短時遮擋與消失,模型本身能夠實現再檢測.對比之下采用深度特征的跟蹤器普遍超越僅采用傳統特征的跟蹤器.

5.2 VOT-2018數據集對比結果

圖3 OTB-100數據集下跟蹤器成功率圖(左)與精度圖(右)Fig.3 Success plot(left)and precision plot(rigtht)of trackers in data set OTB-100

VOT-2018[17]與VOT-2017[16]采用同一數據集,在短時挑戰賽中包含60組序列,視頻挑戰分為完全遮擋、移出視野、部分遮擋、相機移動、尺度改變、縱橫比變化、觀測點改變和相似目標8種挑戰,VOT-2018主要從平均重疊期望(Expected Average Overlap,EAO)、準確性(Accuracy)和魯棒性(Robustness)等方面進行評估,其中魯棒性衡量跟蹤器的目標丟失次數,魯棒性越低,證明跟蹤器性能越為穩定.主要選擇第3章相關跟蹤器,在具體結果中僅呈現EAO、Accuracy和Robustness相關分數.

在VOT-2018競賽短時公開數據集中EAO排名中(見圖4),LADCF超越了以ECO為基礎的技術路線,展現了嵌入式自適應特征選擇和時間約束模型在短時跟蹤的有效性.在表1中,GFSDCF的EAO為0.397,MFT的Robustness得分為0.14,SiamRPN在Accuracy得分為0.586,達到測試集中的最優值.RCO為MFT框架使用ResNet50特征提取版本.

5.3 跟蹤器速度

運算速度是影響算法投入實際運行的關鍵,根據5.1節與5.2節實驗,選取了部分跟蹤器在OTB-100下的運算速度(圖5).跟蹤器具體運算速度與平臺和測試序列等有關,以KCF算法為例,KCF在某些序列下可以達到600fps以上,本文選擇了測試序列中的平均速度.對于同一種框架下采取深度特征與傳統特征的速度比較,傳統特征的運算速度優于深度特征,采用深度特征的跟蹤器普遍達不到實時性的要求,其中ASRCF在采用深度特征提取中的跟蹤器中[5,13,45,75]表現優秀,尺度估計部分為傳統特征,相較于以尺度池形式[10]進行深度特征提取的方案,速度更快,說明頻繁的進行深度特征提取,時間消耗大,更多速度信息參見文獻[95].

圖4 VOT-2018基線測試EAO排名Fig.4 EAO ranking for the VOT-2018 baseline experiment

表1 VOT-2018跟蹤結果Table 1 Tracking results on VOT-2018

圖5 跟蹤器速度比較Fig.5 Comparison of trackers speed

6 應用場景簡介

由5.3節可知,采用深度模型進行特征提取的DCF類算法普遍不滿足實時性的要求,在實際應用中更多的是采用速度更快,性能略低的傳統特征算法,但理論上采用深度特征的算法也可修改為僅采用傳統特征,并借助加速技術進一步提升速度,或者融合其他算法提升性能.以KCF算法為例,KCF在行人目標檢測與跟蹤[99]、無人機目標跟蹤[100]、水下目標跟蹤[101]、視頻監控等場景存在廣泛應用,但該算法存在缺少尺度估計、特征采集單一等問題,通常與其他算法進行配合使用.由于現有的DCF類跟蹤器一般從視頻圖像中直接完成特征的提取[4,11,12],嘗試從2D空間完成3D空間的目標位置估計,較少考慮目標的空間和結構性信息[79,94],如2.6節介紹,在SLAM系統中針對CSRDCF的前景顏色標記部分存在改進方案[61,62].而性能更強的深度特征提取跟蹤器,普遍停留在理論階段.Siamese網絡與DCF相結合的跟蹤器,不僅要考量在線更新機制[102],還要在實際應用中考慮深度模型的泛化能力[85]和場景遷移能力,同時神經網絡部分需要具體場景的數據訓練.

7 總 結

伴隨著深度學習的發展,以MDNet、Siamese網絡[53,85,87]為代表的跟蹤器對DCF發起了強大挑戰,但DCF框架可以不依賴深度模型、不需要大規模的訓練數據集,仍可保持著對場景目標較強的跟蹤精度與魯棒性,同時有著良好的實時性與廣泛的適應性.本文以DCF的發展為主線,先以KCF跟蹤器進行橫向展開,再描述DCF的基本發展及兩個重要方向的演進,對比于特征插值和置信圖融合為主線的DCF路線,在公式中的構建與求解階段,設置合理的約束項成為性能提升的重要發展方向.解決模型中的過擬合問題是一個恒久的問題.深度學習的發展為神經網絡與DCF相結合提供了更多的可能,以VOT-2019[86]為例,圖像分割模型[77]用于跟蹤任務展現了巨大潛力.

猜你喜歡
深度特征模型
一半模型
深度理解一元一次方程
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
深度觀察
深度觀察
深度觀察
抓住特征巧觀察
主站蜘蛛池模板: 国产精品对白刺激| 一本大道无码日韩精品影视| 精品国产网站| 国产成人91精品| 在线观看视频一区二区| 伊人久久婷婷五月综合97色| 日韩精品免费一线在线观看| 无码人中文字幕| AV老司机AV天堂| 久久国产精品娇妻素人| 中文字幕免费在线视频| 57pao国产成视频免费播放| 国产视频入口| 国产一区二区三区免费观看| 久久人人97超碰人人澡爱香蕉 | 国产极品美女在线播放| 男女男免费视频网站国产| 人妻无码中文字幕一区二区三区| 成人噜噜噜视频在线观看| 欧美精品成人| 国产黄在线免费观看| 高清亚洲欧美在线看| 97视频在线精品国自产拍| 亚洲丝袜第一页| 制服丝袜一区| 久久香蕉欧美精品| 幺女国产一级毛片| 四虎永久免费地址在线网站| 精品视频一区在线观看| 国产人碰人摸人爱免费视频 | 成人一级免费视频| 欧美一区二区啪啪| 久久国产精品影院| 91国内外精品自在线播放| 欧美不卡视频一区发布| 一级不卡毛片| 亚洲精品第一在线观看视频| 91久久国产综合精品| 丰满的熟女一区二区三区l| 成人国产精品一级毛片天堂 | 91无码人妻精品一区| 久久午夜夜伦鲁鲁片无码免费| 男女猛烈无遮挡午夜视频| 青青极品在线| 中文字幕在线视频免费| 日韩午夜伦| 国产亚洲欧美另类一区二区| 久久国产精品波多野结衣| 国产一级在线播放| 91无码视频在线观看| 亚洲成A人V欧美综合| 九九这里只有精品视频| 99视频在线精品免费观看6| 亚洲国产综合精品一区| 国产亚洲高清在线精品99| 2020精品极品国产色在线观看 | a在线观看免费| 亚洲AⅤ波多系列中文字幕| 国产综合网站| 日韩不卡高清视频| 亚洲成人动漫在线观看| 色吊丝av中文字幕| 日韩精品欧美国产在线| 成年午夜精品久久精品| 曰韩免费无码AV一区二区| 激情综合图区| 高清免费毛片| 日韩精品一区二区三区免费| 国产清纯在线一区二区WWW| 91亚洲视频下载| 婷婷伊人五月| 成人福利在线视频免费观看| 欧美午夜视频| 五月天久久综合| 全部无卡免费的毛片在线看| 99999久久久久久亚洲| 香蕉久久国产超碰青草| 伊在人亚洲香蕉精品播放| 亚洲综合专区| 亚洲国产成人无码AV在线影院L| 国产精选自拍| 免费一级大毛片a一观看不卡|