999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

自適應特征融合的相關濾波跟蹤算法

2022-05-15 06:35:34李星達
計算機工程與應用 2022年9期
關鍵詞:特征模型

李 彪,孫 瑾,李星達,李 揚

南京航空航天大學 民航學院,南京211106

目標跟蹤作為計算機視覺領域最具挑戰性的研究方向之一,在視頻監控、汽車導航、機器人技術、人機交互、醫學等領域有著廣泛的應用。

目標視覺跟蹤主要分為生成式和判別式方法。生成式方法首先對當前幀目標區域建模,在下一幀尋找與模型最相似的區域,其模型的建立可以分為基于核、基于子空間的方法以及基于稀疏表示的方法,經典的算法有均值漂移[1]、卡爾曼濾波[2]、粒子濾波[3]。判別式方法不僅利用了目標自身的外觀信息,還利用了目標周圍的背景信息,從背景中區分并估計出感興趣的目標區域。其跟蹤方法可以分為基于在線Boosting的方法、基于支持向量機的方法、基于隨機學習的方法以及基于判別分析的方法,在目標跟蹤精度與性能上優于生成式方法。

近年來,基于相關濾波的判別式目標跟蹤方法憑借其精度高、實時性、魯棒性好,逐漸成為領域內主流的研究方向[4-5]。Bolme等[6]于2010年提出MOSSE(minimum output sum of squared error)算法,將灰度圖作為特征運算,在頻域內實現快速的學習和檢測,開創了相關濾波應用在跟蹤領域的先河。Henriques 等[7]提出了CSK(circulant structure of tracking-by-detection with kernels)與KCF[8](kernelized correlation filter)經典的相關濾波器。Danelljan 等[9]用多通道顏色特征CN(color names)去擴展CSK,提出了CN(adaptive color attributes for real-time visual tracking)算法,該算法對于形變目標非常有效,一定程度上彌補了HOG 特征針對快速形變的不足。雖然上述相關濾波算法大幅度提高了跟蹤精度和準確率,但是針對尺度變化的影響,Danelljan等[10]通過結合獨立的一維尺度濾波器先后提出DSST(discriminative scale space tracker)和快速版本的fDSST(fast DSST)解決尺度估計問題,該算法先利用平移濾波找到最佳位置,再利用一維尺度濾波器,找到最佳尺度大小。Li 等[11]提出了一種融合多特征的尺度自適應相關濾波算法SAMF(scale adaptive with multiple features tracker),在平移濾波的基礎上增加了尺度池,但在目標形變、遮擋等因素干擾下跟蹤效果不穩定。Possegger等[12]提出了一種干擾感知跟蹤方法DAT(defense of color-based model-free tracking)。該方法基于RGB 空間建立顏色直方圖干擾感知目標模型,利用目標概率圖的概率值與距離值加權定位目標,得到跟蹤結果。由于僅由單一顏色特征描述目標模型,在復雜場景下跟蹤效果較差。2016年,Bertinetto等[13]結合DAT方法與相關濾波器提出Staple(complementary learners for real-time tracking)算法,通過融合兩種類型的分類器提高跟蹤性能。SRDCF(learning spatially regularized correlation filters for visual tracking)[14],緩解了由于DCF 算法中循環矩陣造成的邊界效應,但實時性不高。陳晨等[15]從多核融合的角度推導出了一種新的多模糊核相關濾波器(multi-fuzzy kernels correlation filter,MFKCF),采用單一HOG 特征,無法適應形變較大場景。楊佳霖等[16]提出了一種快速尺度估計的增強型多核相關濾波算法,該方法基于DSST 方法,在預測目標位置的基礎上實現尺度估計,一旦位置預測出現偏差,會對最后的跟蹤準確率產生影響。李福進等[17]提出了一種高置信度的尺度自適應核相關跟蹤方法以提高跟蹤精度,但是算法速度只能達到15 frame/s 左右,無法滿足實時性要求。近年來隨著深度學習的發展,后續又涌現出了CCOT[18](continuous convolution operators)與ECO[19](efficient convolution operators for tracking)等基于深度的學習的目標跟蹤算法,融入深度特征的多模板相關濾波跟蹤算法,文獻[20]通過訓練神經網絡得到深度特征,但是速度慢,無法滿足實時性。魏永強等[21]提出了深度特征的相關濾波視覺跟蹤算法提升跟蹤精度,但在尺度更新和速度上存在不足。

相關濾波算法通過在頻域內實現快速的學習和檢測,速度優勢明顯,逐漸成為跟蹤領域的研究熱點。但這類算法通過循環移位實現模板訓練,在應對目標形變和快速運動存在不足,特別是尺度變換十分敏感,實現穩健的目標跟蹤仍然面臨著非常嚴峻的挑戰。為提高復雜背景下跟蹤的魯棒性,本文在核相關濾波跟蹤框架之下,采用多個核相關濾波器框架,選取多元特征,并基于特征的互補性預測目標位置,同時采用尺度池方法實現尺度估計,提高跟蹤算法在光照、形變、旋轉、尺度變化等跟蹤場景下的魯棒性。

1 相關濾波跟蹤算法(correlation filter)

在相關濾波算法中,Staple 算法繼承了相關濾波算法的速度優勢,同時也結合了顏色概率直方圖的概率模型特性,所以本文以Staple為例對相關濾波算法進行介紹。

Staple 算法首先采用2 個獨立的框架,分別利用HOG 和顏色直方圖特征分別訓練位置預測器,進行位置響應圖的融合,然后再采用尺度濾波器進行尺度預測。分類器的訓練過程可以描述為:

其中,公式(1)為采用HOG 特征的相關濾波器模型,公式(2)為顏色概率直方圖模型,公式(3)為顏色概率直方圖預測模型的解。t為當前視頻幀數;h為位置濾波器的模型參數,HOG特征維數l=1,2,…,K。β為直方圖顏色概率模型參數;λtemp和λhist分別為濾波器模型和直方圖顏色概率模型中的正則化系數;(xt,p)為第t幀圖像中的訓練樣本;x為第t幀中檢測的新目標位置p產生的一系列訓練樣本位置;?(·)和χ(·)分別表示訓練樣本在濾波器模型和直方圖顏色概率模型中的特征表達,對應特征維度分別為K和M;y為期望濾波響應參數,?表示循環相關操作,BG和OT分別表示訓練的目標區域和背景區域包含的像素個數。其中,表示落在第j個直方圖區間的像素點為目標的概率,表示落在第j個直方圖區間的像素點為背景的概率,j=1,2,…,M。

對于目標的檢測,Staple 算法使用兩種分類器分別對候選樣本進行預測,得到各自的響應輸出:

其中,ftemp(·)和fhist(·)分別為候選樣本在濾波器模型和直方圖顏色概率模型下的響應輸出;H和P是兩種模型中參與計算的二維像素區域;p∈It,It表示第t幀中根據上一幀的目標位置pt-1產生的一系列候選樣本位置。

對兩種響應采用固定權重進行融合,得到最終響應輸出。在所有候選樣本中找到響應輸出最大的樣本對應的位置,即為目標的預測位置其中μ為固定權重值。

得到新一幀的目標位置pt后,使用線性插值的方法對式(1)相關濾波器位置預測模型和式(2)的顏色概率直方圖模型分別進行更新:

其中,^表示傅里葉變換;⊙表示點乘;ηhist為濾波器模型的學習率;l=1,2,…,K為特征位數。表示落在第j個直方圖區間的像素點為目標的概率;表示落在第j個直方圖區間的像素點為背景的概率,j=1,2,…,M。

由于目標在跟蹤過程中發生尺度變化,Staple 采用DSST 尺度估計算法來更好地追蹤目標,該算法通過一維的尺度相關濾波器,以當前中心位置pt為中心點獲取目標的最佳尺度。

2 自適應特征融合相關濾波跟蹤算法

本文提出一種基于相關濾波的特征自適應融合及尺度估計的跟蹤算法。圖1 是整體算法跟蹤過程的可視化表示。在特征表征方面上,本算法提出一種多元互補特征自適應融合方法,考慮顏色特征對目標形變的魯棒性較高,但對光照敏感,而HOG 特征與此正好相反。因此本算法通過顏色特征和HOG特征兩種相關濾波響應圖峰值自適應分配權重后形成互補融合特征表征目標。在顏色特征中本文又選取了CN特征和顏色統計特征。顏色統計特征獲取像素級顏色概率特征,對形變不敏感,適用于快速變形和運動目標跟蹤,但往往通過縮小目標以獲取前景目標的準確描述,不適用于目標尺度變換檢測[13],而CN 顏色將RGB 的3 通道圖像投影到11個顏色通道特征,在尺度估計跟蹤算法中表現良好[11],因此本文在顏色特征中選取兩種互補特征,首先基于CN和HOG的自適應互補獲取融合特征,同時采用尺度池機制跟蹤目標,進而為降低顏色特征對光照的影響,最后選取HSV顏色統計特征提高跟蹤精度。

圖1 本文算法跟蹤框架Fig.1 Framework of total tracking

本文基于相關濾波器和顏色概率直方圖模型的數學表達,在兩個獨立的嶺回歸框架下利用互補特征信息實現濾波器模型的求解,在保證了跟蹤算法的穩定性和收斂性的同時,實現目標的準確定位。

2.1 目標特征表征與自適應特征融合

目前相關濾波跟蹤算法采用的顏色特征中有CN特征和統計直方圖概率特征,如SAMF采用的是CN特征,Staple 采用的是顏色直方圖特征。CN 特征運用在相關濾波框架中時不可避免受到相關濾波邊界效應影響,而像素級概率顏色概率響應不受這一影響,能正確檢測快速變形和快速運動情況,但顏色直方圖特征不適用于尺度估計,為此本文在目標位置跟蹤中,在相關濾波框架下結合顏色直方圖提高位置相關濾波器的跟蹤精度,并用HSV 顏色空間代替RGB 空間以降低光照影響;尺度估計時采用HOG和CN顏色融合特征,使跟蹤能夠適應目標尺度變化。

現有經典算法一般也采用多特征提高跟蹤魯棒性,如Staple采用HOG和灰度特征,SAMF采用HOG、CN和灰度三種特征,文獻[22]也采用了多種特征,但這些方法中多元特征融合方法就是簡單的矢量疊加。不同場景下,不同的特征判別能力不同,因此本文提出了一種根據濾波響應圖來對特征進行自適應加權的特征融合方法,根據特征判別效果自適應確定權重,使優勢特征能夠占據主導地位,以更好地處理光照、快速形變等問題。

傳統的相關濾波類算法是用嶺回歸方法來對濾波器進行訓練的,它的損失函數如式(10)所示:

其中,R定義為樣本響應模板(i,j)處的濾波響應值;為(i,j)處高斯理想響應值,兩者差距越小證明該樣本的濾波響應越大,即濾波器越理想;A為正則項。因此,如何最小化損失差是提升跟蹤效果的重點。Ri,j為當前幀中樣本在濾波器中的實際響應值;本算法將損失差的大小作為衡量下一幀特征權重的標準,式(11)首先分別計算HOG和CN特征在第t幀的損失差。

兩個特征各自的自適應權重由式(12)確定:

最后將c(·)作為融合特征相關濾波器的最終特征輸入濾波器,求得的響應最大。

特征相關濾波響應圖說明了用該特征表征目標的準確度。因此本文以特征期望響應圖與實際相關響應圖之間的損失差作為確定特征權重的依據。為了進一步說明本文提出的特征權重自適應融合的有效性,以標準數據庫中的Skiing視頻序列進行分析說明,如圖2。

圖2 Skiing視頻序列Fig.2 Skiing video sequence

依據式(12)計算的視頻序列中顏色和HOG特征濾波器各自特征權重的變化結果如圖3 所示。該視頻序列中目標在不同時間段內目標形狀與顏色發生變化時,形狀與顏色自適應權重發生相應變化。其中1~6 幀背景較為單一,但目標形狀發生較大變化,此時顏色特征表征目標的準確度要高于HOG 特征,通過計算發現HOG特征濾波器損失差加大,顏色濾波器損失差較小,采用本文計算方法顏色特征權重高于HOG 特征;9~35幀是滑雪者在空中進行翻滾,中目標形變較小,HOG特征削波器損失差較小,而且HOG 特征能有效克服光照變化,因此形狀濾波器準確性強于顏色濾波器準確性,此時HOG 特征權重要大于顏色權重。57~64 幀圖像形狀發生較大變化,形狀濾波器損失差加大,而顏色濾波器損失差較小,顏色特征權重上升,顏色濾波器準確性強于形狀濾波器。

圖3 自適應特征權重圖Fig.3 Adaptive feature weight graph

相對于像素級顏色概率特征,運用CN 顏色特征進行尺度估計,但在相關濾波框架中時不可避免受到相關濾波邊界效應影響,而像素級概率顏色概率響應不受這一影響,能正確檢測快速變形和快速運動情況,因此本文進一步再與顏色直方圖模型響應輸出進行融合準確確定目標位置。常用的顏色直方圖模型是基于RGB空間三維直方圖,例如Staple 方法中采用的,但RGB 易受光照影響,而HSV空間更接近人們對彩色的感知經驗,更容易跟蹤某種顏色的物體,常用于圖像識別等領域,因此本文采用HSV空間計算顏色概率直方圖。

2.2 目標尺度估計

在目標跟蹤過程對目標進行實時的尺度預測,可以在一定程度上提高算法跟蹤的精度和魯棒性能,目前主流相關濾波尺度估計主要有尺度濾波器和尺度池方法。文獻[10-11]采用的DSST 是一維尺度濾波器,具有33個尺度大小,為了實時性通常選取單一特征,目標變化大則尺度估計不準,尺度估計時建立在位置定位基礎上的,因此對位置定位精度要求比較高。SAMF算法采用尺度池方法,尺度池中含有7 個尺度因子,尺度與位置估計相互促進,因此尺度估計比較穩定,不易出現估計偏移過大等情況,且可以采用多特征進行特征互補,文獻[12-14]中多采用尺度池策略。根據上述分析,本文采用尺度池方法,并結合2.1 節提出的自適應特征融合的相關濾波算法進行尺度估計。

初始目標模板大小定義為ST=(sw,sh),尺度池S={t1,t2,…,tk},其中ti是尺度因子。假設相關濾波目標窗口大小為st,對于當前幀,在HOG 和CN融合特征基礎上,列舉了{tisi|ti?S}中k個大小的尺寸,通過不同的尺度得到一系列響應輸出:

2.3 目標跟蹤置信度判斷策略

相關濾波算法依據最大響應值Rmax來完成目標定位,反映的是目標模型與目標搜索區域中對應位置的相關性,Rmax越大則表示相關性越高,即目標與該區域的相似度越高。但是當遮擋、形變等干擾情況發生時,響應圖將呈現出“多峰”形態,所對應的位置區域可能是背景區域或其他的遮擋物,這將導致跟蹤性能的退化。

KCF、DSST、Staple 等許多跟蹤算法不進行跟蹤結果可靠性判定,每一幀的結果都用來更新。但當目標被遮擋,或者跟蹤結果出現差錯時會使跟蹤器準確性逐漸變差,造成模型漂移,因此模型更新不可或缺,但同時想要保證跟蹤速度,就需要一種簡單有效的模型更新策略,通過之前已有資源來進行判斷,而不需要進行太多復雜的計算。相關濾波算法MOOSE 中作者提出了peak-to-sidelobe ratio(PSR)峰值旁瓣比,用于量化響應圖像的銳度,但是PSR 對于局部遮擋效果不好。于是基于PSR算法的基礎上,LCMF【23】(large margin object tracking with circulant feature maps)的作者對相關濾波算法進行了改進。本文利用文獻[23]中提出的平均峰值相關能量(average peak-to-correlation energy,APCE)作為評價指標來設計跟蹤置信度判定策略,衡量算法跟蹤結果的可靠性。對于任意的響應圖R,APCE計算方式為:

其中,Rmax、Rmin、Ri,j分別表示響應最高、最低和位置(i,j)上的響應,這個判據可以反映響應圖的振蕩程度,當APCE 突然減小時,就是目標被遮擋,或者目標丟失的情況,當前幀的APCE 相對于這段視頻的APCE 歷史均值有很明顯的減小,因此在這種情況下選擇不更新模型,從而避免了模型的漂移。只有當APCE都以一定比例大于歷史均值的時候,模型才進行更新,可以大大減少模型漂移的情況,同時減少了模型更新的次數,達到了加速的效果。

為說明平均峰值相關能量作為評價指標在文章中有效性,本文以標準數據庫中David3 視頻序列作為說明。相關濾波中響應圖是確定目標位置主要計算階段,所以響應圖能否與理想響應圖相似會對跟蹤結果以及模型產生較大影響。相關濾波器輸出響應分數的最大值所在位置即目標位置,當跟蹤準確的時候,對應一個峰值明顯且近似理想響應的響應圖。而當目標跟蹤效果不佳的時候,如遮擋、丟失、形變量大以及模糊等,響應圖表現出劇烈的振蕩。如果繼續用不確定是否是目標的區域作為訓練樣本去更新模型,可能導致跟蹤結果出錯。David3 視頻段中原視頻跟蹤圖與APCE 防遮擋算法跟蹤結果的位置響應圖如圖4所示。

圖4 非遮擋與遮擋情況下的響應圖Fig.4 Response diagram under non-occluded and occluded conditions

David3視頻中使用平均相關峰值能量評價指標后,模型的更新情況如圖5所示。當模型更新時,幀數對應Count為2,不更新則為0。在22~28幀左右,人體受到遮擋時Count 為零,不再受到遮擋后恢復正常。81~91 幀左右,人體受到樹木遮擋時Count 為零,不再受到遮擋后恢復正常。137~182 幀由于人體轉向導致模型不再更新,Count 為零。184~190 幀左右,人體再次受到遮擋,Count為零。239幀左右人體再次受到遮擋Count為零,綜上可知防遮擋算法實時有效,當目標跟蹤效果不佳的時候,如遮擋、形變量大時會及時停止模型更新以防模型的污染,加速算法的運行。

圖5 模型更新次數圖Fig.5 Model update times

3 實驗結果及分析

3.1 實驗環境及參數

為驗證本文算法的有效性,采用跟蹤領域通用的公開數據集OTB-2013[24]與OTB-2015[25]對本文算法進行測試與分析。OTB-2013 和OTB-2015 視頻數據集包含了尺度變化(scale variation,SV)、遮擋(occlusion,OCC)、形變(deformation,DEF)、運動模糊(motion blur,MB)、快速運動(fast motion,FM)、平面內旋轉(in-plane rotation,IPR)和平面外旋轉(out-of-plane rotation,OPR)等11 種影響因素構成的視頻序列。實驗運行環境為i7-9700 型號的CPU(主頻3.00 GHz)及8 GB 內存的PC機,測試平臺為Matlab R2018a。實驗選取目前表現較好的5 種主流的相關濾波算法與本文算法進行比較與分析。通過相關實驗,本文算法參數設置如下,HOG相關濾波器和CN 相關濾波器的正則化參數設置為λ=0.001,學習率η=0.01,HOG特征和CN特征的cell數為4×4,梯度方向為9,維數為3,高斯標準差為σ=1/16,共有9 個尺度池因子1、0.980、0.985、0.990、0.995、1.005 1.010、1.015、1.020。顏色直方圖bin 通道數為32,顏色直方圖響應圖與相關濾波器響應圖融合系數分別為0.4和0.6,顏色直方圖學習率η=0.01。

本實驗中的定量分析采用以OPE(one-pass evaluation)模式運行得到的跟蹤準確率(precision)和成功率(success)數據作為算法性能的評價指標。其中準確率為跟蹤中心點位置誤差小于閾值的幀數Fcenter占總體視頻幀數Ftotal的比例,即,中心位置誤差則表示序列中目標預測位置中心點與實際目標中心點歐式距離的平均值。成功率則用跟蹤重疊率(交并比)來度量,重疊率是指整個跟蹤序列中目標預測區域與實際區域交并比大于給定閾值的幀數占比。

其中,Rt是跟蹤目標區域,Ro是實際目標區域。

3.2 特征融合有效性實驗

為驗證本文特征自適應融合有效性,選取Staple算法(單一HOG特征)、HOG特征和CN線性相加特征(權重分別為0.5)和本文自適應特征融合方法分別對Skiing視頻序列OTB-2013 標準數據庫上進行實驗比較,圖6顯示了跟蹤準確度、成功率的結果。

圖6 在OTB-2013和Skiing視頻序列上的跟蹤結果Fig.6 Results on OTB-2013 and Skiing video sequences

通過上述實驗結果說明本文自適應特征融合改進算法在應對形變、旋轉、光照變化、背景復雜等多種干擾因素時具有較好的跟蹤準確性和魯棒性。

3.3 標準數據集上跟蹤算法性能比較

對本文算法進行總體性能評估。在OTB-2013 和OTB-2015的視頻序列上與5種近年來效果較好的跟蹤算法KCF、CSK、DSST、SAMF、STAPLE進行綜合比較,如圖7 所示。在OTB-2013 和OTB-2015 中本文算法準確度在所有算法中取得了最優的跟蹤結果,與次優的Staple 算法相比,本文算法在精確率方面有3.412%和1.187%的提升;在成功率圖上接近最優的Staple 算法,展現了優異的總體性能。表1列出了本文算法與5種跟蹤算法運行的平均傳輸幀率(FPS)、平均精度和平均成功率。

表1 六種跟蹤算法在不同基準上的平均跟蹤性能參數表Table 1 Mean tracking performance parameters on different benchmarks for six kinds of tracking algorithms

圖7 在OTB-2013和OTB-2015的跟蹤結果比較Fig.7 Tracking results on OTB-2013 and OTB-2015

為充分對比各個算法針對不同場景的性能差異,根據OTB-2013數據庫中的視頻序列場景屬性分別在快速運動(fast motion)、背景干擾(background clutters)、運動模糊(motion blur)、形變(deformation)、光照變化(illumination variation)、平面內旋轉(in-plane rotation)、平面外旋轉(out-of-plane rotation)、目標消失(out-ofview)、尺度變化(scale variation)、遮擋(occlusion)和低分辨率(low resolution,LR)進行跟蹤結果比較,圖8、9分別顯示了跟蹤準確率和跟蹤成功率,可以看出本文算法跟蹤性能優于其他算法。表2顯示了在OTB-2015不同場景屬性下的跟蹤準確率和成功率,也證明了本文算法的有效性。

表2 本文算法與其他5種跟蹤算法在OTB-2015環境下的跟蹤準確率(P)與成功率(S)對比結果表Table 2 Comparison results between proposed method and other five kinds of tracking algorithms on OTB-2015

圖8 OTB-2013中11種場景下各算法的準確率比較Fig.8 Comparison of tracking precision rate for each algorithm under eleven kinds of scenes in OTB-2013

圖9 OTB-2013中11種場景下各算法的成功率比較Fig.9 Comparison of tracking success rate for each algorithm under eleven kinds of scenes in OTB-2013

為驗證本文HOG 特征與CN 特征融合算法的有效性,將本文算法與基于HOG 特征與尺度池方法(HOG+Scaling-Pool)和Staple 方法(HOG+顏色概率特征,尺度估計采用尺度濾波器)在OTB-2013上進行比較,結果如圖10 所示。由于本文算法和Staple 方法增加了顏色特征,所以跟蹤性能優于單一HOG特征跟蹤方法;相比較Staple方法,本文方法在尺度估計中也融合了顏色信息,所以進一步提高了跟蹤效果。

圖10 融合特征驗證實驗Fig.10 Fusion feature verification experiment

本文雖然采用多個相關濾波器和一個顏色直方圖模型,但還是基于相關濾波器和顏色概率直方圖模型的數學表達,是兩個獨立的嶺回歸問題。兩種方法均可采用最小二乘與二次正則化方法得到封閉的解,以實現濾波器模型的求解,保證了跟蹤算法的穩定性和收斂性,同時實現濾波器模型與新的目標之間相關的可靠性,保證目標的準確定位。通過在標準數據集上OTB-2013與OTB-2015 進行實驗分析,可以看出本文跟蹤算法在實時性、穩定性、有效性上都具有良好的表現。同時與5種主流跟蹤算法進行對比也驗證了本文算法的跟蹤有效性。

3.4 特定視頻跟蹤效果比較

實驗選取5 組具有代表性的視頻序列對本文算法及比較算法進行定性分析,圖11 為各算法在每組視頻序列中部分幀的跟蹤結果展示,視頻序列的名稱按照從上到下依次為 skiing、basketball、football、lemming 和singer。由圖11可見,skiing視頻中,視頻在第15幀時只有本文算法還能追蹤準確,并且在后續的形變、尺度變化、光照變化、面內和面外旋轉的干擾下仍能保持跟蹤成功;basketball 視頻中,也存在明顯的尺度變化和形變、光照、背景等干擾因素,本文算法實現了對目標尺度的穩定跟蹤;football 視頻中主要的干擾因素是運動模糊和尺度變化背景復雜,明顯可以看出本文算法優于其他算法。lemming 視頻中,目標經歷了完全遮擋,尺度變化運動模糊等問題,本文算法在尺度預測和跟蹤準確性上有著有益的表現。singer 視頻中,存在著尺度變化和光照變化、形變等干擾因素綜,本文算法依舊可以有著不錯的表現。綜上所述,對特定視頻進行定性分析的結果進一步驗證了本文算法在應對遮擋、形變、旋轉、尺度變化、光照變化、背景復雜、運動模糊等多種干擾因素時具有較好的跟蹤準確性和魯棒性。

圖11 5組視頻上的部分跟蹤視頻序列Fig.11 Partial tracking results on 5 video sequences

4 結束語

本文提出了一種多相關濾波器下特征自適應融合目標跟蹤算法,通過采用CN和HOG特征自適應融合的方式提高相關濾波目標特征的有效性,并利用尺度池方法對目標尺度進行估計和更新,實現了復雜場景下目標的穩定跟蹤,并通過在標準數據集上的實驗驗證了本文算法。

猜你喜歡
特征模型
一半模型
抓住特征巧觀察
重要模型『一線三等角』
新型冠狀病毒及其流行病學特征認識
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 99热在线只有精品| 秋霞午夜国产精品成人片| 欧美国产日产一区二区| 日韩在线观看网站| 亚洲另类国产欧美一区二区| 99精品视频九九精品| 国产福利在线观看精品| 欧美日韩免费观看| 亚洲精品制服丝袜二区| 国产人碰人摸人爱免费视频| 91黄视频在线观看| 久久亚洲国产最新网站| 国产欧美视频一区二区三区| 亚洲清纯自偷自拍另类专区| 欧美成人手机在线观看网址| 老司机精品一区在线视频| 国产不卡在线看| 九色视频一区| 婷婷六月综合网| 欧美一区二区自偷自拍视频| 亚洲天堂色色人体| 国产日本一线在线观看免费| 日韩资源站| 极品国产在线| 伊人激情综合网| 亚洲中文字幕97久久精品少妇| 中文字幕伦视频| 色综合五月婷婷| 成人伊人色一区二区三区| 欧美精品v| 亚洲国产中文欧美在线人成大黄瓜| 人与鲁专区| 久久久久国产精品嫩草影院| 精品91视频| 无码aⅴ精品一区二区三区| 欧美a√在线| 久久国产精品嫖妓| 亚洲欧美人成人让影院| 999国内精品视频免费| av天堂最新版在线| 成年人午夜免费视频| 国产美女91呻吟求| 熟女视频91| 伊人久久青草青青综合| 精品成人免费自拍视频| 性色生活片在线观看| 九色在线观看视频| 婷婷五月在线| 久久久久青草大香线综合精品| 国产传媒一区二区三区四区五区| 久久久久久久久亚洲精品| www欧美在线观看| 亚洲人成电影在线播放| 亚洲视频免费在线看| 毛片大全免费观看| 亚洲一区网站| 免费播放毛片| 亚洲欧美日韩成人在线| 亚洲浓毛av| 亚洲福利视频一区二区| 欧美成人a∨视频免费观看| 久久先锋资源| 老司机aⅴ在线精品导航| 小说区 亚洲 自拍 另类| 色综合激情网| AV天堂资源福利在线观看| 亚洲区第一页| 亚洲—日韩aV在线| 国产xxxxx免费视频| 国产资源免费观看| 亚洲一区二区三区在线视频| 久久男人视频| 国产人免费人成免费视频| 超碰精品无码一区二区| 97视频免费在线观看| 亚洲毛片一级带毛片基地| 精品国产成人国产在线| 中文字幕2区| 青草视频免费在线观看| 色成人亚洲| 伊人久久综在合线亚洲2019| 手机在线看片不卡中文字幕|