王明銘,王 鵬,李曉艷,楊永俠,郭 嘉
(西安工業(yè)大學(xué),陜西 西安 710000)
視覺目標(biāo)跟蹤是計(jì)算機(jī)視覺領(lǐng)域中具有挑戰(zhàn)性的一項(xiàng)課題,主要目的是估計(jì)目標(biāo)在整個(gè)視頻序列中的位置及大小信息。隨著現(xiàn)代化的發(fā)展,視覺目標(biāo)跟蹤得到了廣泛應(yīng)用,如人機(jī)交互[1]、視頻監(jiān)控[2]、機(jī)器人技術(shù)[3]以及醫(yī)療診斷技術(shù)[4]等。但是,由于目標(biāo)在運(yùn)動(dòng)過程中可能會(huì)存在光照變化、形體變化、部分遮擋以及完全遮擋等問題,為實(shí)現(xiàn)精確的目標(biāo)跟蹤帶來了較大挑戰(zhàn)。
近年來,由于基于相關(guān)濾波的目標(biāo)跟蹤算法在運(yùn)算速度和魯棒性上具有更大的優(yōu)勢(shì),因此相關(guān)濾波算法在目標(biāo)跟蹤領(lǐng)域受到了廣泛關(guān)注。2013年,Henriques[5]等人提出了循環(huán)結(jié)構(gòu)的核跟蹤檢測(cè)算法(Exploiting the Circulant Structure of Trackingby-detection with Kernels,CSK),通過循環(huán)矩陣擴(kuò)展了樣本數(shù)量并用于分類器的訓(xùn)練;2014 年,Danelljan[6]等人提出了基于顏色屬性的目標(biāo)跟蹤器(Color Names,CN),并通過使用顏色屬性特征提升了算法的分辨力;2015 年,Henriques[7]等人提出了核相關(guān)濾波器(Kernel Correlation Filter,KCF),通過將CSK 擴(kuò)展為多通道方向梯度直方圖(Histogram of Oriented Gradient,HOG),提高了目標(biāo)定位精度;同年,Galoogahai[8]等人提出了限制邊界的相關(guān)濾波器(Correlation Filters with Limited Boundaries,CFLB),采用較大的圖像塊與較小的濾波器進(jìn)行目標(biāo)檢測(cè),可有效解決邊界效應(yīng)問題;2017 年,Galoogahai[9]等人提出了背景感知的相關(guān)濾波算法BACF,在CFLB 的基礎(chǔ)上將其擴(kuò)展為多通道HOG 特征,從而提升了算法的準(zhǔn)確率。但是,上述相關(guān)濾波算法使用的特征均較為單一,導(dǎo)致在面對(duì)復(fù)雜變化的場(chǎng)景進(jìn)行跟蹤時(shí),算法的跟蹤能力受限,分辨能力不強(qiáng),且尺度更新能力一般。
因此,本文在BACF 算法的基礎(chǔ)上提出了一種多特征的背景感知相關(guān)濾波跟蹤算法。通過在被檢測(cè)圖像中提取HOG 與CN 特征,增加濾波器的判別能力;將訓(xùn)練好的濾波器與檢測(cè)圖像塊進(jìn)行卷積,以獲得目標(biāo)位置;對(duì)圖片中的特征響應(yīng)進(jìn)行多峰檢測(cè),進(jìn)行模型更新;最后通過構(gòu)建尺度濾波器,利用不同尺度上提取的特征進(jìn)行尺度更新,從而解決目標(biāo)跟蹤在運(yùn)動(dòng)模糊、形變、背景干擾以及遮擋等復(fù)雜條件下產(chǎn)生的問題。
BACF 算法于2017 年發(fā)表在ICCV17 上,由Galoogahai 等人提出。該算法的主要貢獻(xiàn)是通過擴(kuò)大循環(huán)矩陣采樣的區(qū)域和通過在每個(gè)樣本上裁剪出有用的樣本區(qū)域,增大了樣本數(shù)量,提高了樣本質(zhì)量,故訓(xùn)練的相關(guān)濾波器效果更好,且可以保證以較快的運(yùn)算速率用于目標(biāo)跟蹤。
在BACF 算法中,假設(shè)目標(biāo)初始大小為M×N,然后將目標(biāo)區(qū)域擴(kuò)大5 倍并轉(zhuǎn)換為正方形區(qū)域,以方便算法的后續(xù)計(jì)算,公式表達(dá)為設(shè)樣本x的大小為T×T;位置濾波器設(shè)為h,大小為D×D,其中l(wèi)為特征采樣率;設(shè)P為二值矩陣,大小為D×T;y為樣本標(biāo)簽函數(shù),大小為T×T。
在BACF算法中,濾波器h可由式(1)求解獲得:

式中,K為特征通道數(shù)量。在原本的BACF 算法中采用了31 維的HOG 特征,因此K=31。
由于式(1)中的二值矩陣P可以通過預(yù)計(jì)算獲取,因此將P與xk合并,直接寫為XK,表示裁剪過后的樣本,并將式(1)轉(zhuǎn)換至頻域,得:

通過交替方向乘子法(Alternating Direction Method of Multipliers,ADMM)將問題換分為兩個(gè)子問題進(jìn)行迭代求解。通過求解獲得的濾波器h,將其與檢測(cè)目標(biāo)塊進(jìn)行卷積,尋找響應(yīng)值最大值位置,即為目標(biāo)估計(jì)位置:

將S^ 做逆傅里葉變換(Inverse Fast Fourier Transform,IFFT)后得到最終響應(yīng)圖,尋找響應(yīng)值最大值位置作為目標(biāo)估計(jì)位置。
本文算法在BACF 的基礎(chǔ)上,提出了結(jié)合多特征尺度估計(jì)的改進(jìn)背景感知跟蹤算法。首先,在目標(biāo)區(qū)域提取梯度直方圖(Histogram of Oriented Gradient,HOG)和顏色屬性(Color Names,CN)兩種特征作為樣本;其次,在循環(huán)采樣的基礎(chǔ)上進(jìn)行裁剪;再次,通過加入空間約束的目標(biāo)函數(shù)計(jì)算濾波器系數(shù),并采用多峰檢測(cè)的模型更新策略抑制相似特征;最后,在下一幀圖像輸入時(shí),提取不同尺度的目標(biāo)特征,并與濾波器系數(shù)做相關(guān)運(yùn)算計(jì)算響應(yīng)圖,以此獲取目標(biāo)估計(jì)位置及尺度估計(jì)。本文所提跟蹤算法整體框架如圖1 所示。

圖1 算法原理
1.2.1 顏色屬性提取
在BACF 原算法中,特征提取只是僅在目標(biāo)區(qū)域內(nèi)提取了31 維的HOG 特征。然而,在實(shí)際跟蹤環(huán)境中,在面對(duì)光照變化等情況時(shí),HOG 特征具有良好的跟蹤性能,但當(dāng)因形變或其他原因出現(xiàn)與目標(biāo)形狀相近的物體時(shí),以及跟蹤期間出現(xiàn)遮擋等問題時(shí),會(huì)對(duì)跟蹤結(jié)果產(chǎn)生較大影響,可能會(huì)導(dǎo)致跟蹤失敗。因此,為進(jìn)一步提高算法的分辨能力,本文在BACF 的HOG 特征基礎(chǔ)上又加入了顏色屬性。
CN 是將RGB 空間的顏色信息投影至11 維的顏色空間上,其中11種顏色分別是黑、藍(lán)、棕、灰、綠、橙、粉、紫、紅、白以及黃。但是,在跟蹤領(lǐng)域中,為增加循環(huán)矩陣帶來的正樣本數(shù)量,需要對(duì)顏色屬性進(jìn)行規(guī)范化操作,將11 維顏色空間降低為10 維顏色空間,但10 維的顏色屬性并沒有全部在本次跟蹤中起到作用,即部分顏色屬性并未提供有用的目標(biāo)信息。因此,本文通過PCA 降維的方式將10維顏色屬性降低至2 維,減少不必要的運(yùn)算,以提高算法的運(yùn)行速率。
設(shè)在目標(biāo)區(qū)域提取的CN 特征為xCN,其傅里葉變換為為降低特征維度,需要構(gòu)建降維矩陣Bp(下角標(biāo)p是指第p幀圖像),使得其中為降維后的CN 特征。降維矩陣Bp可通過求解式(4)獲得:

式中,αp和αj為權(quán)重系數(shù),ηdata則可表示為:

式中,是指第p幀圖像提取到的CN 特征進(jìn)行傅里葉變換的結(jié)果。ηdata僅利用當(dāng)前幀即第p幀圖像求解降維矩陣Bp,但由ηdata學(xué)習(xí)到的降維矩陣對(duì)特征進(jìn)行降維會(huì)降低目標(biāo)模型判別能力,因此需要加入前幾幀圖像進(jìn)行訓(xùn)練即ηjsmooth(上角標(biāo)j代表第j幀圖像),可由式(6)獲得:

式中,Q表示基向量總數(shù),通過加入平滑項(xiàng)使得獲取到的降維矩陣Bp更具魯棒性。
通過在目標(biāo)區(qū)域提取到的HOG 及降維后的CN特征按照第三維度結(jié)合起來當(dāng)作目標(biāo)樣本。目標(biāo)樣本更新方式如下:

式中,xp是指由式(2)求解的濾波器表示最終的濾波器模型,σ為學(xué)習(xí)率參數(shù)。通過在本幀求解獲得的濾波器模型加入歷史幀濾波器模型的方式,提升算法的魯棒性,最終將目標(biāo)區(qū)域與濾波器模型進(jìn)行卷積以此獲取目標(biāo)位置。
1.2.2 模型更新的多峰檢測(cè)
在視覺目標(biāo)跟蹤中,得到的濾波器響應(yīng)往往存在多峰響應(yīng),往往是因?yàn)樵趫D像的搜索區(qū)域中出現(xiàn)了若干與目標(biāo)相似的特征。當(dāng)干擾特征的響應(yīng)大于目標(biāo)特征響應(yīng)時(shí),多峰響應(yīng)會(huì)導(dǎo)致跟蹤模型出現(xiàn)漂移而導(dǎo)致跟蹤失敗[10]。因此,本文為解決目標(biāo)跟蹤中多峰響應(yīng)問題,提出了一種多峰檢測(cè)更新的方法。首先將提取最大的目標(biāo)響應(yīng)S,通過設(shè)置一個(gè)小于1 的閾值η,再將搜索域中所有大于η·S的響應(yīng)的坐標(biāo)映射在二維掩碼矩陣中,其中符合條件的設(shè)為1,其余為0,然后求解其在X和Y方向的方差:

式中,N為在X軸方向中掩碼為1 的像素點(diǎn)的數(shù)量,M為在Y軸方向中掩碼為1 的像素點(diǎn)的數(shù)量,Xi為掩碼為1 的像素點(diǎn)的X方向坐標(biāo),Yi為掩碼為1 的像素點(diǎn)的Y方向坐標(biāo)。當(dāng)出現(xiàn)多峰響應(yīng)的時(shí)候,在X與Y方向上的方差會(huì)較無多峰響應(yīng)的情況更大,故提出參數(shù)W表示此時(shí)刻的多峰參數(shù):

聯(lián)立模型更新式(7),當(dāng)W<γ時(shí),即可進(jìn)行模型更新;當(dāng)W≥γ,則視為出現(xiàn)多峰響應(yīng)情況,即停止模型更新。在多次仿真實(shí)驗(yàn)后,γ取值在2~3較為合適,本文取2.5。
1.2.3 添加尺度變換
原本的BACF 算法并未考慮到被追蹤目標(biāo)在運(yùn)動(dòng)過程中因?yàn)殡x鏡頭遠(yuǎn)近而引起的尺度變化,所以本文單獨(dú)訓(xùn)練尺度濾波器來進(jìn)行尺度估計(jì)。設(shè)F為尺度濾波器,在不同尺度上提取HOG 特征作為樣本xscale,濾波器求解如下:

式中,g為尺度濾波樣本標(biāo)簽函數(shù)。通過求解式(10),可獲得尺度濾波器F。
尺度估計(jì)方式與位置濾波相同,計(jì)算不同尺度對(duì)應(yīng)的尺度響應(yīng)值,響應(yīng)值最大的值即為目標(biāo)估計(jì)尺度。響應(yīng)值計(jì)算如下:

式中,λ為控制正則項(xiàng)的參數(shù),A、B為中間變量,具體為:

式中,ρ為尺度濾波學(xué)習(xí)參數(shù),D表示尺度數(shù)目,本文設(shè)置為33 個(gè)尺度。參數(shù)更新方式同樣采用考慮歷史幀參數(shù)的方式,可增強(qiáng)尺度濾波器的魯棒性。
本文在Window 10操作系統(tǒng)、Intel(R) Core(TM)CPU i7-4710HQ 12 GB 內(nèi)存電腦平臺(tái)上采用Matlab 2016a 軟件進(jìn)行仿真實(shí)驗(yàn)。為進(jìn)一步體現(xiàn)算法的優(yōu)越性,選取BACF 算法以及KCF、CSK、DFT、CT 共5 種算法進(jìn)行對(duì)比。它們均在相同環(huán)境下運(yùn)行。
OTB 數(shù)據(jù)集[10]是目前視覺目標(biāo)跟蹤領(lǐng)域公認(rèn)的測(cè)試數(shù)據(jù)集之一,其中不同的數(shù)據(jù)集還標(biāo)有不同的屬性,可以代表目標(biāo)跟蹤領(lǐng)域的常見難點(diǎn)。例如,IV(Illumination Variation)表示光照變化,SV(Scale Variation)表示尺度變化,OCC(Occlusion)表示遮擋,DEF(Deformation)表示變形,MB(Motion Blur)表示運(yùn)動(dòng)模糊,F(xiàn)M(Fast Motion)表示快速移動(dòng),IPR(In-Plane Rotation)表示平面內(nèi)旋轉(zhuǎn),OPR(Out-of-Plane Rotation)表示平面外旋轉(zhuǎn),OV(Out-of-View)表示離開視野,BC(Background Clutters)表示相似的背景,LR(Low Resolution)表示低的分辨率[11],OPE(One-Pass Evaluation)表示平均精度與成功率。
本文利用OTB-100 測(cè)試集提出的評(píng)估方法,對(duì)本文提出的算法、BACF 算法、KCF 算法、CT 算法、DFT 算法以及CSK 算法在OTB-100 測(cè)試集的所有序列上進(jìn)行了測(cè)試,并利用OTB 測(cè)試集對(duì)5 個(gè)算法在不同環(huán)境下的跟蹤精準(zhǔn)度與成功率進(jìn)行比較。實(shí)驗(yàn)表明,本文所提算法優(yōu)于BACF 算法以及其他算法。
在所有測(cè)試序列獲得的整體準(zhǔn)確率和成功率得出的結(jié)果如圖2 所示。可以看出,本文所提算法整體精確率和成功率都排名第一。
在準(zhǔn)確率上,如圖2(a)所示,本文所提算法達(dá)到86.2%,BACF 算法為84.9%,提升了1.3%。其中,KCF 算法為74.0%,CSK 為54.5%,DFT 為49.6%,CT 為40.1%。


圖2 在OTB 測(cè)試集下算法的準(zhǔn)確率與成功率對(duì)比
在成功率上,如圖2(b)所示,本文算法達(dá)到80.9%,BACF 算法為79.5%,提升了1.4%。其中,KCF 算法為60.8%,DFT 為44.3%,CSK 為43.9%,CT 為25.0%。
除此之外,在對(duì)OTB-100 的所有序列測(cè)試實(shí)驗(yàn)中,本算法在針對(duì)運(yùn)動(dòng)模糊、形變、背景干擾以及遮擋等情況的視頻序列,相比BACF 算法以及其他算法在精準(zhǔn)度和成功率上提升顯著,如圖3所示。
在背景干擾條件下,本算法的跟蹤精準(zhǔn)率為82.6%,BACF 算法為79.2%,提升了3.4%;本算法的跟蹤成功率為76.4%,BACF 算法為75.0%,提升了1.4%。


圖3 在不同屬性場(chǎng)景下算法的準(zhǔn)確率與成功率對(duì)比
在運(yùn)動(dòng)模糊條件下,本算法的跟蹤精準(zhǔn)率為78.6%,BACF 算法為74.6%,提升了4.0%;本算法的跟蹤成功率為77.8%,BACF 算法為74.9%提升了2.9%。在目標(biāo)形變條件下,本算法的跟蹤精準(zhǔn)率為85.7%,BACF 算法為81.4%,提升了4.3%;本算法的跟蹤成功率為79.3%,BACF 算法為78.7%,提升了0.6%。
在目標(biāo)被遮擋情況下,本算法的跟蹤精準(zhǔn)率為84.2%,BACF 算法為82.3%,提升了1.9%;本算法的跟蹤成功率為79.6%,BACF 算法為79.6%。
由實(shí)驗(yàn)可得,本文所提算法較原算法在跟蹤效果的精確率和成功率提升較明顯,較其他相關(guān)濾波跟蹤算法更優(yōu)秀。相較于全部數(shù)據(jù)集測(cè)試結(jié)果的提升效果而言,本文算法在運(yùn)動(dòng)模糊、形變、背景干擾以及遮擋等情況的視頻序列中提升效果更明顯,同時(shí)也證明了本文算法在對(duì)目標(biāo)跟蹤的運(yùn)動(dòng)模糊、形變、背景干擾以及遮擋情況處理的有效性。
本文在OTB-100 數(shù)據(jù)集中選取了5 個(gè)視頻序列對(duì)6 個(gè)算法進(jìn)行測(cè)試。這5 個(gè)視頻序列包含了多種不同場(chǎng)景要素,主要針對(duì)算法在背景干擾、運(yùn)動(dòng)模糊、目標(biāo)形變以及遮擋情況下進(jìn)行定性分析,其視頻序列的不同屬性如表1 所示。本文在5 個(gè)典型視頻序列上進(jìn)行分析,以測(cè)試算法性能。6 種算法在5 個(gè)序列下的跟蹤結(jié)果如圖4 所示。

表1 選取的視頻序列

圖4 6 種算法在5 個(gè)序列下的跟蹤結(jié)果
可以看到,在Soccer 序列中,6 種算法同時(shí)進(jìn)行跟蹤,第90 幀開始,視頻序列出現(xiàn)背景干擾,KCF、CT、DFT、CSK 算法跟蹤開始出現(xiàn)跟蹤丟失,本文算法與BACF 算法則可以保持跟蹤;第251 幀時(shí),目標(biāo)出現(xiàn)較為快速的尺度變換,BACF 算法與其他算法跟蹤出現(xiàn)并不能很好地適應(yīng)尺度變換,BACF 算法開始出現(xiàn)跟蹤丟失;本文算法得益于尺度估計(jì)的設(shè)計(jì),通過單獨(dú)的尺度濾波能夠很好地應(yīng)對(duì)目標(biāo)的尺度變換,保證對(duì)目標(biāo)的準(zhǔn)確跟蹤。
在Ironman 序列中,第47 幀開始,背景干擾嚴(yán)重,目標(biāo)開始劇烈運(yùn)動(dòng)模糊,BACF 算法、KCF算法與CT 算法開始出現(xiàn)丟失,DFT 算法出現(xiàn)完全丟失跟蹤目標(biāo),并未再重新跟蹤上,本文算法以及CSK 則可以保持對(duì)目標(biāo)的跟蹤;在74 幀,因目標(biāo)臉部遮擋較多時(shí)且背景相似物較多時(shí)跟蹤出現(xiàn)偏差,但當(dāng)遮擋物減少后可以快速重新定位目標(biāo)位置,后重新跟上;在111 幀,目標(biāo)出現(xiàn)較大形變,CSK 算法丟失跟蹤目標(biāo),本文算法得益于利用了多特征融合的方法,提高了算法的辨別力,在目標(biāo)周圍出現(xiàn)相似目標(biāo)能夠?qū)崿F(xiàn)準(zhǔn)確跟蹤,保證了對(duì)目標(biāo)的跟蹤。
在Jogging-2 序列中,在目標(biāo)被全部遮擋出現(xiàn)的第51 幀,除本文算法與BACF 算法以外,其余跟蹤算法出現(xiàn)跟蹤丟失。遮擋結(jié)束的第61 幀開始,BACF 算法丟失目標(biāo),跟蹤失敗,本文算法則因采用較大的搜索域重新定位目標(biāo)。由于在大區(qū)域內(nèi)訓(xùn)練濾波器學(xué)習(xí)到了較多的背景信息,可以實(shí)現(xiàn)目標(biāo)在遮擋時(shí)的精確定位,并長(zhǎng)時(shí)保持跟蹤。
在序列CarScale 中,第162 幀目標(biāo)被遮擋;第169 幀時(shí),CT、DFT、CSK 算法跟蹤失敗。該視頻序列整體尺度變化較為緩慢,本文算法、BACF 以及KCF 算法都保持全程跟蹤,但是本文算法的尺度估計(jì)更為精確,表明本算法在緩慢的尺度變化下可準(zhǔn)確跟蹤。在序列Trellis 中,目標(biāo)光照變化頻繁,尺度變化也較為緩慢,背景相似度干擾大,在212幀CSK 算法出現(xiàn)跟蹤丟失,在第383 幀CT 與KCF算法也出現(xiàn)跟蹤丟失,第505 幀DFT 出現(xiàn)目標(biāo)丟失,本文算法則可保持長(zhǎng)時(shí)間跟蹤。
由定性實(shí)驗(yàn)可得,本文所提算法較其他相關(guān)濾波算法在OTB-100 數(shù)據(jù)集的視頻序列中跟蹤成功效果更優(yōu)秀。在目標(biāo)相似物較多、發(fā)生較大形變以及目標(biāo)被完全遮擋后,本文算法可迅速重新定位目標(biāo),保持對(duì)目標(biāo)跟蹤,并對(duì)目標(biāo)大小進(jìn)行尺度估計(jì)。
本文將從中心位置誤差、重疊率以及運(yùn)算幀率3 個(gè)指標(biāo)對(duì)6 個(gè)算法進(jìn)行評(píng)估。
2.4.1 中心位置誤差
中心位置誤差計(jì)算公式為[11]:

式中,O表示由算法估計(jì)獲得的目標(biāo)中心位置,Ot為數(shù)據(jù)集人工標(biāo)定的真實(shí)目標(biāo)中心位置。中心位置誤差單位為像素,表示兩個(gè)中心點(diǎn)之間像素點(diǎn)的個(gè)數(shù)。中心位置誤差越小,表示算法越好。計(jì)算結(jié)果如圖5 所示。


圖5 5 個(gè)視頻序列的中心位置誤差對(duì)比
可以看出,本文算法在各序列中誤差均處于較低水平。為使結(jié)果呈現(xiàn)更加直觀,各個(gè)視頻序列下各個(gè)算法的平均中心誤差值如表2 所示。除了在序列Soccer 中的中心誤差,本文算法較KCF 算法相比誤差較高,約14.64 個(gè)像素點(diǎn),但較基礎(chǔ)算法BACF 仍有提高;全部視頻序列中,本文算法較BACF 在中心位置誤差上平均降低67.23 個(gè)像素點(diǎn)。

表2 平均中心位置誤差對(duì)比表
2.4.2 重疊率
重疊率計(jì)算公式為[12]:

式中,S-表示算法估計(jì)的目標(biāo)覆蓋范圍,S表示由數(shù)據(jù)集人工標(biāo)定的目標(biāo)真是覆蓋范圍。算法目標(biāo)尺度估計(jì)越準(zhǔn)確,重疊率越高。計(jì)算結(jié)果如圖6 所示。


圖6 5 個(gè)視頻序列的重疊率對(duì)比
從圖6 可以看出,在5 個(gè)視頻序列中,本文算法在大部分時(shí)間內(nèi)的重疊率均高于其他5 種算法。為更直觀地呈現(xiàn),本文計(jì)算了6 種算法在5 個(gè)視頻序列下的平均重疊率,如表3 所示。

表3 平均重疊率對(duì)比
從表3 可得,本文算法獲得了最高平均重疊率,較BACF 平均提高16.1%,重疊率僅在CarScale 序列中較基礎(chǔ)BACF 算法低0.05;在遮擋嚴(yán)重的序列Jogging-2 中,本文算法的平均重疊率最高,較基礎(chǔ)算法BACF 提升0.64。
2.4.3 運(yùn)算幀率
運(yùn)算幀率公式如下[13]:

式中,St表示的是視頻的總幀數(shù),Tt表示的是算法在該視頻序列上花費(fèi)的總時(shí)間。運(yùn)算幀率的計(jì)算數(shù)據(jù)如表4 所示。

表4 運(yùn)算幀率對(duì)比
由表4 可得,CSK 算法在全部視頻序列中運(yùn)行速率最高。本文所提算法在BACF 算法基礎(chǔ)上犧牲了一定運(yùn)算速率,平均運(yùn)算幀率可達(dá)到10.09 幀/s。
由定量實(shí)驗(yàn)可得,本文所提算法在實(shí)驗(yàn)中的平均中心位置誤差值較其他算法更低,而跟蹤過程中的平均重疊率較其他算法更高,并同時(shí)可以保證算法在運(yùn)行時(shí)進(jìn)行跟蹤的實(shí)時(shí)性。
為解決目標(biāo)跟蹤中遮擋、運(yùn)動(dòng)模糊、形變以及背景干擾問題,本文提出了結(jié)合多特征尺度估計(jì)的改進(jìn)背景感知跟蹤算法。
(1)在HOG 特征基礎(chǔ)上加入包括CN 等多種特征,增加了算法在復(fù)雜條件下的辨別能力,以解決在背景干擾條件下的跟蹤問題;
(2)在大區(qū)域內(nèi)訓(xùn)練濾波器,使濾波器學(xué)習(xí)到了背景信息,解決了在遮擋條件下的跟蹤問題;
(3)采用多峰檢測(cè)的模型更新策略抑制相似特征,解決了相似目標(biāo)干擾問題;
(4)通過訓(xùn)練單獨(dú)的尺度濾波器,解決了在跟蹤中的尺度變換問題。
實(shí)驗(yàn)結(jié)果表明,本算法對(duì)比BACF 算法以及其他經(jīng)典的相關(guān)濾波算法,跟蹤準(zhǔn)確率和成功率有一定提升。特別是在面對(duì)運(yùn)動(dòng)模糊、形變、背景干擾研究遮擋等情況,本算法的提升效果更顯著,可有效解決在目標(biāo)跟蹤中的運(yùn)動(dòng)模糊、形變、背景干擾以及遮擋等問題,提升了復(fù)雜背景環(huán)境下目標(biāo)跟蹤準(zhǔn)確率,具有較高的理論價(jià)值和工程應(yīng)用價(jià)值。