戴煜彤,陳志國,傅毅
(1.江南大學(xué) 人工智能與計(jì)算機(jī)學(xué)院,江蘇 無錫 214122;2.無錫環(huán)境科學(xué)與工程研究中心,江蘇 無錫 214153)
目標(biāo)跟蹤[1]近年來因其橫跨視頻監(jiān)控、無人駕駛、無人飛行器、醫(yī)學(xué)圖像分析、空中預(yù)警等諸多領(lǐng)域而迅速成為計(jì)算機(jī)視覺研究的熱點(diǎn)之一。目標(biāo)跟蹤的主流方法目前正由生成類方法逐漸轉(zhuǎn)向判別式方法,其中基于相關(guān)濾波的目標(biāo)跟蹤算法發(fā)展尤為快速[2]。
相關(guān)濾波算法由Bolm 等提出的最小輸出誤差平方和[3](minimum output sum of squared error,MOSSE)引入目標(biāo)跟蹤領(lǐng)域。Henriques 等采用了HOG 特征和循環(huán)移位采樣方式,提出了核相關(guān)濾波器[4](kernelized correlation filter,KCF)跟蹤算法,大大提高了跟蹤算法的準(zhǔn)確率。Martin Danelljan 等在MOSSE 的基礎(chǔ)上增加了一個尺度濾波器用以應(yīng)對尺度變換的情況,提出了DSST(discriminative scale space tracking)算法[5]。循環(huán)移位策略的應(yīng)用使得基于相關(guān)濾波的目標(biāo)跟蹤算法會受到邊緣效應(yīng)的影響,Martin Danellja 提出的SRDCF[6](spatially regularized discriminant correlation filter)采用空間正則化懲罰系數(shù)取得了一定的效果。之后,Danelljan 在2016 年提出了C-COT[7](continuous convolution operators for visual tracking)算法,通過差值函數(shù),將不同分辨率的特征圖映射到連續(xù)的空間域上,計(jì)算機(jī)效率卻降低了。隨后,Danelljan 于2017 年在CVPR 上提出了ECO[8](efficient convolution operators),該算法分為手工特征算法(efficient convolution operators handcraft,ECO_HC)和卷積特征算法兩個版本。ECO 使用高效卷積操作融合多個特征獲取特征圖,從模型的大小、訓(xùn)練集的更新策略以及模型更新的頻率3 個方面對C-COT 改進(jìn),極大地提高了算法的時間與空間效率。2018 年,Li 等[9]在CVPR 上發(fā)表了Siam-RPN(siamese-region proposal network)網(wǎng)絡(luò)架構(gòu)算法。為了解決Siam-RPN 網(wǎng)絡(luò)架構(gòu)算法在使用訓(xùn)練好的深層網(wǎng)絡(luò)時出現(xiàn)的跟蹤算法精度下降問題,Li 等[10]在2019 年CVPR 上又提出了Siam-RPN++算法。Fan 等[11]為了解決大的尺度問題,在CVPR 2019 上提出了多級tracking 網(wǎng)絡(luò)La-SOT(large-scale single object tracking)算法。
本文針對ECO_HC 在遮擋方面的不足提出了多特征融合的抗遮擋相關(guān)濾波跟蹤算法。將FHOG 特征和ULBP 特征進(jìn)行自適應(yīng)加權(quán)融合,實(shí)現(xiàn)了對目標(biāo)更精確地定位。再利用高斯掩碼函數(shù)過濾掉一部分負(fù)樣本,用以解決循環(huán)移位造成的邊界效應(yīng),緩解模型漂移的情況。最后,根據(jù)最大響應(yīng)值計(jì)算的峰值均值比判斷目標(biāo)是否被遮擋,若目標(biāo)處于正常跟蹤狀態(tài),則修正卡爾曼濾波器預(yù)測的跟蹤目標(biāo)坐標(biāo);若目標(biāo)處于被遮擋狀態(tài),則啟動目標(biāo)重定位策略,使用卡爾曼算法預(yù)測得出目標(biāo)位置,并停止模型更新,回溯到之前模型未被污染的狀態(tài)。
相關(guān)濾波器[12-18]的核心是通過當(dāng)前幀和前序幀訓(xùn)練的濾波器判定跟蹤目標(biāo)在下一幀的位置。ECO_HC 算法首先在第一幀中選定跟蹤目標(biāo),獲取其在圖片幀中的實(shí)際位置及其他特征信息用以初始化訓(xùn)練跟蹤器,后續(xù)幀中根據(jù)跟蹤器中預(yù)測的位置對其周圍進(jìn)行采樣點(diǎn)響應(yīng),取最高響應(yīng)值的位置為跟蹤的目標(biāo)所在位置,并對跟蹤器進(jìn)行更新。相關(guān)濾波是根據(jù)前序幀訓(xùn)練的模型去預(yù)測跟蹤目標(biāo)下一幀的位置,當(dāng)跟蹤目標(biāo)發(fā)生劇烈變化,比如產(chǎn)生形變或者遮擋時,模型就會學(xué)習(xí)到錯誤的信息,受到污染,導(dǎo)致后續(xù)幀容易跟蹤失敗。此外,相關(guān)濾波采用了循環(huán)移位來豐富樣本,這就導(dǎo)致在訓(xùn)練的圖像塊中,只有萬分之一的圖像塊是真實(shí)的樣本,因此,解決邊界效應(yīng)對提高模型的準(zhǔn)確度有著至關(guān)重要的作用。
相關(guān)濾波的核心思想如下:若濾波器為h,輸入的圖像為f,對二者做相關(guān)運(yùn)算求得響應(yīng)值g:

響應(yīng)值g越大,則f和h的相關(guān)度越高。當(dāng)輸出的響應(yīng)值取最大值時,該響應(yīng)值對應(yīng)的位置即為當(dāng)前跟蹤目標(biāo)的位置。為了提高計(jì)算速度,可將式(1)利用快速傅里葉變換轉(zhuǎn)至頻域計(jì)算:

式中:(?)表示共軛,上述公式可簡化為

對于每一個樣本圖像fi都存在與其對應(yīng)的gi,則式(3)可變換為

H*的更新公式為

最后,對式(5)進(jìn)行傅里葉逆變換即可求得濾波器h。
ECO_HC 是在C-COT 算法的基礎(chǔ)上進(jìn)行改進(jìn)的,C-COT 通過學(xué)習(xí)一個含有M個訓(xùn)練樣本的集合獲得一個卷積濾波器,其中每一個通道d的特征層都有獨(dú)立的分辨率Nd。通過引入運(yùn)算符Jd給出的插值模型,將特征通過插值操作轉(zhuǎn)至連續(xù)空間域t(t∈[0,T)):

式中:bd是周期為T(T>0)的插值內(nèi)核,所得插值特征層是一個連續(xù)的周期為T的函數(shù)。在C-COT 中,使用Jd{x}表示整個插值特征圖,將其與訓(xùn)練的一個連續(xù)的周期為T的多通道卷積濾波器f=(f1,f2,···,fD)進(jìn)行相關(guān)運(yùn)算,得到的響應(yīng)分?jǐn)?shù)S f{x}為

C-COT 對于每個維度的特征都訓(xùn)練了一個對應(yīng)的濾波器,但是其中很多濾波器的貢獻(xiàn)不大。因此,ECO_HC 在特征提取的階段使用了原來特征的子集,對于D維特征,ECO_HC 選取了其中貢獻(xiàn)較大的C個濾波器(C 式中:P為D×C的系數(shù)矩陣;PT為線?性降維算子;是特征層為c的濾波器的線性組合;pd,c為濾波器的學(xué)習(xí)系數(shù)。 ECO_HC 更改了訓(xùn)練集的樣本更新策略,用高斯混合模型(gaussian mixture model,GMM)生成不同的分量,每個分量是一組相似度較高的樣本,分量之間差異較大。GMM 的建模如下: 式中:L是高斯分量N(x;μl;I)的數(shù)量;πl(wèi)是高斯分量的先驗(yàn)權(quán)重;μl是高斯分量的平均值;單位矩陣I是協(xié)方差矩陣。起初,每一個新樣本xj都初始化一個新的分量m: γ為學(xué)習(xí)速率,當(dāng)分量個數(shù)超過設(shè)定好的上限L時,如果有一組分量的權(quán)重 πl(wèi)小于設(shè)定的閾值,則丟棄該分量;否則,將兩個最相似的分量k與l合并為一個公共分量n: 本文算法是基于ECO_HC 實(shí)現(xiàn)的目標(biāo)遮擋后的再定位技術(shù)[19-20]。首先,將FHOG 特征和ULBP 特征進(jìn)行自適應(yīng)加權(quán)融合;其次,加入高斯形狀的掩碼函數(shù)解決邊緣效應(yīng),并保留更多的背景信息,減少模型漂移;最后,本算法根據(jù)每一幀獲取的峰值響應(yīng)值計(jì)算參數(shù)峰值均值比(peak-to-average ration,PAR),使用PAR 對目標(biāo)是否被遮擋進(jìn)行判斷。若PAR 大于一個固定的閾值,說明目標(biāo)此時處于正常跟蹤狀態(tài),根據(jù)ECO_HC 算法預(yù)測的目標(biāo)位置,修正Kalman 算法預(yù)測的目標(biāo)位置,并更新濾波器模型;若PAR 小于一個固定的閾值,則說明目標(biāo)處于遮擋或失蹤狀態(tài),此時采取目標(biāo)再定位機(jī)制,使用Kalman 濾波器預(yù)測出當(dāng)前目標(biāo)的位置,并回溯到之前未被污染的模型來更新模型。 本文使用ULBP 提取的特征來加強(qiáng)FHOG 提取的特征。ULBP 算法是對LBP(local binary pattern) 算法的一種改進(jìn),是單維度的特征表述,LBP 描述的是圖像局部紋理特征。LBP 算子是對樣本中的每個像素點(diǎn),選取其為中心的3×3 鄰域,在該鄰域內(nèi),將其周圍的8 個像素值與之比較,大于該像素點(diǎn)的值置1,否則置0,然后按照順時針方向組合即可產(chǎn)生8 位二進(jìn)制數(shù),即28種模式。但是,過多的二進(jìn)制模式對于紋理的表達(dá)是不利的,過于復(fù)雜且較大的信息量,對快速提取目標(biāo)特征信息是不利的,因此需要的是盡可能少且具有代表性的一些目標(biāo)特征。因此本文采取了uniform LBP(ULBP),其核心思想是對LBP 進(jìn)行降維,絕大多數(shù)LBP 模式只包含兩次從1 到0 或者從0 到1 的跳變,并將最多有兩次跳變的歸為一個等價模式類,其余的歸為混合模式類,通過這樣改進(jìn),3×3 的鄰域的二進(jìn)制模式就由28模式減少為58 種,并且不會丟失任何信息,也能減少高頻噪聲的影響。 在FHOG 提取得到的一個31 通道的梯度直方圖M1的基礎(chǔ)上,用ULBP 得到的一維特征MULBP與M1的每個通道進(jìn)行線性加權(quán)融合,得到特征圖M2。通過大量實(shí)驗(yàn),融合系數(shù) λ取值為0.01: 本文在模型更新時采用高斯掩碼函數(shù),對跟蹤目標(biāo)的中心取較大的系數(shù),邊緣取較小的系數(shù),保留一定的背景信息,緩解邊緣不連續(xù)性造成的影響,以提高模型的準(zhǔn)確性。 二維高斯函數(shù)將正態(tài)分布應(yīng)用于圖像處理中,隨著中心點(diǎn)到邊緣的距離增大,取得的加權(quán)平均值越小。若(u,v)表示像素點(diǎn)坐標(biāo),則二維高斯函數(shù)的定義為 因?yàn)槟繕?biāo)中心位置的樣本信息比邊界位置上的信息更加重要,所以本文對高斯函數(shù)做了相應(yīng)的改進(jìn),使得函數(shù)由中心點(diǎn)隨著目標(biāo)框的形狀呈橢圓形向圖像邊緣發(fā)散,結(jié)合掩碼函數(shù),對圖像邊緣不連續(xù)性的地方至0,其余地方至改進(jìn)過后的高斯函數(shù)值。然后將此構(gòu)造好的掩碼矩陣左乘循環(huán)移位樣本,得以增加真實(shí)訓(xùn)練的樣本比例,得到的函數(shù)如圖1(d)所示。定義如下: 式中:假設(shè)原始樣本的長寬分別為W與H,則w與h分別為目標(biāo)框的長與寬,則只有在時,會發(fā)生邊緣不連續(xù)性的情況,如圖1(b)所示。參數(shù) σ控制函數(shù)徑向作用范圍,即控制樣本權(quán)重衰減的速度。本文將二維高斯函數(shù)分解成兩個一維的高斯函數(shù),先從水平方向?qū)D像進(jìn)行卷積操作,將所得結(jié)果再對豎直方向進(jìn)行操作,提高了算法的效率。圖1(b)和圖1(c)對比看出,加了高斯掩碼函數(shù)之后,邊界效應(yīng)得到了有效的緩解。 圖1 高斯掩碼示意Fig.1 Illustration of the mask 本文在模型更新時使用參數(shù)峰值均值比(peak to-average-ratio,PAR)來判斷當(dāng)前目標(biāo)是否處于遮擋狀態(tài)。ECO 主要采用連續(xù)空間域中的卷積算子對訓(xùn)練樣本進(jìn)行隱式差值,通過對一組卷積濾波器來產(chǎn)生目標(biāo)的連續(xù)域置信度圖,該圖中的最高響應(yīng)值即為目標(biāo)位置。而當(dāng)目標(biāo)處于遮擋狀態(tài)的時候,置信度圖則會由一個很高峰值變?yōu)槎鄠€不明顯的峰值狀態(tài),為了解決目標(biāo)此狀態(tài)下容易跟蹤失敗的問題,本算法引入再跟蹤機(jī)制。由PAR 判斷跟蹤目標(biāo)在當(dāng)前幀中的狀態(tài),若PAR 不小于閾值θ,說明目標(biāo)處于正常跟蹤狀態(tài);而當(dāng)PAR 小于閾值θ,說明目標(biāo)處于遮擋狀態(tài),開始執(zhí)行再跟蹤機(jī)制。PAR 的定義為 式中:max(f(i))表示第i幀的最大響應(yīng)值;PAR 即為跟蹤目標(biāo)在i幀的最大響應(yīng)值與前q幀的最大響應(yīng)值均值的比值,本文q的值為20。通過大量實(shí)驗(yàn),閾值 θ取值為0.55。 當(dāng)跟蹤目標(biāo)處于正常跟蹤狀態(tài)時,PAR 的值處于一種相對穩(wěn)定的波動狀態(tài)而當(dāng)目標(biāo)處于遮擋狀態(tài)時,max(f(i))會突然變小,因而PAR 的值也會隨之變小,見圖2。因此,PAR 可以判斷目標(biāo)目前的跟蹤狀態(tài)。 圖2 視頻序列Girlmov 的PAR 時刻值Fig.2 PAR time value of Girlmov 卡爾曼濾波[21]結(jié)合前序幀與當(dāng)前幀可遞推地推測下一幀跟蹤目標(biāo)的位置,從而預(yù)測出目標(biāo)被遮擋后在圖片中的位置。若PAR 小于閾值θ,則目標(biāo)被遮擋,此時啟動目標(biāo)重定位機(jī)制,將卡爾曼濾波器預(yù)測的目標(biāo)位置傳給核相關(guān)濾波器,并回溯至之前未被污染的模型去更新模型;若PAR 大于閾值θ,則使用ECO 算法中目標(biāo)的位置修正卡爾曼濾波預(yù)測的目標(biāo)位置。為了提高計(jì)算效率,將目標(biāo)中心點(diǎn)的橫縱坐標(biāo)分兩步更新。假設(shè)ri是系統(tǒng)噪聲,vi是觀測噪聲,皆服從高斯分布,則根據(jù)式(16)、(17)構(gòu)造第i幀的橫坐標(biāo)ui狀態(tài)預(yù)測方程和系統(tǒng)的觀測方程: 式(18)和式(19)是狀態(tài)預(yù)測方程和誤差協(xié)方差預(yù)測方程。上述兩個方程中C?i是根據(jù)前一幀中的噪聲協(xié)方差矩陣遞推計(jì)算出的第i幀的預(yù)測的誤差。Q為協(xié)方差矩陣。 ′ 式(20)~(22)是狀態(tài)更新方程,其中K是卡爾曼增益矩陣,C是卡爾曼增益矩陣的誤差值,N是修正后的狀態(tài)轉(zhuǎn)移矩陣,R為修正后的協(xié)方差矩陣。式(21)是修正過后的目標(biāo)中心點(diǎn)的橫坐標(biāo)值。目標(biāo)中心點(diǎn)縱坐標(biāo)的預(yù)測和更新與橫坐標(biāo)一致,如若啟動重定位機(jī)制,則將卡爾曼濾波器預(yù)測的位置傳回原濾波器,并停止模型更新。 本文改進(jìn)算法的具體流程如圖3 所示。 圖3 算法整體流程圖Fig.3 Algorithm overall flow char 本算法的測試平臺為Matlab2018b,所有實(shí)驗(yàn)均在Intel(R) Core(TM) i5-8250U CPU with NVIDIA GeForce MX150 2G,主頻1.6 GHz,8 GB 內(nèi)存配置的windows10 64bit PC 系統(tǒng)上完成的。本文算法仍保留ECO_HC 算法的基本參數(shù),并在所有測試視頻上保持一致,高斯標(biāo)簽帶寬 σ的值為0.062 5,學(xué)習(xí)率為0.009,存儲的最大訓(xùn)練樣本的數(shù)量為30。 為了驗(yàn)證本算法對抗遮擋問題的有效性,本文選用了數(shù)據(jù)集Temple Color 128 中16 個不同程度遮擋的視頻進(jìn)行測試,16 個視頻分別為Airport_ce、Busstation_ce1、Coke、Face_ce2、Girlmov、Motorbike_ce、Soccer、Suitcase_ce、Surf_ce3、Tiger2、Busstation_ce1、Jogging2、Kite_ce2、Matrix、Basketball、Boat_ce2。除了與ECO_HC[8]進(jìn)行對比之外,本文還選取了DSST[5]、KCF[4]、SRDCF[6]、STRCF[22]、LDES[23]和SAMF[24]進(jìn)行比較。本文分別從精確度、成功率、覆蓋率和中心誤差對算法進(jìn)行分析。精確度DP=m/N(distance precision,DP),成功率SR=Sn/N(success rate,SR),中心誤差tion error,CLE)。 為跟蹤目標(biāo)覆蓋率,Rt為跟蹤得到的目標(biāo)窗口,Rgt為真實(shí)目標(biāo)窗口,area是區(qū)域面積。Sn為成功的次數(shù),當(dāng)score>0.5時,Sn加1。(xi,yi)是第i幀濾波器得到的目標(biāo)中心位置,(xi0,yi0)是目標(biāo)在第i幀的真實(shí)中心位置。N是視頻幀總數(shù)。 3.3.1 本文算法與基線ECO_HC 算法比較 首先將本算法與ECO_HC 算法在16 組有不同程度遮擋問題的視頻上針對抗遮擋問題進(jìn)行對比實(shí)驗(yàn),以驗(yàn)證本文算法的有效性。表1 中顯示了本文算法與ECO_HC 在精確度和成功率兩個評價指標(biāo)上的測試結(jié)果,可以看出本文算法性能較好。在這10 個視頻集中,本文算法的平均精確度為87.3%,成功率為76.5%,相比基線算法ECO_HC,分別提升了27.7%和23.7%。由此可見,本文改進(jìn)后的算法產(chǎn)生了積極的作用。 表1 在視頻集上的精確度和成功率Table 1 Precision and success rate on the videos 3.3.2 抗遮擋性能的定性分析 本實(shí)驗(yàn)選用DSST[5]、ECO_HC[8]、KCF[4]、SRDCF[6]、STRCF[22]、LDES[23]、SAMF[24]共7 種跟蹤算法進(jìn)行性能對比,測評結(jié)果如圖4 所示。在視頻序列Airport_ce 上,目標(biāo)受到顏色相同的干擾物遮擋時,DSST、SRDCF、ECO_HC 隨著遮擋物發(fā)生了偏移,例如第80 幀、90 幀、100 幀。在視頻序列Busstation_ce1 上,第60 幀顯示的是目標(biāo)處于較長時間的全遮擋后的位置,只有本文的算法跟上了目標(biāo),而其余的7 種算法均丟失了跟蹤目標(biāo)。在視頻序列Girlmov 中,目標(biāo)發(fā)生完全遮擋后,其他幾種算法都隨著遮擋物發(fā)生了漂移,例如第110 幀、第120 幀、第130 幀、第140 幀。在視頻序列Motorbike_ce 中,當(dāng)目標(biāo)發(fā)生遮擋又重新出現(xiàn)之后,本文算法跟蹤準(zhǔn)確,而其他算法發(fā)生了不同程度的偏移。在視頻序列Suitcase_ce中,目標(biāo)的尺度較小,而遮擋物的尺度較大,遮擋情況比較嚴(yán)重,本文算法較準(zhǔn)確地預(yù)測出了行李箱的位置,ECO_HC 與SRDCF 發(fā)生了嚴(yán)重的漂移,其余算法則停留在目標(biāo)被遮擋前的位置,例如第170 幀。綜合這5 個測試視頻中的跟蹤效果,可見本文算法較好地預(yù)測了目標(biāo)被遮擋后的位置,并且較好地學(xué)習(xí)了背景信息,優(yōu)化了模型污染造成的漂移問題,而其他7 種算法在處理遮擋問題上效果不佳,本文算法的效果較好。 圖4 目標(biāo)遮擋部分效果Fig.4 Part of target occlusion results 圖5 顯示了本文算法與其他7 種在視頻序列上的精確度。在受部分遮擋的視頻序列Coke、Tiger2 中,除了KCF 和DSST 外,其他幾種算法效果差不多。而當(dāng)目標(biāo)遮擋情況嚴(yán)重一點(diǎn)時,比如Soccer 和Face_ce2 中,LDES、SAMF、ECO_HC 的精度些許偏低。但是當(dāng)目標(biāo)處于一段時間的完全遮擋,比如視頻序列Airport_ce 和Busstation_ce1,本文算法的重定位機(jī)制以及改進(jìn)的模型更新算法起到了有效的作用。 圖5 不同算法在不同視頻集上的精確度圖Fig.5 Distance precison diagram of different trackers on different videos 表2 展示了幾種算法在這幾個視頻序列上的跟蹤結(jié)果。本文提出的算法在Coke、Tiger2 這幾個發(fā)生較輕微遮擋的視頻序列中,精確度與其他算法僅相差0.1% 與0.05%,均高于90.7%,而STRCF 在這兩個視頻序列上的結(jié)果僅為89.7%和52.6%。在余下幾個遮擋嚴(yán)重的視頻序列中,KCF 算法基本都沒有跟上目標(biāo),SAMF 和STRCF效果好些,精確度分別為60.9%和63.2%,ECO_HC算法的精確度也達(dá)到了59.6%,本文算法的優(yōu)勢較為明顯,平均精確度能達(dá)到87.3%。 表2 不同算法在視頻序列上的結(jié)果Table 2 Results of the videos via different methods 續(xù)表 2 表3 顯示了中心誤差位置這一評價指標(biāo)的測試結(jié)果,由于存在部分視頻序列跟丟的情況,因此7 種算法的表現(xiàn)不是很好。DSST、ECO_HC、KCF、SRDCF、LDES 的平均中心誤差都超過了40。SAMF 與STRCF 的中心位置誤差較小,分別為30.10 和32.78。本文算法的中心誤差遠(yuǎn)小于其他幾種算法,平均中心誤差為8.71,說明本文算法的表現(xiàn)較好。 表3 不同算法在視頻序列上的中心誤差值Table 3 Center location error of the videos via different methods 表4 顯示了8 種算法在這16 個視頻序列上的成功率情況,ECO_HC、KCF、SAMF 跟丟的情況出現(xiàn)的較多,成功率偏低,分別為0.528、0.450 和0.507。SRDCF 與STRCF 這兩個算法對模型污染有較好的效果,在目標(biāo)被遮擋的情況下表現(xiàn)的效果稍好,平均成功率分別為0.589 和0.541。LDES 在這7 種算法中表現(xiàn)較好,平均成功率達(dá)到63.6%。而本文算法的成功率76.5%,較基線方法ECO_HC 優(yōu)勢明顯。因此,本文算法的抗遮擋性能表現(xiàn)良好。 表4 不同算法在視頻序列上的成功率Table 4 Success rate of the videos via different methods 由于視頻序列Matrix 只有100 幀,所以在繪制圖6 的平均中心誤差和平均覆蓋率評價曲線時,截取了16 個視頻序列的前100 幀進(jìn)行對比。圖中紅色曲線為本文算法的效果曲線,雖然本算法在覆蓋率這一評價指標(biāo)的前50 幀效果一般,但總體效果優(yōu)勢明顯,對ECO_HC 算法的改進(jìn)成效不錯。由上可知,本文改進(jìn)的算法相較基線算法在抗遮擋方面有較強(qiáng)的魯棒性。 圖6 16 個視頻序列上的平均精確度、平均中心誤差、平均覆蓋率和平均成功率Fig.6 Average distance precision,average center location error,average cover rate and average success rate on 16 videos 本文針對ECO_HC 算法容易被遮擋以及遮擋后模型污染等情況干擾而導(dǎo)致算法效果不佳的問題,提出了一種融合ULBP 特征的目標(biāo)重定位機(jī)制相關(guān)濾波算法,有效地解決了由于遮擋因素帶來的模型漂移問題,提高了算法跟蹤的精度。在視頻序列集上的結(jié)果顯示,本文算法在覆蓋率、跟蹤成功率、中心誤差等評價指標(biāo)下較其他算法性能較好,具有較強(qiáng)的魯棒性。本文算法在面對目標(biāo)發(fā)生快速移動時表現(xiàn)效果較差,因此對目標(biāo)行動軌跡的預(yù)測仍需進(jìn)一步的改進(jìn)與研究。
1.3 生成樣本空間模型



2 再定位基本原理
2.1 ULBP 特征提取

2.2 高斯掩碼函數(shù)



2.3 參數(shù)峰值均值比


2.4 目標(biāo)重定位





3 實(shí)驗(yàn)結(jié)果及分析
3.1 實(shí)驗(yàn)環(huán)境及參數(shù)
3.2 性能評估方法

3.3 抗遮擋實(shí)驗(yàn)結(jié)果








4 結(jié)束語