陶 洋,唐 函,歐雙江,周婉怡
(重慶郵電大學(xué) 通信與信息工程學(xué)院,重慶 400065)
目標(biāo)跟蹤是計(jì)算機(jī)視覺領(lǐng)域中非常重要的一個(gè)研究方向,近年來,目標(biāo)跟蹤廣泛應(yīng)用在不同領(lǐng)域,例如智能交通監(jiān)控、人機(jī)交互、醫(yī)學(xué)成像、自動(dòng)駕駛等[1].目標(biāo)跟蹤任務(wù)旨在通過第一幀感興趣區(qū)域的初始目標(biāo)框來估計(jì)后續(xù)視頻序列中目標(biāo)邊界框.盡管目標(biāo)跟蹤的研究取得很大進(jìn)展,不斷有大量?jī)?yōu)秀的解決方案涌現(xiàn),跟蹤算法的綜合性能也在不斷提升,但要設(shè)計(jì)出魯棒性強(qiáng)、穩(wěn)定性高的跟蹤器仍是一個(gè)充滿挑戰(zhàn)性的問題.在目標(biāo)跟蹤中,跟蹤器性能往往受光照變化、快速運(yùn)動(dòng)、運(yùn)動(dòng)模糊、物體遮擋、旋轉(zhuǎn)、復(fù)雜背景干擾等因素影響[2].
基于相關(guān)濾波的算法通常借助信號(hào)處理的思想,將相關(guān)計(jì)算轉(zhuǎn)換到頻域完成,再通過傅里葉逆變換確定最終響應(yīng)圖最大值位置[3].這樣的方式大大簡(jiǎn)化了計(jì)算復(fù)雜度,同時(shí),其保證了不俗的跟蹤精度,得到了廣泛應(yīng)用.Bolme等[4]首次將相關(guān)濾波技術(shù)引入目標(biāo)跟蹤,提出的誤差平方和最小濾波器MOSSE改善了傳統(tǒng)目標(biāo)跟蹤方法容易過擬合和濾波模板不穩(wěn)定的問題.MOSSE利用快速傅里葉變換求解相關(guān)濾波器使得其運(yùn)行速度達(dá)到驚人的669幀/s.Henriques等[5]針對(duì)MOSSE濾波器在訓(xùn)練模板采用稀疏采樣導(dǎo)致訓(xùn)練出來濾波效果一般,引入了循環(huán)矩陣的方式對(duì)樣本進(jìn)行密集采樣,所提出的CSK算法還加入了高斯核技巧改善跟蹤效果.Henriques等[6]為改善CSK目標(biāo)提取的外觀模型,在提出的KCF核相關(guān)濾波算法中,將CSK單通道灰度特征提取方式替換成方向梯度直方圖HOG特征提取,但無法有效解決循環(huán)矩陣引起的邊界效應(yīng)問題.為緩解KCF算法在FFT過程中圖像邊緣循環(huán)拼接不連續(xù)的現(xiàn)象,Danelljan等[7]提出的SRDCF算法引入了掩碼矩陣與空間正則項(xiàng)來懲罰離目標(biāo)中心比較遠(yuǎn)的邊緣樣本,但由于空間正則項(xiàng)的引入破壞了目標(biāo)函數(shù)的封閉解,且采用的Gauss-Seidel迭代方法求解效率低,運(yùn)行效果只能達(dá)到4fps左右,遠(yuǎn)達(dá)不到實(shí)時(shí)性要求.Bertinetto等[8]提出的Staple算法利用顏色特征對(duì)目標(biāo)學(xué)習(xí)能很好處理形變與運(yùn)動(dòng)模糊的優(yōu)勢(shì)與HOG特征處理光照變化的優(yōu)勢(shì),將二者優(yōu)勢(shì)互補(bǔ),提出新的融合特征因子很好的提高了目標(biāo)跟蹤效果,同時(shí)對(duì)跟蹤速度沒有較大影響.Mueller等[9]提出了一種上下文感知相關(guān)濾波CACF框架,在訓(xùn)練階段采集目標(biāo)上下左右區(qū)域的樣本作為負(fù)樣本,較好地解決了目標(biāo)遮擋、背景模糊等挑戰(zhàn)場(chǎng)景.Huang等[10]提出的異常抑制相關(guān)濾波器ARCF通過抑制相鄰兩幀的響應(yīng)圖變化率,有效地防止了快速運(yùn)動(dòng)、遮擋、形變等導(dǎo)致外觀模型置信度迅速降低的異常檢測(cè).Li等[11]針對(duì)SRDCF中的固定的空間正則化權(quán)重不能很好適應(yīng)大多數(shù)場(chǎng)景,其提出的自適應(yīng)時(shí)空正則跟蹤濾波算法Autotrack根據(jù)用局部與全局的響應(yīng)圖變化,自適應(yīng)地調(diào)整時(shí)空正則化超參數(shù),提高了模型的通用性與有效性.Galoogahi等[12]人提出的背景感知濾波算法通過不斷裁剪目標(biāo)周圍的背景作為負(fù)樣本,解決了大多數(shù)相關(guān)濾波算法訓(xùn)練樣本質(zhì)量差的問題,提高了模型對(duì)目標(biāo)的判別正確率.
雖然背景感知濾波算法通過應(yīng)用ADMM(Alternating Direction Method of Multipliers,ADMM)迭代方法[13]提高了多通道HOG特征求解效率,使用真實(shí)的移位裁剪提高訓(xùn)練樣本質(zhì)量,但其單一的HOG特征無法很好對(duì)模型外觀建模,并且在提取真實(shí)負(fù)樣本的過程中,擴(kuò)大了搜索區(qū)域,引入了較多的背景雜波,因此BACF在面對(duì)遮擋、背景干擾、目標(biāo)遮擋、形變等情況時(shí)無法很好判別目標(biāo).針對(duì)以上問題,本文采用HOG與CN特征線性融合提高外觀表征能力,面對(duì)不同場(chǎng)景不同的挑戰(zhàn),引入L1正則項(xiàng)將目標(biāo)函數(shù)改寫為彈性網(wǎng)絡(luò)約束,限制了目標(biāo)區(qū)域稀疏性提高搜索區(qū)域目標(biāo)判別能力.同時(shí),BACF算法由于未考慮到目標(biāo)出現(xiàn)被遮擋、快速移動(dòng)等外觀突變時(shí),相鄰兩幀濾波器系數(shù)應(yīng)不會(huì)出現(xiàn)太大變化.為防止相鄰兩幀位置跟蹤濾波器出現(xiàn)突變,本文引入時(shí)間正則項(xiàng)來約束位置跟蹤濾波器,懲罰濾波器出現(xiàn)的異常畸變.
在機(jī)器學(xué)習(xí)算法中,彈性網(wǎng)絡(luò)是一種多元線性回歸模型,它同時(shí)采用了L1正則化與L2正則化對(duì)目標(biāo)參數(shù)進(jìn)行懲罰,其求解目標(biāo)函數(shù)如式(1)所示:
(1)

在彈性網(wǎng)絡(luò)模型中,當(dāng)混合參數(shù)β=0時(shí),彈性網(wǎng)絡(luò)將退化成嶺回歸模型;而當(dāng)β=1時(shí),彈性網(wǎng)絡(luò)則等價(jià)于Lasso回歸模型.嶺回歸能夠抑制回歸系數(shù),但不會(huì)縮減相關(guān)變量;Lasso回歸在優(yōu)化目標(biāo)函數(shù)最小化過程中,其引入的L1正則懲罰項(xiàng)可以幫助模型獲得稀疏系數(shù),篩選出重要相關(guān)特征變量,并縮減掉無關(guān)特征變量.彈性其本質(zhì)是將Lasso回歸與嶺回歸的優(yōu)點(diǎn)同時(shí)結(jié)合起來,能夠使模型同時(shí)獲得Lasso的稀疏性與嶺回歸的正則化能力.
在傳統(tǒng)的多通道相關(guān)濾波框架中,往往是在目標(biāo)附近的固定半徑內(nèi)采用循環(huán)移位的方式生成訓(xùn)練樣本.其本質(zhì)是對(duì)目標(biāo)樣本進(jìn)行周期性延拓,通過密集的循環(huán)移位采樣大大提高了濾波模型的樣本數(shù)量.但在樣本質(zhì)量方面,由于負(fù)樣本都是目標(biāo)樣本循環(huán)移位產(chǎn)生的,在實(shí)際采樣中,其效果是一系列扭曲的虛擬樣本.其生成的正樣本包含太多的背景信息,且僅有少部分是正確的.
傳統(tǒng)相關(guān)濾波算法訓(xùn)練樣本集質(zhì)量差,從而導(dǎo)致濾波模型無法有效分辨真實(shí)外觀模型,這增加了濾波器訓(xùn)練過擬合的風(fēng)險(xiǎn),也極大限制了復(fù)雜場(chǎng)景下濾波器分辨目標(biāo)與遮擋物的潛力.針對(duì)以上問題,BACF算法通過對(duì)整幅圖片進(jìn)行密集采樣,擴(kuò)大樣本搜索區(qū)域的同時(shí),引入一個(gè)二值化掩碼矩陣來裁剪出高質(zhì)量的樣本,使得正樣本中包含真實(shí)目標(biāo)和小塊的周圍信息,保證了所得到的負(fù)樣本包含了當(dāng)前幀的所有背景信息.多通道背景感知相關(guān)濾波器最小化優(yōu)化目標(biāo)函數(shù)如式(2)所示:
(2)
其中,T表示圖像像素個(gè)數(shù);K表示特征通道數(shù)的數(shù)量;P是引入的D×T二值化掩碼矩陣用于裁剪特征圖,其中D?T;hk∈D是所要優(yōu)化的第k個(gè)通道的相關(guān)濾波器;y∈T是集中在感興趣目標(biāo)的相關(guān)響應(yīng)結(jié)果;[Δτj]表示循環(huán)移位操作符,則Pxk[Δτj]是指利用掩碼矩陣P不斷裁剪循環(huán)移位后的特征圖,最終裁剪出D個(gè)元素.
BACF算法采用單一的方向梯度直方圖(Histogram of Oriented Gradient,HOG)特征來對(duì)目標(biāo)進(jìn)行外觀描述,通過計(jì)算統(tǒng)計(jì)局部區(qū)域圖像像素點(diǎn)的梯度或邊緣方向的方式,很好的反應(yīng)出目標(biāo)的邊緣輪廓,且HOG特征對(duì)光照變化、顏色變化不敏感,目標(biāo)的輕微變化不會(huì)影響幾何特征檢測(cè)效果.但其無法很好適應(yīng),目標(biāo)快速移動(dòng)、目標(biāo)形變、模糊背景干擾等情況.而Martin Danelljan提出的多通道顏色特征(Color Names,CN)[14]在快速移動(dòng)、低分辨率等情況下表現(xiàn)良好,但對(duì)顏色相近的干擾敏感.
針對(duì)BACF單一的特征通道,本文采用HOG與CN特征結(jié)合的方式來描述目標(biāo),能夠很好地彌補(bǔ)各自的缺點(diǎn),提高目標(biāo)外觀模型的魯棒性.然而,在實(shí)際跟蹤效果中,二者的線性融合無法很好適應(yīng)不同的場(chǎng)景.比如在復(fù)雜顏色背景干擾場(chǎng)景下,融合的CN特征會(huì)導(dǎo)致目標(biāo)模板污染,造成跟蹤效果的漂移.
受彈性網(wǎng)絡(luò)的啟發(fā),本文在BACF的基礎(chǔ)上引入L1正則項(xiàng)對(duì)濾波器進(jìn)行稀疏約束,使得跟蹤過程中更加關(guān)注目標(biāo)樣本區(qū)域,降低目標(biāo)周圍相似背景的干擾.同時(shí),在不同場(chǎng)景下篩選出更具代表性的判別特征,通過特征選擇增強(qiáng)目標(biāo)外觀的抗干擾能力.考慮到相鄰兩幀的出現(xiàn)較大畸變會(huì)影響濾波模型退化的問題,引入時(shí)間正則項(xiàng)防止濾波器突變.構(gòu)造的目標(biāo)函數(shù)如式(3)所示:
(3)
為求解公式(4),本文采用交替乘子法ADMM迭代求解.為提高計(jì)算效率以及跟蹤算法實(shí)時(shí)性,首先,將目標(biāo)函數(shù)中的時(shí)域計(jì)算轉(zhuǎn)換到頻域求解:
(4)
(5)

(6)
1)子問題h*求解
對(duì)于子問題h*,由于不涉及到相關(guān)計(jì)算,可在時(shí)域?qū)栴}進(jìn)行求解.
(7)
針對(duì)式(7)中存在L1范數(shù)作為約束條件,無法直接對(duì)式(7)求導(dǎo)得到最優(yōu)解,可通過軟閾值迭代收縮算法[15]求得該最小二乘問題的唯一解析:
(8)
o(x,y)=sign(x)×max(|x|-y,0)
(9)

(10)

(11)
對(duì)其求導(dǎo)并令導(dǎo)數(shù)為0,得到最后的閉環(huán)解如式(12)所示:
(12)

(13)

3)拉格朗日乘子求解
ADMM中的增廣拉格朗日乘子更新策略如式(14)所示:
(14)
其中,i表示ADMM中迭代次數(shù),在迭代第i+1次時(shí)的拉格朗日乘子問題求解結(jié)果如式(14)所示,而拉格朗日懲罰參數(shù)μ更新公式如式(15)所示,θ為固定參數(shù).
μi+1=min(μmax,θμi)
(15)


圖1 算法原理Fig.1 Algorithm principle
OTB作為主流的單目標(biāo)跟蹤測(cè)試數(shù)據(jù)集,主要包括不同場(chǎng)景下100個(gè)帶人工標(biāo)注視頻序列.其中有25%的視頻序列為灰色圖像,75%的視頻序列為彩色圖像,因此,OTB數(shù)據(jù)集覆蓋了IV(Illumination Variation,光照變化)、SV(Scale Variation,尺度變化)、OCC(Occlusion,遮擋)、DEF(Deformation,形變)、MB(Motion Blur,運(yùn)動(dòng)模糊)、FM(Fast Motion,快速運(yùn)動(dòng))、IPR(In-Plane Rotation,平面內(nèi)旋轉(zhuǎn))、OPR(Out-of-Plane Rotation,平面外旋轉(zhuǎn))、OV(Out-of-View,離開視野)、BC(Background Clutters,背景復(fù)雜)、LR(Low Resolution,低分辨率)這11方面的挑戰(zhàn).OTB2013[17]是Wu等人在CVPR2013上發(fā)表論文中的51個(gè)視頻序列.主要是以灰色圖像序列為主,而OTB2015[18]是指OTB所有的100個(gè)視頻序列,是為更好地測(cè)試跟蹤算法模型的魯棒性,在OTB2013的基礎(chǔ)上新增了49個(gè)視頻序列.
為驗(yàn)證算法提升效果,本文實(shí)驗(yàn)環(huán)境在win11操作系統(tǒng)上采用MATLAB R2018a軟件,硬件配置平臺(tái)CPU為Intel i5-12500H,運(yùn)行內(nèi)存16GB,主頻2.5GHz.為方便實(shí)驗(yàn)對(duì)比,本文選擇在OTB2013數(shù)據(jù)集與OTB2015數(shù)據(jù)集上運(yùn)行本文算法與公開跟蹤算法,包括SRDCF[7]、Staple[8]、Staple_CA[9]、ARCF[10]、AutoTrack[11]、BACF[12]、MSCF[19]在內(nèi)的主流算法.本文的基準(zhǔn)為BACF算法,引入的L1正則化超參數(shù)α設(shè)置為5×10-6,時(shí)間感知正則項(xiàng)超參數(shù)β設(shè)置為1×10-5,其余參數(shù)均與基準(zhǔn)算法保持一致.在圖像特征方面,采用手工特征HOG與CN融合的方式.
為保證對(duì)比實(shí)驗(yàn)的準(zhǔn)確性,本文對(duì)照實(shí)驗(yàn)算法均采用默認(rèn)參數(shù)設(shè)置,盡量避免實(shí)驗(yàn)環(huán)境不同導(dǎo)致算法結(jié)果與原算法出現(xiàn)較大偏差.
OTB數(shù)據(jù)集主要從跟蹤距離精度與跟蹤成功率兩方面來評(píng)估跟蹤算法的魯棒性和定量分析.通常主流方法采用一次性評(píng)估OPE(One Pass Evaluation,OPE)的方式,即以視頻序列的第一幀的ground_truth值作為待評(píng)估算法的初始位置,后續(xù)算法對(duì)每一幀為位置進(jìn)行計(jì)算與預(yù)測(cè),最后輸出所有視頻序列的平均位置精度和跟蹤成功率.
1)距離精度圖
對(duì)于精度定量分析,在圖像跟蹤廣泛使用的標(biāo)準(zhǔn)是計(jì)算圖像真實(shí)目標(biāo)位置與預(yù)測(cè)目標(biāo)位置的歐氏距離,即中心位置誤差(Center Location Error,CLE).假設(shè)每幀圖像中真實(shí)像素坐標(biāo)位置坐標(biāo)為(ua,va),預(yù)測(cè)位置像素坐標(biāo)為(ub,vb),則其計(jì)算公式如式(16)所示:
(16)
在OTB評(píng)估指標(biāo)過程之中,可以通過統(tǒng)計(jì)中心位置誤差小于等于20個(gè)像素點(diǎn)的幀數(shù)來評(píng)估算法的距離精度,通過距離精度圖來直觀展示上述幀數(shù)占總幀數(shù)的百分比.
2)成功率圖
另外一個(gè)重要評(píng)估指標(biāo)是成功率(Success Rate,SR),通過計(jì)算預(yù)測(cè)目標(biāo)框與真實(shí)目標(biāo)框像素面積的交并比獲得跟蹤得分,并統(tǒng)計(jì)目標(biāo)框重疊率大于閾值的成功幀數(shù)占總幀數(shù)比率.假設(shè)真實(shí)目標(biāo)跟蹤框記為sa,跟蹤算法所得到的目標(biāo)框記為sb,則重疊率(Overlap Rate)定義如式(17)所示:
(17)
重疊率越大表明跟蹤效果越好,通常成功率圖設(shè)置的重疊率閾值為0.5.
為綜合對(duì)比本文算法的跟蹤效果以及整體性能分析,本文選取了近年來公開的7種優(yōu)秀相關(guān)濾波跟蹤算法(SRDCF、Staple、Staple_CA、ARCF、AutoTrack、BACF、MSCF)與本文算法進(jìn)行測(cè)試.圖2是8種算法在OTB-2013數(shù)據(jù)集上測(cè)試出的距離精度圖與成功率圖,由圖2可知,本文改進(jìn)后的算法取得的不錯(cuò)的成績(jī),距離精度達(dá)到了88.2%,成功率達(dá)到了65.9%.相較于基準(zhǔn)算法BACF,距離精度與成功率分別提升了3.3%與1.4%.同樣在如圖3所示的OTB-2015數(shù)據(jù)集上,本文算法同樣保持了優(yōu)秀的性能提升,其距離精度與成功率相較于基準(zhǔn)算法分別提升了3.2%與1.6%.從整體上看,本文算法綜合性能比基準(zhǔn)算法BACF有了較大的提升.

圖2 OTB-2013數(shù)據(jù)集上的精度圖和成功率圖Fig.2 Accuracy graph and success rate graph on the OTB-2013 dataset

圖3 OTB-2015數(shù)據(jù)集上的距離精度圖和成功率圖Fig.3 Accuracy graph and success rate graph on the OTB-2015 dataset
表1與表2分別為8種算法在OTB-2015數(shù)據(jù)集上,11種挑戰(zhàn)因素下的跟蹤精度與成功率.由表1可以看出,除低分辨率(LR)屬性外,本文所提出的算法在剩余場(chǎng)景中均取得最高的距離精度.同時(shí),就成功率而言,本文算法在除低分辨率(LR)與平面內(nèi)旋轉(zhuǎn)(IPR)挑戰(zhàn)因素外,同樣是成功率排名第一.由此,本文引入的L1背景稀疏約束范數(shù)很好地在不同場(chǎng)景下選擇出目標(biāo)外觀模型的關(guān)鍵特征,使得濾波器能夠?qū)W習(xí)到正確有效的信息,在背景干擾、光照變化、物體遮擋3種場(chǎng)景中,跟蹤精度分別達(dá)到0.9、0.852、0.794,也驗(yàn)證了L1范數(shù)的引入使得整個(gè)樣本稀疏度分明,提高了目標(biāo)特征區(qū)分度,同時(shí)也增強(qiáng)模型注意力,避免了模型漂移.時(shí)間一致性約束正則項(xiàng)幫助濾波器建立起相鄰兩幀之間聯(lián)系,有效抑制物體快速移動(dòng)導(dǎo)致濾波器學(xué)習(xí)突變外觀信息.獨(dú)立用HOG特征訓(xùn)練的尺度估計(jì)模塊能夠準(zhǔn)確輸出最佳的尺度比例,在尺度變化挑戰(zhàn)中成功率較基準(zhǔn)算法提升了1.3%.在表中,排名第1的結(jié)果已加粗標(biāo)出,排名第2的結(jié)果已加下劃線標(biāo)出.

表1 8種算法在不同挑戰(zhàn)因素下的跟蹤精度Table 1 Tracking accuracy of 8 algorithms under different challenge factors

表2 8種算法在11種挑戰(zhàn)因素下的成功率Table 2 Success rates of 8 algorithms under 11 challenge factors
本文利用了ADMM算法將目標(biāo)函數(shù)分解為3個(gè)子問題,提高了局部問題最優(yōu)解求解效率,但不同與基準(zhǔn)算法,本文訓(xùn)練的獨(dú)立尺度估計(jì)濾波器也采用了ADMM求解,在對(duì)7個(gè)尺度的HOG特征提取時(shí),增加了額外的計(jì)算時(shí)間.如表3中BACF、STAPLE_CA、ARCF、AutoTrack、SRDCF、Staple、MSCF和本文算法在OTB-2015數(shù)據(jù)集上的平均跟蹤幀數(shù)對(duì)比所示,本文算法綜合性能得到提升的同時(shí)FPS達(dá)到了23.88幀/s,相較于BACF算法降低了8FPS,但跟蹤速度保持了近乎人眼視覺實(shí)時(shí)的效果.

表3 OTB-2015數(shù)據(jù)集上8種跟蹤算法速度對(duì)比Table 3 Speed comparison of 8 tracking algorithms on OTB-2015 dataset
為直觀對(duì)比評(píng)估本文所提出算法的跟蹤效果,圖4為8種算法在OTB-2015數(shù)據(jù)集上5個(gè)不同挑戰(zhàn)屬性的視頻序列(DragonBaby、Jogging-1、Lemming、Sharking、Human3)上的追蹤效果圖,所選的這5個(gè)視頻序列基本上覆蓋了所有的挑戰(zhàn)屬性.本文用不同顏色、灰度和虛實(shí)線的矩形框標(biāo)識(shí)出每種算法在該幀的預(yù)測(cè)位置.

圖4 8種算法在5個(gè)視頻序列的跟蹤效果Fig.4 Tracking effect of 8 algorithms in 5 video sequences
對(duì)于視頻序列DragonBaby(圖4(a)),該場(chǎng)景給跟蹤器帶來了尺度變化、目標(biāo)遮擋、運(yùn)動(dòng)模糊、離開視野等方面的挑戰(zhàn).由圖4(a)中所示,圖中目標(biāo)物體快速移動(dòng),在第32幀的時(shí)候,MSCF、ARCF、SRDCF已經(jīng)出現(xiàn)了濾波器學(xué)習(xí)到大量異常突變信息導(dǎo)致跟蹤漂移的情況,而本文引入的時(shí)間正則化約束性有效限制了濾波器相鄰兩幀的一致性,很好地降低了跟蹤漂移.在第44幀時(shí),目標(biāo)物出現(xiàn)了比較嚴(yán)重的運(yùn)動(dòng)模糊,本文算法利用背景稀疏約束,避免了對(duì)其他背景信息的學(xué)習(xí),只有本文算法準(zhǔn)確跟蹤到目標(biāo)位置.在第80幀左右,目標(biāo)物出現(xiàn)了快速旋轉(zhuǎn)、遮擋等問題,所有算法均出現(xiàn)了跟蹤漂移.在第113幀時(shí),BACF、ARCF、MSCF、SRDCF由于誤差累積,已導(dǎo)致其無法很好地跟蹤上目標(biāo),而本文算法仍能很好的跟蹤到目標(biāo).
對(duì)于視頻序列Jogging-1(圖4(b)),該場(chǎng)景主要有遮擋、形變等挑戰(zhàn)屬性,在第68幀~第85幀之間,畫面中靠左的慢跑者在遇到信號(hào)桿遮擋后,除了本文算法、SRDCF與BACF算法,其余算法在遇到遮擋后,無法再跟蹤到慢跑者.濾波器搜索區(qū)域也一直停留在信號(hào)桿附近,無法繼續(xù)對(duì)跑者進(jìn)行特征學(xué)習(xí),模型誤差一直累積,造成濾波器性能快速退化.
對(duì)于視頻序列Lemming(圖4(c)),該序列具有尺度變化、遮擋、離開視野、平面內(nèi)旋轉(zhuǎn)等挑戰(zhàn)屬性.在第121幀時(shí),Staple算法由于使用固定的尺度框,無法很好的滿足物體尺度變化需求.而本文獨(dú)立到的尺度濾波模塊有效保證了目標(biāo)框的大小自適應(yīng).在第345幀~第389幀之間,目標(biāo)物體受到打火機(jī)的遮擋,MSCF、Staple、STPLE_CA、SRDCF、ARCF與AutoTrack學(xué)習(xí)到大面積的遮擋信息后,使得后續(xù)跟蹤一直停留在遮擋物上,無法再找到目標(biāo)位置,而本文與BACF算法則正確更新目標(biāo)位置.在第914幀~第1146幀之間,目標(biāo)在平面內(nèi)不斷旋轉(zhuǎn),得益于引入的時(shí)間感知信息與尺度估計(jì)模塊,本文算法很好地對(duì)目標(biāo)外觀建模,達(dá)到了不錯(cuò)的跟蹤效果.
對(duì)于視頻序列Sharking(圖4(d)),該序列具有光照變化、旋轉(zhuǎn)等挑戰(zhàn)屬性.在第61幀時(shí),畫面中出現(xiàn)較大的光照變化,本文算法與BACF能正確跟蹤到物體,而光照強(qiáng)度突變導(dǎo)致其它算法在特征提取上學(xué)習(xí)到豐富的顏色信息,進(jìn)一步影響到響應(yīng)圖最大值位置.在后續(xù)的第131幀與271幀之間,目標(biāo)出現(xiàn)較大旋轉(zhuǎn)、尺度變化與光照強(qiáng)度的不斷變化.除了本文算法與BACF,其余算法不斷累積位置誤差,進(jìn)而導(dǎo)致跟蹤失敗.整體上看,本文算法所使用到的彈性特征提取到一部分比例的HOG特征有效克服了光照變化的影響.
對(duì)于視頻序列Human3(圖4(e)),該場(chǎng)景主要挑戰(zhàn)是目標(biāo)遮擋、背景模糊、形變、尺度變化等.在第10幀與第39幀之間,由于SRDCF等算法其過大的搜索區(qū)域?qū)е缕鋵W(xué)習(xí)到較多的背景信息,導(dǎo)致后續(xù)目標(biāo)跟蹤丟失.在第39幀~第188幀之間,整個(gè)背景比較模糊,且目標(biāo)行人衣服與信號(hào)桿顏色相近,在受到信號(hào)桿的遮擋之后,只有本文算法能夠一直正確跟蹤到目標(biāo)位置.在后續(xù)畫面鏡頭不斷縮小放大過程中,分離出來的尺度濾波器能靈活適應(yīng)行人輪廓,精準(zhǔn)估計(jì)出尺度大小,使得本文算法保持了跟蹤穩(wěn)定性.
綜上所述,本文算法在基準(zhǔn)算法BACF上綜合性能提升顯著,跟蹤穩(wěn)定性和魯棒性得到了進(jìn)一步提升.在具體的視頻序列上,抗復(fù)雜背景干擾能力、尺度估計(jì)能力提升得到了很好的驗(yàn)證.
為解決BACF在背景干擾、尺度變化、運(yùn)動(dòng)模糊、形變、光照變化、目標(biāo)消失等復(fù)雜場(chǎng)景下穩(wěn)定性和魯棒性差的問題,本文提出在結(jié)合CN特征來提高目標(biāo)外觀模型的魯棒性,同時(shí)引入彈性網(wǎng)絡(luò)使得模型在線更新的時(shí)候能夠篩選出相關(guān)度高的融合特征,通過對(duì)目標(biāo)區(qū)域的稀疏性學(xué)習(xí)到重要特征信息,較好地提高了濾波器的判別能力.由于BACF算法未考慮到連續(xù)兩幀間的濾波器一致變化,本文引入時(shí)間正則項(xiàng)約束,有效避免了物體快速移動(dòng)帶來的運(yùn)行模糊、目標(biāo)遮擋等突變外觀信息學(xué)習(xí),從而造成濾波器逐漸學(xué)習(xí)偏移到其它背景上去.實(shí)驗(yàn)結(jié)果表明,本文算法采用的獨(dú)立尺度估計(jì)濾波器同樣采用ADMM算法降低計(jì)算時(shí)間的同時(shí),提高了尺度估計(jì)框的精細(xì)程度,在OTB-2015數(shù)據(jù)集的跟蹤性能均優(yōu)于其他追蹤算法.