999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進的相關(guān)濾波算法在光測圖像目標跟蹤應(yīng)用

2021-11-03 08:00:02黃曉冬聶凱
電子技術(shù)與軟件工程 2021年16期
關(guān)鍵詞:背景區(qū)域模型

黃曉冬 聶凱

(中國人民解放軍92124 部隊 遼寧省大連市 116023)

目標跟蹤是計算機視覺中的一個重要課題,也是當今和未來現(xiàn)代化軍事的研究熱點,在視頻監(jiān)控、智能交通、無人駕駛、航天測量等方面有著廣泛應(yīng)用。作為測控體系的重要組成部分,光學跟蹤測量系統(tǒng)目前已具備數(shù)字圖像的實時采集、存儲和輸出能力,在飛行器發(fā)射任務(wù)的起飛段和再入段彈道參數(shù)跟蹤測量,目標光學特性獲取以及無線電測量設(shè)備精度鑒定等方面發(fā)揮著重要作用,但對光測圖像的利用主要為景象監(jiān)視和事后判讀處理,很難實現(xiàn)目標的自動跟蹤,一般以0.05s 的間隔來進行人工判讀和數(shù)據(jù)處理,未能充分利用光測圖像豐富的信息[1]。

1 相關(guān)技術(shù)研究

在廣義上,目標跟蹤算法主要分為生成式跟蹤和判別式跟蹤兩種。2010年以前,目標跟蹤算法一般都采用均值漂移、粒子濾波、子空間學習、稀疏表示等生成式算法,2010年以后,Boosting算法、支持向量機、判別分析等使用判別式分類器的跟蹤算法得到了廣泛應(yīng)用。近年來,目標跟蹤領(lǐng)域的研究主要分為基于相關(guān)濾波和基于深度學習算法兩個分支。其中,基于深度學習的目標跟蹤算法主要包括基于深度特征、基于循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)、基于孿生網(wǎng)絡(luò)(Siamese Network)和基于其他網(wǎng)絡(luò)的目標跟蹤算法[2]。雖然跟蹤精度很高,但普遍存在特征計算和模型更新相對復雜的問題,因此計算代價大,影響了算法速度。相關(guān)濾波算法憑借精度高、速度快的特點得到廣泛關(guān)注,核相關(guān)濾波(Kernelized Correlation Filters,KCF)、自適應(yīng)顏色屬性(Color Names,CN)、判別式尺度空間跟蹤(Discriminative Scale Space Tracking,DSST)、模板與像素互補學習(Sum of Template and Pixelwise Learners,Staple)等跟蹤算法被相繼提出,算法性能得到大幅度提升。但是上述相關(guān)濾波算法在抑制邊界效應(yīng)問題時大都采用加余弦窗的方式,用于訓練的負樣本只通過正樣本循環(huán)移位得到,因此訓練的模型對背景的判別能力有限,在背景干擾、快速運動、脫離視野等情況下跟蹤算法容易產(chǎn)生漂移。為提高光測圖像目標跟蹤的效果并兼顧跟蹤實時性,本文在模型訓練和模型更新兩個方面對相關(guān)濾波算法進行改進:

(1)在濾波器訓練階段引入背景信息,通過自適應(yīng)背景選擇的方法提高模型的判別能力;

(2)利用峰值提取技術(shù)進行多峰目標檢測,同時采用響應(yīng)圖峰值的高置信度模型更新策略,提高模型更新中的樣本質(zhì)量。

2 本文算法

2.1 相關(guān)濾波算法原理

相關(guān)濾波跟蹤算法是一種判別式跟蹤算法,這類方法一般通過訓練一個目標檢測器來檢測下一幀預測位置是否是目標,然后利用新檢測結(jié)果更新訓練集進而更新目標檢測器。傳統(tǒng)相關(guān)濾波目標跟蹤算法使用目標周圍區(qū)域的循環(huán)矩陣采集正負樣本,利用嶺回歸訓練目標檢測器來預測目標位置,轉(zhuǎn)化為求解式(1)的優(yōu)化目標函數(shù):

其中,F(xiàn)0為訓練樣本f0循環(huán)移位得到的矩陣,w 為濾波器模板,g 為對應(yīng)的期望回歸響應(yīng),λ 為正則化參數(shù)。利用F0的循環(huán)結(jié)構(gòu)特性[3],求得濾波器w 在傅里葉域下的解:

用訓練得到的濾波器對下一幀進行檢測搜索,計算得到的響應(yīng)圖結(jié)果為:

其中,F(xiàn)-1為逆傅里葉變換,為檢測區(qū)域構(gòu)造的循環(huán)矩陣Z 的傅里葉變換,y 最大值對應(yīng)的位置即為當前幀目標預測位置。為適應(yīng)跟蹤過程中目標外觀的變化,需要對濾波器模板進行更新:

其中,t 為當前幀序號,η 為學習速率。

2.2 自適應(yīng)背景選擇

上述傳統(tǒng)相關(guān)濾波算法的訓練樣本僅通過目標周圍較小的范圍作循環(huán)位移進行密集采樣,大多采用加余弦窗的方式抑制邊界效應(yīng),也導致了部分背景信息的丟失,跟蹤算法的判別能力有限。為了充分利用背景信息,本文在目標已有的檢測區(qū)域外,同時選擇周圍多個區(qū)域作為負樣本進行訓練,將目標周圍的背景信息當作正則化矩陣加入優(yōu)化函數(shù)式(1),得到的優(yōu)化模型為:

其中,λ2為背景區(qū)域的正則化參數(shù),控制背景區(qū)域響應(yīng)回歸至0。求得式(5)在傅里葉域下的解為:

本文在初始幀選擇目標周圍的上下左右4 個區(qū)域進行采樣作為負樣本,后續(xù)幀通過對響應(yīng)圖結(jié)果進行分析,并利用峰值檢測技術(shù)[4]提取多峰的位置和響應(yīng)值,選擇響應(yīng)值較高的區(qū)域作為背景區(qū)域進行采樣得到Fi。

2.3 高置信度模型更新策略

大多數(shù)相關(guān)濾波算法采用每一幀以固定的學習速率進行濾波器模板更新的策略,卻沒有對跟蹤結(jié)果的可靠性進行判定,忽略了更新模型中的訓練樣本的質(zhì)量影響。針對上述問題,本文引入響應(yīng)圖峰值(Fmax)和平均峰值相關(guān)能量(APCE)判據(jù)[4]作為模型更新的置信度指標。跟蹤過程中訓練樣本的響應(yīng)圖能夠直接反映樣本的質(zhì)量,響應(yīng)圖最大值Fmax體現(xiàn)了峰值的尖銳程度,APCE 反映響應(yīng)圖的振蕩程度,定義如下:

其中Fmax,F(xiàn)min和Fx,y分別表示響應(yīng)圖中最高、最低和(x,y)位置上的響應(yīng)。Fmax越大說明最大響應(yīng)越尖銳,APCE 的值越大說明響應(yīng)圖的周圍平滑度越高。只有當Fmax和APCE 都以一定比例大于其歷史均值時,反映當前跟蹤結(jié)果的較高的置信度,模型才進行更新。這種高置信度模型更新策略一方面大大減少了跟蹤漂移的情況,另一方面又減少了模型更新的次數(shù),起到加速的效果。

2.4 算法流程

本文算法在跟蹤框架上進行了改進,將其與DSST 算法進行結(jié)合,具體流程如下:

初始化:根據(jù)第一幀的跟蹤目標的初始位置和尺度進行圖像采樣,提取上下左右4 個區(qū)域,初始化位置濾波器和尺度濾波器。

位置預測:

Step1 根據(jù)上一幀圖像的目標預測位置和尺度對圖像區(qū)域和背景區(qū)域進行采樣,并提取HOG 特征。

Step2 利用式(3)在目標和背景區(qū)域進行計算,獲得多個響應(yīng)圖,取響應(yīng)圖最大值對應(yīng)的位置作為目標的預測位置。

尺度估計:

Step3 以上一步驟中確定的目標位置為中心,提取不同尺度的圖像區(qū)域并提取特征。

Step4 計算不同尺度下的尺度響應(yīng),以響應(yīng)最大值對應(yīng)的尺度作為目標估計尺度。

模型更新:

Step5 利用式(7)計算當前幀的Fmax和APCE 值,采用高置信度模型更新策略對位置濾波器和尺度濾波器進行更新。

3 實驗結(jié)果及分析

3.1 定量分析

表1顯示了不同跟蹤算法在OTB-2013 數(shù)據(jù)集下的跟蹤性能對比。由表1 可以看出,本文算法的跟蹤成功率為75.0%,精確度為82.1%,均優(yōu)于其他算法,相比DSST 算法,在成功率和精確度上分別提高了12.4%和10.9%,相比于采用特征融合方法的Staple,跟蹤成功率和精確度分別提高了1.6%和4.6%,這得益于本文在濾波器訓練階段引入背景信息,通過自適應(yīng)背景選擇的方法提高了模型對相似背景干擾的判別能力,同時采用高置信度模型更新策略,因此跟蹤精度和成功率進一步得到提升。

表1:不同跟蹤算法的跟蹤性能對比

在算法的實時性上,本文算法的跟蹤速度為48.55 幀/s,是DSST 算法速度(23.10 幀/s)的1 倍以上,表明高置信度模型更新策略能夠減少模型更新的次數(shù),起到加速的效果,相比于Staple算法(68.31 幀/s)本文算法速度上有所下降,但性能上有所提高。KCF 算法是所有算法中跟蹤速度最快的,達到了185.70 幀/s,但跟蹤成功率和精確度相比本文算法差距較大。

3.2 定性分析

為了更加直觀地對比不同算法的性能,本文在包含光照變化、尺度變化、形變、遮擋、旋轉(zhuǎn)、背景雜亂、脫離視野等復雜場景的光測圖像數(shù)據(jù)集下進行了實驗。

圖1給出了本文算法和其他算法在部分光測圖像測試序列的跟蹤結(jié)果。跟蹤目標為航空飛行器,包含光照變化、尺度變化、遮擋、背景雜亂等挑戰(zhàn),各算法在第76 幀之前,基本能夠穩(wěn)定跟蹤目標,第76 幀后飛行器遇到相似外觀的背景干擾,Staple、DSST、KCF、CN 算法均跟蹤錯誤目標,僅有本文算法能夠準確定位目標并持續(xù)穩(wěn)定跟蹤。

圖1:本文算法與4 種跟蹤算法在光測圖像測試序列的跟蹤結(jié)果

4 結(jié)論

在光測圖像目標跟蹤中,通常會面臨各種復雜場景,尤其是目標光照變化、尺度變化、形變、遮擋以及脫離視野,本文提出一種基于自適應(yīng)背景選擇和高置信度模型更新的相關(guān)濾波算法,在模型訓練階段,通過自適應(yīng)背景選擇,獲得更具判別能力的濾波器模型,另一方面,在模型更新階段,通過多峰目標檢測和高置信度模型更新策略,提高模型更新中的樣本質(zhì)量,在一定程度上避免了跟蹤漂移問題。實驗結(jié)果表明,本文算法相比其他傳統(tǒng)的相關(guān)濾波算法,跟蹤性能有一定提升,能夠有效應(yīng)對光測圖像目標跟蹤中的光照變化、尺度變化、形變以及脫離視野等問題,具有較高的工程應(yīng)用價值。

猜你喜歡
背景區(qū)域模型
一半模型
“新四化”背景下汽車NVH的發(fā)展趨勢
《論持久戰(zhàn)》的寫作背景
當代陜西(2020年14期)2021-01-08 09:30:42
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
晚清外語翻譯人才培養(yǎng)的背景
3D打印中的模型分割與打包
關(guān)于四色猜想
分區(qū)域
基于嚴重區(qū)域的多PCC點暫降頻次估計
電測與儀表(2015年5期)2015-04-09 11:30:52
主站蜘蛛池模板: www精品久久| 午夜视频www| 欧美成人免费一区在线播放| 香蕉国产精品视频| a网站在线观看| 国产欧美精品专区一区二区| 91视频区| 国产福利免费在线观看| 欧美日本在线一区二区三区| 国产精品久久久精品三级| 久久精品国产精品一区二区| 精品久久香蕉国产线看观看gif| 久久永久视频| 国产黄网永久免费| 国产99在线观看| 内射人妻无码色AV天堂| 国产一级无码不卡视频| 美女一级毛片无遮挡内谢| 日本少妇又色又爽又高潮| 久久毛片网| 久久五月视频| 亚洲天堂伊人| 久久黄色免费电影| 日本黄色不卡视频| 国产特级毛片aaaaaaa高清| 老司机久久99久久精品播放| 综合五月天网| 亚洲最新地址| 色欲色欲久久综合网| 99久久精品免费看国产电影| 精品黑人一区二区三区| 国产AV无码专区亚洲精品网站| 无码福利视频| 国产99视频精品免费视频7| 青青草一区| 亚洲中文制服丝袜欧美精品| 9久久伊人精品综合| 亚洲精品在线影院| 欧美午夜视频在线| 99精品在线看| 成人免费黄色小视频| 免费一级毛片在线观看| 亚洲国产理论片在线播放| 日韩精品一区二区三区视频免费看| 无码网站免费观看| 久久五月视频| 黄色污网站在线观看| 国产成人区在线观看视频| 亚洲成人播放| 精品无码国产自产野外拍在线| swag国产精品| 国产剧情一区二区| 无码aⅴ精品一区二区三区| 日本精品αv中文字幕| 久久频这里精品99香蕉久网址| 青青草91视频| 国产成人一区| 高清欧美性猛交XXXX黑人猛交| 亚州AV秘 一区二区三区| 亚洲欧美日韩中文字幕在线一区| 伊人91在线| 国产91av在线| 成人第一页| 国产夜色视频| 精品综合久久久久久97超人| 国产亚洲精品97在线观看| 久久婷婷五月综合97色| 国产乱子伦手机在线| 免费Aⅴ片在线观看蜜芽Tⅴ | 91国内在线视频| 992tv国产人成在线观看| 国产亚洲视频中文字幕视频| 天堂岛国av无码免费无禁网站| 精品国产欧美精品v| 国产精品网址在线观看你懂的| 免费毛片全部不收费的| 国产激情国语对白普通话| 真人高潮娇喘嗯啊在线观看| 黄色国产在线| 亚洲香蕉在线| 亚洲日韩国产精品无码专区| 91黄视频在线观看|