999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于主從記憶空間模型的時空上下文跟蹤算法

2018-08-31 02:05:46趙宇飛郭拯坤王楓寧
兵器裝備工程學報 2018年12期
關鍵詞:記憶

宋 勇,李 旭,趙宇飛,郭拯坤,楊 昕,王楓寧

(1.北京理工大學光電學院, 北京 100081;2.精密光電測試儀器及技術北京市重點實驗室, 北京 100081)

作為計算機視覺領域的重要研究方向,目標跟蹤算法在視頻監控、人機交互、智能交通等領域具有廣泛的應用前景[1]。根據不同的建模方式,目標跟蹤算法可分為三類:基于目標特征匹配式跟蹤算法[2],基于目標和背景特征判別式跟蹤算法[3]和基于目標和背景相關性跟蹤算法[4]。其中,基于目標和背景相關性跟蹤算法有效利用了目標和背景信息,具有相對較高的跟蹤精度。

作為一種新型基于目標和背景相關性的跟蹤算法,時空上下文目標跟蹤算法[4](Spatio-Temporal Context Learning,STC)通過貝葉斯框架對目標及其周圍區域的時空關系進行建模,得到目標及其周圍區域的統計相關性。根據這一時空關系計算置信圖,利用置信圖中似然概率最大的位置來預測新的目標位置。STC算法結合了時間信息和空間信息,考慮了目標和周圍環境信息,根據傅里葉變換學習時空關系,具有較高的目標跟蹤精度和速率,是一種具有重要應用前景的目標跟蹤算法[5]。另一方面,由于STC算法采用固定的學習參數更新時空上下文模板,易將錯誤信息更新到目標模板中。當出現目標被遮擋、姿態突變、目標短暫消失后重現、環境光照變化等情況時,易出現跟偏或跟丟目標,導致目標跟蹤精度下降。

針對上述問題,Wei X G等[6]將時空上下文算法與卡爾曼濾波相結合進行目標跟蹤,雖在一定程度上解決了遮擋后目標漂移問題,但卻難以避免模板的錯誤更新;XU Jian-Qiang 等[7]賦予上下文不同區域不同的權值,引入Harris角點跟蹤目標,并且引入權值矩陣計算不同區域的權值,在一定程度上提高了跟蹤結果的魯棒性,但降低了算法速度;劉威等[8]采用點跟蹤器完成目標初步定位,由多維特征時空上下文模型完成精確定位,提高了目標遮擋、光照變化條件下的跟蹤能力,但當目標姿態變化較大時,算法跟蹤性能下降。

人腦視覺系統作為人類大腦獲取外界信息最主要的手段完成了人類70%以上的信息獲取。人腦視覺系統具有多種信息處理機制,包括:側抑制、記憶機制等[9]。其中,人腦記憶機制具有敏捷性、持久性、備用性的特性,有助于解決目標跟蹤中的目標遮擋、姿態突變等問題[10-11]。

基于上述分析,本論文提出了一種基于主、從記憶空間模型的時空上下文跟蹤算法。該算法將人腦記憶機制融入STC算法的時空上下文模板更新過程,通過構建主、從記憶空間,形成基于記憶的更新策略。通過記憶先前出現的場景,解決目標跟蹤過程中的目標被遮擋、姿態突變、目標短暫消失后重現、環境光照變化等問題。同時,通過設置多個置信圖峰值點作為目標位置候選點,選取與目標模板相似度最大的目標位置作為最終跟蹤結果,減少置信圖引起的誤差,提高目標跟蹤精度。實驗結果表明,所提出的算法可以解決跟蹤過程中的目標被遮擋、姿態突變、短暫消失后重現等條件下的跟蹤精度下降問題,有利于實現魯棒性、高精度的運動目標跟蹤。

1 基于主、從記憶空間模型的STC算法

1.1 STC算法原理

STC算法通過貝葉斯框架對目標和周圍區域的時空關系進行建模,得到目標及其周圍區域的統計相關性。根據生物視覺系統上的視覺注意特性,得到預測目標位置的置信圖。STC算法的主要過程包括:

1) 在已知第一幀跟蹤窗的情況下容易得到目標置信圖和先驗概率;

2) 根據過程1)得到的結果,求出目標和局部上下文的空間關系h,再利用這一關系學習下一幀的時空關系H為:

Ht+1=(1-ρ)Ht+ρht

(1)

式(1)中,Ht+1為第t+1幀時空上下文模板;Ht為第t幀時空上下文模板;ht為第t幀空間上下文模板;ρ為學習參數。

3) 根據學習到的時空關系計算置信圖,由置信圖中似然概率最大的位置預測出新的目標位置。其中,置信圖計算公式為:

c(x)=p(x|o)=∑c(z)∈xcp(x,c(z)|o)=

∑c(z)∈xcp(x|c(z),o)p(c(z)|o)

(2)

式(2)中,x表示目標位置;o表示目標出現;xc為上下文空間信息;p(c(z)|o)是上下文先驗概率,定義了目標周圍局部上下文的表觀,如公式(3)所示;p(x|c(z),o)是條件概率,定義為建模目標與局部上下文的空間關系,如公式(4)所示。

p(c(z)|o)=I(z)ω(z-x*)

(3)

p(x|c(z),o)=h(x-z)

(4)

式(3)、(4)中,I(z)為是點z的灰度;x*為給定的目標位置;w是一個加權函數,z離x越近,權值越大;h(x-z)是一個關于目標x和局部上下文位置z的相對距離和方向的函數。

1.2 基于主、從記憶空間模型的時空上下文模板更新

本論文所提出的算法采用基于主、從記憶空間模型的時空上下文模板更新策略,更新目標和局部上下文之間的時空關系。如圖1所示,該模型包括主、從兩個記憶空間。其中,主記憶空間用于存儲判別匹配程度的彩色直方圖模板,從記憶空間用來存儲時空上下文關系模板。因為時空上下文模板是一種復雜矩陣,所以借助于更直觀的直方圖模板作為匹配模板決定是否更新。每一層記憶空間均構建瞬時記憶、短時記憶和長時記憶三個空間,其中,短時記憶空間和長時記憶空間分別可以存儲R個模板。

依據主記憶空間中的模板和目標模板的匹配程度,決定從記憶空間中的時空上下文模板是否進行更新。其中,在主記憶空間中,將當前幀跟蹤結果所得到的估計模板(目標跟蹤窗彩色直方圖特征)存入瞬時記憶空間,依次與短時記憶空間、長時記憶空間中的目標模板進行匹配:若匹配成功,則根據更新規則對主記憶空間中目標模板進行更新,同時更新從記憶空間中的時空上下文模板;若均匹配失敗,則將瞬時記憶空間中的估計模板記憶到短時記憶空間。時空上下文模板更新總體流程如圖2所示。

時空上下文模板更新具體步驟為:

步驟1初始化記憶空間。

將當前幀的估計模板(彩色直方圖特征)存儲于瞬時記憶空間。將第一幀目標的彩色直方圖特征作為當前目標模板,存儲于主記憶空間中短時記憶空間的第一個位置。類似地,將第一幀時空上下文模板存儲于從記憶空間中短時記憶空間的第一個位置。

步驟2與短時記憶空間匹配。

將瞬時記憶空間存儲的彩色直方圖與主記憶空間中短時記憶空間的R個模板依次進行匹配,采用巴氏距離計算出相似度。根據相似度與匹配閾值的比較結果確定是否匹配成功。若在短時記憶空間中匹配成功,則根據當前模板對目標模板進行更新,如式(5)所示:

qt=(1-ε)qt-1+εp

(5)

式(5)中,qt為當前模板;p是瞬時空間的估計模板;ε是學習參數。同時,從記憶空間中相對應地對時空上下文模板進行更新,如式(1)所示。

如果短時記憶空間中的R個模板匹配均不成功,則將短時記憶空間中最后一個分布記為MR,繼續與長時記憶空間中的模板進行匹配。

步驟3與長時記憶空間匹配。

將瞬時記憶空間存儲的彩色直方圖與主長時記憶空間中的R個模板依次進行匹配,同樣采用巴氏距離計算相似度。根據相似度與匹配閾值的大小比較確定是否匹配成功。

如果存在匹配模板,根據公式(1)、 (5)更新匹配模板,記短時記憶空間最后一個模板為MR。同時在不可記憶情況下提取匹配的模板遺忘MR。在MR可記憶情況下,交換匹配模板和MR。

如果長時記憶空間中也不存在匹配模板,則更換主記憶空間中的當前模板,同時從記憶空間中的時空上下文模板也相對應更換。

1.3 置信圖多峰值點

在常規STC算法中,取置信圖最大峰值點作為目標位置。由于置信圖生成過程存在一定的誤差,真實的目標位置可能在其他峰值點,而非置信圖的最大峰值點處。例如:圖3是FaceOcc1序列第228幀,由于置信圖生成過程導致的誤差,利用置信圖最大峰值點求得的目標位置(實線)偏離了跟蹤目標(人臉)。而真實目標位置(虛線)對應于置信圖的第二峰值點。

針對上述問題,在根據時空上下文計算置信圖時,基于主從記憶空間模型的STC算法設置N個目標位置候選點,從中選取與目標模板相似度最大的目標位置作為最終跟蹤結果,從而減少了置信圖誤差對跟蹤精度的影響。具體方法為:

計算求得N個候選目標跟蹤窗的彩色直方圖特征,記第i個彩色直方圖特征為pi(i=1,2,3,…,N),記憶空間存儲的目標模板為q,計算pi與q的相似度(pi與q均為L維向量)。最大相似度S的計算公式為:

(7)

取最大相似度對應的候選目標作為最終目標。

2 算法設計

基于主從記憶空間模型的STC算法,利用目標和局部上下文的統計相關性,以及由視覺注意特性學習到的先驗概率,計算出下一幀中的置信圖,選取最相似置信圖峰值點作為目標位置。圖4為基于主、從記憶空間模型的STC算法的流程框圖。

具體算法步驟如下:

基于主從記憶空間模型的STC算法的具體步驟如下:

步驟1利用初始化第一幀的置信圖和上下文先驗概率學習第一幀的空間上下文模板,同時作為第二幀時空上下文模板。由公式(2)-(4)推導出置信圖計算公式為:

c(x)=h(x)?(I(x)ω(x-x*))

(8)

式(8)中,I(x)為像素點x的灰度;x*為給定的目標位置;w是一個加權函數,x離x*越近,權值越大。

由式(8)結合傅里葉變換和反傅里葉變換,推導出第一幀的空間上下文模板作為第一幀的時空上下文模板,計算公式為:

(9)

步驟2學習空間上下文模板,根據t-1幀得到的目標中心位置與記憶空間匹配,根據1.2.3節的更新規則,更新得到第t幀的時空上下文模板。

步驟3學習當前幀上下文先驗概率,結合步驟2得到的第t幀時空上下文模板,計算第t幀置信圖,有:

(10)

根據置信圖最大N個峰值點,計算目標N個目標位置候選點。

步驟4根據候選目標區域彩色直方圖特征與目標模板做匹配,取相似度最大的候選點為第t幀目標位置。

步驟5匹配第t幀確定的目標窗口的彩色直方圖和記憶空間中的模板,根據主記憶空間中的更新情況更新從記憶空間中時空上下文模板,用于確定t+1幀目標。

3 實驗與結果分析

3.1 實驗條件

以粒子濾波算法[12](PF)、壓縮感知跟蹤算法[13](CT)、常規時空上下文目標跟蹤算法(STC)等目標跟蹤算法為比較算法,開展對比實驗,驗證基于主從記憶空間模型的STC算法的性能。其中,PF為典型的目標跟蹤算法,CT與常規STC為近年來出現的新型目標跟蹤算法,其對目標外觀變化和背景變化具有魯棒性[14]。

實驗采用Visual Tracker Benchmark視頻測試集中的Girl序列、Crossing序列、FaceOcc1序列、Walking序列以及本論文在在背景相對復雜的實際環境中采集的Li1序列、Li2序列為實驗對象。Visual Tracker Benchmark視頻測試集[1]是2013年由Wu Yi等人發表在CVPR上的用來作為目標跟蹤的數據集,由50個可見光序列組成,2015年,擴充到100個序列。其中,在Girl序列中,目標發生姿態變化且存在目標遮擋,圖像分辨率為128(96;FaceOcc1序列中,目標發生姿態變化、反復遮擋和遮擋后重現,圖像分辨率為352(288;在Crossing系列中,目標發生光照變化,圖像分辨率為360(240;Walking序列幀數較多,圖像分辨率為768(576。本論文采集的Li1序列、Li2序列分辨率為960×544。實驗各序列的特點如表1所示。

其他實驗條件設置包括:Intel(R) Core(TM) i3 CPU 3.07GHz,4.00G的PC機,MATLAB 2013a平臺。實驗中參數設計包括:目標位置候選點的數量N=5;當前模板的匹配閾值Tc=0.9,短時記憶空間模板的匹配閾值Ts=0.8,長時記憶空間模板的匹配閾值Tl=0.8[12],短時記憶空間和長時記憶空間存儲的模板數量R=5。

表1 各序列特點

3.2 實驗結果與分析

3.2.1定性分析

圖5~圖10為粒子濾波跟蹤算法(PF)、常規STC算法(STC)、壓縮感知算法(CT)以及本論文所提出的基于主從記憶空間模型的時空上下文跟蹤算法(MSTC)分別對6個視頻序列的目標跟蹤實驗結果。其中,圖5是對Girl視頻序列跟蹤結果圖。 由圖5可以看出,Girl序列第310幀存在目標姿態變化,CT算法出現跟蹤偏移;第420幀以后,目標(女性人臉)出現被遮擋的情況,粒子濾波算法、CT算法、STC算法均錯誤地跟蹤了遮擋物(男性人臉)。同時,本論文提出的算法在目標被遮擋時仍能保持魯棒性的目標跟蹤。

圖6是對FaceOcc1序列跟蹤結果圖。FaceOcc1序列目標(女性人臉)存在被干擾物(書籍)長時或反復遮擋問題,粒子濾波算法和CT算法在第234幀目標被書籍遮擋后出現明顯的跟蹤偏移;STC算法完全偏移;本論文提出的算法在目標被干擾物遮擋以及再次被遮擋的情況下,仍能準確地跟蹤目標。

圖7是對Crossing視頻序列的目標跟蹤結果圖。從圖7可以看出,Crossing序列在第45幀時出現背景干擾以及光照變化的情況,粒子濾波算法在第45幀開始出現跟蹤框偏移,第70幀跟蹤到了干擾物(汽車)上;CT算法在第70幀開始出現偏移,第118幀以后跟蹤不到目標(行人);STC算法中,在序列第70幀以后跟蹤框位置保持不變;本論文所提出的算法到序列最后一幀(120幀),仍可準確地跟蹤目標(行人)。

圖8是對Walking序列的目標跟蹤結果圖。Walking序列的背景相對復雜,幀數較多。粒子濾波算法在第343幀及以后均錯誤地跟蹤到圖像右方的草坪;STC算法在序列后面幾十幀開始出現偏移,目標跟蹤出現偏差。相對而言,CT算法和本論文所提出的算法的跟蹤效果較為準確。

圖9是對Li1序列的目標跟蹤結果圖,Li1序列中存在多幀目標(人臉)被書本遮擋的情況,粒子濾波算法和常規STC算法均完全丟失目標,CT算法的跟蹤結果存在偏差,本論文算法能保持精確的跟蹤。

圖10是對Li2序列的目標跟蹤結果圖,Li2序列中存在多幀相似物(人臉)干擾的情況,粒子濾波算法魯棒性較低,在第94幀即丟失目標;常規STC算法在序列第196幀受到相似物遮擋后,后續幀跟蹤到干擾物上,丟失目標;CT算法的跟蹤結果存在偏差,本論文算法能保持精確的跟蹤。

3.2.2定量分析

利用跟蹤精度圖,以Girl序列、FaceOcc1序列、Crossing序列、Walking序列為實驗對象,對本論文所提出算法及其比較算法的性能進行定量分析。圖11為本論文算法與其他算法的跟蹤精度對比,其中距離閾值設為20 pixels[14]。

從圖11(a)可以看出,在對Girl序列的目標跟蹤中,運動目標發生姿態變化且被遮擋時,本論文提出算法的精度可以達到0.99,粒子濾波算法、CT算法、STC算法分別為0.75、0.65、0.9。從圖11(b)可以看出,在FaceOcc1序列中,運動目標存在反復遮擋后又重新出現等情況,本論文所提算法的精度達到0.8,粒子濾波算法、CT算法、STC算法分別為0.3、0.5、0.4。從圖11(c)可以看出,在Crossing序列中存在光照變化等情況,本論文算法跟蹤精度達到1,而粒子濾波算法、CT算法、STC算法分別為0.3、0.95、0.6。從圖11(d)的實驗結果表明,盡管CT算法和本論文所提出算法對于Walking序列的跟蹤效果均較為準確(如圖8所示),但CT算法的跟蹤精度為0.9,本論文提出的算法精度可以達到1。此外,STC算法分別為0.8,而粒子濾波算法完全偏移。

綜上所述,本論文提出算法可在目標被遮擋、姿態突變、短暫消失后重現等條件下仍具有較高的目標跟蹤精度。

4 結論

1) 提出了一種基于主從記憶空間模型的時空上下文跟蹤算法,通過基于主、從記憶空間模型的模板更新策略,解決了STC算法的模板更新錯誤的問題。

2) 提出了多置信圖候選點,降低了置信圖誤差帶來的影響。

3) 所提出的算法精度高、魯棒性強,可解決目標被遮擋、姿態突變、短暫消失后重現等目標跟蹤問題,在復雜背景、干擾條件下的運動目標跟蹤中具有廣泛的應用前景。

猜你喜歡
記憶
記憶的永恒
現代裝飾(2021年6期)2021-12-31 05:29:04
記憶樹
在水一方 相城的非遺記憶
華人時刊(2020年15期)2020-12-14 08:10:44
夏天的記憶
穿越四十年的高考記憶
華人時刊(2017年13期)2017-11-09 05:38:52
記憶中的他們
端午記憶
絲綢之路(2016年9期)2016-05-14 14:36:33
兒時的記憶(四)
兒時的記憶(四)
記憶翻新
海外文摘(2016年4期)2016-04-15 22:28:55
主站蜘蛛池模板: 亚洲AV无码久久天堂| 国产最新无码专区在线| 亚洲综合极品香蕉久久网| 99精品视频在线观看免费播放| 日本在线欧美在线| 99久久精品国产精品亚洲| 亚洲丝袜中文字幕| 欧美一区二区丝袜高跟鞋| 久久国产亚洲偷自| 日韩中文字幕免费在线观看 | 992tv国产人成在线观看| 538精品在线观看| 欧美激情,国产精品| 色视频国产| 国产91丝袜在线播放动漫| 午夜福利网址| 欧美a在线视频| 欧美国产菊爆免费观看| 91久久夜色精品| 情侣午夜国产在线一区无码| 亚洲一道AV无码午夜福利| 亚洲欧美人成人让影院| 国产一在线| 亚洲国产清纯| 亚洲乱强伦| 欧美日韩高清在线| 日韩国产亚洲一区二区在线观看| 亚洲精品成人福利在线电影| 国产精品漂亮美女在线观看| 国产成人精品男人的天堂| 在线欧美一区| 亚洲成aⅴ人片在线影院八| 欧美日本激情| 国产精品视频白浆免费视频| 成人午夜精品一级毛片| 国产丝袜无码精品| 国产精品七七在线播放| 亚洲无码视频喷水| 国产无码性爱一区二区三区| 亚洲综合经典在线一区二区| 手机在线看片不卡中文字幕| 亚洲日本中文字幕天堂网| 手机在线免费不卡一区二| 久久青青草原亚洲av无码| 波多野结衣在线一区二区| 亚洲AⅤ波多系列中文字幕| 国产亚洲精品资源在线26u| 一本大道香蕉中文日本不卡高清二区 | 国产微拍一区二区三区四区| 新SSS无码手机在线观看| 午夜日韩久久影院| 91国内视频在线观看| 色播五月婷婷| 免费一级毛片在线播放傲雪网| 精品三级网站| 美女无遮挡拍拍拍免费视频| 欧美日韩亚洲综合在线观看| 99热线精品大全在线观看| 97久久人人超碰国产精品| 中文字幕乱码中文乱码51精品| 亚洲一区无码在线| 国产麻豆91网在线看| 无码日韩人妻精品久久蜜桃| 亚洲一区二区日韩欧美gif| 性欧美在线| 成人韩免费网站| 免费久久一级欧美特大黄| 91在线高清视频| 人妻中文久热无码丝袜| 国产第八页| 色国产视频| av一区二区三区高清久久| 2020最新国产精品视频| 九九精品在线观看| 五月丁香在线视频| 9啪在线视频| 最近最新中文字幕在线第一页| 成人综合网址| 色婷婷电影网| 久久96热在精品国产高清| AV在线天堂进入| a天堂视频|