999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種基于預測的跟蹤方法研究

2018-01-06 12:34:51梁志達
電腦知識與技術 2017年35期

梁志達

摘要:該文提出了一種新型預測方法,將運動目標的運動模型考慮其中,可以有效縮小目標有效搜索區域,從而達到提高搜索效率的目的。在目標匹配方法上采用主成分分析法和灰度值差值兩種方法的有機結合,有效降低誤差率。從實驗效果上看,該文提出算法能夠準確跟蹤目標。

關鍵詞:目標跟蹤;預測;主成分分析;灰度值

中圖分類號:TP391 文獻標識碼:A 文章編號:1009-3044(2017)35-0224-03

Target Tracking Based on Prediction Method

LIANG Zhi-da

(Information Department of Dalian Sanatorium, Dalian 116013, China)

Abstract: In this paper, a new prediction method is proposed. The motion model of moving object is taken into account, which can effectively reduce the effective search area of target, so as to improve the search efficiency. In the method of target matching, the combination of principal component analysis and gray value two method can effectively reduce the error rate. From the experimental results, this paper proposes that the algorithm can track the target accurately.

Key words: Object tracking; prediction; principal component analysis; gray value

1 背景

本文在經典跟蹤方法的基礎上,利用精確預測的方法,首先構建目標的運動模型,使下一幀的搜索中心點更靠近目標真實位置,從而提高搜索效率。在計算候選同目標模板的相似性上,在利用PCA矢量構建字典的稀疏表示方法[6]基礎上,融入圖像灰度值誤差判斷方法,通過分析兩者誤差的均值和方差,設定自適應閾值門限,綜合判斷確定目標位置。第四節中多個測試視頻的跟蹤結果驗證了本文方法的有效性。

2 基于PCA稀疏表示跟蹤的改進方法

2.1 在目標跟蹤搜索上的改進方法

本文在目標跟蹤搜索上采用了先預測再搜索的方法,預測模型的建立借鑒了卡爾曼濾波的思想,卡爾曼濾波[11]是一種高效的遞歸濾波器,由魯道夫.E.卡爾曼于1960年提出,卡爾曼濾波由狀態方程和觀測方程來描述,如式(1)、(2):

(1)

(2)

式(1)是狀態預測方程,可以預測系統下一時刻的狀態,(2)是狀態觀測方程,可以在多項變量中提取我們感興趣的變量。

針對目標跟蹤問題,如何利用卡爾曼濾波思想建立模型,是問題關鍵,由于一般視頻為25bps,兩幀之間的時間只有40ms,所以,我們首先假設目標是作勻速運動,在視頻圖像內需要確定橫縱坐標及橫縱方向速度,我們就可以預測目標下一時刻出現的大概位置,在這里將目標跟蹤過程看成一個系統預測和更新的過程,在建立模型時,時刻的系統狀態由一個四維向量構成,因為假設目標的瞬時速度為勻速運動,所以對應時刻橫坐標方向速度為

, (3)

縱坐標方向速度為

, (4)

系統預測時刻目標中心點橫坐標為:

(5)

系統預測時刻目標中心點縱坐標為:

(6)

跟蹤系統的狀態方程為

(7)

根據(7)和(8)式,我們可以推算狀態轉移矩陣

(8)

將狀態方程式(7)展開即為(5)和(6)式

時刻系統的觀測值為一個二維向量,這里的觀測值是在所有候選中通過相似性計算得到最佳匹配值,觀測值的二維向量取狀態向量中的前兩項,所以對應的觀測方程為

(9)

所以系統的觀測矩陣為

(10)

噪聲和的協方差矩陣和分別取單位矩陣。由于在跟蹤問題中,我們將匹配值看做最終的跟蹤結果,所以就不需要卡爾曼濾波中的迭代公式對結果進行校正,直接將匹配值對下一幀進行預測。利用卡爾曼濾波思想的目標跟蹤問題建模流程圖如圖1所示:

在以預測中心點為中心,搜索半徑設定為自適應的,首先計算前20幀預測點同匹配點的歐式距離的平均值,然后由計算機按高斯分布產生600個均值為0,方差為1的隨機數,將600個數乘以2倍的作為橫縱坐標搜索的范圍,這樣每一幀的搜索半徑就會根據不同視頻目標運動快慢自適應調整。乘以的系數,經過多次實驗,取2實驗結果最為理想。在跟蹤過程中,將新的一幀預測值同匹配值得距離乘以0.2加上原平均值乘以0.8作為新的搜索半徑,即如式(11)

(11)

代表原搜索半徑平均值,代表新的一幀預測值同匹配值得距離,代表最終確定該幀的搜索半徑。

通過這種預測模型的預測結果在第3節中給出。

2.2 在目標匹配上的改進方法

本節在PCA稀疏表示方法的基礎上,加入了圖像灰度值誤差判斷方法,綜合比較分析兩者的誤差,加權定位目標坐標位置。

圖像灰度值誤差判斷方法首先是通過前20幀選取目標模板集,取其歸一化像素值的均值,然后將跟蹤圖像同這個均值做差值并取2范數平方,如式(12)endprint

(12)

其中為第個跟蹤目標均值,為目標模板均值,為加權值,取值同文獻[6]中的方法,為懲罰系數。通過式(12)來判斷,選取值最小的候選為該幀的目標位置。

兩種匹配方法得出的結果可能不同,需要進行邏輯判斷,分別將PCA稀疏方法同圖像灰度值誤差方法設定一個門限閾值,這個閾值的取值是動態的,采用統計的方法,計算兩種方法的均值和標準差,在綜合判斷上區分為4種情況:

表示圖像灰度值誤差方法得到最優候選的匹配誤差,主成分分析法得到的誤差值,表示前者的門限閾值,表示后者的門限閾值。區分為4種情況

(1) 當且,則采用PCA稀疏表示方法得到的匹配結果;

(2) 當且,則采用圖像灰度值誤差方法得到的匹配結果;

(3) 當且,則采用二者匹配誤差的加權平均來確定目標位置,即權值設定為

, (13)

根據權值來確定當前幀目標中心點坐標為:

, (14)

其中和為圖像灰度值誤差方法判斷的匹配目標中心點橫坐標和縱坐標值,和為PCA稀疏表示方法判斷的匹配目標中心點橫坐標和縱坐標值。

(4) 當且,則提高門限閾值為均值加上3倍標準差,判斷目標匹配結果方法策略同(1)(2)(3)方法;

通過這種選取策略,我們可以將誤差小的方法增加其權值,誤差大的方法減小權值,從而防止單一方法目標丟失情況,從而提高了目標跟蹤的準確性。

3 實驗結果及分析

本節對本文跟蹤方法進行有效性評估,并同當前流行的典型算法進行了對比。采用MATLAB 2010b運行進行仿真實驗。選取了遮擋、復雜背景、運動模糊、姿態變化等具有挑戰性的4組視頻,并同目標跟蹤領域經典方法及最近流行方法進行結果對比,誤差曲線見圖2。

從測試結果上可以看到,本文目標跟蹤算法,在不同的測試序列中,誤差值要小于其他方法,目標跟蹤效果優于其他方法。

4 結束語

本文提出一種新型預測跟蹤方法,通過構建預測模型使當前幀搜索目標的中心點更加靠近目標真實位置,從而使搜索到目標的可能性大大提高,通過計算相鄰幀目標運動距離自適應調整搜索半徑,防止因搜索范圍沒覆蓋目標而丟失目標。主成分分析和灰度值判斷兩種方法的智能結合,構建了兩套計算匹配方法,通過統計誤差的均值和標準差設定一個可變動的閾值門限,及時選取兩套方法中的最優解,防止目標丟失。與其他幾種方法的測試對比表明該方法有較好跟蹤效果。

參考文獻:

[1] Yilmaz A, Javed O, Shah M. Object tracking:a survey[J]. ACM Computing Surveys, 2006, 38(4):1-45.

[2] MEI X, LING H. Robust visual tracking using L1 minimization[C]. In Proceedings of the IEEE International Conference on Computer Vision. Kyoto, Japan, 2009: 1436-1443.

[3] Bao C, Wu Y, Ling H, et al. Real time robust l1 tracker using accelerated proximal gradient approach[C]. In Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Providence, USA, 2012: 1830-1837.

[4] Zhang S, Yao H,et al.Robust visual tracking Based on online learning sparse representation[J]. Neurocomputing, 2013, 100: 31-40.

[5] ROSS D A, LIM J, LIN R S, et al. Incremental learning for robust visual tracking[J]. International Journal of Computer Vision, 2008, 77(1-3):125-141.

[6] Wang D,lu H,Yang M H. Online objiect tracking with sparse prototypes[J]. IEEE Ttansactions on Image Processing, 2013, 22(1):314-325.

[7] Xie Y, Zhang W, Li C,et al. Discriminative objiect tracking via sparse representation and online dictionary learning[J]. IEEE Transactions on Cybernetics, 2014, 44(4):539-553.

[8] Zhong W, Lu H,Yang M H.Robust object tracking via sparsity-based collaborative model[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Providence, USA, 2012: 1838-1845.

[9] Dong W,Chang F, Zhao Z.Visual tracking with multi-feature joint sparse representation[J]. Journal of Electronic on Imaging, 2015, 24(4):013006.

[10] Dong W,H Lu, Z X. Inverse Sparse Tracker With a Locally Weighted Distance Metric[J]. IEEE Transactions on Image Processing, 2015, 24(9).endprint

主站蜘蛛池模板: 成人福利在线免费观看| 国产精品亚欧美一区二区| h视频在线播放| 中文字幕色站| 日韩大乳视频中文字幕| 91久久偷偷做嫩草影院精品| 欧美亚洲欧美区| 国产成在线观看免费视频| 国产成人区在线观看视频| 国产黄色视频综合| 久久五月视频| 日韩精品专区免费无码aⅴ| 一级全黄毛片| 欧美高清日韩| 国产亚洲高清视频| 91丝袜在线观看| 成人亚洲天堂| 国产杨幂丝袜av在线播放| 2022国产无码在线| 亚洲熟女偷拍| 亚洲色欲色欲www网| 人妻丰满熟妇av五码区| 国产精品刺激对白在线| 亚洲欧洲日产无码AV| 成人国产小视频| 啦啦啦网站在线观看a毛片| 一本综合久久| 成人字幕网视频在线观看| 国产精品jizz在线观看软件| 国产永久无码观看在线| 国产剧情无码视频在线观看| 成人亚洲国产| 国产欧美日韩va另类在线播放| 国产噜噜噜| 香蕉99国内自产自拍视频| a毛片在线播放| 青草视频久久| 成人免费午间影院在线观看| 99热这里只有精品2| 国产97视频在线观看| 福利一区三区| 波多野结衣一级毛片| 99热在线只有精品| 亚洲午夜久久久精品电影院| 青青青国产免费线在| 国产成人免费观看在线视频| 日韩国产一区二区三区无码| 国产av色站网站| 国产国产人免费视频成18| 久久免费精品琪琪| 国产麻豆福利av在线播放| 国产精品网址在线观看你懂的| 亚洲中文精品人人永久免费| 亚洲色图欧美视频| 四虎AV麻豆| 亚洲区视频在线观看| 国产性精品| 午夜限制老子影院888| 精品在线免费播放| 人妻精品久久无码区| 国产美女无遮挡免费视频网站 | 91小视频在线观看免费版高清| 免费在线色| 日韩国产高清无码| 日韩精品一区二区三区swag| 91成人在线免费视频| 2020国产精品视频| 国产精品女人呻吟在线观看| 欧美成人二区| 国产菊爆视频在线观看| 欧美专区日韩专区| 成色7777精品在线| 99久视频| 国产精品久久久久婷婷五月| 亚洲人精品亚洲人成在线| 在线观看网站国产| 极品尤物av美乳在线观看| 欧美综合中文字幕久久| 欧美国产日产一区二区| 中文字幕第4页| 2022国产无码在线| 真实国产精品vr专区|