秦雨萍 張 雙 張 萍 尹福成
(1.成都理工大學工程技術學院 樂山 614000)(2.內江師范學院 內江 641000)
擴展目標圖像中目標與背景往往存在灰度級重疊,色彩信息不豐富,目標與背景相近等特點。使擴展目標的完整分割幾乎不可能,因此,傳統的基于目標分割的質心跟蹤方法就無法準確求取質心,或者所得的質心存在較大漂移,很難適應工程實際應用要求。而相關跟蹤方法中的相關匹配計算量通常較大,由于擴展目標圖像的成像面積大,導致許多相關跟蹤方法由于數據量過大而難以有效地運用于實時系統中。Dorin Comaniciu等提出了一種目標彩色成像跟蹤方法[1],利用目標彩色成像的色彩分布或者某種變換后的色彩分布(如梯度等)構造的直方圖模式作為目標模式,候選目標與目標之間相似性的度量采用基于Bhattacharyya系數定義的距離[2],匹配搜索過程采用Fukunaga和Hostetler提出的均值偏移(mean shift)算法[3]。該方法具有計算量小,抗局部遮擋的優點,在對多種類型的圖像跟蹤試驗中獲得了比較理想的結果。然而對于灰度成像跟蹤,由于圖像的色彩信息不夠豐富,使目標與背景成像的色彩差異較小,利用色彩分布構造的直方圖模式會存在局部相似性,導致匹配搜索收斂到偽目標,即跟蹤點發生抖動或漂移,最終失去所跟蹤的目標。針對上述問題,本文提出了基于均值偏移的直方圖匹配修正模式,并建立了目標被短暫遮擋時的卡爾曼預測跟蹤策略。試驗表明,改進后的方法可有效改善擴展目標實時檢測跟蹤的穩定性和適應性。
基于直方圖模式的跟蹤算法主要包含目標模式定義,相似度測量,均值偏移和卡爾曼預測幾個部分。
目標直方圖模式是基于檢測區域內包含目標的各個成像灰度級所對應的概率密度,灰度概率密度的求取采用非參數估計技術[4]。假設目標跟蹤點為y,檢測區域是以y為中心、窗寬為h的矩形,區域內像素的位置以{xi}i=1…m表示,像素位置的特征如灰度、紋理、邊緣或者小波濾波響應等以b(xi)表示,b(xi)可以是一種特征形成的標量,也可以是幾種特征形成的矢量。本文中僅考慮利用灰度特征,并將其值量化為m值,即函數b:R2→{1…m}為xi像素的灰度索引映射。由于目標可能受到背景和遮擋的影響,周邊像素的可靠性較低,因而離中心越遠的像素分配的權值應越小,灰度概率密度是像素位置的函數[1]:
不失一般性,將目標中心標記為0,候選目標中心為 y,由式(1)定義的目標模式可確定目標與候選目標的直方圖模式分別為
均值偏移算法是計算最優解的一種實用的算法,具有計算量小和搜索快速的特點,Dorin Coman?iciu等將其有效地運用到目標分割[5~10]和目標跟蹤中[1]。
這樣在每幀圖像上迭代的收斂點即為跟蹤點。
利用上述算法,在跟蹤過程中會出現漂移的情況,即使是幾個像素,如果不加以修正。根據均值偏移的特性,一旦誤差累積,最后都將會出現大范圍漂移。為此提出了塊直方圖匹配二次修正算法,來修正跟蹤結果,控制模板的更新情況[9~13]。
設圖像灰度級為L,k∈[0,L-1]是圖像的第k個灰度等級,定義圖像的灰度直方圖為:
令目標圖像和候選目標圖像的直方圖分別表示為Hist(k)和Hist*(k),則定義直方圖的相關系數為
η用來描述目標圖像直方圖和候選目標圖像直方圖的相似性,η越大,證明兩幅圖像的直方圖越相似,進而兩幅圖像就越相似。
當擴展目標被遮擋時,采用卡爾曼預測跟蹤[14~18],其狀態方程為:
其中,T為幀間間隔,Sx(n)、Sy(n)為擴展目標于n時刻分別在x軸和y軸上的位置(坐標系以圖像幀左上角為原點,水平向右為y軸,垂直向下為x軸),Vx(n)、Vy(n)分別為n時刻擴展目標在x軸和y軸方向上的速度,vx(n)、vy(n)為幀間間隔內擴展目標速度的隨機量,為零均值白噪聲。
其測量方程為:
式中,lx(n)、ly(n)分別為輸出目標位置的誤差量。
對大小為640×480的圖像序列,利用式(1)定義的直方圖模式跟蹤算法(算法1)以及式(10)定義的修正算法進行了檢測跟蹤試驗。試驗中跟蹤檢測窗口取為h=(40,38),圖像灰度量化級數為m=16。跟蹤系統采集圖像為25幀/秒,試驗中(P4 2.5,1G內存)每幀圖像處理平均時間分別為13.5ms和22.4ms,均小于40ms,故兩種跟蹤算法均可滿足實時性要求。
圖1為分別利用算法1和修正算法得到的飛機在跑道上從滑行到起飛的同一序列圖像跟蹤檢測結果,矩形框為跟蹤區域,矩形框中心為跟蹤點位置。由圖可見,在序列圖像中,目標位置、姿態以及背景的變化都較大,由此造成在跟蹤過程中算法1得到的跟蹤點位置跳動十分劇烈,漂移十分嚴重。而采用算法2跟蹤點則得到了較好的保持,實現了穩定跟蹤。圖2(a)和圖2(b)分別為兩種算法用于該測試圖像序列所得到的目標跟蹤點軌跡,圖2(c)為目標的真實軌跡。可以看到算法1得到的跟蹤點存在較大的抖動,而采用修正算法跟蹤點軌跡較為平滑,能保持較穩定的跟蹤。圖3分別是算法1與修正算法在處理圖像時迭代的次數,由圖可見,由圖可見修正后的算法大部分在4次以下,甚至有大部分在一兩次就能迭代到理想位置。從而可以說明修正算法在跟蹤過程中是可行,高效的。
本文研究了一種灰度成像擴展目標跟蹤算法。針對灰度成像的圖像中由于色彩信息不夠豐富,目標和背景的成像特征差異小,采用常規直方圖模式易陷于局部相似性導致跟蹤點抖動和漂移的問題,通過考慮目標的空間域信息和特征域信息,構造了基于像素位置與像素灰度值的改進直方圖模式,結合均值偏移迭代搜索匹配區域,快速實現對擴展目標的跟蹤定位,并建立了有效的卡爾曼預測跟蹤策略。試驗表明本文算法在目標姿態和背景變化較大以及目標被短時遮擋的情況下仍能保持對初始瞄準點的良好跟蹤,有效提高了對灰度成像擴展目標跟蹤檢測的穩定性。本文算法具有計算量小的特點,可滿足擴展目標跟蹤的實時性要求。
[1] Dorin COMANICIU, Visvanathan RAMESH, Peter MEER.Kernel-based Object Tracking[J].IEEE Trans.Pattern Anal.Mach.Intell.,2003,24(5):564-577.
[2]T.KAILATH.The Divergence,Bhattacharyya Distance Measures in Signal Selection[J].IEEE Trans.Comm.Technology,1999,15(2):253-259.
[3]K.FUKUNAGA ,L.D.HOSTETLER.The Estimation of the Gradient of a Density Function with Applications in Pattern Recognition[J].IEEE Trans.Information Theory,1975 21(5):32-40.
[4]LIHong-dong,YAO Tian-xiang.Pattern Classification,Second Edition[M].Beijing:China Machine Press,2003:132-140.
[5]Dorin COMANICIU,Peter MEER.Mean Shift:a Robust Approach toward Feature Space Analysis[J].IEEE Trans.Pattern Anal.Mach.Intell. ,2002,24(5):603-619.
[6]Stockman G.,Kopstein S.,Benett S.,Matching images to models for registration and object detection via clustering[J].IEEE Transactions on Pattern Analysis and Machine Intelligence.1982,4(3).229-241.
[7]Goshtasby A.and Stockman G.,Pointpatternmatching us?ing convex hulledges[J].IEEE Transactions on Systems,Man,and Cybernetics.1985,15(5).631-637.
[8]Huttenlocher D.P.,Klanderman G.A.,RucklidgeW.A.,Comparing images using the hausdorff distance[J].IEEE Transactions on Pattern Analysis and Machine Intelli?gence.Sep.1993,15(9).850-863.
[9]BurtP.J.,The pyramid asa structure forefficientcomputa?tion[C]//Multiresolution Image Processing and Analysis.Springer-Verlag,Berlin,1984.6-35.
[10]Adelson E.H.,Depth-of-Focus Imaging Process Method[M].United States Patent4,661,986.1987.
[11]Nandhakumar N.and Aggarwal J.K.,Integrated analysis of thermal and visual images for scene interpretation[J].IEEE Transactions on Pattern Analysis and Machine In?telligence.1988,10(4).469-481.
[12]Toet A.,Image fusion by a ratio of low-pass pyramid.Pat?tern Recognition Letters[J].1989,9(4).245-253.
[13]Toet A.,Ruyven J.J.V.,Valeton J.M.,Merging thermal and visual images by a contrast pyramid[J].Optical En?gineering.1989,28(7).789-792.
[14]AbidiA.and Gonzalez R.C.,Data Fusion in Robotics and Machine Intelligence[M]. New York:Academic Press.1992.
[15]Dasarathy B.V.,Fusion strategies for enhancing decision reliability in multi-sensor environments[J].Optical En?gineering.1996,35(3).603-616.
[16]Li H.,Manjunath B.S.,Mitra S.K.,Multi-sensor image fusion using the wavelet transform[J].IEEE Internation?al Conference on Image Processing.Nov.1994,Vol.1.51-55.
[17]Chipman L.J.,Orr Y.M.,Graham L.N.,Wavelets and image fusion[C]//Proceedings of the International Con?ference on Image Processing.Washington,USA,1995.pp.248-251.
[18]Koren I.,Laine A.,Taylor F.,Image fusion using steer?able dyadic wavelet transform[C]//Proceedingsof the In?ternational Conference on Image Processing.Washing?ton,DC,USA,1995.pp.232-235.