魏磊,魏江
(西北工業大學 電子信息學院,陜西 西安 710072)
運動目標檢測在計算機視覺領域是一個重要的研究方向,精確快速的運動目標檢測算法能使目標跟蹤、分類和行為理解等獲得更好的效果。
影響運動目標檢測準確性的因素主要有動態背景和光照變化。常見的動態背景有相機抖動、樹葉擾動、水面波動和背景物體位置變動等,常見的光照變化有長時的緩慢光照變化(如晝夜變化)、短時的光照突變(如開關燈)和局部的光照變化(陰影)。
運動目標檢測方法主要有基于幀間差的方法、光流法和基于背景建模的方法。基于背景建模的方法因其較高的準確度,較好的魯棒性,成為目前應用最為廣泛的方法,它可分為基本背景建模[1-2]、基于聚類背景建模[3-4]和基于統計背景建模?;诮y計背景建模又可分為參數背景建模[5-6]和非參數背景建模[7]。非參數背景建模無需預先對模型進行假設也不需對其參數進行顯示的估計,適用于各種分布的數據,魯棒性好,文獻[8]基于貝葉斯模型和馬爾科夫隨機場的方法,文獻[9]基于混合高斯模型和粒子群優化的方法,分別是非參數背景建模和參數背景建模中的優秀方法。
馬爾科夫隨機場描述的是,任意點的局部條件概率密度由其鄰域的概率分布決定。通過引入馬爾科夫隨機場,可以保持目標和背景像素的空間連續性。同時考慮到非參數背景建模的優勢,提出一種基于核密度估計和馬爾科夫隨機場的運動目標檢測算法,對背景擾動和光照變化具有較強的魯棒性,錯誤檢測率更低。
本文算法對每個新采集到的樣本,利用擴展的特征向量估計出其屬于背景的概率密度,再根據概率密度和空間連續性約束構造馬爾科夫隨機場,并通過最小化其能量函數得到目標分割結果。
具體算法步驟如下:
Step 1讀取待檢測視頻的前N幀,計算每一像素點的色度分量[r,g]和顏色空間運動矢量分量d,構成用于核密度估計的特征向量[r,g,d],建立背景模型;
Step 2利用核密度估計,計算當前幀每一像素點屬于背景的概率密度 P(x|lB);
Step 3根據Step 2計算所得的P(x|lB)和空間連續性約束構造馬爾科夫隨機場能量函數E(l),并利用圖論的最小切算法得到使得該能量函數最小的標記場,此即為當前幀的分割結果,輸出標記結果;
Step 4判斷是否為最后一幀,若不是,則按照更新規則將之前的幀乘以衰減系數α更新背景模型,然后轉入Step 2,若是,則結束退出。
本文采用核密度估計計算當前幀每一像素點屬于背景的先驗概率密度[10],假設x為當前幀某一像素點在特征空間中的特征向量,x1,x2,…xN為前N幀該像素點在特征空間中的特征向量,則當前幀這一像素點屬于背景的概率密度可用下式估計:

其中K為核函數,若取高斯核,則概率密度函數如下:

其中,d為特征向量x維數,lB表示當前像素點標記為背景,Σ為核函數帶寬,文獻[10]假設顏色空間的各個分量是獨立的,使得Σ是正定對角陣。實際上,每一個顏色通道并非完全獨立,可利用前N幀樣本相鄰幀間差值的協方差矩陣[11]近似估計Σ:

為減小光照影響,將像素點由顏色空間[R,G,B]轉換到顏色空間[r,g,I][10]:

將色度和亮度分離。光照變化可近似認為只影響亮度分量I,而對色度分量[r,g]影響較小。像素點僅受光照變化影響而景物并未變化的情況下,I會保持在一個范圍內,α<I/E(I)<β[10],E(I)為I的均值。 利用[r,g]進行核密度估計,可以減少光照變化的影響,但在像素點飽和度很低或是很暗的情況下,色度信息很少,僅利用[r,g]會帶來較大誤差。因此,本文提出在[r,g]的基礎上加入顏色空間運動矢量這一分量,以進一步增強對背景擾動和光照變化的魯棒性。
背景擾動和光照變化可以看作是像素點在顏色空間的運動,相機的抖動,樹葉的擾動,水波紋和長時的光照變化(如晝夜交替)等,像素點在顏色空間的運動模式是相對固定的,對其運動矢量的模進行核密度估計,也可以得到一個多峰的概率密度函數,概率密度較高判斷為背景,概率密度較低則判斷為前景。令運動矢量的模為d:

本文計算的為 2-范數。 在[r,g]內加入分量d,得到[r,g,d],將其作為核密度估計的特征向量,可進一步增強算法對背景擾動和光照變化的魯棒性,不加分量d和加入分量d估計的當前幀概率密度如圖1所示,每個像素點灰度值的大小表示該點概率密度值的大小,灰度值高表示概率密度低,灰度值低表示概率密度高,由圖可見,加入分量d后結果更加準確。由于加入了分量d,核函數帶寬:

其中,Σr,g和Σd分別按照式(3)計算。
馬爾科夫隨機場描述的是,任意點的局部條件概率密度由其鄰域的概率分布決定。考慮目標和背景像素具有空間連續性的特點,對當前像素點加入空間連續性約束即條件概率PMRF(lx|li,j),l∈{lB,lF},(i,j)∈U,lx為當前像素點標記,lB表示標記為背景,lF表示標記為前景,U為當前像素點的鄰域,比如說4-鄰域或8-鄰域,根據貝葉斯定理,當前像素點加入空間連續性約束后判斷為背景和前景的后驗概率密度如下:




圖1 不加分量d和加入分量d概率密度對比圖Fig.1 Contrast figure of probability density calculated with and without d

di,j為一常數,其大小決定了分割結果的平滑程度。令PMRF(lB|x)和PMRF(lF|x)為PMRF(l),那么,求當前幀的最佳前景背景分割,就是求當前幀每一點的標記l,使所有像素點標記的聯合概率最大。

對式(14)兩端求負自然對數,則求其最大值可轉化為求能量函數最小值。略去常數項,能量函數如下:

先驗概率密度(P(x|lB))和(P(x|lF))有很多零值或很大的值,直接求負自然對數會得到許多極大的數或是無窮,造成數據溢出和漏警,對后續最小切的計算也會帶來困難。通常(P(x|lB))越大,像素點越接近于背景,(P(x|lF))就越小;(P(x|lB))越小,像素點越接近于前景目標,(P(x|lF))就越大??紤]上述兩個原因,本文提出E(l)的第一項D(lx)用如下飽和線性函數近似表示:

其中,P(lB|x)按式(2)計算,Q為D(lB)的最大值,表示判斷為背景的代價項最大可為多少;λ為正的常數,且0<λ<1,λ越大,D(lF)的最大值越小,判斷為前景的代價越小,漏警率越低,相應的虛警率越高。令之前幀算得的同一像素點的先驗概率密度集合為A={P(x|lB),x∈x1…xN},對于這一像素點,θ為大于A中ρ%的數的最小值,θ/λQ表示線性飽和函數線性部分的斜率。
再加入亮度分量的影響,如果當前像素點的I滿足0.6<I/E(I)<1.5[12],那么D(lB)= μD(lB), μ 為一個小于 1 的正常數。
計算馬爾科夫隨機場能量函數(15)最小值的過程,可以轉化為計算圖的最小切過程[13],每一個像素點和前景背景標記為圖的節點,前景和背景標記分別為源和匯,這樣共有M×N+2個節點,M×N為幀的大小,D(lx)為像素節點連接源和匯的邊,V(i,j)為連接像素節點間的邊。最小切算法的結果使子圖中每個節點只與源或匯相連,這便是使能量函數最小的最佳分割,也就是最終的運動目標檢測結果。
由于距離當前幀越早的幀,與當前背景的相關性往往越低,因此需要對較早的幀進行衰減。本文采用的方法為每次更新時,將之前的幀乘上衰減系數α。當前幀85%都判斷為前景時,說明背景發生了突變,如鏡頭的切換或者劇烈的光照變化,此時α取0.01,近似于重新建立背景模型,否則,α取0.99[8]。通過這一更新方法,可以減小由于太早的幀與當前背景相關性過低造成的誤差。

1)TOD序列的實驗結果表明,本文算法對光照變化的序列有更強的魯棒性,得到的目標更接近真值;
2)從WT序列的結果可看出,本文算法對背景擾動有更強的魯棒性。由于加入了像素連續性約束,檢測出的目標邊緣稍有模糊,但從FA序列的結果看,加入的處理可消除目標內空洞;
3)從CF的結果看,本文算法對背景和目標色度相近的情況也能取得更好的檢測效果;
4)對BS序列,本文算法漏檢了一些處于相同位置較長時間的小目標,這是因為長時間靜止的目標屬于背景的先驗概率密度較高,并且小目標通過能量函數的計算,易于被背景淹沒。
從表1可以看出本文算法比另兩種算法錯誤檢測率η更低。但正如前面所述,BS序列的錯誤檢測率η偏高,這一點上算法有待改進。
文中提出了一種基于核密度估計和馬爾科夫隨機場的運動目標檢測算法[15]。在特征向量中加入顏色空間運動矢量分量,提高了對背景擾動和光照變化的魯棒性;用飽和線性函數計算能量函數代價項,避免了數據溢出導致的計算失敗。實驗證明,本文算法比文獻[8]和文獻[9]算法的漏警和虛警率更低,對背景擾動和光照變化具有更強的魯棒性。文中算法的不足在于對場景中較小且長時間不動的目標檢測不是很理想,這是下一步研究和改進的方向。

圖2 針對Wallflower測試集的結果對比圖Fig.2 Results on the Wallflower dataset for the three methods

表1 針對Wallflower測試集的誤警數、漏警數和錯誤檢測率Tab.1 Comparison on the Wallflower dataset for the three methods
[1]Lee B,Hedley M.Background estimation for video surveillance[C]//New Zealand:Image and Vision Computing New Zealand,2002:315-320.
[2]Zheng J,Wang Y,Nihan N,et al.Extracting roadway background image:a mode based approach[J].Journal of the Transportation Research Board, 2006(1944):82-88.
[3]Butler D,Sridharan S.Real-time adaptive background segmentation[C]//China:International Conference on Acoustics,Speech and Signal Processing,2003:349-352.
[4]Ilyas A,Scuturici M,Miguet S.Real-time foreground-background segmentation using a modified codebook model[C]//Genova:AdvancedVideoandSignalBasedSurveillance,2009:454-459.
[5]Wren C,Azarbayejani A,Darrell T,et al.Pfinder:real-time tracking of the human body[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1997,19(7):780-785.
[6]Stauffer C,Grimson W.Adaptive background mixture models for real-time tracking[C]//America:Proceedings IEEE Conference on Computer Vision and Pattern Recognition,1999:246-252.
[7]Elgammal A,Harwood D,Davis L.Non-parametric model for background subtraction [C]//Ireland:6th European Conference on Computer Vision,2000:751-767.
[8]Sheikh Y,Shah M.Bayesian modeling of dynamic scenes for object detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(11):1778-1792.
[9]White B,Shah M.Automatically tuning background subtraction parameters using particle swarm optimization[C]//China:IEEE International Conference on Multimedia and Expo,2007:1826-1829.
[10]Elgammal A,Duraiswami R,Harwood D,et al.Background and foreground modeling using nonparametric kernel density estimation for visual surveillance[J].Proceedings of The IEEE,2002,90(7):1151-1163.
[11]Tavakkoli A,Nicolescu M,Bebis G.Automatic statistical object detection for visual surveillance[C]//America:Proceedings of the IEEE Southwest Symposium on Image Analysis and Interpretation,2006:144-148.
[12]Schindler K,Wang H.Smooth foreground-background segmentation for video processing[C]//India:Asian Conference on Computer Vision,2006:581-590.
[13]Boykov Y,Kolmogorov V.An experimental comparison of min-cut/max-flow algorithmsforenergyminimization in vision[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2004,26(9):1124-1137.
[14]Toyama K,Krumm J,Brumitt B,et al.Wallflower:Principles and practice of background maintenance[C]//Greece:International Conference on Computer Vision,1999:255-261.
[15]黃錦殿,柴衛東.基于小波分析的氫渦輪泵低溫軸承保持架故障特征辨識[J].火箭推進,2011(2):43-47.
HUANG Jin-dian,CHAI Wei-dong.Fault identification based on wavelet analysis for bearing cage of hydrogen turbopump[J].Journal of Rocket Propulsion,2011(2):43-47.