999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于核密度估計和馬爾科夫隨機場的運動目標檢測

2012-07-13 03:06:58魏磊魏江
電子設計工程 2012年4期
關鍵詞:背景

魏磊,魏江

(西北工業大學 電子信息學院,陜西 西安 710072)

運動目標檢測在計算機視覺領域是一個重要的研究方向,精確快速的運動目標檢測算法能使目標跟蹤、分類和行為理解等獲得更好的效果。

影響運動目標檢測準確性的因素主要有動態背景和光照變化。常見的動態背景有相機抖動、樹葉擾動、水面波動和背景物體位置變動等,常見的光照變化有長時的緩慢光照變化(如晝夜變化)、短時的光照突變(如開關燈)和局部的光照變化(陰影)。

運動目標檢測方法主要有基于幀間差的方法、光流法和基于背景建模的方法。基于背景建模的方法因其較高的準確度,較好的魯棒性,成為目前應用最為廣泛的方法,它可分為基本背景建模[1-2]、基于聚類背景建模[3-4]和基于統計背景建模?;诮y計背景建模又可分為參數背景建模[5-6]和非參數背景建模[7]。非參數背景建模無需預先對模型進行假設也不需對其參數進行顯示的估計,適用于各種分布的數據,魯棒性好,文獻[8]基于貝葉斯模型和馬爾科夫隨機場的方法,文獻[9]基于混合高斯模型和粒子群優化的方法,分別是非參數背景建模和參數背景建模中的優秀方法。

馬爾科夫隨機場描述的是,任意點的局部條件概率密度由其鄰域的概率分布決定。通過引入馬爾科夫隨機場,可以保持目標和背景像素的空間連續性。同時考慮到非參數背景建模的優勢,提出一種基于核密度估計和馬爾科夫隨機場的運動目標檢測算法,對背景擾動和光照變化具有較強的魯棒性,錯誤檢測率更低。

1 算法描述

1.1 算法步驟

本文算法對每個新采集到的樣本,利用擴展的特征向量估計出其屬于背景的概率密度,再根據概率密度和空間連續性約束構造馬爾科夫隨機場,并通過最小化其能量函數得到目標分割結果。

具體算法步驟如下:

Step 1讀取待檢測視頻的前N幀,計算每一像素點的色度分量[r,g]和顏色空間運動矢量分量d,構成用于核密度估計的特征向量[r,g,d],建立背景模型;

Step 2利用核密度估計,計算當前幀每一像素點屬于背景的概率密度 P(x|lB);

Step 3根據Step 2計算所得的P(x|lB)和空間連續性約束構造馬爾科夫隨機場能量函數E(l),并利用圖論的最小切算法得到使得該能量函數最小的標記場,此即為當前幀的分割結果,輸出標記結果;

Step 4判斷是否為最后一幀,若不是,則按照更新規則將之前的幀乘以衰減系數α更新背景模型,然后轉入Step 2,若是,則結束退出。

1.2 核密度估計

本文采用核密度估計計算當前幀每一像素點屬于背景的先驗概率密度[10],假設x為當前幀某一像素點在特征空間中的特征向量,x1,x2,…xN為前N幀該像素點在特征空間中的特征向量,則當前幀這一像素點屬于背景的概率密度可用下式估計:

其中K為核函數,若取高斯核,則概率密度函數如下:

其中,d為特征向量x維數,lB表示當前像素點標記為背景,Σ為核函數帶寬,文獻[10]假設顏色空間的各個分量是獨立的,使得Σ是正定對角陣。實際上,每一個顏色通道并非完全獨立,可利用前N幀樣本相鄰幀間差值的協方差矩陣[11]近似估計Σ:

為減小光照影響,將像素點由顏色空間[R,G,B]轉換到顏色空間[r,g,I][10]:

將色度和亮度分離。光照變化可近似認為只影響亮度分量I,而對色度分量[r,g]影響較小。像素點僅受光照變化影響而景物并未變化的情況下,I會保持在一個范圍內,α<I/E(I)<β[10],E(I)為I的均值。 利用[r,g]進行核密度估計,可以減少光照變化的影響,但在像素點飽和度很低或是很暗的情況下,色度信息很少,僅利用[r,g]會帶來較大誤差。因此,本文提出在[r,g]的基礎上加入顏色空間運動矢量這一分量,以進一步增強對背景擾動和光照變化的魯棒性。

背景擾動和光照變化可以看作是像素點在顏色空間的運動,相機的抖動,樹葉的擾動,水波紋和長時的光照變化(如晝夜交替)等,像素點在顏色空間的運動模式是相對固定的,對其運動矢量的模進行核密度估計,也可以得到一個多峰的概率密度函數,概率密度較高判斷為背景,概率密度較低則判斷為前景。令運動矢量的模為d:

本文計算的為 2-范數。 在[r,g]內加入分量d,得到[r,g,d],將其作為核密度估計的特征向量,可進一步增強算法對背景擾動和光照變化的魯棒性,不加分量d和加入分量d估計的當前幀概率密度如圖1所示,每個像素點灰度值的大小表示該點概率密度值的大小,灰度值高表示概率密度低,灰度值低表示概率密度高,由圖可見,加入分量d后結果更加準確。由于加入了分量d,核函數帶寬:

其中,Σr,g和Σd分別按照式(3)計算。

1.3 馬爾科夫隨機場

馬爾科夫隨機場描述的是,任意點的局部條件概率密度由其鄰域的概率分布決定。考慮目標和背景像素具有空間連續性的特點,對當前像素點加入空間連續性約束即條件概率PMRF(lx|li,j),l∈{lB,lF},(i,j)∈U,lx為當前像素點標記,lB表示標記為背景,lF表示標記為前景,U為當前像素點的鄰域,比如說4-鄰域或8-鄰域,根據貝葉斯定理,當前像素點加入空間連續性約束后判斷為背景和前景的后驗概率密度如下:

圖1 不加分量d和加入分量d概率密度對比圖Fig.1 Contrast figure of probability density calculated with and without d

di,j為一常數,其大小決定了分割結果的平滑程度。令PMRF(lB|x)和PMRF(lF|x)為PMRF(l),那么,求當前幀的最佳前景背景分割,就是求當前幀每一點的標記l,使所有像素點標記的聯合概率最大。

對式(14)兩端求負自然對數,則求其最大值可轉化為求能量函數最小值。略去常數項,能量函數如下:

先驗概率密度(P(x|lB))和(P(x|lF))有很多零值或很大的值,直接求負自然對數會得到許多極大的數或是無窮,造成數據溢出和漏警,對后續最小切的計算也會帶來困難。通常(P(x|lB))越大,像素點越接近于背景,(P(x|lF))就越小;(P(x|lB))越小,像素點越接近于前景目標,(P(x|lF))就越大??紤]上述兩個原因,本文提出E(l)的第一項D(lx)用如下飽和線性函數近似表示:

其中,P(lB|x)按式(2)計算,Q為D(lB)的最大值,表示判斷為背景的代價項最大可為多少;λ為正的常數,且0<λ<1,λ越大,D(lF)的最大值越小,判斷為前景的代價越小,漏警率越低,相應的虛警率越高。令之前幀算得的同一像素點的先驗概率密度集合為A={P(x|lB),x∈x1…xN},對于這一像素點,θ為大于A中ρ%的數的最小值,θ/λQ表示線性飽和函數線性部分的斜率。

再加入亮度分量的影響,如果當前像素點的I滿足0.6<I/E(I)<1.5[12],那么D(lB)= μD(lB), μ 為一個小于 1 的正常數。

計算馬爾科夫隨機場能量函數(15)最小值的過程,可以轉化為計算圖的最小切過程[13],每一個像素點和前景背景標記為圖的節點,前景和背景標記分別為源和匯,這樣共有M×N+2個節點,M×N為幀的大小,D(lx)為像素節點連接源和匯的邊,V(i,j)為連接像素節點間的邊。最小切算法的結果使子圖中每個節點只與源或匯相連,這便是使能量函數最小的最佳分割,也就是最終的運動目標檢測結果。

1.4 背景模型的更新

由于距離當前幀越早的幀,與當前背景的相關性往往越低,因此需要對較早的幀進行衰減。本文采用的方法為每次更新時,將之前的幀乘上衰減系數α。當前幀85%都判斷為前景時,說明背景發生了突變,如鏡頭的切換或者劇烈的光照變化,此時α取0.01,近似于重新建立背景模型,否則,α取0.99[8]。通過這一更新方法,可以減小由于太早的幀與當前背景相關性過低造成的誤差。

2 實驗結果及分析

1)TOD序列的實驗結果表明,本文算法對光照變化的序列有更強的魯棒性,得到的目標更接近真值;

2)從WT序列的結果可看出,本文算法對背景擾動有更強的魯棒性。由于加入了像素連續性約束,檢測出的目標邊緣稍有模糊,但從FA序列的結果看,加入的處理可消除目標內空洞;

3)從CF的結果看,本文算法對背景和目標色度相近的情況也能取得更好的檢測效果;

4)對BS序列,本文算法漏檢了一些處于相同位置較長時間的小目標,這是因為長時間靜止的目標屬于背景的先驗概率密度較高,并且小目標通過能量函數的計算,易于被背景淹沒。

從表1可以看出本文算法比另兩種算法錯誤檢測率η更低。但正如前面所述,BS序列的錯誤檢測率η偏高,這一點上算法有待改進。

3 結 論

文中提出了一種基于核密度估計和馬爾科夫隨機場的運動目標檢測算法[15]。在特征向量中加入顏色空間運動矢量分量,提高了對背景擾動和光照變化的魯棒性;用飽和線性函數計算能量函數代價項,避免了數據溢出導致的計算失敗。實驗證明,本文算法比文獻[8]和文獻[9]算法的漏警和虛警率更低,對背景擾動和光照變化具有更強的魯棒性。文中算法的不足在于對場景中較小且長時間不動的目標檢測不是很理想,這是下一步研究和改進的方向。

圖2 針對Wallflower測試集的結果對比圖Fig.2 Results on the Wallflower dataset for the three methods

表1 針對Wallflower測試集的誤警數、漏警數和錯誤檢測率Tab.1 Comparison on the Wallflower dataset for the three methods

[1]Lee B,Hedley M.Background estimation for video surveillance[C]//New Zealand:Image and Vision Computing New Zealand,2002:315-320.

[2]Zheng J,Wang Y,Nihan N,et al.Extracting roadway background image:a mode based approach[J].Journal of the Transportation Research Board, 2006(1944):82-88.

[3]Butler D,Sridharan S.Real-time adaptive background segmentation[C]//China:International Conference on Acoustics,Speech and Signal Processing,2003:349-352.

[4]Ilyas A,Scuturici M,Miguet S.Real-time foreground-background segmentation using a modified codebook model[C]//Genova:AdvancedVideoandSignalBasedSurveillance,2009:454-459.

[5]Wren C,Azarbayejani A,Darrell T,et al.Pfinder:real-time tracking of the human body[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1997,19(7):780-785.

[6]Stauffer C,Grimson W.Adaptive background mixture models for real-time tracking[C]//America:Proceedings IEEE Conference on Computer Vision and Pattern Recognition,1999:246-252.

[7]Elgammal A,Harwood D,Davis L.Non-parametric model for background subtraction [C]//Ireland:6th European Conference on Computer Vision,2000:751-767.

[8]Sheikh Y,Shah M.Bayesian modeling of dynamic scenes for object detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(11):1778-1792.

[9]White B,Shah M.Automatically tuning background subtraction parameters using particle swarm optimization[C]//China:IEEE International Conference on Multimedia and Expo,2007:1826-1829.

[10]Elgammal A,Duraiswami R,Harwood D,et al.Background and foreground modeling using nonparametric kernel density estimation for visual surveillance[J].Proceedings of The IEEE,2002,90(7):1151-1163.

[11]Tavakkoli A,Nicolescu M,Bebis G.Automatic statistical object detection for visual surveillance[C]//America:Proceedings of the IEEE Southwest Symposium on Image Analysis and Interpretation,2006:144-148.

[12]Schindler K,Wang H.Smooth foreground-background segmentation for video processing[C]//India:Asian Conference on Computer Vision,2006:581-590.

[13]Boykov Y,Kolmogorov V.An experimental comparison of min-cut/max-flow algorithmsforenergyminimization in vision[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2004,26(9):1124-1137.

[14]Toyama K,Krumm J,Brumitt B,et al.Wallflower:Principles and practice of background maintenance[C]//Greece:International Conference on Computer Vision,1999:255-261.

[15]黃錦殿,柴衛東.基于小波分析的氫渦輪泵低溫軸承保持架故障特征辨識[J].火箭推進,2011(2):43-47.

HUANG Jin-dian,CHAI Wei-dong.Fault identification based on wavelet analysis for bearing cage of hydrogen turbopump[J].Journal of Rocket Propulsion,2011(2):43-47.

猜你喜歡
背景
“三新”背景下關于高考一輪復習策略的思考
“新四化”背景下汽車NVH的發展趨勢
《論持久戰》的寫作背景
當代陜西(2020年14期)2021-01-08 09:30:42
黑洞背景知識
基于高考背景下的高中數學教學探討
活力(2019年21期)2019-04-01 12:18:06
I ROBOT AI背景下的2018火人節
晚清外語翻譯人才培養的背景
背景鏈接
從背景出發還是從文本出發
語文知識(2015年11期)2015-02-28 22:01:59
“雙背景”院長獲認同
中國衛生(2014年10期)2014-11-12 13:10:16
主站蜘蛛池模板: 欧美国产在线看| v天堂中文在线| AV无码一区二区三区四区| 欧美在线网| 亚洲狠狠婷婷综合久久久久| 人妻少妇乱子伦精品无码专区毛片| 国产精品色婷婷在线观看| 国产污视频在线观看| 久久先锋资源| 亚洲乱亚洲乱妇24p| 人妻无码中文字幕一区二区三区| 91福利在线观看视频| 日本www色视频| 国产大片喷水在线在线视频| 亚洲色精品国产一区二区三区| 国外欧美一区另类中文字幕| 99尹人香蕉国产免费天天拍| 日本不卡视频在线| 在线精品视频成人网| 中文成人在线| 欧美激情首页| 亚洲国产日韩视频观看| 欧美一区二区三区国产精品| 国产清纯在线一区二区WWW| 日韩精品免费在线视频| 91热爆在线| 四虎影视无码永久免费观看| 在线观看免费AV网| 国产欧美精品一区二区| 九色视频一区| julia中文字幕久久亚洲| 亚洲三级a| 天天色天天综合| 国产经典三级在线| 91在线免费公开视频| 日韩美一区二区| 男人天堂亚洲天堂| 国产丰满成熟女性性满足视频| 国内老司机精品视频在线播出| 久久人人97超碰人人澡爱香蕉 | 怡红院美国分院一区二区| 亚洲精品第五页| 天天综合色网| 99久久无色码中文字幕| 91精品国产福利| 97se亚洲综合在线天天| 日本免费精品| 四虎成人在线视频| 久久中文无码精品| 全午夜免费一级毛片| 精品黑人一区二区三区| 青青草国产免费国产| 亚洲视频无码| 欧美精品伊人久久| 亚洲综合色在线| 四虎国产精品永久一区| 亚洲毛片在线看| 啊嗯不日本网站| 精品视频第一页| 欧美激情网址| 日本在线免费网站| 亚洲伊人久久精品影院| 九色最新网址| 天天色综合4| 午夜精品一区二区蜜桃| 欧美伊人色综合久久天天| 91精品国产丝袜| 一本久道久综合久久鬼色| 国产欧美视频在线| av午夜福利一片免费看| 依依成人精品无v国产| 欧洲成人在线观看| 怡春院欧美一区二区三区免费| 久久国产精品77777| 91区国产福利在线观看午夜| 亚洲人在线| 黄色网址手机国内免费在线观看| 亚洲欧洲AV一区二区三区| 亚洲国产av无码综合原创国产| 亚洲成人网在线播放| 免费无码在线观看| 免费国产无遮挡又黄又爽|