郭 俊,王 平(西華大學(xué)電氣與電子信息學(xué)院,四川成都610039)
?
基于改進(jìn)的混合高斯模型的運(yùn)動(dòng)目標(biāo)檢測(cè)*
郭俊,王平
(西華大學(xué)電氣與電子信息學(xué)院,四川成都610039)
摘 要:提出了一種改進(jìn)的混合高斯背景模型方法,克服了傳統(tǒng)混合高斯背景建模方法計(jì)算時(shí)間長的缺點(diǎn)。通過對(duì)視頻圖像中運(yùn)動(dòng)目標(biāo)區(qū)域進(jìn)行背景建模,減小了每一幀的背景建模區(qū)域,同時(shí)在提取運(yùn)動(dòng)目標(biāo)區(qū)域前先對(duì)初提取的前景目標(biāo)進(jìn)行中值濾波,減小運(yùn)動(dòng)目標(biāo)區(qū)域的范圍,進(jìn)一步壓縮了背景建模的時(shí)間。最后通過與時(shí)間平均背景建模和傳統(tǒng)混合高斯背景建模方法進(jìn)行比較,驗(yàn)證了本文算法的高效性。
關(guān)鍵詞:運(yùn)動(dòng)目標(biāo)檢測(cè);運(yùn)動(dòng)目標(biāo)區(qū)域;背景減除法;混合高斯背景模型
視頻圖像運(yùn)動(dòng)目標(biāo)檢測(cè)就是將運(yùn)動(dòng)目標(biāo)從視頻序列圖像背景中分離出來,是運(yùn)動(dòng)目標(biāo)識(shí)別與跟蹤的基礎(chǔ)[1-2]。其中圖像序列中有運(yùn)動(dòng)目標(biāo)經(jīng)過的區(qū)域稱為前景,其余部分為背景。高效而準(zhǔn)確地檢測(cè)并提取前景目標(biāo)是視頻圖像運(yùn)動(dòng)目標(biāo)分析技術(shù)的核心部分之一,也是計(jì)算機(jī)視覺和圖像理解的熱點(diǎn)和難點(diǎn)之一。
目前常用的檢測(cè)算法有三種:幀差分法[3]、光流法[4]以及背景減除法[5]。幀差分法比較適用于分析簡單場景,并且提取到的目標(biāo)不完整,一般用來進(jìn)行初提取工作;而光流法往往采用迭代法進(jìn)行計(jì)算,且對(duì)光照、陰影等比較敏感,使用范圍比較小;而背景減除法操作簡單,建模方式多種多樣,所以使用最為廣泛。背景減除法將新一幀圖像與所建立的背景模型進(jìn)行比較,若相同位置的像素灰度值的差大于提前設(shè)置的閾值,則認(rèn)為這個(gè)像素點(diǎn)來自于前景,否則是背景。而一幅圖片中所有來自前景的坐標(biāo)就構(gòu)成了前景區(qū)域。背景減除法的核心技術(shù)在于背景模型的建立和更新,不同的背景建模方式產(chǎn)生的處理時(shí)間和處理效果各不相同。STAUFFER C等人提出的混合高斯背景建模方法[6-7]是目前較為成功的方法之一。它的理論依據(jù)在于不同的圖片中相同坐標(biāo)處的像素值必然服從于一個(gè)或者多個(gè)高斯分布,通過對(duì)每個(gè)坐標(biāo)處建立幾個(gè)高斯函數(shù),能有效地建立一個(gè)具有很高魯棒性的背景模型。當(dāng)然由此也造成了該方法計(jì)算的復(fù)雜性。
本文通過減小背景建模區(qū)域來達(dá)到縮短檢測(cè)時(shí)間的目的,通過幀差分法對(duì)運(yùn)動(dòng)前景區(qū)域進(jìn)行初提取,通過膨脹和腐蝕等形態(tài)學(xué)操作[8]使離散的前景像素點(diǎn)合并為一塊或者幾塊區(qū)域,然后對(duì)這些區(qū)域進(jìn)行混合高斯背景建模,能較好地減小算法的計(jì)算量,同時(shí)也能達(dá)到同樣的檢測(cè)效果。
參考文獻(xiàn)[2]中使用M個(gè)高斯函數(shù)構(gòu)成的混合高斯背景模型來表示一個(gè)坐標(biāo)處像素在時(shí)間域上的概率分布,記t時(shí)刻坐標(biāo)(x,y)處像素灰度值為ft(x,y),則坐標(biāo)(x,y)處像素灰度值為ft(x,y)的概率P(ft)用式(1)表示:

式中M是高斯模型的個(gè)數(shù),ωl為第l個(gè)高斯分布的權(quán)重,ηl(ft,μl,t,σl,t)是第l個(gè)高斯密度函數(shù),用式(2)表示:

式中μl,t是該高斯分布的均值,σl,t是方差。
判定原則如下:對(duì)于待檢測(cè)圖片中的ft(x,y),求出能代表其背景分布的M個(gè)高斯函數(shù),將這些函數(shù)按ω/σ值的大小排序,取比值大的前B個(gè)高斯函數(shù)組成該點(diǎn)背景的混合高斯模型,如果ft(x,y)與其該背景模型中的第k(k≤B)個(gè)高斯分布匹配,則認(rèn)為該點(diǎn)是背景,否則為前景。匹配準(zhǔn)則如下:

式中λ來自于經(jīng)驗(yàn)。
背景更新:新一幀圖像檢測(cè)完成后,若ft(x,y)被認(rèn)為來自于前景,也就是說該點(diǎn)對(duì)應(yīng)模型的前B個(gè)高斯分布中沒有一個(gè)與之匹配,則用一個(gè)新的高斯分布來替換ω/σ值最小的那個(gè)分布,其均值為ft(x,y),并賦予一個(gè)較大的方差和較小的權(quán)重。
參數(shù)更新:
與ft(x,y)匹配的高斯函數(shù)按下式更新:

不能與ft(x,y)匹配的高斯函數(shù)按下式更新:

然后歸一化權(quán)值。式中α、ρ為學(xué)習(xí)速度,來自于經(jīng)驗(yàn)。
需要檢測(cè)的視頻里面每一幀圖像只有部分區(qū)域中存在運(yùn)動(dòng)目標(biāo),常用的混合高斯背景模型都是對(duì)整幅圖像進(jìn)行背景建模,其中很大一部分是沒有必要的,本文則是提前將視頻圖像中有運(yùn)動(dòng)前景的區(qū)域提取出來并通過膨脹和腐蝕操作確保提取的前景區(qū)域一定包括了運(yùn)動(dòng)前景,然后對(duì)運(yùn)動(dòng)前景區(qū)域進(jìn)行混合高斯背景建模,進(jìn)而提取出運(yùn)動(dòng)前景。
提取運(yùn)動(dòng)前景區(qū)域采用幀差法,其包括兩幀幀差法和三幀幀差法,其中三幀幀差法提取到的只有運(yùn)動(dòng)前景的一部分,比較之下,本文采用兩幀幀差法提取,并通過形態(tài)學(xué)操作,得到運(yùn)動(dòng)前景區(qū)域,通過C4模塊進(jìn)行存儲(chǔ),然后利用混合高斯背景建模模塊,只對(duì)提取出的前景區(qū)域進(jìn)行處理,得到運(yùn)動(dòng)前景。改進(jìn)的基于混合高斯背景建模的運(yùn)動(dòng)目標(biāo)檢測(cè)的設(shè)計(jì)流程圖如圖1所示。

圖1 改進(jìn)的混合高斯背景模型
首先記t時(shí)刻和t+1時(shí)刻輸入的連續(xù)兩幀圖像分別為x和y,灰度化處理分別記為m和n,然后將m和n數(shù)據(jù)類型轉(zhuǎn)化為雙精度型,并存儲(chǔ)到q和w中,記c(i,j)=|q(i,j)-w(i,j)|,根據(jù)c(i,j)與設(shè)置的閾值th比較分析,判斷該像素點(diǎn)是前景還是背景。整幅圖片處理完成后即得到初提取的前景二值圖像C,對(duì)圖像C采用3×3中值濾波[6]處理,然后進(jìn)行膨脹和閉運(yùn)算操作,得到初提取的前景區(qū)域C3,并最終將前景區(qū)域信息存儲(chǔ)到文件C4中,即完成了對(duì)運(yùn)動(dòng)目標(biāo)區(qū)域的提取操作。然后混合高斯背景建模模塊對(duì)原始視頻的C4前景區(qū)域進(jìn)行背景建模,最終完成對(duì)前景圖像的準(zhǔn)確提取。

圖2 對(duì)視頻Traffic.avi進(jìn)行的算法仿真結(jié)果圖

圖3 對(duì)視頻ccbr.avi進(jìn)行的算法仿真結(jié)果圖
本實(shí)驗(yàn)采用MATLAB 2014a進(jìn)行編程,并在Inter 3.4 GHz處理器、4 GB內(nèi)存的PC上進(jìn)行仿真,使用的視頻速率為20幀/s,原始經(jīng)典混合高斯背景建模和改進(jìn)后的混合高斯背景建模所選高斯函數(shù)均為4個(gè),初始標(biāo)準(zhǔn)差為6,前景閾值th=λσk,λ=2.5,學(xué)習(xí)率α=0.01,方差學(xué)習(xí)率ρ=0.03。視頻首先經(jīng)過C4區(qū)域提取模塊,提取出運(yùn)動(dòng)目標(biāo)區(qū)域,然后背景建模模塊通過對(duì)C4區(qū)域進(jìn)行前景提取,最后檢測(cè)出運(yùn)動(dòng)前景二值圖像[9],并將結(jié)果由四個(gè)輸出視頻(原始視頻、灰度處理視頻、前景區(qū)域視頻和前景二值圖像視頻)顯示出來。本文實(shí)驗(yàn)共采用了三種方法進(jìn)行仿真模擬:時(shí)間平均模型法[1]、混合高斯模型法以及本文所介紹方法,對(duì)復(fù)雜背景視頻Traffic.avi和簡單背景視頻ccbr.avi進(jìn)行了處理,圖2和圖3分別是選擇Traf-fic.avi的第175幀圖像和ccbr.avi的第50幀進(jìn)行算法仿真的結(jié)果從圖中可以看出,本實(shí)驗(yàn)完全能達(dá)到混合高斯模型的效果,而從表1的分析數(shù)據(jù)可以看出,本實(shí)驗(yàn)所用時(shí)間遠(yuǎn)遠(yuǎn)小于傳統(tǒng)的混合高斯背景建模法。

表1 三種算法的平均每幀處理時(shí)間 (ms/f)
從實(shí)驗(yàn)數(shù)據(jù)可以看出,通過對(duì)運(yùn)動(dòng)物體運(yùn)動(dòng)區(qū)域的提取來進(jìn)行混合高斯背景建模可以有效縮短前景提取時(shí)間,而且越是簡單的背景,節(jié)約的處理時(shí)間越明顯。
本文為了克服傳統(tǒng)混合高斯模型方法計(jì)算量大的缺點(diǎn),提出了對(duì)運(yùn)動(dòng)目標(biāo)所在區(qū)域建立背景模型的方法,通過與時(shí)間平均模型和混合高斯模型進(jìn)行實(shí)驗(yàn)仿真對(duì)比,結(jié)果證明了本文所用方法的有效性。
[1]趙春暉,潘泉,梁彥,等.視頻圖像運(yùn)動(dòng)目標(biāo)分析[M].北京:國防工業(yè)出版社,2011.
[2]杜文略,劉建梁,沈三民,等.基于FPGA的運(yùn)動(dòng)目標(biāo)檢測(cè)系統(tǒng)設(shè)計(jì)[J].電子技術(shù)應(yīng)用,2014,40(11):36-38,42.
[3]LIPON A,F(xiàn)UJIYOSHIH,PATIL R.Moving target classification and tracking from real time video[C].Proceedings of IEEE Workshop Applications of Computer Vision,Los Alamitos,CA,1998:8-14.
[4]BROX T,BRUHN A,PAPENBERG N,et al.High accuracy optical flow estimation based on a theory for warping[C].Proceedings of 8th European Conference on Computer Vision,2004:25-36.
[5]王強(qiáng),趙書斌.基于視頻的運(yùn)動(dòng)目標(biāo)檢測(cè)算法的比較與分析[J].指揮控制與仿真,2012(6):35-40.
[6]STAUFFER C,GRIMSON W E L.Adaptive background mixture models for real-time tracking[C].Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.Washington DC:IEEE Computer Society,1999:246-252.
[7]曾垂力.結(jié)合高斯混合模型和改進(jìn)的LSBS的運(yùn)動(dòng)目標(biāo)檢測(cè)方法[J].微型機(jī)與應(yīng)用,2015,34(4):46-48.
[8]魏晗,陳剛.MATLAB數(shù)字信號(hào)與圖像處理范例實(shí)戰(zhàn)速查寶典[M].北京:清華大學(xué)出版社,2013.
[9]潘夏英.圖像邊緣檢測(cè)技術(shù)的研究[D].西安:西安科技大學(xué),2011.
郭俊(1988 -),男,碩士,主要研究方向:視頻圖像處理。
王平(1970 -),男,博士,教授,碩士生導(dǎo)師,主要研究方向:傳感器系統(tǒng)集成技術(shù)、信息融合技術(shù)、生物醫(yī)學(xué)信息處理、嵌入式計(jì)算機(jī)系統(tǒng)可靠性技術(shù)等。
引用格式:郭俊,王平.基于改進(jìn)的混合高斯模型的運(yùn)動(dòng)目標(biāo)檢測(cè)[J].微型機(jī)與應(yīng)用,2016,35(10):30-32,49.
A moving object deteotion method based on improved mixture Gaussian modeling
Guo Jun,Wang Ping
(School of Electrical Engineering and Electronic Information,Xihua University,Chengdu 610039,China)
Abstract:In this paper,an improved mixture Gaussian background modeling is proposed,which overcomes the shortcomings of traditionalmixture Gaussian background modelingmethod that takes long time for calculation.Through modeling for themoving object region of the video images,it reduces the background modeling area of each frame.Before moving target area is extracted,median filtering ismade on the extracted foreground object,reducing the range ofmovement target area,and compressing background modeling time once again.Finally,the efficiency of the algorithm is verified by comparing with the time average background modeling and the traditionalmixture Gaussian background modeling method.
Key w ords:moving object detection;moving target;background subtraction;m ixtune Gauss background modeling
作者簡介:
收稿日期:(2016-01-16)
*基金項(xiàng)目:教育部春暉計(jì)劃(Z2012029)
中圖分類號(hào):TP311.1
文獻(xiàn)標(biāo)識(shí)碼:A
DOI:10.19358 /j.issn.1674-7720.2016.09.011