段繼華 郝鐸 劉華宇 盧夢(mèng)思
摘要:運(yùn)動(dòng)目標(biāo)檢測(cè)是視頻監(jiān)控系統(tǒng)中的關(guān)鍵技術(shù)步驟。傳統(tǒng)算法一般通過視頻序列中像素分布的時(shí)空域特點(diǎn)進(jìn)行判斷,對(duì)亮度變化和陰影的魯棒性較差。提出了一種基于改進(jìn)壓縮背景碼書模型的運(yùn)動(dòng)目標(biāo)檢測(cè)方法,提出了一種改進(jìn)色彩偏差和亮度差異閾值的檢測(cè)策略,并采用形態(tài)學(xué)處理去除不規(guī)則和較小面積誤檢測(cè)的影響,對(duì)外界光線變化具有更強(qiáng)的魯棒性。仿真實(shí)驗(yàn)表明,此算法在暗/亮區(qū)域目標(biāo)檢測(cè)中更具合理性,證明了算法的有效性。
關(guān)鍵詞:壓縮背景碼書模型;運(yùn)動(dòng)目標(biāo)檢測(cè);色彩偏差;亮度差異閾值
中圖分類號(hào):TP391.4文獻(xiàn)標(biāo)志碼:A文章編號(hào):1008-1739(2022)05-59-4

0引言
運(yùn)動(dòng)目標(biāo)檢測(cè)是計(jì)算機(jī)視覺監(jiān)控/跟蹤系統(tǒng)中的關(guān)鍵步驟[1-3]。在視頻監(jiān)控或光電雷達(dá)系統(tǒng)中,運(yùn)動(dòng)目標(biāo)檢測(cè)技術(shù)是識(shí)別、跟蹤等后續(xù)處理的前提,直接決定后續(xù)處理的精度。根據(jù)文獻(xiàn)顯示,運(yùn)動(dòng)目標(biāo)檢測(cè)算法可以大致分為以下幾類:①基于學(xué)習(xí)的分割方法[4-5],訓(xùn)練時(shí)間過于冗長(zhǎng),通過遷移學(xué)習(xí)的方法訓(xùn)練也具有一定局限性。②基于圖像亮度差分的檢測(cè)方法[6-7],差分檢測(cè)方法僅對(duì)邊緣具有較強(qiáng)的識(shí)別能力,不能有效識(shí)別運(yùn)動(dòng)物體內(nèi)部的像素。③基于壓縮背景碼書模型算法的檢測(cè)方法[8]。傳統(tǒng)碼書算法在視頻圖像的暗區(qū)(像素值較低部分)和亮區(qū)(像素值較高部分),由于色彩偏差和亮度閾值的適應(yīng)性不強(qiáng)造成的碼字匱乏現(xiàn)象,從而使檢測(cè)結(jié)果出現(xiàn)大量誤檢測(cè)和虛影。
針對(duì)傳統(tǒng)碼書模型在暗/亮區(qū)的誤檢測(cè)和虛影問題,本文進(jìn)行了兩方面的研究:①通過在不同亮度區(qū)域測(cè)試和分析,討論了色彩偏差、亮度閾值合理區(qū)間以及自適應(yīng)閾值問題。②根據(jù)分析結(jié)果,提出了一種由改進(jìn)的色彩偏差和亮度閾值構(gòu)建的新型背景碼書模型,實(shí)現(xiàn)運(yùn)動(dòng)目標(biāo)的動(dòng)態(tài)檢測(cè)。
1傳統(tǒng)碼書模型缺陷分析及模型改進(jìn)
壓縮背景碼書模型是Kim等人[8]于2005年提出的一種實(shí)時(shí)運(yùn)動(dòng)目標(biāo)檢測(cè)算法。背景碼書模型主要基于2個(gè)評(píng)價(jià)指標(biāo)創(chuàng)建,第一個(gè)標(biāo)準(zhǔn)是色彩偏差閾值,第二個(gè)是亮度差異閾值,即如果一個(gè)輸入像素滿足:①與某個(gè)碼字之間的色彩偏差小于色彩偏差閾值;②與某個(gè)碼字之間亮度差處于亮度閾值區(qū)間之內(nèi),則認(rèn)為該輸入像素屬于背景像素;否則認(rèn)為該像素為前景運(yùn)動(dòng)物體像素。
在傳統(tǒng)的壓縮背景碼書算法中,碼書模型是根據(jù)色彩偏差和亮度差異來構(gòu)造的。該策略基于以下2個(gè)結(jié)論:①在光照變化過程中,像素值大多沿原點(diǎn)(0,0,0)方向的軸呈細(xì)長(zhǎng)狀分布。②當(dāng)光照發(fā)生變化時(shí),物體的亮度值也在亮度閾值范圍內(nèi)發(fā)生變化。然而,在某些特殊情況下,這個(gè)數(shù)學(xué)模型并不適用。
1.1傳統(tǒng)背景碼書模型缺陷分析
對(duì)不同顏色塊中的5個(gè)點(diǎn)進(jìn)行測(cè)試,如圖1所示。不同光照下被測(cè)點(diǎn)的RGB值如圖2所示,當(dāng)值接近255時(shí),測(cè)試點(diǎn)4和測(cè)試點(diǎn)5像素值沿軸向點(diǎn)(255,0,0)呈細(xì)長(zhǎng)形狀分布。因此,傳統(tǒng)的色彩偏差計(jì)算公式在值接近255時(shí),其色彩偏差可能產(chǎn)生比較大的數(shù)值,從而會(huì)產(chǎn)生過多的碼字,導(dǎo)致最大時(shí)間間隔過短,出現(xiàn)碼字匱乏現(xiàn)象,造成檢測(cè)精度下降。

1.2模型改進(jìn)

2改進(jìn)壓縮背景碼書模型運(yùn)動(dòng)目標(biāo)檢測(cè)算法
2.1背景碼書模型構(gòu)建

背景碼書模型構(gòu)造完成后,將時(shí)刻屬于背景的所有像素賦給一個(gè)碼字,反復(fù)執(zhí)行步驟②~⑤,即可完成背景碼書模型的構(gòu)造。
2.2運(yùn)動(dòng)目標(biāo)檢測(cè)


3實(shí)驗(yàn)結(jié)果
使用了2個(gè)典型的評(píng)價(jià)標(biāo)準(zhǔn)Tanimoto/Jacard error(T/JE)[15]和normalized absolute error(NAE)[16]進(jìn)行對(duì)比,并得出相應(yīng)的可視化結(jié)果。做了如下3組實(shí)驗(yàn),在紅色箭頭處有明顯的光線波動(dòng)、或者暗區(qū)和亮區(qū)。檢測(cè)結(jié)果分別如圖3、圖4和圖5所示。WT算法可以識(shí)別出運(yùn)動(dòng)物體的輪廓,但是有時(shí)在運(yùn)動(dòng)目標(biāo)內(nèi)部會(huì)出現(xiàn)孔洞。Kim的方法能夠獲得更好的檢測(cè)結(jié)果,但在光照頻繁變化處以及暗/亮區(qū)有很多誤檢測(cè)。Sigari的方法的檢測(cè)效果優(yōu)于前2種方法;但不能完全避免在特殊區(qū)域出現(xiàn)的誤檢測(cè)。與其他方法相比,本文所提方法的檢測(cè)結(jié)果明顯提升,并克服了對(duì)頻繁局部光照變化敏感的缺點(diǎn)。

這3種測(cè)試的T/JE和NAE值對(duì)比分別如表1和表2所示。數(shù)值計(jì)算結(jié)果與前面的分析結(jié)果一致。與其他3種方法相比,產(chǎn)生的T/JE和NAE值都要低得多。結(jié)果表明,該方法在暗/亮區(qū)域更加有效。

4結(jié)束語(yǔ)
本文提出了一種基于改進(jìn)壓縮背景碼書模型的運(yùn)動(dòng)目標(biāo)分割方法。針對(duì)傳統(tǒng)碼書模型算法在暗/亮區(qū)域分割結(jié)果不準(zhǔn)確的問題,提出了一種基于自適應(yīng)色彩偏差和亮度差異閾值的改進(jìn)壓縮碼書模型的方法。通過仿真實(shí)驗(yàn)驗(yàn)證了該方法的有效性。將所提方法的結(jié)果與WT算法、Kim方法和Sigari方法的結(jié)果進(jìn)行了比較。仿真實(shí)驗(yàn)表明,該方法優(yōu)于其他方法,特別是在暗/亮區(qū)域有明顯的改進(jìn),證明了所提方法的有效性。

參考文獻(xiàn)
[1]代科學(xué),李國(guó)輝,涂丹,等.監(jiān)控視頻運(yùn)動(dòng)目標(biāo)檢測(cè)減背景技術(shù)的研究現(xiàn)狀和展望[J].中國(guó)圖象圖形學(xué)報(bào), 2006, 11(7): 919-927.
[2]左軍輝,賈振紅,楊杰,等.基于改進(jìn)背景減法的視頻圖像運(yùn)動(dòng)目標(biāo)檢測(cè)[J].計(jì)算機(jī)工程與設(shè)計(jì), 2020, 41(5):1367-1372.
[3]李云鵬,侯凌燕,王超.基于YOLOv3的自動(dòng)駕駛中運(yùn)動(dòng)目標(biāo)檢測(cè)[J].計(jì)算機(jī)工程與設(shè)計(jì), 2019, 40(4):1139-1144.
[4] STAUFFER C, GRIMSON W E L,[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2002,22(8): 747-757.
[5] KATO J, WATANABE T, JOGA S, et al. An HMM-based Segmentation Method for Traffic Monitoring Movies[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(9):1291-1296.
[6] KIM C, HWANG J N. Object-based Video Abstraction for Video Surveillance Systems[J]. IEEE Transactions on Circuits and Systems for Video Technology,2002,12(12):1128-1138.
[7] HUANG J C, HSIEH W S. Wavelet-based Moving Object Segmentation[J]. Electronics Letters, 2003, 39(19):1380-1382.
[8] KIM K, CHALIDABHONGSE T H, HARWOOD D,et al. Real-time Foreground Background Segmentation Using Codebook Model[J]. Real-Time Imaging,2005,11(3):172-185.
[9] CHOU C H, LI Y C. A Perceptually Tuned Subband Image Coder Based on the Measure of Just-noticeable-distortion Profile[J]. IEEE Transactions on Circuits and Systems for Video Technology, 1995, 5(6):467-476.
[10]霍宏濤.數(shù)字圖像處理[M].北京:機(jī)械工業(yè)出版社,2003.