謝 寒,蔣陽升,姚志洪,彭 賽
(1.西南交通大學(xué) 交通運(yùn)輸與物流學(xué)院,成都 610031; 2.綜合交通運(yùn)輸智能化國家與地方聯(lián)合工程實(shí)驗(yàn)室,成都 610031)
多級分塊的交通視頻智能識別背景建模方法
謝 寒1,2,蔣陽升1,2,姚志洪1,2,彭 賽1
(1.西南交通大學(xué) 交通運(yùn)輸與物流學(xué)院,成都 610031; 2.綜合交通運(yùn)輸智能化國家與地方聯(lián)合工程實(shí)驗(yàn)室,成都 610031)
為改善視頻監(jiān)控中的背景建模方法對于前景目標(biāo)物較多或者光線變化的復(fù)雜環(huán)境效果不太理想的缺陷,提出一種多級分塊背景建模方法. 該方法以間隔N幀幀差法為基礎(chǔ),采用多級分塊,并結(jié)合對稱二值模式(center-symmetric local binary pattern,CSLBP)和碼本(codebook,CB)等算法建立背景模型. 通過模型得出背景較為清晰和完整,為下一步進(jìn)行前景目標(biāo)的準(zhǔn)確識別提供良好基礎(chǔ). 采用設(shè)計(jì)實(shí)驗(yàn)檢驗(yàn)該方法的有效性,將其與局部二值模式(local binary pattern,LBP)、CSLBP、CB以及經(jīng)典的混合高斯背景建模(mixture of Gaussian,MOG)等算法進(jìn)行對比分析,得出采用此方法提取的前景目標(biāo)物更加完整,邊界更加清晰,且無明顯分塊圖形出現(xiàn). 采用評分的方法對幾種方法進(jìn)行綜合評分,該方法評分較高. 在對前景目標(biāo)物的提取方法中,該方法效果較好.
背景建模;幀差法;局部二值模式;對稱二值模式;碼本算法;混合高斯背景建模法
在智能視頻監(jiān)控領(lǐng)域,為了得到較為完整的前景目標(biāo)物,大多采用背景差法[1]. 背景是場景中較為固定的部分[2]. 特別是在交通視頻中,無法直接獲取背景,需要進(jìn)行背景重建. 因此,背景建模是視頻智能識別的一項(xiàng)關(guān)鍵技術(shù). 目前,國內(nèi)外的研究已經(jīng)提出大量建模方法. 但對于復(fù)雜環(huán)境,如:前景目標(biāo)物較多,背景有擾動等,這些方法獲取的前景目標(biāo)物不太理想,直接導(dǎo)致前景目標(biāo)物的誤檢和漏檢. 在交通場景中導(dǎo)致對交通流參數(shù)的統(tǒng)計(jì)不準(zhǔn)確,從而智能交通監(jiān)測、交通流預(yù)測以及交通事故預(yù)警等方面的效率低下. 所以,如何通過建立完整的背景模型而獲取較好的前景目標(biāo)物識別效果在交通視頻智能監(jiān)控中非常關(guān)鍵.
目前背景建模方法建立在統(tǒng)計(jì)學(xué)基礎(chǔ)上. 從模型參數(shù)層面可分為參數(shù)建模和非參數(shù)建模兩類[3],從建模面積層面可分為像素建模和子塊建模兩類[4],從時(shí)空層面可分為時(shí)域建模和空域建模兩類[1]等. 從不同角度亦可以構(gòu)建不同的模型,目前使用較多的是結(jié)合多個(gè)角度來構(gòu)建聯(lián)合模型[1,4],所得模型效果較相對單一的模型要好.
早期采用較多的方法為均值法和中值法[5]. 這兩種方法屬于時(shí)域范圍的基于像素的非參數(shù)建模方法. 由于方法簡單,到目前仍然在一定程度上使用. 但前景目標(biāo)物較多時(shí),背景出現(xiàn)拖尾現(xiàn)象[6]. 之后Stauffer等[7]提出了混合高斯模型(mixture of Gaussian,MOG),屬于時(shí)域范圍的基于像素的參數(shù)方法. 由于采用學(xué)習(xí)策略來適應(yīng)背景變化,對緩慢變化的背景效果較好,因而得到了廣泛使用. 但對突變背景(如光照、天氣的突變)容易把背景和噪聲檢測為前景目標(biāo),對較多的前景目標(biāo)物常出現(xiàn)嚴(yán)重拖尾現(xiàn)象,且算法較為復(fù)雜[6],對突變的多背景的效果不佳. 針對多背景,Kim等[8]采用碼本(codebook,CB)建模法,該方法是時(shí)域范圍的基于像素的非參數(shù)建模方法. 但其需要記錄圖像像素,占用存儲空間較大. 以上基于像素的建模方法至今使用的仍然很多,但單個(gè)像素的考慮和甄別,割裂圖像的空間特性,導(dǎo)致前景目標(biāo)物不完整,故而導(dǎo)致誤檢和漏檢. 早在1979年,Robert Mitchell 等就提出塊編碼(block truncation coding,BTC)方法[9],主要用于圖片編碼和解碼. 但解碼出來的圖像與編碼前的圖像相比存在明顯分塊,特別是圖像的邊緣,不是很準(zhǔn)確. Marko Heikkila等[10]把局部二值模式(local binary pattern, LBP)用于背景提取,這是一種空域的基于子塊的非參數(shù)的背景建模法,可以識別前景目標(biāo)和背景. 張玲等[11]證實(shí)了LBP算子對陰影的檢測非常有效. 但是LBP算子直方圖維數(shù)為2P(其中p為選取為領(lǐng)域點(diǎn)的數(shù)量),p越大,維數(shù)越高. 為減少維數(shù),Heikkila等[12]提出了對稱二值模式算子(center-symmetric local binary pattern,CSLBP),直方圖維數(shù)僅為2p/2,但這種方法目標(biāo)前景的邊緣可能包含較多背景. Lingfeng Wang[13]等采用自適應(yīng)εLBP方法,但所需參數(shù)太多,且很多參數(shù)需要進(jìn)行預(yù)先測定. 考慮到圖像同時(shí)具有時(shí)域和空域的特性,Guo J.M.等[14]把CB建模法用于分塊的方法上. 但該方法得出的前景目標(biāo)出現(xiàn)塊狀特征. 解文華等[4]提出對前景目標(biāo)物的邊緣采用高斯建模的方式進(jìn)行判斷,得到較為光滑的前景目標(biāo)物邊緣. 但該方法對前景目標(biāo)進(jìn)行像素級高斯建模,對移動較快的前景目標(biāo)物邊緣判斷不是很準(zhǔn)確. 其他非參數(shù)模型方法還有核密度估計(jì)方法[15]以及目前使用較多的低秩矩陣方法[16-17]. 但這兩種方法均需要進(jìn)行較多幀的訓(xùn)練,且對多背景的情況效果不是很好.
綜上所述,為達(dá)到實(shí)時(shí)要求,目前使用較多的仍然是非參數(shù)模型,同時(shí)兼顧時(shí)域和空域進(jìn)行背景建模,獲取前景目標(biāo)物. 為了解決目標(biāo)物提取不完整以及變化背景的問題,本文從空域考慮使用分塊的方法,從時(shí)域考慮采用多層策略,借鑒CSLBP獲取紋理的方法以及Guo J. M.等[13]的分塊CB建模方法,提出一種多層分塊建模法來進(jìn)行背景建模. 這種方法對于多背景、局部和整體變化等效果都進(jìn)行了考慮,因此比起傳統(tǒng)方法在背景建模方面具有較好效果. 由于采用了多層的方法,對于較大塊和較小塊背景進(jìn)行層層分離,在計(jì)算速度和前景分割方面均有較好的效果,此外,采用多背景策略,對于變化的背景亦能進(jìn)行較好識別. 文中第1部分對分塊建模法進(jìn)行了簡單介紹. 為了驗(yàn)證本文方法的可行性,在第2部分對分塊建模法進(jìn)行了測試,同時(shí)與LBP、CSLBP、CB、MOG以及LRM算法進(jìn)行了比對,并分析了測試結(jié)果. 最后進(jìn)行了總結(jié).
為了粗區(qū)分圖像上的背景和前景,利用幀差法可以快速獲取運(yùn)動目標(biāo)的特征,對于運(yùn)動較慢的目標(biāo)物,前后兩幀直接相減容易目標(biāo)消失,采用間隔幀差法可以改善,得到初始幀. 把初始幀分成M×M塊,由于分塊面積較大,不存在目標(biāo)物成為背景的情況,采用塊均值來對前景和背景進(jìn)行判斷. 對均值為0的塊標(biāo)記為背景,采用CSLPB方法得出直方圖,并用分塊CB方法記錄特征向量. 對均值不為0的塊不進(jìn)行標(biāo)記,找完所有塊則輸入下一幀,在下一幀中繼續(xù)尋找之前未進(jìn)行標(biāo)記的塊. 直到已經(jīng)不能再找出任何一個(gè)m×m的背景塊時(shí),對不能標(biāo)記的塊再分為N×N塊進(jìn)行背景塊尋找,直到不能再分成小塊(最小塊為9×9)時(shí)對剩余位置進(jìn)行CSLBP直方圖和CB特征向量的提取,得到一副完整的直方圖和特征向量. 此時(shí),訓(xùn)練完成,進(jìn)入識別部分. 讀入新的一幀,用背景差法得到一個(gè)檢測幀,匹配該幀每一部分的CSLBP直方圖以及 CB特征向量,得出是前景還是背景的判斷,如果是背景則進(jìn)行相應(yīng)的背景的更新.
對多層分塊建模法中涉及到的帶閾值的間隔幀差法、CSLBP算法、分塊CB算法以及本文提出的多層分塊建模法的詳細(xì)步驟,在下面將一一進(jìn)行介紹.
幀差法[2]利用運(yùn)動的目標(biāo)前景在不同幀上產(chǎn)生不同邊緣的原理來進(jìn)行前景和背景的粗分割. 這種方法極其簡單,運(yùn)行速度快,在交通視頻識別中使用較多. 但其能獲取運(yùn)動目標(biāo)的邊緣,運(yùn)動目標(biāo)提取不完整,大量空洞導(dǎo)致誤檢. 對前景目標(biāo)移動緩慢時(shí),使用前后兩幀直接相減較難獲取目標(biāo)物邊緣,導(dǎo)致漏檢. 考慮到這種情況本文算法采用相隔N幀的圖像進(jìn)行幀差,對前景目標(biāo)進(jìn)行粗檢測. 相隔N幀減少了移動緩慢目標(biāo)物的影響,同時(shí),幀差法得到的前景目標(biāo)物在一定的分塊范圍內(nèi)會存在多多少少的殘留物,不容易被認(rèn)為是背景. 此外,由于時(shí)間和光線的微弱變化,在不同的視頻幀中的同一背景的像素會穩(wěn)定在一定的區(qū)域范圍內(nèi),因而,本文方法引入閾值計(jì)算. 具體計(jì)算公式為
(1)
式中:f1(i,j)、f2(i,j)分別為相隔N幀的兩幅視頻幀;F(i,j)為相減后的運(yùn)動前景目標(biāo)圖像幀;δ1為閾值. 在F(i,j)中,大于δ1δ1的像素點(diǎn)為前景目標(biāo)點(diǎn),小于δ1的為背景點(diǎn),直接設(shè)定為0. 文中δ1的設(shè)定采用經(jīng)驗(yàn)值20.
Heikkila等[12]的CSLBP算子可以對塊的區(qū)域進(jìn)行紋理計(jì)算,直接記錄該塊的紋理. 同時(shí)考慮到陰影僅僅是對于背景物的光線變化,對于背景物的紋理是不變的特征,該方法對陰影有很好的識別. 交通視頻大多在戶外拍攝,存在大量的陰影,采用CSLBP算子可以進(jìn)行前景目標(biāo)物陰影的去除. 本文利用CSLBP算子的特征,采用該方法來對背景紋理進(jìn)行記錄,以方便對背景、前景的區(qū)分與識別. CSLBP算子是從LBP算子改進(jìn)而來,因此在介紹CSLBP之前有必要先介紹LBP算子.
LBP算子采用灰度信息中局部鄰域關(guān)系模式來描述紋理[10]. 紋理可以表示為向量T=t(gc,g0,g1),…,gp-1),其中,gc為中心點(diǎn),gi=(i=0,1,2,…,p-1)表示以gc為中心的鄰域點(diǎn). 領(lǐng)域點(diǎn)的選擇對于LBP算子提取的紋理準(zhǔn)確性至關(guān)重要. 理論上p選取越多獲得的紋理越為準(zhǔn)確. 但p越多,意味著以2p為維數(shù)的直方圖的維數(shù)越高. 直方圖維數(shù)越高計(jì)算量也就相應(yīng)越大. 故而p的選取一般為8較為合適. LBP算子以gc像素值為閾值對gi點(diǎn)作二值化處理,如式(2)、(3)所示.
T≈t(s(gc,g0),s(gc,g1),…,s(gc,gp-1)).
(2)
(3)
經(jīng)過二值化處理的像素得到一個(gè)二值向量,對向量的各個(gè)元素使用因子2i的進(jìn)行加權(quán). 加權(quán)后的向量用式(4)對其求和,得到一個(gè)LBP紋理閾值BLBP. 此處算法如圖1所示. 通過計(jì)算,得到gc點(diǎn)的LBP閾值,BLBP=8+16+32+128=184.
(4)

圖1 BLBP算法
對圖像上每個(gè)像素點(diǎn)求其BLBP值,得到一個(gè)P維的直方圖. 隨著像素點(diǎn)的P維增加,產(chǎn)生的直方圖維數(shù)激增. 為此,Heikklia等[12]提出了CSLBP紋理模型. CSLBP模型是對稱的LBP模型,是LBP模型的改進(jìn). 其算法僅僅與中心gc對稱的鄰域點(diǎn)(如g0和g4,g1和g5)有關(guān),算法如圖2所示,BCSLBP=1+2+4+8=15.

圖2 BCSLBP算法


圖3 p=8,R=3時(shí)的抗噪示意圖
輸入新的一幀時(shí),對于可能是背景的部分,直接比對直方圖,采用巴氏距離(Bhattacharyya distance)進(jìn)行匹配,其計(jì)算公式為

(5)
式中:H1為新輸入幀的直方圖,H2為已經(jīng)存在的直方圖. 當(dāng)距離d H1,t=(1-α)H1,t+1+αH2,t. (6) Guo J. M.等[14]利用CB算子[8]的思路,即使用碼本中的碼字來對視頻幀中出現(xiàn)的像素進(jìn)行記錄,對每一個(gè)出現(xiàn)的像素給予一定的權(quán)重,直到檢測完成后,對每一個(gè)碼字的權(quán)重進(jìn)行分析,對權(quán)重較大的碼字認(rèn)為是背景,權(quán)重較小的碼字認(rèn)為是前景,可以較好地解決多背景的情況. 交通視頻中在不同光線下呈現(xiàn)不同的背景,屬于多背景視頻,采用CB算子具有較好的適應(yīng)性. 但是CB算子針對的是每一個(gè)像素的統(tǒng)計(jì),割裂前景目標(biāo)物的完整性,故而采用子塊策略. 對每一子塊采用BTC[9]的方法,對顏色特征采用特征向量V={μht,μhb,μlt,(μlb}來表征[13]. 其中μht,μhb,μlt,μlb的計(jì)算公式分別為 (7) (8) (9) (10) 式中F(i,j)為圖像的第i行第j列的像素值. 為了更好地表征亮度,本文把亮度劃分為較高、高、低、較低4個(gè)檔次,其中μht為較高亮度,μhb為高亮度,μlt為低亮度,μlb為較低亮度. 式中μh、μl的計(jì)算公式分別為 (11) (12) 式中:μh和μl分別為高亮度和低亮度;μ為該塊的平均像素,計(jì)算公式為 (13) (14) (15) (16) 背景建模完成后,對新輸入幀進(jìn)行判斷,匹配和修正背景模型的特征向量. 本文提出的多層分塊建模分為背景訓(xùn)練和前景檢測兩個(gè)階段,兩個(gè)階段順序進(jìn)行,首先通過訓(xùn)練階段得出較為完整的背景模型,再進(jìn)入前景檢測階段得到前景目標(biāo)物. 兩個(gè)階段的具體算法如下. 背景訓(xùn)練階段: 步驟1讀入間隔N幀圖像,采用幀差法得出的二值圖. 步驟2分為81×81的塊,對于不能被81整除的部分則分為27×27和9×9的塊. 步驟3對每一塊求取均值,均值為0則進(jìn)行CB特征向量以及CSLBP特征值的記錄. 步驟4對該幀圖像檢查完成后繼續(xù)間隔N幀后輸入圖像進(jìn)行步驟1~3檢查,直到找不到均值為0的塊,進(jìn)入步驟5. 步驟5在幀差法得到的二值圖上對剩余均值不為0的塊分為27×27(不能分的除外),尋找均值為0的塊進(jìn)行記錄. 步驟6對該幀圖像檢查完成后繼續(xù)間隔N幀后輸入圖像進(jìn)行步驟5檢查,直到找不到均值為0的塊進(jìn)入步驟7. 步驟7在幀差法得到的二值圖上對剩余的均值不為0的塊分為9×9的塊,尋找均值為0的塊進(jìn)行記錄. 步驟8對該幀圖像檢查完成后繼續(xù)間隔N幀后輸入圖像進(jìn)行步驟7檢查,直到一幀圖像完全尋找到為止. 在每一次新的二值圖輸入時(shí),對之前已經(jīng)找到過的塊求均值,均值為0則進(jìn)行CSLBP紋理直方圖用巴氏距離如式(5)進(jìn)行比對,新出現(xiàn)的直方圖進(jìn)行記錄. CB特征向量通過式(13)~(16)進(jìn)行比對,更新向量及權(quán)值. 前景檢測階段: 步驟1對輸入幀采用背景差法求取二值圖. 步驟2對二值圖每一個(gè)位置求取均值. 步驟3均值為0則可能為背景,進(jìn)行背景比對,如果是已經(jīng)存在的背景則確認(rèn)為背景,如果該背景不存在則進(jìn)行CSLBP紋理和CB特征檢測,只要有一個(gè)符合即認(rèn)為是已有背景,否則進(jìn)行記錄和更新. 對于均值不為0的部分進(jìn)行CSLBP檢測,如果不符合背景則認(rèn)為是前景,如果符合背景紋理,則進(jìn)行CB特征向量檢測,如果也符合則認(rèn)為是背景,否則認(rèn)為是前景. 直到整幀圖像檢測完成,區(qū)分前景和背景. 整個(gè)訓(xùn)練和檢測的流程見圖4. (a)背景訓(xùn)練流程圖 (b)前景檢測流程圖 為檢測本文算法,對本文算法進(jìn)行了實(shí)驗(yàn). 對交通視頻進(jìn)行背景訓(xùn)練后進(jìn)行前景目標(biāo)識別,比對該幀的前景目標(biāo)物,證實(shí)了本方法的可行性. 為驗(yàn)證本文算法的有效性,將LBP、CSLBP、CB算法和multi-Gauss算法與本文算法進(jìn)行了比較. 在進(jìn)行算法比對時(shí)采用的方法均為背景差法,算法實(shí)現(xiàn)均為前景訓(xùn)練和目標(biāo)檢測兩個(gè)部分. 在實(shí)驗(yàn)階段,測試平臺處理器為Intel Core i5-4210,內(nèi)存為4G,操作系統(tǒng)為Windows 7. 本文采用的軟件平臺為Visual C++和Open CV. 測試所使用的視頻是從多個(gè)交通視頻中提取出3個(gè)比較具有代表性的視頻. 選取的3個(gè)視頻均為自行拍攝. 選擇時(shí)主要考慮了背景的復(fù)雜程度、不同的光線變化以及前景目標(biāo)物數(shù)量等情況. 以本文方法訓(xùn)練完成背景所需要的幀數(shù)作為采用5種方法獲取背景所需幀數(shù)來對每一種方法進(jìn)行背景建模. 5種方法均以完成背景建模所需幀數(shù)的下一幀作為測試幀來進(jìn)行前景目標(biāo)物提取,如圖5所示. 圖5中,從上到下,第1行到第2行圖像分別為兩個(gè)不同的視頻. 從光線變化的角度,視頻1中光線變化較大,出現(xiàn)背景較多,且呈非周期性變化. 視頻2和視頻3中光線變化較為穩(wěn)定,無較大突變. 從前景目標(biāo)物的多少的角度來看,視頻1中前景目標(biāo)物相對視頻2和視頻3較少,視頻3中的前景目標(biāo)最多. 采用本文方法獲取背景幀數(shù)分別為4 263、6 375和9 135幀. 圖中所示圖像分別為4 264幀、6 376幀和9 136幀. 從左到右第1列為原始圖像,第2列到第6列為4種方法提取的前景目標(biāo)物圖像. 其中,第2列和第3列使用的LBP和CSLBP采用p=8,n=3(經(jīng)過測試,n選擇過小或者過大效果均不是很好). 從圖中可見,使用LBP方法和CSLBP方法所提取的前景目標(biāo)基本相同,對比原圖可以發(fā)現(xiàn)所提取的目標(biāo)物不是很清晰,基本上呈現(xiàn)顆粒塊狀,體現(xiàn)了算法的子塊狀特征. 第4列使用的CB方法采用的對每一個(gè)像素進(jìn)行建模,K=3(經(jīng)過測試,發(fā)現(xiàn)K>3包含太多前景,K<3則背景不足). 如圖所示,使用CB提取的前景目標(biāo)基本準(zhǔn)確,但是由于目標(biāo)物的顏色有的時(shí)候和背景很相似,目標(biāo)相比較不是很完整,呈現(xiàn)點(diǎn)狀,這主要是由算法采用針對像素來進(jìn)行分析造成的. 第5列為multi-Gauss算法,其中高斯函數(shù)的個(gè)數(shù)采用5個(gè). 從圖中可見,由于算法采用對像素的分析,與CB算法相似,得到的目標(biāo)相對不是很完整. 但是效果不如CB算法好,對多背景的提取效果不如CB算法. 最后一列為本文方法提取的前景目標(biāo),從圖中可見,前景目標(biāo)提取較為清晰完整,不存在塊狀的情況. 圖5 5種方法的目標(biāo)物提取 為了客觀評價(jià)模型的有效性,本文采用了普遍采用的打分的方式對模型進(jìn)行打分[4],其中涉及到索引率和準(zhǔn)確率. 索引率指的是正確檢測前景點(diǎn)占所有正確前景點(diǎn)的比率,準(zhǔn)確率指的是正確檢測前景點(diǎn)與所有檢測的前景點(diǎn)的比率. 這3個(gè)指標(biāo)能夠較為客觀地評價(jià)算法, 計(jì)算公式分別為 (17) (18) (19) 其中:F為打分的分值,P為索引率,R為準(zhǔn)確率. 式中,nTP為算法檢測出的正確檢測的前景點(diǎn)數(shù),nFP為算法檢測出的錯(cuò)誤檢測的前景點(diǎn)數(shù),nFN為算法檢測出的檢測為背景的前景點(diǎn)數(shù). 各種方法的索引率P,準(zhǔn)確率R以及打分結(jié)果F見表1~3. 表1 5種方法索引率P 表2 5種方法準(zhǔn)確率R 表3 5種方法打分F 從3個(gè)表中可見,本文算法索引率P,準(zhǔn)確率R和打分F明顯高于LBP、CSLBP、CB和multi-Gauss方法. 其中,LBP和CSLBP兩種算法的結(jié)果非常接近,說明這兩種算法基本相似. CSLBP本身來源于LBP,CSLBP較好的繼承了LBP的特性且計(jì)算量小于LBP算法. CB算法的索引率均低于LBP和CSLBP算法,但準(zhǔn)確率卻高于這兩種方法,在最后總和打分結(jié)果中除了視頻1中打分高于LBP和CSLBP算法外,其他兩個(gè)視頻的打分均低于這兩個(gè)算法,但分?jǐn)?shù)較為接近. 說明在光線較為穩(wěn)定狀態(tài)下,CB算法對前景目標(biāo)的識別比LBP和CSLBP算法要差一些,而光線變化較大時(shí),則CB算法較好. Multi-Gauss除了視頻3,在索引率結(jié)果中均高于CB、LBP和CSLBP算法,準(zhǔn)確率除了視頻兩外均高于LBP和CSLBP算法,3個(gè)視頻亦高于CB算法,打分則除了視頻1以外,均低于3種算法. 這主要是因?yàn)檫@CB和Multi-Gauss算法僅僅考慮了圖像顏色,且是按照像素來進(jìn)行檢測的. 而圖像顏色與背景顏色較為相近時(shí)就會失效,出現(xiàn)漏檢. 由表1~3中可見,本文方法在每一個(gè)視頻中的索引率是最高,準(zhǔn)確率除了視頻3略低于CB算法外,其余均高于4種方法,最后的打分結(jié)果亦高于4種方法. 這主要是因?yàn)楸疚姆椒ńY(jié)合了顏色和紋理的考慮,并且從整體到部分均進(jìn)行了考慮,故而各項(xiàng)指標(biāo)明顯較好. 在間隔幀差法的基礎(chǔ)上,采用多級分塊的方法,結(jié)合CSLBP和codebook算法為視頻背景建立模型. 采用3個(gè)不同光線變化,不同背景以及不同前景的視頻來對本方法進(jìn)行檢驗(yàn),并與LBP、CSLBP、codebook以及multi-Gauss算法進(jìn)行比對. 結(jié)果證明,該建模算法對于前景目標(biāo)物的提取效果較好,打分亦明顯高于其他方法. 該方法較好地解決了在交通視頻中存在的多背景、過多運(yùn)動目標(biāo)的情況下的前景目標(biāo)的識別. 進(jìn)一步提高了智能交通視頻監(jiān)控中前景目標(biāo)的識別率,具有一定的實(shí)用價(jià)值. [1] 儲琚, 楊樊, 張桂梅,等. 一種分步的融合時(shí)空信息的背景建模[J]. 自動化學(xué)報(bào), 2014, 40(4):731-743. CHU Ju, YANG Fan, ZHANG Guimei, et al. A stepwise background subtraction by fusion spatio-temporal information [J]. Acta Automatica Sinica, 2014, 40(4):731-743. [2] MARQUES O. Practical image and video processing using MATLAB[M]. Beijing: Tsinghua University Press,2011. [3] 王溢, 趙春暉, 程詠梅. 基于區(qū)域相關(guān)的核函數(shù)背景建模算法[J]. 計(jì)算機(jī)測量與控制, 2008, 16(5):722-724. WANG Yi, ZHAO Chunhui, CHEN Yongmei. Region-based correlation method of kernel background modeling [J]. Computer Mea-surement & Control, 2008, 16(5):722-724. [4] 解文華, 易本順, 肖進(jìn)勝,等. 基于像素與子塊的背景建模級聯(lián)算法[J]. 通信學(xué)報(bào), 2013(4):194-200. XIE Wenhua, YI Benshun, XIAO Jinsheng, et al. Cascaded algorithm for background modeling using pixel-based and block-based methods [J]. Journal on Communications, 2013, 34(4):194-200. [5] 劉瑞禎,于世琪. OpenCV教程[M]. 北京:北京航空航天大學(xué)出版社, 2007:110-138. LIU Ruizhen, YU Shiqi. OpenCV program [M]. Beijing: Beihang University Press, 2007:110-138. [6] 李海霞, 范紅. 基于背景差法的幾種背景建模方法的研究[J]. 工業(yè)控制計(jì)算機(jī), 2012, 25(7):62-66. LI Haixia, FAN Hong. Research of several background modeling based on background subtraction [J]. Industrial Control Computer, 2012, 25(7):62-66. [7] STAUFFER C, GRIMSON W E. Adaptive background mixture mo-dels for real-time tracking [C]. cvpr. IEEE Computer Science, 1999:2246. [8] KIM K, CHALIDABHONGSE T H, HARWOOD D, et al. Real-time foreground-background segmentation using codebook model [J]. Real-Time Imaging, 2005, 11(3):172-185. [9] DELP E J, MITCHELL O R. Image compression using block truncation coding[J]. IEEE Transactions on Communications, 1979, 27(9):1335-1342. [10]HEIKKLA M, PIETIKAINEN M. A texture-based method for mo-deling the background and detecting moving objects [J]. IEEE Tran-sactions on Pattern Analysis & Machine Intelligence, 2006, 28(4):657-62. [11]張玲, 程義民, 葛仕明,等. 基于紋理的運(yùn)動陰影檢測方法[J]. 光電工程, 2008, 35(1):80-84. ZHANG Ling, CHENG Yiming, GE Shiming, et al. Moving shadow detection approach based on texture [J]. Opto-Electronic Engine-ering, 2008, 35(1):80-84. [12]HEIKKLA M, PIETIKAINEN M, SCHMID C. Description of interest regions with local binary patterns [J]. Pattern Recognition, 2009, 42(3):425-436. [13]WANG Lingfeng, WU Huaiyu, PAN Chunhong. Adaptive εLBP for background subtraction [M]. Asian Conference on Computer Vision. Berlin Heidelberg: Springer-Verlag, 2010: 560-571. [14]GUO Jingming, LIU Yunfu, HSIA C H, et al. Hierarchical method for foreground detection using codebook model [J]. Circuits & Systems for Video Technology IEEE Transactions on, 2011, 21(6):804-815. [15]ELGAMMAL A, HARWOOD D, DAVIS L. Non-parametric model for background subtraction [J]. Lecture Notes in Computer Science, 2000, 1843(2): 751-767. [16]WANG Lingfeng, PAN Chunhong. Effective multi-resolution background subtraction [J]. National Laboratory of Pattern recognition, 2011, 7882(1):909-912. [17]LIU Xin, ZHAO Guoying, YAO Jiawen, et al. Background subtraction based on low-rank and structured sparse decomposition [J]. IEEE Transactions on Image Processing, 2015, 24(8):2502-2514. Backgroundmodelingbasedonmulti-levelblockfortrafficvideointelligentrecognition XIE Han1,2, JIANG Yangsheng1,2, YAO Zhihong1,2, PENG Sai1 (1.School of Transportation and Logistics, Southwest Jiaotong University, Chengdu 610031, China;2.National United Engineering Laboratory of Integrated and Intelligent Transportation, Chengdu 610031, China) In order to improve the effect of a background model in traffic video surveillance which was not good for the complex environment with too many foreground objects or light varying, a background modeling of multi-level block was proposed. The model was based on the frame differential method with theNframes interval and multilevel block, combining with center-symmetric local binary pattern and codebook algorithm. Using the model, the background obtained is clear and unbroken, and is the base for the foreground object extraction. To test the validity of the method, the designed experiment was compared with local binary pattern, center-symmetric local binary pattern, codebook algorithm and mixture of Gaussian. The proposed model got the more complete foreground objects, more clearly boundary of the objects, and no significant block figure. We scored the methods and the proposed method got higher scores. In the foreground object extraction methods, the method we proposed had the better results. background modeling; frame differential method; local binary pattern; center-symmetric local binary pattern; codebook; multi-Gauss model 10.11918/j.issn.0367-6234.201604141 TP391.41 A 0367-6234(2017)09-0040-07 2016-04-28 國家自然科學(xué)基金(71402149,51578465);西南交通大學(xué)博士創(chuàng)新基金(YH1000212471404) 謝 寒(1979—),女,博士研究生;蔣陽升(1975—),男,教授,博士生導(dǎo)師 蔣陽升,jysphd@163.com (編輯魏希柱)4 分塊CB建模法







5 多層分塊背景建模


6 實(shí)驗(yàn)結(jié)果及分析









7 結(jié) 論