999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于自動(dòng)背景提取及Lab色彩空間的運(yùn)動(dòng)目標(biāo)檢測(cè)

2018-06-21 11:46:28巨志勇彭彥妮
軟件導(dǎo)刊 2018年5期

巨志勇 彭彥妮

摘 要:常用的幾種背景提取算法在車流量較大的情況下提取的背景效果較差。在某些目標(biāo)檢測(cè)區(qū)域較少的場(chǎng)景中,若將所有像素進(jìn)行檢測(cè),會(huì)浪費(fèi)許多時(shí)間。針對(duì)這些問(wèn)題,提出一種新的背景提取算法。先將視頻幀進(jìn)行分割,再對(duì)分割出的檢測(cè)帶依次進(jìn)行車輛存在檢測(cè),最終自動(dòng)選取視頻中沒(méi)有車輛的車道塊并將其拼接成完整背景幀,最后利用Lab空間色度與亮度相互獨(dú)立的特性提取目標(biāo)。該算法能夠充分提取前景圖像,不會(huì)丟失車輛目標(biāo)。相比傳統(tǒng)算法,該算法準(zhǔn)確性較高。

關(guān)鍵詞:背景建模;區(qū)域分割;Lab色彩空間;背景相減;形態(tài)學(xué)處理;運(yùn)動(dòng)目標(biāo)檢測(cè)

DOI:10.11907/rjdk.172791

中圖分類號(hào):TP317.4

文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-7800(2018)005-0183-04

Abstract:The commonly-used background extraction methods may not bring about satisfactory effects in the case of heavy traffic, because a large amount of time is consumed when all of the pixels need to be detected, even though less object detection areas exist in images. To solve the problems,we propose a new background extraction method. Firstly, the video frames were divided into blocks. Secondly, vehicles were detected in those blocks through a series of processes. Then, frame lane blocks, with no vehicles detected, was selected automatically to constitute the complete background frame. Finally, objectives were extracted by using quality of independence of brightness and color in Lab color space. This method could fully extract foreground without losing vehicles and has higher accuracy comparing with other traditional methods.

Key Words:background modeling; region segmentation; Lab color space; background subtraction; morphological processing; moving object detection

0 引言

通過(guò)視頻獲取交通信息是計(jì)算機(jī)視覺(jué)領(lǐng)域的研究熱點(diǎn)之一,有效的運(yùn)動(dòng)目標(biāo)提取為后續(xù)的處理奠定了基礎(chǔ)。運(yùn)動(dòng)目標(biāo)檢測(cè)方法有幀差法、光流法[1]、背景相減法[1-2]等。幀差法實(shí)時(shí)性較高,計(jì)算量小,但若目標(biāo)運(yùn)動(dòng)緩慢,則易出現(xiàn)漏檢現(xiàn)象。光流法準(zhǔn)確性較高,但計(jì)算復(fù)雜,難以滿足實(shí)時(shí)性。背景相減法因其計(jì)算量小、精度高,已成為運(yùn)用較普遍的前景提取算法,常用的有多幀求平均法、統(tǒng)計(jì)直方圖法[3]、混合高斯模型法[4-6]等。

背景相減法對(duì)運(yùn)動(dòng)目標(biāo)進(jìn)行檢測(cè)步驟:①背景提取。穩(wěn)定的背景能夠大大減小運(yùn)動(dòng)區(qū)域檢測(cè)的誤差率,從而充分提取前景目標(biāo);②運(yùn)動(dòng)區(qū)域分割。通過(guò)設(shè)定好的閾值對(duì)待檢測(cè)像素與背景點(diǎn)像素的差值分類,差值較大為運(yùn)動(dòng)目標(biāo),較小為背景;③前景目標(biāo)檢測(cè)。得到的運(yùn)動(dòng)區(qū)域往往不僅包含運(yùn)動(dòng)目標(biāo),還包含因光照不均等原因產(chǎn)生的圖像噪聲,因此要通過(guò)一定的形態(tài)學(xué)去噪,將非前景目標(biāo)干擾部分去除,最終得到所需要的前景目標(biāo)。

文獻(xiàn)[7]對(duì)以背景相減法為基礎(chǔ)的ViBe算法進(jìn)行了改進(jìn),通過(guò)建立一個(gè)閃爍程度矩陣,對(duì)鬼影程度進(jìn)行自適應(yīng)判斷,從而消除算法缺陷,使得檢測(cè)率大幅度提升。文獻(xiàn)[8]提出一種非參數(shù)的核密度估計(jì)方法,通過(guò)對(duì)每個(gè)像素點(diǎn)進(jìn)行估計(jì),計(jì)算其為背景像素的概率。但該算法計(jì)算量較大,占用時(shí)間較長(zhǎng)。文獻(xiàn)[9]提出一種color算法,將RGB空間中的像素以亮度失真和色度失真來(lái)分類,能有效將前景與陰影部分進(jìn)行分離。由于RGB空間亮度、色度的非獨(dú)立性導(dǎo)致閾值選取較難,本文通過(guò)對(duì)視頻幀進(jìn)行分割后,自動(dòng)選取無(wú)車輛車道背景塊進(jìn)行拼接,以形成較穩(wěn)定的背景。再將color算法轉(zhuǎn)換至Lab彩色空間進(jìn)行前景圖像提取[10],最后進(jìn)行形態(tài)學(xué)處理,得到有效的前景目標(biāo)。改進(jìn)的算法對(duì)車輛目標(biāo)檢測(cè)更準(zhǔn)確,并且對(duì)陰影部分能夠精確檢測(cè)并標(biāo)記。

1 改進(jìn)的背景建模方法

在車流量大的交通視頻中,同一位置的像素點(diǎn)為背景像素點(diǎn)的比例較小。在紅燈情況下,等候紅燈的車輛由于其靜止或運(yùn)動(dòng)緩慢,通過(guò)多幀求均值或統(tǒng)計(jì)直方圖均被當(dāng)作背景提取,導(dǎo)致所得到的背景與實(shí)際背景相差較大。混合高斯模型法等一些基于統(tǒng)計(jì)模型的背景提取算法雖有較好效果,但建模時(shí)間較久。另外,圖像中有很大一部分背景是非道路區(qū)域,對(duì)全部像素點(diǎn)建模會(huì)導(dǎo)致建模時(shí)間較長(zhǎng)。

一般的交通路段都存在左轉(zhuǎn)、直行、右轉(zhuǎn)車道,且對(duì)不同車道采用分流行駛的方法管制交通。因此,在非交通擁堵情況下,不同車道均可能出現(xiàn)無(wú)車輛通行情況。由于交通攝像頭擺設(shè)位置多在十字路口,會(huì)導(dǎo)致視頻圖像存在遠(yuǎn)景車輛小于近景車輛的視覺(jué)誤差和路面顏色不均現(xiàn)象。因此,將每幀的待檢測(cè)區(qū)域按車道線分為9個(gè)塊,對(duì)每個(gè)車道塊分別進(jìn)行檢測(cè),步驟如下:①背景初始化。讀取視頻中的某一幀作初始背景,并選擇第一個(gè)待檢測(cè)車道塊;②讀取視頻第一幀進(jìn)行車道線分割,獲得待檢測(cè)車道;③對(duì)待檢測(cè)車道進(jìn)行邊緣檢測(cè),計(jì)算其邊緣密度。通過(guò)經(jīng)驗(yàn)設(shè)定的閾值判斷若邊緣密度大于閾值,則表示有車輛存在,小于閾值則無(wú)車輛存在;④若判斷車道存在車輛,則讀取視頻下一幀,再?gòu)牡冖诓街貜?fù);若判斷車道不存在車輛,則進(jìn)行下一步;⑤將不存在車輛的車道塊像素點(diǎn)覆蓋至初始化背景中,選擇第2個(gè)待檢測(cè)車道塊,繼續(xù)循環(huán)第②步;⑥所有車道塊像素點(diǎn)均覆蓋完成后,輸出背景幀background,完成背景提取。

1.1 車道線標(biāo)記及分割

雖然車道均為直線,但因攝像頭安置的位置會(huì)導(dǎo)致車道前段與后段直線角度不一致。本文選擇用兩點(diǎn)式的直線方程標(biāo)定車道[11]。設(shè)兩點(diǎn)坐標(biāo)為(x1,y1),(x2,y2),則過(guò)兩點(diǎn)的直線方程Ax+By+C=0中的系數(shù)為:

得到的車道區(qū)域如圖1所示,有6條車道。

將分割開(kāi)的車道線進(jìn)行灰度處理后進(jìn)行以下步驟:

其中A1,B1,C1,A2,B2,C2為被分割車道左右兩條直線的方程系數(shù)。圖2為右轉(zhuǎn)車道及直行車道的前半部分效果。

2.2 車輛存在檢測(cè)及圖像選取

檢測(cè)車輛存在的一般方法為邊緣檢測(cè)法[12-13]。邊緣信息比背景信息波動(dòng)更明顯,因此檢測(cè)效果很好。通過(guò)對(duì)不同邊緣檢測(cè)算子進(jìn)行對(duì)比得出結(jié)論:roberts算子更適用于車道檢測(cè)。通過(guò)roberts算子進(jìn)行邊緣檢測(cè)的檢測(cè)帶中,i(x,y)像素值為255的邊緣像素,非邊緣像素值為0。通過(guò)統(tǒng)計(jì)檢測(cè)區(qū)域內(nèi)邊緣像素總數(shù)所占檢測(cè)帶像素總數(shù)的比例,定義邊緣密度:

通過(guò)邊緣密度d設(shè)定閾值T1,使用公式(4)來(lái)判斷車道內(nèi)有無(wú)車輛。無(wú)車輛為0,有車輛為1。判斷當(dāng)前檢測(cè)區(qū)域無(wú)車輛時(shí),停止對(duì)此區(qū)域進(jìn)行檢測(cè),將此幀的檢測(cè)車道賦值到初始化背景中,再對(duì)下一條車道進(jìn)行檢測(cè)。其中,初始化背景為視頻中的任意一幀。

本文前半段車道閾值T1選取在0.052 5~0.052 8之間,后半段車道閾值T1選取在0.08~0.11之間,這樣能保證車道選取時(shí)均為無(wú)車輛車道。

車輛在交通路口的平均行駛速度一般為8m/s,因此在檢測(cè)到車輛存在后幾秒的時(shí)間段內(nèi)仍有車輛存在。為了節(jié)約時(shí)間,采用按一定時(shí)間間隔讀取幀的方法進(jìn)行檢測(cè)。由于直行和左轉(zhuǎn)車道有紅燈時(shí)段,當(dāng)邊緣密度大于一定閾值T2時(shí)(即有較多車輛排隊(duì)時(shí)),可以跳過(guò)紅燈等待時(shí)間,以避免非關(guān)鍵幀,減少檢測(cè)時(shí)間,此處閾值T2選擇為0.053。

圖3(a)為對(duì)前100幀求平均值所得到的背景,能明顯看出有車輛痕跡。圖(b)為對(duì)300幀求平均值得到的背景。一部分車道效果得到優(yōu)化,但直行已進(jìn)入紅燈等候區(qū)域,停止車輛增多,車輛像素被當(dāng)作背景像素建模。

圖4(a)為背景初始化提取的背景幀,圖4(b)為本文自動(dòng)選取無(wú)車輛幀塊拼接得到的背景圖像效果,可以看出無(wú)明顯車輛,并且接近真實(shí)場(chǎng)景,效果優(yōu)于其它算法。

2 改進(jìn)的color算法及運(yùn)動(dòng)目標(biāo)提取

2.1 改進(jìn)的color算法

文獻(xiàn)[9]提出了在RGB色彩空間中,將亮度與色度分開(kāi)提取前景目標(biāo)及陰影的算法。定義的亮度失真(α)與色度失真(CD)分別為:

其中βi為像素i的待檢測(cè)像素值與背景像素值的總體差異。

由圖6、圖7可以看出,相比傳統(tǒng)的背景相減法,本文算法能夠更加完整地檢測(cè)出車道中的所有車輛。

2.2 運(yùn)動(dòng)目標(biāo)提取

將運(yùn)動(dòng)區(qū)域充分提取后,需對(duì)圖像進(jìn)行一系列形態(tài)學(xué)處理[14-15],以去除噪聲及非目標(biāo)區(qū)域。本文采用的處理方法如下:①用sobel算子對(duì)公式(9)所得到的二值圖像β進(jìn)行邊緣檢測(cè),將目標(biāo)車輛的邊緣檢測(cè)出來(lái),見(jiàn)圖8(a);②大小為2的點(diǎn)模板做膨脹處理,聯(lián)通各邊緣檢測(cè)點(diǎn),形成閉合區(qū)域,見(jiàn)圖8(b);③填充閉合區(qū)域,確保后續(xù)使用開(kāi)運(yùn)算,在將非目標(biāo)區(qū)域的噪點(diǎn)進(jìn)行去除時(shí)不會(huì)將目標(biāo)區(qū)域當(dāng)作噪點(diǎn)去除,見(jiàn)圖8(c);④使用大小為10的方形模板對(duì)圖像做開(kāi)運(yùn)算,將目標(biāo)運(yùn)動(dòng)區(qū)域保留下來(lái),非目標(biāo)區(qū)域作為噪點(diǎn)去除,見(jiàn)圖8(d)。

4 實(shí)驗(yàn)結(jié)果及分析

實(shí)驗(yàn)平臺(tái)為主頻1.9GHz,Intel i3CPU,內(nèi)存4.0G的64位Win10系統(tǒng),MATLAB R2015b,所使用的視頻幀速率為24幀/秒,大小為640×480的視頻。檢測(cè)率如表1所示。

圖9為3組不同算法的結(jié)果,圖9(a)為視頻中讀取的幀,圖9(b)為幀差法,圖9(c)為以多幀求平均法為背景模型的背景相減法,圖9(d)為本文算法。

通過(guò)實(shí)驗(yàn)可以看出,在綠燈時(shí)段,幀差法可以較好地將目標(biāo)車輛提取出來(lái)。但在紅燈時(shí)段,停止的車輛無(wú)法被檢測(cè)出來(lái)。以傳統(tǒng)的背景相減法結(jié)合多幀求平均法提取的背景,很難檢測(cè)出與背景顏色相近的車輛。本文算法在車輛行駛時(shí)段檢測(cè)率高達(dá)90%以上,車輛停止時(shí)段由于車輛遮擋導(dǎo)致檢測(cè)率下降,但仍比另外兩種方法效果要好。本文算法不僅能較完整地檢測(cè)出運(yùn)動(dòng)車輛,還能將紅燈時(shí)段停止車輛及車身顏色與背景相近的車輛檢測(cè)出來(lái),比其它傳統(tǒng)算法效果更好。

5 結(jié)語(yǔ)

根據(jù)前后車道段差異及車輛特性進(jìn)行車道分割檢測(cè),通過(guò)自動(dòng)選取無(wú)車輛背景進(jìn)行拼接,從而形成最接近真實(shí)場(chǎng)景的背景圖像。再利用Lab空間亮度與色度相互獨(dú)立的特性,將運(yùn)動(dòng)目標(biāo)區(qū)域充分提取,以確保車輛不會(huì)被漏檢。實(shí)驗(yàn)證明,改進(jìn)的方法能夠充分提取視頻中的遠(yuǎn)近景車輛,并且紅燈時(shí)段車輛變化較小時(shí)也不會(huì)出現(xiàn)漏檢現(xiàn)象。但是,由于無(wú)車輛背景選取的閾值為經(jīng)驗(yàn)值,視頻場(chǎng)景變化則閾值選取也要變化,為滿足閾值選取能夠達(dá)到自適應(yīng),算法仍需改進(jìn)。

參考文獻(xiàn):

[1] 付浩海,邊蓓蓓.基于幀間差分和背景相減的運(yùn)動(dòng)目標(biāo)檢測(cè)和提取算法研究[J].長(zhǎng)春工程學(xué)院學(xué)報(bào):自然科學(xué)版,2015,16(3):116-118.

[2] 陳亞?wèn)|.基于視頻的車輛違章行為檢測(cè)研究[D].合肥:安徽大學(xué),2015.

[3] 郭永濤,宋煥生,賀昱曜.視頻交通監(jiān)控系統(tǒng)中背景提取算法[J].電視技術(shù),2006,30(5):91-93.

[4] 李偉,陳臨強(qiáng),殷偉亮.基于自適應(yīng)學(xué)習(xí)率的背景建模方法[J].計(jì)算機(jī)工程,2011,37(15):187-189.

[5] ZIVKOVIC Z. Improved adaptive Gaussian mixture model for background subtraction[C].Pattern Recognition, ICPR 2004. Proceedings of the 17th International Conference on. IEEE,2004:28-31.

[6] 李勁菊,朱青,王耀南.一種復(fù)雜背景下運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤方法[J].儀器儀表學(xué)報(bào),2010,31(10):2242-2247.

[7] 莫邵文,鄧新蒲,王帥,等.基于改進(jìn)視覺(jué)背景提取的運(yùn)動(dòng)目標(biāo)檢測(cè)算法[J].光學(xué)學(xué)報(bào),2016,36(6):204-213.

[8] ELGAMMAL A, DURAISWAMI R, HARWOOD D, et al. Background and foreground modeling using nonparametric kernel density estimation for visual surveillance[J]. Proceedings of the IEEE,2002,90(7):1151-1163.

[9] THANARAT HORPRASERT, DAVID HARWOOD, LARRY DAVIS. A statistical approach for real-time robust background subtraction and shadow detection[J]. Proc Int Conf Computer Vision. IEEE Frame Rate Workshop,1999(2):1-19.

[10] JU ZHIYONG, HE XIAOLEI, WANG CHAONAN. Moving object and shadow detection algorithm using lab color space[C].International Conference on Machinery, Materials and Information Technology Applications(ICMMITA 2016),2016:79-85.

[11] 趙冉陽(yáng),張心言,吳志紅.基于復(fù)式滑動(dòng)窗口的車輛排隊(duì)長(zhǎng)度檢測(cè)方法[J].計(jì)算機(jī)技術(shù)與發(fā)展,2015,25(11):17-22.

[12] 朱孝山,李德玉,賈俊芳.基于改進(jìn)Canny邊緣檢測(cè)算法的車輛排隊(duì)長(zhǎng)度檢測(cè)方法[J].山西大學(xué)學(xué)報(bào):自然科學(xué)版,2011,34(3):368-373.

[13] 何芝娟,陳小雕.一種基于YUV空間的彩色邊緣檢測(cè)算法[J].杭州電子科技大學(xué)學(xué)報(bào),2012,32(6):49-52.

[14] OGE MARQUES.實(shí)用MATLAB圖像和視頻處理[M].章毓晉,譯.北京:清華大學(xué)出版社,2013.

[15] 何坤,鄭秀清,張永來(lái).紋理模糊的圖像分割[J].四川大學(xué)學(xué)報(bào):工程科學(xué)版,2015,47(4):111-117.

(責(zé)任編輯:杜能鋼)

主站蜘蛛池模板: 精品伊人久久久香线蕉| 日韩高清中文字幕| 丁香六月综合网| 福利小视频在线播放| 老司机精品99在线播放| 免费人成网站在线观看欧美| 色精品视频| jizz亚洲高清在线观看| 欧美在线中文字幕| 国产美女一级毛片| 永久在线播放| 日韩精品一区二区深田咏美| 亚洲av无码专区久久蜜芽| 国产成人乱无码视频| 亚洲狼网站狼狼鲁亚洲下载| 五月天福利视频| 毛片网站在线看| 国产欧美日韩综合在线第一| 国产欧美精品专区一区二区| 国产视频大全| 国产美女在线免费观看| 久久免费视频6| 最新亚洲人成无码网站欣赏网| 欧美第九页| 亚洲综合色在线| 免费一看一级毛片| 99尹人香蕉国产免费天天拍| 欧美在线视频不卡第一页| 在线中文字幕网| 国产亚洲成AⅤ人片在线观看| 国产视频你懂得| 91无码网站| 亚洲欧美日韩视频一区| 亚洲三级片在线看| 亚洲综合在线最大成人| 国产乱码精品一区二区三区中文| 国产欧美在线视频免费| 亚洲成aⅴ人片在线影院八| 久久黄色视频影| 99精品这里只有精品高清视频| 国产素人在线| 伊人久久福利中文字幕| 天天色天天综合网| 国产成人一区在线播放| 亚洲综合中文字幕国产精品欧美| 午夜性刺激在线观看免费| 97青草最新免费精品视频| 免费高清毛片| 国产成人在线无码免费视频| 老司机午夜精品网站在线观看 | 日本黄色a视频| 在线观看欧美国产| 亚洲人视频在线观看| 成人一级免费视频| 久久一色本道亚洲| 国产精品视频导航| 亚洲国产日韩在线观看| 国产一在线观看| 色综合网址| 在线看片免费人成视久网下载| 日韩无码黄色网站| 欧美成人精品一级在线观看| 午夜精品区| 狠狠综合久久| 久久久亚洲色| 国产精品成人免费视频99| 国产在线观看成人91| 97在线观看视频免费| www.日韩三级| 色婷婷综合在线| 国内自拍久第一页| 国产乱人伦AV在线A| 一级看片免费视频| 久久人搡人人玩人妻精品一| 国产福利在线免费观看| 男女精品视频| 国产精品视频第一专区| 亚洲综合婷婷激情| 亚洲最新地址| 亚洲人成人伊人成综合网无码| 成人在线综合| 免费一级毛片完整版在线看|