999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種基于歸一化前景和角點(diǎn)信息的復(fù)雜場(chǎng)景人數(shù)統(tǒng)計(jì)方法

2014-05-29 10:00:28常慶龍夏洪山
電子與信息學(xué)報(bào) 2014年2期
關(guān)鍵詞:前景區(qū)域實(shí)驗(yàn)

常慶龍 夏洪山 黎 寧

?

一種基于歸一化前景和角點(diǎn)信息的復(fù)雜場(chǎng)景人數(shù)統(tǒng)計(jì)方法

常慶龍*①夏洪山①黎 寧②

①(南京航空航天大學(xué)民航學(xué)院 南京 210016)②(南京航空航天大學(xué)電子信息工程學(xué)院 南京 210016)

針對(duì)智能視頻監(jiān)控領(lǐng)域的人數(shù)統(tǒng)計(jì)問題,該文提出了一種基于歸一化前景和角點(diǎn)信息的復(fù)雜場(chǎng)景人數(shù)統(tǒng)計(jì)方法。首先在提取的前景二值圖基礎(chǔ)上,計(jì)算透視校正后的歸一化前景面積。然后在提取前景區(qū)域有效角點(diǎn)信息的基礎(chǔ)上,計(jì)算能夠反映人群遮擋程度的遮擋因子。最后,將上述兩種特征輸入后向傳播(BP)網(wǎng)絡(luò)完成人數(shù)統(tǒng)計(jì)算法的訓(xùn)練與測(cè)試。實(shí)驗(yàn)表明,該方法可以有效地實(shí)現(xiàn)對(duì)復(fù)雜場(chǎng)景的人數(shù)統(tǒng)計(jì)。

視頻監(jiān)控;人數(shù)統(tǒng)計(jì);歸一化前景;角點(diǎn)信息;BP神經(jīng)網(wǎng)絡(luò)

1 引言

隨著計(jì)算機(jī)硬件性能的不斷提高,基于數(shù)字圖像處理技術(shù)的智能化視頻監(jiān)控成為當(dāng)前的熱點(diǎn)研究領(lǐng)域。人數(shù)統(tǒng)計(jì)作為其中的關(guān)鍵技術(shù),在公共場(chǎng)所的安全監(jiān)控和大型商場(chǎng)的客流分析等方面有著重要的應(yīng)用價(jià)值,也成為研究的熱點(diǎn)。

為了能夠更加高效準(zhǔn)確地統(tǒng)計(jì)出復(fù)雜場(chǎng)景中的人數(shù),本文提出了一種基于歸一化前景和角點(diǎn)信息的復(fù)雜場(chǎng)景人數(shù)統(tǒng)計(jì)方法。該方法具有較高的準(zhǔn)確性和較好的魯棒性,在對(duì)機(jī)場(chǎng)候機(jī)樓監(jiān)控視頻的人數(shù)統(tǒng)計(jì)實(shí)驗(yàn)中取得了較好的效果。

2 算法

本文方法在提取出人群前景的基礎(chǔ)上,計(jì)算出透視校正后的歸一化前景面積,然后在提取出前景區(qū)域有效角點(diǎn)信息的基礎(chǔ)上,計(jì)算出能夠反映場(chǎng)景人群平均遮擋程度的遮擋因子,最后將上述兩個(gè)特征輸入后向傳播(BP)網(wǎng)絡(luò)回歸模型,實(shí)現(xiàn)了對(duì)復(fù)雜場(chǎng)景的人數(shù)統(tǒng)計(jì),具體流程如圖1所示。

圖1 算法流程圖

2.1 前景提取

本文采用高斯混合模型算法[11]完成了場(chǎng)景的背景建模??紤]到本文的實(shí)驗(yàn)場(chǎng)景為機(jī)場(chǎng)候機(jī)大廳,如圖2(a)所示,光線變化較弱且行人的運(yùn)動(dòng)幅度與速率較低,因此,不同于傳統(tǒng)高斯混合模型算法由像素點(diǎn)灰度值的條件概率來決定更新速率。本文將更新速率設(shè)為一個(gè)固定的值,從而降低了背景模型的敏感度,提高了模型生成的效率。在所構(gòu)建的背景模型基礎(chǔ)上,通過背景減除,即可獲得初步的前景圖,如圖2(b)所示。

受光線影響,監(jiān)控場(chǎng)景中的目標(biāo)倒影是必須要解決的問題。本文基于傳統(tǒng)的HSV陰影去除算法[12],總結(jié)出一組簡(jiǎn)化閾值過濾條件完成了陰影去除。

在完成背景減除操作后,將獲得的前景圖由RGB色彩空間轉(zhuǎn)換至HSV色彩空間。利用式(1)和式(2),對(duì)前景區(qū)域逐像素判別濾除,最終得到過濾了陰影區(qū)域的前景圖,如圖2(c)所示。

陰影去除后的前景圖,需要通過形態(tài)學(xué)濾波得到低噪聲,輪廓更為完整的人群前景圖。本文通過一組形態(tài)學(xué)開閉運(yùn)算得到更好的前景二值圖,如圖2(d)所示。

2.2 歸一化前景計(jì)算

本文通過對(duì)同一場(chǎng)景中同一行人處于不同縱向位置時(shí)的尺寸和縱向坐標(biāo)值進(jìn)行采樣,并對(duì)尺寸和縱向坐標(biāo)值進(jìn)行如圖3所示的線性擬合。由圖3所示,行人的寬和高與其所處的縱向坐標(biāo)值之間呈現(xiàn)明顯的線性關(guān)系,基于此,得到如式(3)和式(4)的擬合公式。

圖3 行人尺寸擬合曲線

由式(3)和式(4)可知,已知場(chǎng)景中某個(gè)目標(biāo)的尺寸和對(duì)應(yīng)的縱向坐標(biāo)后,可由上述兩個(gè)擬合公式推導(dǎo)出該目標(biāo)位移至場(chǎng)景中任意其它位置時(shí)的尺寸,具體見式(5)和式(6)。

傳統(tǒng)的前景面積計(jì)算公式如式(7):

為了校正透視效應(yīng),需要對(duì)原有前景面積公式進(jìn)行歸一化修正。根據(jù)式(3)和式(4),可將每行前景像素點(diǎn)面積修正為其投影至場(chǎng)景底邊時(shí)的小矩形區(qū)域面積,因此歸一化后的前景面積統(tǒng)計(jì)式如式(8)。

2.3 遮擋因子提取

對(duì)于人群密度較高的場(chǎng)景,必需考慮行人之間的遮擋問題。一般而言,人群越聚集,遮擋越嚴(yán)重的區(qū)域,對(duì)應(yīng)的邊緣紋理圖像也越復(fù)雜。本文基于前景區(qū)域的有效角點(diǎn)信息,提取了一種遮擋因子來表征對(duì)前景區(qū)域的人群遮擋程度。

本文首先采用經(jīng)典的Harris角點(diǎn)算法[13]提取候選角點(diǎn)信息,具體步驟如下:

上述候選角點(diǎn)需要經(jīng)過進(jìn)一步的濾除處理得到最終的有效角點(diǎn)??紤]到遮擋邊緣一般處于前景區(qū)域內(nèi)部,為了使得角點(diǎn)能夠更好地體現(xiàn)場(chǎng)景中行人之間的遮擋程度,這里將處于前景區(qū)域邊緣的角點(diǎn)濾除。這樣得到的有效角點(diǎn)更準(zhǔn)確地反映了前景區(qū)域內(nèi)部紋理的復(fù)雜程度,并且可以濾除一些噪聲角點(diǎn),角點(diǎn)濾除效果如圖4所示。提取有效角點(diǎn)的具體步驟如下:

圖4 角點(diǎn)濾除結(jié)果圖

2.4 回歸模型建立

統(tǒng)計(jì)回歸是人數(shù)統(tǒng)計(jì)算法的重要步驟。場(chǎng)景的歸一化前景和人數(shù)之間存在著一定的線性關(guān)系,但為了解決人群中的遮擋問題,本文引入了人群密度特征,使得一般的線性回歸模型并不適用。因此,這里選用經(jīng)典的BP網(wǎng)絡(luò)[15]作為回歸模型。

3 實(shí)驗(yàn)

實(shí)驗(yàn)在2.67 GHz主頻,4 G內(nèi)存下的Matlab 2007b平臺(tái)上進(jìn)行,分別對(duì)一段機(jī)場(chǎng)候機(jī)樓值機(jī)柜臺(tái)區(qū)域的視頻和一段校園路口的自拍視頻進(jìn)行人數(shù)統(tǒng)計(jì)。其中,候機(jī)樓場(chǎng)景的圖像尺寸為704×576,測(cè)試樣本長(zhǎng)度為600幀;校園場(chǎng)景的圖像尺寸為320×240,測(cè)試樣本長(zhǎng)度也為600幀,各場(chǎng)景樣本示例如圖5所示。實(shí)驗(yàn)中BP網(wǎng)絡(luò)的隱含層設(shè)為1,訓(xùn)練次數(shù)設(shè)為1000,學(xué)習(xí)率設(shè)為0.1,訓(xùn)練目標(biāo)設(shè)為0.0001。

圖5 實(shí)驗(yàn)樣本示例

文獻(xiàn)[8]中的GLCM算法是人數(shù)統(tǒng)計(jì)中的經(jīng)典算法,本節(jié)對(duì)該方法和本文方法進(jìn)行對(duì)比實(shí)驗(yàn),回歸模型都采用BP網(wǎng)絡(luò)。候機(jī)樓場(chǎng)景和校園場(chǎng)景的實(shí)驗(yàn)對(duì)比結(jié)果分別如圖6(a)和圖6(b)所示。

從圖6(a)可以明顯看出,對(duì)于機(jī)場(chǎng)候機(jī)大廳這類場(chǎng)景范圍較大的復(fù)雜場(chǎng)景,本文方法能夠比較準(zhǔn)確地統(tǒng)計(jì)出其各種密度狀況下的人數(shù),而GLCM算法對(duì)中低密度狀況下的人數(shù)統(tǒng)計(jì)不夠理想。對(duì)如圖6(b)所示的校園路口這類場(chǎng)景范圍較小的情況,本文方法依然能夠有效地實(shí)現(xiàn)人數(shù)統(tǒng)計(jì),而GLCM算法的誤差明顯高于本文方法。

圖6 算法實(shí)驗(yàn)結(jié)果對(duì)比圖

為了定量衡量本文方法和GLCM算法的性能差異,這里采用平均絕對(duì)誤差(MAE)和平均相對(duì)誤差(MRE)作為算法性能的評(píng)估標(biāo)準(zhǔn),具體如式(16)和式(17)所示。

同時(shí),為了驗(yàn)證本文歸一化前景提取方法的有效性,這里將未考慮陰影和透視影響的傳統(tǒng)前景提取方法[11]與本文的角點(diǎn)信息和遮擋因子相結(jié)合進(jìn)行人數(shù)統(tǒng)計(jì)對(duì)比實(shí)驗(yàn)。每種方法采用BP網(wǎng)絡(luò)運(yùn)算10次,以10次實(shí)驗(yàn)的平均值作為最終結(jié)果,實(shí)驗(yàn)結(jié)果如表1所示。

表1 歸一化前景提取方法有效性對(duì)比

由表1可知,本文方法與GLCM算法相比,在候機(jī)樓場(chǎng)景中的MAE和MRE分別降低了35.1%和44.0%,在校園場(chǎng)景中的MAE和MRE分別降低了46.7%和54.6%,整體性能提升明顯,這與圖6中反映的情況也是一致的。另外,本文方法相比于基于傳統(tǒng)前景提取方法的人數(shù)估計(jì)方法,整體性能也有一定提升,證明了本文的歸一化前景提取方法的有效性。需要說明的是,盡管本文方法的單幀處理速度略低于GLCM算法,但足以滿足智能監(jiān)控系統(tǒng)的實(shí)時(shí)處理需求。

4 結(jié)束語

針對(duì)復(fù)雜場(chǎng)景下的人數(shù)統(tǒng)計(jì)問題,本文提出了一種基于歸一化前景和角點(diǎn)信息的人數(shù)統(tǒng)計(jì)方法。該方法首先利用混合高斯模型提取圖像背景,并通過背景減除得到初步前景圖。再結(jié)合陰影濾除和形態(tài)學(xué)濾波得到前景二值圖,接著計(jì)算出了透視校正后的歸一化前景面積。然后,利用Harris算法提取出前景區(qū)域的候選角點(diǎn)信息,并通過濾除前景邊緣角點(diǎn)得到有效的角點(diǎn)信息,接著結(jié)合原始前景面積計(jì)算出反映場(chǎng)景人群平均遮擋程度的遮擋因子。最后,將上述兩種特征輸入BP神經(jīng)網(wǎng)絡(luò)回歸模型完成人數(shù)統(tǒng)計(jì)算法的訓(xùn)練與測(cè)試。實(shí)驗(yàn)證明,相比傳統(tǒng)的GLCM算法,本文算法可以更準(zhǔn)確地統(tǒng)計(jì)出類似機(jī)場(chǎng)候機(jī)大廳這類復(fù)雜場(chǎng)景的人數(shù)。

未來可根據(jù)場(chǎng)景需要進(jìn)一步改進(jìn)有效角點(diǎn)信息的提取算法和遮擋因子的計(jì)算模型,使其更加準(zhǔn)確地表征場(chǎng)景中人群區(qū)域的遮擋程度,從而獲得更高的計(jì)算準(zhǔn)確性。

[1] Zeng Cheng-bin and Ma Hua-dong. Robust head-shoulder detection by PCA-based multilevel HOG-LBP detector for people counting[C]. 20th International Conference on Pattern Recognition, Istanbul, 2010: 2069-2072.

[2] Zhang Zui, Gunes H, and Piccardi M. Head detection for video surveillance based on categorical hair and skin colour models[C]. 2009 IEEE International Conference on Image Processing, Cairo, 2009: 1137-1140.

[3] Conde C, Moctezuma D, Martin D D,.. HoGG: Gabor and HoG-based human detection for surveillance in non-controlled environments[J]., 2013 (Special issue: Behaviours in video), 100: 19-30.

[4] Gao Cong-wen, Huang Kai-qi, and Tan Tie-niu. People counting using combined feature[C]. 2011 3rd Chinese Conference on Intelligent Visual Surveillance, Beijing, 2011: 81-84.

[5] Chan A B and Vasconceloos N. Counting people with low-level features and bayesian regression[J]., 2012, 21(4): 2160-2177.

[6] 覃勛輝, 王修飛, 周曦, 等. 多種人群密度下的人群計(jì)數(shù)[J]. 中國(guó)圖象圖形學(xué)報(bào), 2013, 18(4): 392-398.

Qin Xun-hui, Wang Xiu-fei, Zhou Xi,.. Counting people in various crowed density scenes using support vector regression[J]., 2013, 18(4): 392-398.

[7] Wu Xin-yu, Liang Guo-yuan, Lee K K,.. Crowd density estimation using texture analysis and learning[C]. 2006 IEEE International Conference on Robotics and Biomimetics, Kunming, 2006: 214-219.

[8] Guo Sen, Liu Wei, and Yan He-ping. Counting people in crowd open scene based on grey level dependence matrix[C]. 2009 IEEE International Conference on Information and Automation, Zhuhai, 2009: 228-231.

[9] Albiol A, Silla M J, Albiol A,.. Video analysis using corner motion statistics[C]. Proceedings of 12th IEEE International workshop on Performance, Miami, 2009: 31-37.

[10] Hajer F and Jean-Luc D. People counting system in crowded scenes based on feature regression[C]. Proceedings of the 20th European Signal Processing Conference, Bucharest, 2012: 136-140.

[11] Wan Qin and Wang Yao-nan. Background subtraction based on adaptive non-parametric model[C]. 7th World Congress on Intelligent Control and Automation, Chongqing, 2008: 5960-5965.

[12] Cucchiara R, Grana C, Piccardi M,.. Improving shadow suppression in moving object detection with HSV color information[C]. 2001 IEEE Intelligent Transportation Systems Proceedings, Oakland, 2001: 334-339.

[13] Harris C and Stephens M. A combined corner and edge detector[C]. Proceedings of 4th Alvey Vision Conference, Manchester, UK, 1988: 147-151.

[14] Gonzalez R C and Woods R E. Digital Image Processing[M]. Massachusetts: Addison-Welsey, 2007: 726-735.

[15] Hecht-Nielsen R. Theory of the backpropagation neural network[C]. International Joint Conference on Neural Networks, Washington, 1989: 593-605.

常慶龍: 男,1986年生,博士生,研究方向?yàn)閳D像處理和模式識(shí)別.

夏洪山: 男,1952年生,教授,博士生導(dǎo)師,研究方向?yàn)楹娇者\(yùn)輸系統(tǒng)建模仿真與智能化.

黎 寧: 女,1967年生,副教授,碩士生導(dǎo)師,研究方向?yàn)閳D像處理和機(jī)器視覺.

A Method for People Counting in Complex Scenes Based on Normalized Foreground and Corner Information

Chang Qing-long①Xia Hong-shan①Li Ning②

①(,,210016,)②(,,210016,)

For the problem of people counting in intelligent video surveillance, a method of people counting in complex scenes based on the normalized foreground and corner information is proposed. First, based on the binary foreground, the area of normalized foreground after perspective correction is calculated. Second, the optimized corner information of foreground is extracted to compute the occlusion coefficient of crowd. Finally, the above two features are used as the inputs of the Back Propagation (BP) neural network to train and test the people counting. Experiments results show that, the proposed method exhibits good performance in complex scenes.

Video surveillance; People counting; Normalized foreground; Corner information; Back Propagation (BP) neural network

TP391.4

A

1009-5896(2014)02-0312-06

10.3724/SP.J.1146.2013.00620

常慶龍 hacql2004@126.com

2013-05-06收到,2013-08-26改回

中國(guó)民用航空局科技項(xiàng)目(MHRD2009211)和民航大重點(diǎn)實(shí)驗(yàn)室項(xiàng)目(1004-ZBA12016)資助課題

猜你喜歡
前景區(qū)域實(shí)驗(yàn)
記一次有趣的實(shí)驗(yàn)
我國(guó)旅游房地產(chǎn)開發(fā)前景的探討
法德軸心的重啟及前景
做個(gè)怪怪長(zhǎng)實(shí)驗(yàn)
離岸央票:需求與前景
NO與NO2相互轉(zhuǎn)化實(shí)驗(yàn)的改進(jìn)
實(shí)踐十號(hào)上的19項(xiàng)實(shí)驗(yàn)
太空探索(2016年5期)2016-07-12 15:17:55
量子糾纏的來歷及應(yīng)用前景
太空探索(2016年10期)2016-07-10 12:07:01
關(guān)于四色猜想
分區(qū)域
主站蜘蛛池模板: 在线播放精品一区二区啪视频 | 国产精品一区二区在线播放| 亚洲国产无码有码| 亚洲无线一二三四区男男| 欧美精品一区二区三区中文字幕| 国产精品一老牛影视频| 精品撒尿视频一区二区三区| 国产精品第页| 久夜色精品国产噜噜| 十八禁美女裸体网站| 中文无码精品A∨在线观看不卡| 996免费视频国产在线播放| 97青草最新免费精品视频| 日韩a在线观看免费观看| 亚洲精品天堂自在久久77| 欧美在线精品一区二区三区| 精品国产免费观看| 美女一区二区在线观看| 国产精品一区在线观看你懂的| 国产AV无码专区亚洲精品网站| 最新国语自产精品视频在| 久久精品国产精品一区二区| 国产精品片在线观看手机版| 亚洲AⅤ无码国产精品| 97视频精品全国免费观看| 国产精品成人免费综合| 婷婷五月在线| 久久天天躁夜夜躁狠狠| 国产人成在线观看| 亚洲国产成人精品无码区性色| 91国内视频在线观看| 91欧美在线| 欧美日韩一区二区三区在线视频| 国产麻豆精品手机在线观看| a毛片基地免费大全| 亚洲成人在线网| 日韩精品免费一线在线观看| 日韩福利在线观看| 就去吻亚洲精品国产欧美| 特级精品毛片免费观看| 免费一级大毛片a一观看不卡| 亚洲国产亚洲综合在线尤物| 成人日韩视频| 国产精品成人观看视频国产| 欧美在线一二区| 国产在线观看91精品| 五月激情婷婷综合| 国产精品视频久| 精品无码日韩国产不卡av| 国产成人亚洲欧美激情| 99热国产这里只有精品9九| 国产成人啪视频一区二区三区| 精品欧美视频| av大片在线无码免费| 国内精品免费| 一级毛片基地| 国产午夜精品一区二区三| 青青草国产在线视频| 日韩经典精品无码一区二区| 999国产精品| 69av免费视频| 国产丝袜丝视频在线观看| 99热这里只有精品国产99| 国产麻豆永久视频| 91成人在线观看| AⅤ色综合久久天堂AV色综合| 青青国产视频| 成人a免费α片在线视频网站| 国产精品自在线天天看片| 久久综合亚洲鲁鲁九月天| 国产激情在线视频| 国产丝袜第一页| 欧美一级夜夜爽| 国产伦片中文免费观看| 日韩中文字幕免费在线观看| 一级毛片在线播放免费观看| 日韩午夜福利在线观看| 黄色三级网站免费| 91无码人妻精品一区| 在线观看无码a∨| 国产综合精品一区二区| 亚洲色图欧美一区|