段凌涵
智能技術(shù)與信息化技術(shù)在交通系統(tǒng)中的應(yīng)用,實(shí)現(xiàn)了視頻檢測與跟蹤目的,可以在視頻圖像內(nèi)發(fā)現(xiàn)定位以及跟蹤目標(biāo),對提高視頻監(jiān)控效率具有重要意義。本文對行人視頻檢測和跟蹤方法技術(shù)要點(diǎn)進(jìn)行了簡單分析。
【關(guān)鍵詞】交通行人 視頻檢測 跟蹤方法
通過視頻來對行人進(jìn)行視頻和跟蹤,一直都是視頻監(jiān)控研究要點(diǎn)。因?yàn)闄z測環(huán)境復(fù)雜性高,檢測視頻質(zhì)量很容易受到外部因素干擾,再加上行人動作隨意性和不可預(yù)測性,實(shí)際應(yīng)用中還存在較大問題,需要對技術(shù)做更深入的研究,爭取進(jìn)一步提高檢測和跟蹤穩(wěn)定性。
1 行人檢測與跟蹤研究
對于視頻監(jiān)控來說,行人作為主要監(jiān)控對象,需要保證對其檢測與跟蹤的有效性和穩(wěn)定性。近年來針對此方面,已經(jīng)逐漸提出更多行人檢測與跟蹤算法,算法準(zhǔn)確性在不斷提高,可以更及時發(fā)現(xiàn)行人存在的異常行為,對減少事故的發(fā)生具有重要意義。其中,行人檢測視頻監(jiān)控系統(tǒng)研究要點(diǎn),與其他目標(biāo)星幣,行人具有更大不可預(yù)測性,在直立行走時,人體形狀變化不明顯,但是出現(xiàn)彎腰、下蹲等行為時,人體形狀變化非常大。并且行人檢測結(jié)果還會受到裝飾物品、著裝、等因素干擾,要求行人檢測魯棒性可以適應(yīng)多種情況算法,為后續(xù)跟蹤打好基礎(chǔ)。而對視頻內(nèi)行人目標(biāo)進(jìn)行跟蹤,就需要對視頻序列內(nèi)對每一幀圖像內(nèi)目標(biāo),通過與相鄰幀間聯(lián)系,準(zhǔn)確定位目標(biāo)在圖像序列幀中的坐標(biāo)位置。在這個過程中,如果每幀圖像中目標(biāo)特征不存在較大變化,跟蹤結(jié)果比較穩(wěn)定;但是如果在這個過程中出現(xiàn)形變、遮擋等情況時,跟蹤穩(wěn)定性差,跟蹤算法設(shè)計(jì)難度大。
2 行人檢測技術(shù)分析
2.1 檢測模型
對視頻圖像來說,與其他特征相比,人體膚色具有更穩(wěn)定性,不受旋轉(zhuǎn)、尺度變化等影響,同時根據(jù)顏色空間的膚色分割更為簡單,可以將其作為依據(jù)建立行人檢測模型。即根據(jù)行人膚色在顏色空間中的分布情況,來與其他物體進(jìn)行區(qū)別,并分割出膚色區(qū)域。膚色為人體暴露在外區(qū)別與其他部位的顯著特征,與尺寸變化、表情、姿勢等相比具有更強(qiáng)魯棒性,且對于分割圖像具有更強(qiáng)實(shí)用性。目前膚色檢測模型主要包括膚色統(tǒng)計(jì)模型、固定閾值模型、混合高斯模型以及自適應(yīng)閾值模型等。
2.2 算法流程
2.2.1 YCbCr聚類圖
膚色在顏色空間分布具有局類型特點(diǎn),并且容易受光照干擾,基于膚色進(jìn)行行人檢測時,需要將圖像轉(zhuǎn)換到亮度與色度分離顏色空間,根據(jù)亮度分量來區(qū)別膚色和非膚色差別。其中,YCbCr顏色空間具有較高膚色聚類效果,可以根據(jù)其來建立膚色模型。為降低環(huán)境光照強(qiáng)度干擾,可以建立基于亮度信息的Cb與Cr聚類圖,根據(jù)光照強(qiáng)度查表來確定膚色范圍,可提高膚色檢測準(zhǔn)確性。
2.2.2 膚色區(qū)域分割
輸入視頻圖像后,將其由RGB顏色空間轉(zhuǎn)換YCbCr顏色空間,并根據(jù)查詢所有像素點(diǎn),來建立YCbCr聚類圖,確定是否為膚色,建立最初膚色區(qū)域二值圖。并且,為提高目標(biāo)人臉定位準(zhǔn)確性,可利用形態(tài)學(xué)方法處理二值圖,即腐蝕消除背景圖中誤差,然后利用膨脹算法將膚色塊內(nèi)孔洞消除。
2.2.3 行人目標(biāo)定位
膚色分割后形成人臉候選區(qū)域,包括人臉區(qū)域以及胳膊、手等非人臉區(qū)域,還包括與膚色顏色類似的背景、服飾等區(qū)域,需要進(jìn)一步篩選定位。例如可以通過人臉面積和長度進(jìn)行條件篩選,根據(jù)實(shí)際情況分析,大部分人頸部裸露在外,人臉長寬比加大,需要對閾值范圍進(jìn)行調(diào)整,確定滿足所有條件的區(qū)域便為人臉。
3 Mean Shift行人跟蹤技術(shù)分析
3.1 目標(biāo)圖像建模
在視頻序列第一幀中建立目標(biāo)模型,目標(biāo)區(qū)域多為矩形和橢圓形,以{xi}i=1…n表示目標(biāo)區(qū)域內(nèi)像素,像素總數(shù)為n,將區(qū)域中心坐標(biāo)點(diǎn)作為中心點(diǎn)x0。膚色特征不受旋轉(zhuǎn)干擾,應(yīng)用Mean Shift算法進(jìn)行行人跟蹤,便可以應(yīng)用顏色模型進(jìn)行特征統(tǒng)計(jì),對跟蹤視頻圖像序列顏色空間進(jìn)行區(qū)間劃分。
3.2 候選目標(biāo)建模
假設(shè)在視頻中以后各幀圖像中,相鄰圖像均存在重合部分,即各幀圖像內(nèi)均包含運(yùn)動目標(biāo)區(qū)域。候選目標(biāo)區(qū)域中像素點(diǎn)以序列{yi}i=1…n表示,其中中心點(diǎn)為y,應(yīng)用想用核函數(shù)K(x),則候選模型中各個bin概率密度特征值Pn(u=1…m)為:
3.3 判斷相似性
假設(shè)以后每幀中均存在若干個候選區(qū)域,與目標(biāo)模型相似度最高的區(qū)域則為目標(biāo)在這一幀圖像中所處位置。Mean Shift算法在判斷目標(biāo)相似性時,采用Bhattacharyya系數(shù)為相似性函數(shù),因?yàn)楹蜻x模型中心y不確定,則相似性函數(shù)則是以y為自變量的函數(shù),即:
其中,系數(shù)p(y)值越大,距離d(y)越小,候選模型與目標(biāo)模型相似度越高,選擇p(y)最大值候選區(qū)域?yàn)槟繕?biāo)在這一幀內(nèi)所處位置。
3.4 目標(biāo)定位
為確定Bhattacharyya系數(shù)最大值,要將前一幀目標(biāo)區(qū)域中心坐標(biāo)x0作為當(dāng)前幀中目標(biāo)區(qū)域初始位置y0,然后在該點(diǎn)領(lǐng)域內(nèi)進(jìn)行目標(biāo)搜索,獲得目標(biāo)真實(shí)位置后,在繼續(xù)對下一幀進(jìn)行運(yùn)算。
4 結(jié)束語
對行人檢測和跟蹤技術(shù)進(jìn)行分析,需要確定視頻內(nèi)行人目標(biāo)特點(diǎn),選擇不受外部因素干擾的因素,利用有效算法來對行人進(jìn)行區(qū)別定位與跟蹤,滿足視頻監(jiān)控實(shí)際應(yīng)用要求,提高視頻監(jiān)控管理綜合效果。
參考文獻(xiàn)
[1]劉璐.行人視頻檢測與跟蹤方法研究[D].北京交通大學(xué),2015.
[2]陳慧杰.視頻監(jiān)控中的行人檢測與跟蹤方法研究[D].廈門大學(xué),2014.
作者單位
公安海警學(xué)院 浙江省寧波市 315801