999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于人體典型部位特征組合的行人檢測(cè)方法*

2014-04-17 02:46:18葛平淑趙一兵趙宗艷
汽車工程 2014年4期
關(guān)鍵詞:特征檢測(cè)

郭 烈,葛平淑,趙一兵,趙宗艷

(1.大連理工大學(xué)汽車工程學(xué)院,大連 116024;2.大連民族學(xué)院機(jī)電信息工程學(xué)院,大連 116600)

前言

為有效保護(hù)行人安全,提高汽車主動(dòng)安全性能,研發(fā)行人檢測(cè)系統(tǒng)提醒駕駛員可能與鄰近的行人發(fā)生碰撞事故已成為減少道路交通中行人傷亡數(shù)量的重要手段[1]。

在行人檢測(cè)過(guò)程中,需要定義一些特征來(lái)區(qū)分行人和背景,最直接的方法就是尋找圖像中的行人形狀特征對(duì)其進(jìn)行識(shí)別,如梯度方向直方圖HOG特征[2]、Edgelet特征[3]和 Shapelet特征[4]等。由于每種特征的針對(duì)性不同,因此使用單一特征的檢測(cè)方法很難適應(yīng)多場(chǎng)景下的行人檢測(cè),國(guó)內(nèi)外學(xué)者提出了多種特征信息融合的方法。文獻(xiàn)[5]中綜合使用HOG和Edgelet兩種局部特征,并通過(guò)SVM與Adaboost分別訓(xùn)練各自的分類器,對(duì)紅外圖像中行人獲取較好的檢測(cè)效果;文獻(xiàn)[6]中提出了一種基于部位檢測(cè)和子結(jié)構(gòu)組合的行人檢測(cè)方法,實(shí)現(xiàn)多姿態(tài)和部分遮擋的行人檢測(cè);文獻(xiàn)[7]中分別在頭部和四肢等重點(diǎn)區(qū)域計(jì)算梯度方向直方圖,有效地減少了向量維數(shù),提高了檢測(cè)速度;文獻(xiàn)[8]中將基于局部特征的Adaboost級(jí)聯(lián)分類器和模板匹配相結(jié)合,實(shí)現(xiàn)視頻監(jiān)控領(lǐng)域的行人檢測(cè)。

上述研究表明,多特征融合的方法可提高系統(tǒng)的檢測(cè)精度,但如何針對(duì)人體和人體典型部位提取有效特征,合理設(shè)計(jì)分類器結(jié)構(gòu),充分發(fā)揮各分類器的優(yōu)勢(shì)仍然是一個(gè)難題[9]。如果對(duì)于某些人體部位提取的特征并不能很好地區(qū)分行人與背景,那么這些無(wú)效的特征無(wú)疑會(huì)增加算法的負(fù)擔(dān),影響實(shí)時(shí)性。為解決上述問(wèn)題,提出一種基于部位特征組合的行人檢測(cè)方法。該方法對(duì)不同人體典型部位采用了不同的特征,針對(duì)各個(gè)部位的特點(diǎn)選擇最有效的特征來(lái)檢測(cè),最后再將各自的檢測(cè)結(jié)果進(jìn)行融合。

1 算法描述

1.1 基于HOG特征優(yōu)化的腿部檢測(cè)

由于行人下半身所在的區(qū)域背景通常是路面圖像,而腿部占有較大面積,其輪廓邊緣比較明顯,在某些梯度方向和梯度強(qiáng)度上會(huì)出現(xiàn)有一定的峰值,其HOG特征與背景差別較大[10]。因此,提出針對(duì)行人腿部采用HOG特征進(jìn)行檢測(cè)的方法。定義腿部區(qū)域檢測(cè)窗口大小為64×64像素,子窗口的寬度取為12、24、36、48、64 像素,子窗口的長(zhǎng)寬比取為(1∶1)、(1∶2)和(2∶1),依據(jù)所設(shè)定的子窗口的寬度和長(zhǎng)寬比便可以確定其數(shù)量和大小。通過(guò)設(shè)置多尺度的特征子窗口,能夠更加充分顯示腿部輪廓特征,各子窗口之間重疊的尺度為4、6、8個(gè)像素。采用Sobel算子從樣本集中提取所有的HOG特征,使用積分直方圖進(jìn)行加速,最終從每個(gè)樣本中提取了1 386個(gè)HOG特征。

經(jīng)分析發(fā)現(xiàn),在眾多的特征中只有少部分特征對(duì)目標(biāo)的分類起主導(dǎo)作用,其他大部分特征只含有少量的有用信息。通常這些冗余的特征不僅會(huì)增加算法的復(fù)雜性,使分類器訓(xùn)練和檢測(cè)過(guò)程都非常耗時(shí),而且會(huì)對(duì)最終的分類結(jié)果產(chǎn)生相反的作用[11]。因此,采用加權(quán)Fisher線性判別方法從中得到一部分能顯著區(qū)分正負(fù)樣本的HOG特征。

加權(quán)Fisher線性判別能將樣本多維特征投影到一維直線上,投影方向能將各類樣本很好地分開(kāi),因此該投影過(guò)程具有一定的弱分類功能,同時(shí)實(shí)現(xiàn)特征降維[12]。投影方向的計(jì)算式為

式中:wi為第i個(gè)樣本的權(quán)重;f(xi)為第i個(gè)樣本的特征為樣本類內(nèi)均值為樣本類內(nèi)加權(quán)協(xié)方差矩陣;a為最佳投影方向。

為增強(qiáng)弱分類器的表達(dá)能力,采用查表的Gentle Adaboost算法[13]。在 Gentle AdaBoost中,弱分類器的輸出函數(shù)為

式中:Pw(y=1|x)、Pw(y=-1|x)分別表示特征值為x的樣本時(shí),其為正樣本或負(fù)樣本的加權(quán)概率。

為提高分類器的精度,采用基于查表型弱分類器類型。查表的方法是將整個(gè)樣本集的特征值劃分為對(duì)應(yīng)的n個(gè)不相交的子集,對(duì)于某個(gè)特征值為x的樣本,其弱分類器的輸出就表示為它在所屬子集中為正樣本與負(fù)樣本的加權(quán)概率差[14]。因此,查表型弱分類器的輸出為一個(gè)表示置信度的實(shí)數(shù)值,與離散型輸出相比,它包含了更多的信息并且更加適用于實(shí)際樣本的分布情況。查表型弱分類器的構(gòu)造過(guò)程如下。

經(jīng)過(guò)加權(quán)Fisher線性判別后,HOG特征被降為1維,首先將它歸一化到[0,1]區(qū)間,將該區(qū)間均勻分成n個(gè)子區(qū)間:

這樣,弱分類器可以定義為

式中:W+1j和W-1j分別表示正、負(fù)樣本的特征值落在區(qū)間binj內(nèi)的條件概率,表示為

具體地說(shuō),令D+1j和D-1j分別表示第j個(gè)區(qū)間binj正負(fù)樣本權(quán)值的總和,即

則條件概率為

定義函數(shù)為

則基于查表型Gentle AdaBoost弱分類器公式可表示為

1.2 基于模板匹配的頭部檢測(cè)

人體目標(biāo)作為一種非剛體目標(biāo)可能呈現(xiàn)出各種不同姿態(tài),很難用統(tǒng)一的模型對(duì)其進(jìn)行描述。經(jīng)過(guò)分析發(fā)現(xiàn),不管是行人的正面圖像還是側(cè)面圖像,其肩膀以上的頭部輪廓變動(dòng)性最小,呈現(xiàn)出一定的形狀,只須定義不同大小的模板,就能滿足匹配的需要。另一方面,行人的頭部不易被遮擋,在檢測(cè)過(guò)程中很容易被檢測(cè)出來(lái),因此模板匹配的方法更適用于行人頭部的檢測(cè)。針對(duì)頭部輪廓可以構(gòu)建如圖1所示的“Ω”形位圖模板。對(duì)于64×128像素的行人樣本,定義頭部輪廓模板的大小為32×28像素。

模板匹配可以通過(guò)距離變換將待檢測(cè)窗口轉(zhuǎn)換為DT圖像[15],其目的是將這種距離測(cè)度表示為模板變換參數(shù)的平滑函數(shù),一是方便快速搜索,二是提高匹配精度,三是通過(guò)對(duì)模板進(jìn)行簡(jiǎn)單縮放或者旋轉(zhuǎn)就能實(shí)現(xiàn)不同尺度、不同方向的匹配。因此在模板匹配之前,首先對(duì)待匹配圖像進(jìn)行邊緣檢測(cè),得到目標(biāo)邊緣的二值圖像,然后對(duì)邊緣圖像進(jìn)行距離轉(zhuǎn)換得到其DT圖像,匹配過(guò)程如圖2所示。

將頭部模板與DT圖像做卷積,利用頭部模板圖像F中的特征點(diǎn)f所在的坐標(biāo)相對(duì)應(yīng)到DT圖像中的距離值相加,再求其平均值,即Chamfer距離,其計(jì)算公式為

式中:DT(f)表示f對(duì)應(yīng)于DT圖像的歐幾里得距離,取平均值的目的是為了對(duì)模板的大小進(jìn)行歸一化。

圖像越相似求得的Chamfer距離就越小,因此在待匹配的圖像中不包含頭部的區(qū)域,其Chamfer距離通常會(huì)遠(yuǎn)大于有頭部的區(qū)域,模板匹配的原則是選取Chamfer距離最小的區(qū)域作為頭部最優(yōu)框的大小和位置。此外,當(dāng)邊緣圖像的Chamfer距離值為檢測(cè)區(qū)域R中最小值時(shí),須再做一次特征點(diǎn)數(shù)量上的判斷:

式(11)可統(tǒng)計(jì)邊緣圖像的特征點(diǎn)數(shù)量,Threshold為特征點(diǎn)數(shù)判斷閾值,主要目的是確保不會(huì)因?yàn)樘卣鼽c(diǎn)數(shù)稀少而降低平均距離。同時(shí)滿足上述兩個(gè)條件,才認(rèn)為圖像匹配成功。

1.3 部位特征組合的行人檢測(cè)

在現(xiàn)實(shí)道路場(chǎng)景中,分類器的性能往往會(huì)受到復(fù)雜背景邊緣梯度的影響,進(jìn)而造成誤判使得誤檢率增加,降低了算法精度。多特征融合的方法由于其檢測(cè)率較高、多場(chǎng)景適應(yīng)性較好,目前應(yīng)用最多。

行人檢測(cè)過(guò)程中,分別對(duì)腿部和頭部輸出檢測(cè)結(jié)果之后,只有當(dāng)頭部與腿部同時(shí)存在該區(qū)域中,才能認(rèn)為所識(shí)別的目標(biāo)是行人,這就要求對(duì)各部位都要有一個(gè)較為精確的判定。經(jīng)過(guò)模板匹配后得到的是一個(gè)形似頭部的區(qū)域,須對(duì)其進(jìn)行確認(rèn)。根據(jù)行人頭部與背景的差異性特征,可將頭部輪廓的形狀特征轉(zhuǎn)化為數(shù)值特征并與支持向量機(jī)結(jié)合,訓(xùn)練得到一個(gè)識(shí)別頭部的分類器。另外,通過(guò)部位相關(guān)性約束限制匹配區(qū)域也可以排除一部分虛警。最后將兩種特征的識(shí)別結(jié)果進(jìn)行融合,正確判斷出目標(biāo)為行人或非行人。

通過(guò)觀察,行人頭部輪廓是一種描述目標(biāo)全局的特征,它可以粗略感知行人是否存在,而HOG特征則偏重于對(duì)局部特征進(jìn)行詳細(xì)的描述。特征組合就是建立在局部特征的基礎(chǔ)上,并且通過(guò)是否具有頭部全局特征來(lái)影響局部特征的判斷,可通過(guò)調(diào)整分類器的分類閾值實(shí)現(xiàn)。

1.3.1 部位約束

雖然模板匹配方法在一定程度上能夠檢測(cè)出人體的頭部,但是即使?jié)M足匹配條件的區(qū)域也會(huì)因?yàn)槭艿綇?fù)雜背景的影響而出現(xiàn)誤判。為提高模板匹配的精度,通過(guò)人體部位之間的約束對(duì)匹配區(qū)域進(jìn)行了限定。假設(shè)對(duì)于一個(gè)正確檢出的行人目標(biāo)區(qū)域,行人通常位于圖像的正中央,而依據(jù)人體肢體的相對(duì)位置,頭部不可能在下半部分或者位于圖像的左、右邊緣。另外,由于對(duì)行人腿部的檢測(cè)在前,這也在一定程度上為后續(xù)的頭部檢測(cè)提供了必要的依據(jù),除了要避免多余背景的干擾,最主要的則是符合頭部在圖像中的實(shí)際位置。為此,建立如圖3所示的人體各部位約束區(qū)域,h、w分別為樣本高度和寬度,定義頭肩部位的高度為0.3h、軀干部位為0.48h、腿部為0.5h,將模板匹配范圍限定在腿部檢測(cè)框上方高為0.3h、寬為0.75w的矩形區(qū)域內(nèi)。在限定了匹配區(qū)域后,就可以應(yīng)用模板匹配方法對(duì)頭部進(jìn)行檢測(cè)。

1.3.2 頭部特征轉(zhuǎn)化

經(jīng)過(guò)模板匹配后,能獲得一個(gè)與行人頭部輪廓極為相似的區(qū)域,從而在形狀上找到兩者的區(qū)分。但卻很難通過(guò)單一的閾值去區(qū)分行人與非行人Chamfer距離間的差異,因此,可以考慮將行人頭部的這種形狀特征轉(zhuǎn)化為數(shù)值來(lái)描述。通過(guò)觀察,有頭部的區(qū)域輪廓往往類似于圓形,通過(guò)提取輪廓的類圓形特征,將形狀特征轉(zhuǎn)化為數(shù)值特征,進(jìn)而對(duì)頭部匹配的結(jié)果在數(shù)值上做出精確判斷。

針對(duì)行人頭部的圓形輪廓所提取的有效特征主要包括圓存在性[16]和邊界矩特征[17],并可將其組合共同描述行人頭部,從而將形狀特征轉(zhuǎn)化為數(shù)值特征。

1.3.3 特征融合

在通過(guò)上述圓形特征來(lái)判定模板匹配所產(chǎn)生的候選區(qū)域是否為頭部之后,最理想的情況是其判定結(jié)果與腿部一致,將目標(biāo)確認(rèn)為行人。然而實(shí)際上會(huì)出現(xiàn)兩個(gè)判定結(jié)果不一致的情況,因此,可以通過(guò)調(diào)整分類器的決策閾值,進(jìn)而產(chǎn)生或?qū)捤苫驀?yán)謹(jǐn)?shù)姆诸愋Ч麃?lái)對(duì)分類結(jié)果進(jìn)行融合。

圖4為閾值調(diào)整示意圖,當(dāng)閾值取值為0時(shí),特征點(diǎn)被判定為“-1”的非行人特征,在放寬閾值之后,則該特征點(diǎn)被判定為“+1”的行人特征,如圖4(a)所示;而增加閾值后,則將特征點(diǎn)劃分得比較嚴(yán)謹(jǐn),行人特征視為非行人特征,如圖4(b)所示。

頭部檢測(cè)的目的是排除腿部檢測(cè)產(chǎn)生的虛警,因此,閾值調(diào)整策略主要以頭部輪廓特征是否存在為主要依據(jù)。當(dāng)頭部分類器沒(méi)有檢測(cè)到頭部時(shí),應(yīng)當(dāng)采用較為嚴(yán)謹(jǐn)?shù)拈撝嫡{(diào)整策略,提高腿部分類器的決策值,進(jìn)而重新對(duì)檢測(cè)出的腿部區(qū)域進(jìn)行判定。但是此方法的前提是頭部區(qū)域判定十分精確。由于受邊緣提取算法的影響,信息的缺失也會(huì)使頭部產(chǎn)生誤判,為此需要對(duì)腿部分類器的決策值進(jìn)一步分析。腿部檢測(cè)器的決策值越高則其為行人的可能性越大,若腿部分類器的決策值大于所有弱分類器權(quán)值的一半,則不進(jìn)行調(diào)整,直接判斷腿部分類器分類正確,目標(biāo)為行人。若腿部分類器的決策值介于0與所有弱分類器權(quán)值的一半時(shí),說(shuō)明腿部特征的決策值在一個(gè)模棱兩可的區(qū)域內(nèi),因此就要調(diào)高分類平面。經(jīng)過(guò)調(diào)整之后,再對(duì)檢測(cè)出的腿部區(qū)域按照新的分類平面進(jìn)行重新判斷,若判斷結(jié)果為假,則確定目標(biāo)為非行人。若腿部判定結(jié)果仍然為真,此時(shí)則反過(guò)來(lái)對(duì)頭部分類平面進(jìn)行寬松的調(diào)整,重新對(duì)頭部做一次判定,如果頭部判定結(jié)果為真,則可以確定目標(biāo)為行人。最終,仍然存在一類情況,即腿部判定結(jié)果為真而頭部判定結(jié)果為假,由于特征組合是建立在局部特征存在的基礎(chǔ)上,此時(shí)判斷標(biāo)準(zhǔn)以腿部結(jié)果為主,因此,直接判定檢測(cè)結(jié)果為行人。

設(shè)腿部分類器閾值調(diào)整前后的決策值分別為V1和V'1,頭部分類器閾值調(diào)整前后的決策值分別為 V2和 V'2,初始的分類閾值 Threshold1=0,Threshold2=0,弱分類器的權(quán)值之和為α,根據(jù)經(jīng)驗(yàn)確定腿部閾值調(diào)整的區(qū)間為2,頭部閾值調(diào)整的區(qū)間為0.5。部位組合閾值調(diào)整的具體步驟如下。

2 試驗(yàn)與分析

2.1 數(shù)據(jù)集

為驗(yàn)證所提部位特征組合行人檢測(cè)算法的有效性,在Matlab9.0環(huán)境下進(jìn)行了性能對(duì)比分析,采用Intel Core(TM)2的CPU和2G內(nèi)存的計(jì)算機(jī)。所使用的試驗(yàn)數(shù)據(jù)集共有兩個(gè)。數(shù)據(jù)集1包含兩個(gè)行人樣本庫(kù),一是MIT行人數(shù)據(jù)庫(kù),二是課題組自行采集的樣本集合,多為城市交通環(huán)境下的圖像。由于MIT數(shù)據(jù)庫(kù)與自行采集的數(shù)據(jù)庫(kù)的行人樣本比較簡(jiǎn)單,將其合并為一個(gè),共得到2 324個(gè)行人樣本,2 300個(gè)非行人樣本。分別取出其中的1 500個(gè)用于訓(xùn)練,其余均為測(cè)試樣本。數(shù)據(jù)集2由INRIA行人庫(kù)組成,挑選出INRIA數(shù)據(jù)庫(kù)中腿部不存在嚴(yán)重遮擋的行人樣本,最終訓(xùn)練集挑選出1 970張,測(cè)試集共890張。對(duì)于所有樣本,截取下半部分圖像并歸一化為64×64像素大小。

2.2 腿部分類器測(cè)試結(jié)果

通過(guò)對(duì)兩個(gè)試驗(yàn)數(shù)據(jù)集進(jìn)行訓(xùn)練和測(cè)試,評(píng)價(jià)算法的標(biāo)準(zhǔn)采用檢測(cè)效果和檢測(cè)時(shí)間,檢測(cè)效果用ROC曲線來(lái)描述。

由于對(duì)Adaboost中的弱分類器進(jìn)行了改進(jìn),一是采用加權(quán)Fisher線性判別來(lái)代替線性SVM,從而降低HOG特征維數(shù),二是使用查表型弱分類器替代傳統(tǒng)閾值型弱分類器。因此,在試驗(yàn)研究中比較了基于以下3種弱分類器訓(xùn)練得到的腿部分類器在使用特征的數(shù)量上和檢測(cè)精度上的差別:線性SVM、加權(quán)Fisher線性判別的閾值型弱分類器和加權(quán)Fisher線性判別的查表型弱分類器。

圖5比較了由兩個(gè)訓(xùn)練集訓(xùn)練得到的強(qiáng)分類器性能,訓(xùn)練集1中線性SVM所使用的弱分類器達(dá)到了49個(gè),而加權(quán)Fisher線性判別所使用的弱分類器只有15個(gè),迭代次數(shù)大大減少。訓(xùn)練集2中由于循環(huán)條件的限制線性SVM檢測(cè)率沒(méi)有達(dá)到100%,同樣加權(quán)Fisher線性判別所使用的弱分類器減少到了38個(gè)。加權(quán)Fisher線性判別不僅解決了每次迭代隨機(jī)選取部分HOG特征的問(wèn)題,還能提高其分類速度。從圖5中還可看出,基于查表型弱分類器的收斂速度相對(duì)較快,使用較少的特征就能達(dá)到目標(biāo)檢測(cè)率。

圖6 比較了不同類型弱分類器形成的強(qiáng)分類器在兩個(gè)測(cè)試集上的檢測(cè)性能,即ROC曲線。可以看出,使用查表型弱分類器后的Adaboost檢測(cè)器的精度與閾值型弱分類器相比,精度有所提高,能更進(jìn)一步優(yōu)化強(qiáng)分類器,提升檢測(cè)性能。而由于線性SVM特征數(shù)較多,故檢測(cè)率比其他兩種方法稍高。

表1列出了3種不同分類器在不同數(shù)據(jù)集上的時(shí)間消耗和分類性能。由表可見(jiàn),加權(quán)Fisher與查表型弱分類器的分類性能分別達(dá)到了98.64%和93.32%,要優(yōu)于線性SVM與加權(quán)Fisher的閾值型分類器。在時(shí)間消耗方面,與線性SVM相比,使用加權(quán)Fisher判別的兩種弱分類器對(duì)數(shù)據(jù)集1的訓(xùn)練時(shí)間分別減少了86.37%和86.43%,驗(yàn)證了其在運(yùn)算速度上的巨大優(yōu)勢(shì)。單獨(dú)分析查表型弱分類器,其檢測(cè)時(shí)間比簡(jiǎn)單閾值型弱分類器稍長(zhǎng),主要是由于查表的方法在實(shí)際應(yīng)用過(guò)程中,不僅須記錄查表的每個(gè)區(qū)間系數(shù),還須記錄特征的最大值和最小值。這些都會(huì)占用存儲(chǔ)空間,并增加一些運(yùn)算量。

表1 不同弱分類器時(shí)間和性能比較

2.3 部位特征組合檢測(cè)試驗(yàn)結(jié)果

為驗(yàn)證部位組合檢測(cè)方法的有效性,對(duì)樣本集中的圖像進(jìn)行了處理,采用混淆矩陣來(lái)評(píng)價(jià)算法的檢測(cè)結(jié)果,主要比較了本文中所提出的部位組合算法、傳統(tǒng) HOG算法[2]和用積分圖像計(jì)算特征的HOG簡(jiǎn)化算法。在樣本集的檢測(cè)性能,由于采用了積分圖像提取梯度方向的直方圖特征,省略了復(fù)雜的三維線性插值步驟,大大縮短了特征提取的時(shí)間。圖7和圖8分別給出這3種不同方法在兩個(gè)測(cè)試集的檢測(cè)結(jié)果。

從圖7看出,傳統(tǒng)HOG算法在734個(gè)樣本中有4個(gè)行人誤認(rèn)為非行人,檢測(cè)率達(dá)到了99.4%,檢測(cè)結(jié)果近乎完美;特征組合算法有24個(gè)行人誤認(rèn)為非行人,檢測(cè)率也達(dá)到了96.7%,與傳統(tǒng)HOG算法相比略有下降;而HOG簡(jiǎn)化算法檢測(cè)率只有76.1%,可見(jiàn)省略三維線性插值步驟降低了算法的精度,通過(guò)對(duì)特征和分類器進(jìn)行一系列改進(jìn)后檢測(cè)精度得到明顯提高。

從圖8看出,特征組合算法的檢測(cè)率比HOG簡(jiǎn)化算法還低,這是因?yàn)闇y(cè)試集2中的行人頭部所處的環(huán)境比較復(fù)雜,存在很多遮擋情況,在一定程度上影響了系統(tǒng)的性能。另一方面,采用特征組合算法的檢測(cè)率主要取決于各部位檢測(cè)率的乘積,因此會(huì)低于整體的檢測(cè)率。單獨(dú)分析誤檢率可以看到,特征組合算法比HOG簡(jiǎn)化算法要好,進(jìn)一步驗(yàn)證了采用特征組合算法能夠有效排除虛警的優(yōu)越性。

圖9示出特征組合算法對(duì)不同道路環(huán)境圖像的檢測(cè)結(jié)果。上面兩張圖為對(duì)INRIA數(shù)據(jù)庫(kù)中圖像的測(cè)試結(jié)果,下面兩張圖為室外拍攝的道路圖像測(cè)試結(jié)果。從檢測(cè)結(jié)果可以看出,特征組合算法對(duì)不同道路場(chǎng)景下的行人都能取得較好的檢測(cè)效果,對(duì)于在單人和多人的情況同樣適用。但是,試驗(yàn)中也發(fā)現(xiàn)一些問(wèn)題,道路兩側(cè)的背景復(fù)雜使得算法出現(xiàn)誤判,將道路兩側(cè)的樹(shù)木誤認(rèn)為是行人目標(biāo),復(fù)雜背景對(duì)邊緣提取算法產(chǎn)生影響,使行人頭部定位不準(zhǔn)確。

3 結(jié)論

針對(duì)人體的不同部位使用不同的特征進(jìn)行檢測(cè),再通過(guò)一定的方法將檢測(cè)結(jié)果融合,實(shí)現(xiàn)基于人體典型部位特征組合的行人檢測(cè)。部位特征組合是建立在人體部位約束、頭部確認(rèn)與分類閾值調(diào)整三者結(jié)合的基礎(chǔ)上,三者之間存在著逐級(jí)遞進(jìn)關(guān)系。部位約束不但減少了模板匹配的范圍,提高了實(shí)時(shí)性,而且提高了匹配精度。通過(guò)頭部新特征的提取將頭部形狀特征轉(zhuǎn)化為數(shù)值特征,并結(jié)合支持向量機(jī)對(duì)頭部進(jìn)行最終確認(rèn),從而有效排除虛警。根據(jù)不同人體部位融合的特點(diǎn),通過(guò)簡(jiǎn)單的閾值調(diào)整便可實(shí)現(xiàn),降低算法的復(fù)雜性。試驗(yàn)表明,部位特征組合的方法能夠有效地檢測(cè)出現(xiàn)實(shí)場(chǎng)景中的行人,并能排除一定的虛警目標(biāo)。

試驗(yàn)中也發(fā)現(xiàn)頭部定位不精確和復(fù)雜背景造成的行人誤識(shí)別等問(wèn)題。頭部識(shí)別的關(guān)鍵在于獲取區(qū)分度較高的特征,為提高頭部檢測(cè)的準(zhǔn)確率,須進(jìn)一步研究更加可靠、穩(wěn)定的頭部目標(biāo)特征。此外,還可以將級(jí)聯(lián)分類機(jī)制引入到分類器中以提高系統(tǒng)的實(shí)時(shí)性。

[1] Zegeer CV,Bushell M.Pedestrian Crash Trends and Potential Countermeasures from Around the World[J].Accident Analysis and Prevention,2012,44(1):3 -11.

[2] Dalal N,Triggs B.Histograms of Oriented Gradients for Human Detection[C].IEEE Conf.on Computer Vision and Pattern Recognition,San Diego,CA,USA:IEEE,2005,1:886 -893.

[3] Wu B,Nevatia R.Detection and Tracking of Multiple,Partially Occluded Humans by Bayesian Combination of Edgelet Based Part Detectors[J].Int.Journal of Computer Vision,2007,75(2):247-266.

[4] Sabzmeydani P,Mori G.Detecting Pedestrians by Learning Shapelet Features[C].IEEE Conf.on Computer Vision and Pattern Recognition,Minneapolis,Minnesota,USA:IEEE,2007.

[5] Zhang L,Wu B,Nevatia R.Pedestrian Detection in Infrared Images Based on Local Shape Features[C].IEEE Conf.Computer Vision and Pattern Recognition,Minneapolis,Minnesota,USA:IEEE,2007.

[6] 胡斌,王生進(jìn),丁曉青.基于部位檢測(cè)和子結(jié)構(gòu)組合的行人檢測(cè)方法[J].計(jì)算機(jī)科學(xué),2009,36(11):242 -246.

[7] 曾春,李曉華,周激流.基于感興趣區(qū)梯度方向直方圖的行人檢測(cè)[J].計(jì)算機(jī)工程,2009,35(24):182 -184.

[8] 周晨卉,王生進(jìn),丁曉青.基于局部特征級(jí)聯(lián)分類器和模板匹配的行人檢測(cè)[J].中國(guó)圖象圖形學(xué)報(bào),2010,15(5):824 -829.

[9] Dollár P,Wojek C,Schiele B,et al.Pedestrian Detection:An E-valuation of the State of the Art[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34(4):743 -761.

[10] Enzweiler M,Gavrila D M.Monocular Pedestrian Detection:Survey and Experiments[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2009,31(12):2179 -2195.

[11] Paisitkriangkcrai S,Shen C H,Zhang J.Fast Pedestrian Detection Using a Cascade of Boosted Covariance Features[J].IEEE Transactions on Circuits and Systems for Video Technology,2008,18(8):1140-1151.

[12] Laptev I.Improvements of Object Detection Using Boosted Histograms[J].Journal of Image and Vision Computing,2009,27:535-544.

[13] Freund Y,Schapire E R.A Decision-Theoretic Generalization of on Line Learning and an Application to Boosting[C].Proceedings of the Second European Conference on Computational Learning Theory,Barcelona,Spain:Springer,1995:23 -37.

[14] Wu B,Ai H Z,Huang C.LUT-based Adaboost for Gender Classification[C].International Conference on Audio and Video-Based Biometric Person Authentication,Guildford,UK:Springer,2003:104 -110.

[15] Gavrila D M.A Bayesian,Exemplar-based Approach to Hierarchical Shape Matching[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2007,29(8):1408 -1421.

[16] 趙敏.單目視覺(jué)多行人目標(biāo)檢測(cè)與跟蹤技術(shù)研究[D].重慶:重慶大學(xué),2010.

[17] Chen C C.Improved Moment Invariant for Shape Discrimination[J].Pattern Recognition,1993,26(5):683 -686.

猜你喜歡
特征檢測(cè)
抓住特征巧觀察
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
“幾何圖形”檢測(cè)題
“角”檢測(cè)題
新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
主站蜘蛛池模板: 欧美爱爱网| 欧美成人一区午夜福利在线| 亚洲国产在一区二区三区| 免费国产高清精品一区在线| 亚洲欧美日韩动漫| 熟女视频91| 亚洲人视频在线观看| 欧美 国产 人人视频| 国产在线自揄拍揄视频网站| 国产91无毒不卡在线观看| 91在线国内在线播放老师| 在线视频精品一区| 亚洲天堂视频网| 91网在线| 激情亚洲天堂| 亚洲av综合网| 美女被操91视频| 女人av社区男人的天堂| 一级毛片免费观看不卡视频| 亚洲中文精品人人永久免费| 亚洲国产精品无码AV| 亚洲黄色激情网站| 欧美国产视频| 自偷自拍三级全三级视频 | 国产h视频在线观看视频| 亚洲欧洲综合| 亚洲三级成人| 青青青国产在线播放| 国产在线第二页| 久久永久视频| 香蕉久久永久视频| 国产成人精品免费视频大全五级| 久久综合AV免费观看| 国产99视频精品免费观看9e| 第一区免费在线观看| 97人妻精品专区久久久久| 国产精品视频观看裸模| 午夜视频在线观看免费网站| 日韩无码真实干出血视频| 免费又黄又爽又猛大片午夜| 亚欧成人无码AV在线播放| 大香伊人久久| 亚洲精品成人片在线播放| 一级黄色网站在线免费看| 99热亚洲精品6码| 国产免费一级精品视频| 精品国产成人av免费| 欧美高清国产| 在线中文字幕网| 国内精品免费| 欧美午夜精品| 日本高清有码人妻| 日韩毛片免费| 国产精品一区在线麻豆| 伊大人香蕉久久网欧美| 免费精品一区二区h| 一级片一区| 欧美亚洲国产精品第一页| 啪啪啪亚洲无码| 女同国产精品一区二区| 欧美中文字幕在线视频 | 精品国产免费观看一区| 国产本道久久一区二区三区| 亚洲精品在线观看91| jizz国产视频| 亚洲成A人V欧美综合| 精品人妻无码中字系列| 欧美中文字幕一区| 中文毛片无遮挡播放免费| 免费激情网址| 色九九视频| 精品少妇人妻av无码久久| 成人欧美在线观看| 无码有码中文字幕| 色九九视频| 久久久久人妻精品一区三寸蜜桃| 欧洲高清无码在线| 日韩天堂网| 久久国产精品嫖妓| 欧美激情二区三区| 国产色爱av资源综合区| 欧美成一级|