999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度神經(jīng)網(wǎng)絡(luò)的行人頭部檢測(cè)

2018-08-23 02:58:04劉正熙熊運(yùn)余
關(guān)鍵詞:特征檢測(cè)模型

陶 祝,劉正熙,熊運(yùn)余,李 征

(四川大學(xué)計(jì)算機(jī)學(xué)院,四川 成都 610000)

1 引言

行人檢測(cè)已經(jīng)成為計(jì)算機(jī)視覺(jué)領(lǐng)域最主要的研究方向,也是目前深度學(xué)習(xí)必不可少的研究項(xiàng)目。行人檢測(cè)的準(zhǔn)確性對(duì)安防、智能視頻監(jiān)控系統(tǒng)的發(fā)展有極其重要的意義。雖然當(dāng)前的檢測(cè)精確率以及速率都已經(jīng)取得較好的成果,但行人檢測(cè)依舊面臨著許多挑戰(zhàn),如大場(chǎng)景下有多人出現(xiàn)時(shí),兩人及兩人以上互相遮擋的情況較為尋常,要將行人一一準(zhǔn)確地檢測(cè)出來(lái),仍然比較困難。

為了解決這些難題,從根本方法出發(fā),依據(jù)行人的身體部件建模,如人的頭、頭肩等模型可以區(qū)分人和其他物體。起初研究行人檢測(cè)時(shí),采用基于背景的建模方法,如經(jīng)典高斯背景模型[1],其結(jié)果只能把前景和背景分離開(kāi),根據(jù)分離出的前景,人為地判斷運(yùn)動(dòng)目標(biāo)的類別,該方法易受背景變化的干擾,適合背景單一的目標(biāo)檢測(cè);而基于運(yùn)動(dòng)目標(biāo)建模的方法,首先提取目標(biāo)的特征,根據(jù)特征訓(xùn)練模型,同時(shí)實(shí)現(xiàn)目標(biāo)的分類與定位,提高了檢測(cè)的準(zhǔn)確率,并能檢測(cè)出除了人、車以外的更多物體類別,適合復(fù)雜場(chǎng)景多目標(biāo)檢測(cè)。

基于目標(biāo)建模的方法,首先提取、檢測(cè)或跟蹤目標(biāo)的明顯特征,經(jīng)典的描述特征如尺度不變特征變換SIFT(Scale-Invariant Feature Tranforma)、Haar-like、方向梯度直方圖HOG(Histogram of Oriented Gradient)等,均為目標(biāo)檢測(cè)中常用的特征。Dalal等[2]將HOG與線性支持向量機(jī)SVM(Support Vector Machine)結(jié)合,建立了較早的行人檢測(cè)經(jīng)典模型。Ren等[3]提出了稀疏編碼直方圖,從編碼特征的角度實(shí)現(xiàn)目標(biāo)檢測(cè)。Vondrick等[4]將圖像的HOG特征進(jìn)行可視化,發(fā)現(xiàn)了基于HOG特征的檢測(cè)方法中出現(xiàn)的錯(cuò)誤正樣本問(wèn)題。Felzenszwalb等[5,6]提出的部分形變模型DPM(Deformable Part Models)是基于部件的目標(biāo)檢測(cè)方法,分別提取人的頭部、四肢和軀干這幾個(gè)部分的特征,并以整個(gè)身體為中心,根據(jù)四肢與軀干的距離判斷目標(biāo)是否為行人,該方法的檢測(cè)精度達(dá)到了行人檢測(cè)的巔峰。曾接賢等[7]根據(jù)DPM模型,提出了針對(duì)交通場(chǎng)景的行人檢測(cè)。最近出現(xiàn)的區(qū)域選擇與卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合RCNN(Regions with Convolution Neural Network features)[8]檢測(cè)模型,首先選取大約2 000個(gè)區(qū)域,在這些可能區(qū)域中,用卷積神經(jīng)網(wǎng)絡(luò)提取目標(biāo)的特征,輸入圖像通過(guò)五個(gè)卷積層及對(duì)應(yīng)的池化層后,得到一個(gè)多維的特征向量;接著用全連接層將這些特征結(jié)合,最后通過(guò)Softmax層分類輸出;其中卷積層采用的是AlexNet[9]網(wǎng)絡(luò)框架的卷積層,其底層實(shí)現(xiàn)環(huán)境為Caffe[10]框架。卷積神經(jīng)網(wǎng)絡(luò)掀起一股深度學(xué)習(xí)熱潮,DPM的研究者也嘗試對(duì)其進(jìn)行改進(jìn),將提取HOG特征這一步轉(zhuǎn)換為用深度金字塔層DeepPyramid[11]網(wǎng)絡(luò)層實(shí)現(xiàn),其精度和速率甚至超越了目前的RCNN。He等[12]提出了空間金字塔池化層網(wǎng)絡(luò)SPP-net(Spatial Pyramid Pooling net),對(duì)RCNN進(jìn)行改進(jìn)。上述基于RCNN模型的檢測(cè)方法,采用選擇函數(shù)選取大量候選區(qū)域,操作用時(shí)較多,He等進(jìn)行進(jìn)一步改進(jìn),提出Fast-RCNN(Fast-Regions with Convolution Neural Network)、Faster-RCNN[13,14],利用卷積神經(jīng)網(wǎng)絡(luò)選取候選區(qū)域,將區(qū)域選擇與特征提取結(jié)合為一體,極大地提高了檢測(cè)速率,實(shí)現(xiàn)了實(shí)時(shí)檢測(cè);Liu等[15]提出的單發(fā)多重檢測(cè)器SSD(Single Shot Multibox Detector),不再采用“二段式”中先選取區(qū)域、再提取特征的方法,而是直接從圖像中篩選檢測(cè)框,使得目標(biāo)檢測(cè)性能比Faster-RCNN網(wǎng)絡(luò)更高。

以上行人檢測(cè)算法和框架,針對(duì)行人整體的檢測(cè)效果已難以超越,但在大場(chǎng)景下,人數(shù)多于兩人之后出現(xiàn)的遮擋,以及背景較為豐富時(shí)出現(xiàn)的誤檢等問(wèn)題尚未解決。針對(duì)當(dāng)前目標(biāo)檢測(cè)所面臨的難題,本文所做的主要工作有:

(1)從INRIA、PASCAL-VOC、MICROSOFT COCO等公開(kāi)數(shù)據(jù)集,以及從真實(shí)監(jiān)控視頻中抓取行人的頭和頭頸部,包括正面、側(cè)面以及背面作為訓(xùn)練正樣本,訓(xùn)練出H-Neck(Head-Neck)模型,同時(shí)搜集不包含行人的負(fù)樣本作為后期的測(cè)試集樣本。

(2)采用Faster-RCNN網(wǎng)絡(luò)原型實(shí)現(xiàn)檢測(cè)。先通過(guò)五層卷積層對(duì)目標(biāo)實(shí)現(xiàn)多層豐富特征的提取,對(duì)最后一個(gè)卷積層提取的特征圖Feature Map,采用空間金字塔池化層池化,得到固定大小的特征向量,輸入全連接層,從時(shí)間上改善了網(wǎng)絡(luò)的性能。

(3)分析實(shí)驗(yàn)結(jié)果:訓(xùn)練得到的模型既可以檢測(cè)行人的頭部,解決部分遮擋,同時(shí)能夠通過(guò)行人頭部的朝向,來(lái)判斷行人的大致流動(dòng)方向;該信息不僅有利于景區(qū)人流量統(tǒng)計(jì),同時(shí)也能夠解決行人間遮擋嚴(yán)重時(shí)所出現(xiàn)的粘連問(wèn)題。

(4)將本文實(shí)驗(yàn)所得結(jié)果與目前行人檢測(cè)準(zhǔn)確率最高的DPM模型檢測(cè)結(jié)果進(jìn)行比較。

2 方法

2.1 卷積神經(jīng)網(wǎng)絡(luò)提取目標(biāo)特征

卷積神經(jīng)網(wǎng)絡(luò)CNN(Convolution Neural Network)是一種前饋神經(jīng)網(wǎng)絡(luò),是當(dāng)前計(jì)算機(jī)視覺(jué)包括圖像識(shí)別、圖形圖像處理等領(lǐng)域最有效的提取特征并實(shí)現(xiàn)分類的網(wǎng)絡(luò)結(jié)構(gòu)。Faster-RCNN是一種深度神經(jīng)網(wǎng)絡(luò),也是當(dāng)前精度較高的目標(biāo)檢測(cè)方法。該網(wǎng)絡(luò)將區(qū)域建議網(wǎng)絡(luò)RPN(Region Proposal Network)和Fast-RCNN融為一體,利用RPN為Fast-RCNN的檢測(cè)提供位置信息,不再使用選擇函數(shù)Selective Search[8]篩選區(qū)域,且RPN與Fast-RCNN共享五個(gè)卷積層的輸出結(jié)果,使得檢測(cè)的速率無(wú)限接近實(shí)時(shí)。本文在Faster-RCNN的基礎(chǔ)上,加入空間金字塔池化層,對(duì)所有卷積層輸出的特征向量進(jìn)行池化,采用的是多種尺度的池化窗口,每一個(gè)窗口都要對(duì)每一個(gè)目標(biāo)區(qū)域進(jìn)行計(jì)算,最后的結(jié)果為所有窗口的特征向量之和。

CNN中的隱藏網(wǎng)絡(luò)層數(shù),以及每層需要的神經(jīng)元數(shù)這兩個(gè)重要參數(shù),是根據(jù)多次預(yù)測(cè)加上實(shí)驗(yàn)驗(yàn)證后得到的,針對(duì)大型的、多類別的圖像數(shù)據(jù)集中的目標(biāo)進(jìn)行檢測(cè)時(shí),網(wǎng)絡(luò)層的參數(shù)越多,網(wǎng)絡(luò)性能越好。Faster-RCNN包含了兩種網(wǎng)絡(luò)結(jié)構(gòu):VGG16網(wǎng)絡(luò)[16]和ZF網(wǎng)絡(luò)[17]。VGG16網(wǎng)絡(luò)的層數(shù)遠(yuǎn)多于ZF網(wǎng)絡(luò)的,其主要區(qū)別為卷積層數(shù)的劃分,圖1和圖2分別為VGG16網(wǎng)絡(luò)和ZF網(wǎng)絡(luò)的卷積層結(jié)構(gòu)。由于本文檢測(cè)涉及到的樣本集不大,且實(shí)驗(yàn)結(jié)果表明,本文數(shù)據(jù)集使用小型的ZF網(wǎng)絡(luò)和使用大型VGG16網(wǎng)絡(luò)訓(xùn)練的模型并無(wú)差異,而VGG16網(wǎng)絡(luò)的訓(xùn)練過(guò)程更加耗時(shí),所以本文采用ZF網(wǎng)絡(luò)原型訓(xùn)練模型,只使用五個(gè)卷積層提取目標(biāo)特征。

在ZF網(wǎng)絡(luò)的前5個(gè)卷積層中,第一層包含96個(gè)大小為7*7*m的卷積核(m為輸入圖像的通道數(shù));第二層包含256個(gè)大小5*5*n的卷積核(n表示當(dāng)前卷積層的輸入通道數(shù));第三層包含384個(gè)3*3*n的卷積核;第四層包含384個(gè)3*3*n的卷積核;第五層包含256個(gè)3*3*n的卷積核。后面三層的每一層之后都加入激活函數(shù)層處理輸出結(jié)果;該卷積層結(jié)構(gòu)與AlexNet[18]相似,但每一層的卷積核數(shù)量不同。

合適的激活函數(shù)有利于加快算法的收斂速度,最常用的也是本文網(wǎng)絡(luò)中運(yùn)用的激活函數(shù)為:ReLu(Rectified Linear unit)函數(shù),如公式(1)所示。

φ(x)=max(0,x)

(1)

激活函數(shù)主要作用于卷積層的輸出值,將線性分類器轉(zhuǎn)換為可以對(duì)更復(fù)雜目標(biāo)分類的非線性函數(shù)。

Figure 1 Convolutional layers of VGG16圖1 VGG16網(wǎng)絡(luò)的卷積層

Figure 2 Convolutional layers of ZF圖2 ZF網(wǎng)絡(luò)的卷積層

2.2 實(shí)驗(yàn)?zāi)P徒榻B

2.2.1 DPM

DPM是當(dāng)前針對(duì)行人檢測(cè)精度最高的模型,該方法改進(jìn)了對(duì)行人整體提取HOG特征的思想,將人體拆分成軀干、頭部和手臂四個(gè)部分,提取每一個(gè)部分的HOG特征,以軀干為中心,稱其為ROOT,其余部位稱為Parts,并計(jì)算ROOT到各個(gè)Parts之間的距離分?jǐn)?shù),經(jīng)實(shí)驗(yàn)得出分?jǐn)?shù)閾值,若手臂和頭到軀干的距離分?jǐn)?shù)在閾值之內(nèi),則判斷目標(biāo)為行人。利用DPM模型實(shí)現(xiàn)行人檢測(cè)時(shí)提取的特征可視化如圖3所示。

Figure 3 Feature visualization based on the DPM model圖3 DPM行人檢測(cè)模型的特征可視化結(jié)果

2.2.2 行人頭頸(H-Neck)模型

行人檢測(cè)主要面臨的兩大難題分別是檢測(cè)用時(shí)問(wèn)題以及由于遮擋出現(xiàn)的誤檢、漏檢問(wèn)題。隨著深度學(xué)習(xí)一系列目標(biāo)檢測(cè)方法的崛起,如SSD、Faster-RCNN等,檢測(cè)的實(shí)時(shí)性已不再是難題。對(duì)于遮擋問(wèn)題,主要出現(xiàn)在常見(jiàn)的行人檢測(cè)中,大場(chǎng)景下多個(gè)人相互遮擋,姿態(tài)各異,無(wú)論是DPM還是當(dāng)前深度學(xué)習(xí)的方法,都不能將被遮擋的行人檢測(cè)出來(lái)。視頻監(jiān)控中出現(xiàn)較多的遮擋情況是行人的某些身體部位被擋住,如分別走在前后的行人,只能看見(jiàn)其中一個(gè)人的整個(gè)身體,而另一人下半身幾乎全被遮擋;或者是多人坐在一起時(shí),某些人大部分身體被遮住,只能看見(jiàn)頭部;其他情況如被其他物體遮擋等,都是大場(chǎng)景下常見(jiàn)的遮擋類型。若行人頭部已被遮擋完全,則只能結(jié)合檢測(cè)和跟蹤來(lái)識(shí)別。本文提到的模型主要解決行人的頭頸部位被遮擋的情況,模型可視化如圖4所示。

Figure 4 Visualization of the H-Neck model 圖4 行人頭頸模型的可視化結(jié)果

2.2.3 不同方向行人頭部(DD-Head)模型

大場(chǎng)景下視頻背景較為復(fù)雜,目標(biāo)數(shù)量眾多,行人姿態(tài)各異,目標(biāo)精確跟蹤始終是計(jì)算機(jī)視覺(jué)領(lǐng)域的一個(gè)巨大挑戰(zhàn)。例如在旺季的景區(qū),只能用普通“人頭計(jì)數(shù)”方法統(tǒng)計(jì)行人數(shù)量,跟蹤起來(lái)十分困難。本文通過(guò)對(duì)正面、側(cè)面、背面的行人頭部建模,得到不同方向頭部DD-Head(Different Direction-Head)模型,運(yùn)用該模型,行人運(yùn)動(dòng)的方向得到較為準(zhǔn)確的判斷,對(duì)于后續(xù)的跟蹤研究而言,明確前進(jìn)方向后,運(yùn)用該模型也可以減少行人靠近時(shí)出現(xiàn)的跟蹤錯(cuò)誤。行人正面、背面、側(cè)面的頭部示例如圖5所示。

Figure 5 Examples of people’s head in different directions圖5 不同方向的行人頭部示例

3 訓(xùn)練

本文的訓(xùn)練樣本主要來(lái)源于INRIA行人數(shù)據(jù)庫(kù)、PASCAL-VOC數(shù)據(jù)庫(kù)以及從攝像頭錄取下來(lái)的真實(shí)視頻中截取的圖片樣本。樣本需符合大場(chǎng)景兩人及兩人以上同時(shí)出現(xiàn)的情況。分別截取行人正面、側(cè)面、背面的頭頸(H-Neck)部位作為訓(xùn)練正樣本,同時(shí)也將整個(gè)行人作為正樣本之一;從三個(gè)數(shù)據(jù)庫(kù)中篩選5 000張圖片,樣本像素大小分布在100~1 900pix不等。根據(jù)訓(xùn)練需求,將樣本中的目標(biāo)信息轉(zhuǎn)換為文檔保存。為了避免過(guò)擬合現(xiàn)象,在五個(gè)卷積層以及池化層之后的第一和第二個(gè)全連接層后使用Dropout方法。神經(jīng)元由卷積之后得到的特征集(Feature Map)組成,卷積神經(jīng)網(wǎng)絡(luò)每一層都會(huì)產(chǎn)生大量神經(jīng)元(Neurons),特征集輸入到全連接層后的計(jì)算公式為公式(2)和公式(3):

(2)

(3)

(4)

(5)

經(jīng)過(guò)五個(gè)卷積層之后,本文采用SPP(Spatial Pyramid Pooling)處理卷積的最后結(jié)果,SPP結(jié)構(gòu)如圖6所示。根據(jù)圖片大小選取多個(gè)尺度、不同大小的池化窗口,分別對(duì)卷積之后產(chǎn)生的Feature Map池化,每個(gè)窗口都要對(duì)圖像中所有目標(biāo)進(jìn)行池化,因此得到的是相同維數(shù)的向量,將所有窗口的結(jié)果相加,由此得到一個(gè)固定大小和維數(shù)的向量,接著輸入到fc6,即第六個(gè)網(wǎng)絡(luò)層,也是第一個(gè)全連接層,全連接層的作用為將卷積層所提取的特征映射到樣本標(biāo)記空間,將不同特征與類別相對(duì)應(yīng)。若按圖6中的方式劃分池化窗口,池化后輸出的結(jié)果為(1*1+2*2+…+n*n)*256維的向量。在Faster-RCNN網(wǎng)絡(luò)結(jié)構(gòu)中,F(xiàn)ast-RCNN與RPN交替對(duì)目標(biāo)進(jìn)行訓(xùn)練,共分為兩個(gè)階段,每個(gè)階段Fast-RCNN迭代30 000次,RPN迭代60 000次;整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)如圖7所示。訓(xùn)練過(guò)程運(yùn)行環(huán)境為Ubuntu14.04,Matlab 2014a,GPU版本為GTX1080。

Figure 6 Spatial pyramid pooling layer圖6 空間金字塔池化層結(jié)構(gòu)

Figure 7 Net structure of ZF圖7 ZF的網(wǎng)絡(luò)結(jié)構(gòu)

4 實(shí)驗(yàn)及結(jié)果

根據(jù)輸入的測(cè)試圖片,可以捕獲卷積神經(jīng)網(wǎng)絡(luò)提取特征的中間過(guò)程,以下為測(cè)試階段,輸入一張測(cè)試集樣本中的圖片,經(jīng)過(guò)多個(gè)卷積層提取特征后,并輸入到全連接層,在網(wǎng)絡(luò)最后一層輸出針對(duì)該圖像的檢測(cè)結(jié)果。將第一個(gè)卷積層的卷積核分布進(jìn)行可視化,結(jié)果如圖8b所示。

Figure 8 Original image and the convolution kernel distribution of the first convolutional layer圖8 原始輸入圖片及網(wǎng)絡(luò)第一個(gè)卷積層的卷積核分布

其中圖8b包含了96個(gè)小圖像,代表96個(gè)不同的卷積核,在本文的網(wǎng)絡(luò)中每一個(gè)核大小為7*7*3;卷積核則是提取特征向量的基礎(chǔ)單元。

4.1 行人檢測(cè)實(shí)驗(yàn)結(jié)果對(duì)比

對(duì)比表1的測(cè)試結(jié)果,并結(jié)合實(shí)驗(yàn)過(guò)程可知:DPM對(duì)于大場(chǎng)景人數(shù)較少時(shí)的行人檢測(cè)準(zhǔn)確度達(dá)到80%以上,本文H-Neck模型的檢測(cè)準(zhǔn)確率達(dá)到85%以上,樣本中行人姿態(tài)復(fù)雜,不僅有直立行走,也有騎馬、坐姿、騎車等情況。DPM更適合于檢測(cè)直立行走的人,且對(duì)于行人大部分身體輪廓明顯時(shí)的檢測(cè)效果更好。若出現(xiàn)行人間的遮擋或是物體遮擋行人的情況,本文提出的頭頸模型(H-Neck)能更加準(zhǔn)確地檢測(cè)到人的頭部,由此檢測(cè)到行人。實(shí)驗(yàn)結(jié)果同時(shí)表明:在無(wú)人的情況下即樣本中可能包含其他物體,如動(dòng)物、植物等,DPM和H-Neck模型都只產(chǎn)生很少的誤檢,判斷是否存在人的準(zhǔn)確率能達(dá)到95%以上。

Table 1 Precision comparisonbetween DPM and H-Neck models

由圖9所示的實(shí)驗(yàn)對(duì)比結(jié)果可知,兩者對(duì)于場(chǎng)景中是否有人的判斷準(zhǔn)確率都達(dá)到95%以上。

Figure 9 P-R figure of DPM and H-Neck models圖9 DPM模型與H-Neck模型的P-R圖

為了驗(yàn)證H-Neck模型的穩(wěn)定性,將其與更多行人檢測(cè)算法作比較,對(duì)1 500張圖片組成的測(cè)試樣本集分別再用HOG+SVM、DPM進(jìn)行檢測(cè),其檢測(cè)結(jié)果和本文H-Neck模型的檢測(cè)結(jié)果準(zhǔn)確率如表2所示。

Table 2 Detection result comparison among different models

表2中,除了本文的H-Neck模型,其他幾個(gè)算法的模型都是針對(duì)行人整體的檢測(cè),在訓(xùn)練和測(cè)試時(shí)均使用完全相同的樣本集。由實(shí)驗(yàn)結(jié)果可以看出,HOG結(jié)合SVM的方法檢測(cè)效果不佳,檢測(cè)準(zhǔn)確率遠(yuǎn)小于其他方法。其原因一方面是由于HOG特征自身的特點(diǎn),易產(chǎn)生錯(cuò)誤的正樣本;另一方面則因?yàn)樵摲椒▽?duì)訓(xùn)練數(shù)據(jù)的需求量大,使用本文訓(xùn)練集數(shù)據(jù)不足以得到穩(wěn)定的檢測(cè)模型。

4.2 DD-head模型的檢測(cè)結(jié)果

對(duì)大致包含500個(gè)行人的樣本,用本文DD-Head模型實(shí)現(xiàn)行人朝向的檢測(cè),并根據(jù)檢測(cè)結(jié)果判斷人群流動(dòng)方向,檢測(cè)結(jié)果準(zhǔn)確率如表3所示。

Table 3 Detection precision of different head directions

由表3知,在人群密集情況下,DD-Head模型對(duì)行人正面朝向的檢測(cè)準(zhǔn)確率較高,而側(cè)面檢測(cè)準(zhǔn)確率較低,原因是行人側(cè)面和正面的差異很小,提取特征時(shí)容易混淆正面和側(cè)面,而相對(duì)于這兩者而言,背面的特征更加獨(dú)特,只有當(dāng)圖像比較模糊時(shí),才會(huì)出現(xiàn)漏檢的情況。

本文沒(méi)有使用Faster-RCNN網(wǎng)絡(luò)原有的池化層,只在五個(gè)卷積層之后使用一個(gè)空間金字塔池化層對(duì)特征向量進(jìn)行處理。將樣本投入新的網(wǎng)絡(luò)結(jié)構(gòu)中訓(xùn)練,在保證訓(xùn)練準(zhǔn)確率的同時(shí),也能保證網(wǎng)絡(luò)的訓(xùn)練速率。圖10為DPM與本文H-Neck模型的部分實(shí)例檢測(cè)結(jié)果對(duì)比。

Figure 10 Partial detection results of DPM and H-Neck models圖10 DPM與H-Neck模型的部分檢測(cè)結(jié)果

5 結(jié)束語(yǔ)

為了解決人群密集時(shí)出現(xiàn)的行人身體部分遮擋造成的誤檢問(wèn)題,本文提出了頭頸(H-Neck)模型,與原來(lái)的DPM模型檢測(cè)結(jié)果對(duì)比,可以在人與人相互遮擋至只剩下頭部時(shí),能準(zhǔn)確地檢測(cè)到行人頭部;同時(shí),本文針對(duì)行人頭部的各個(gè)方向建模(DD-Head),能夠較為準(zhǔn)確地判斷行人行進(jìn)方向,更好地實(shí)現(xiàn)景區(qū)人流量統(tǒng)計(jì);本文同時(shí)基于深度卷積神經(jīng)網(wǎng)絡(luò)Faster-RCNN框架,結(jié)合SPP-net方法的思想,用空間金字塔池化層替換原有池化層,改善了網(wǎng)絡(luò)的訓(xùn)練速率。雖然針對(duì)本文數(shù)據(jù)集進(jìn)行目標(biāo)檢測(cè)的準(zhǔn)確率較高,但當(dāng)行人中遮擋情況更為密集復(fù)雜,以及行人戴上帽子等情況下,本文的方法仍無(wú)法準(zhǔn)確檢測(cè)到目標(biāo),這都有待于后期對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)一步地研究和優(yōu)化。

猜你喜歡
特征檢測(cè)模型
一半模型
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 色色中文字幕| 亚洲精品在线91| 精品欧美一区二区三区在线| 日本人妻一区二区三区不卡影院 | 国产精品页| 女人18一级毛片免费观看| 亚洲成AV人手机在线观看网站| 久热re国产手机在线观看| 日韩欧美国产中文| 亚洲国产中文在线二区三区免| 欧美有码在线| 原味小视频在线www国产| 久久综合干| 亚洲欧美自拍一区| 亚洲综合极品香蕉久久网| 欧美无专区| 国产精品自在拍首页视频8| 毛片免费观看视频| 亚洲无线观看| 青青草一区二区免费精品| 一级一级一片免费| 成人综合网址| 九月婷婷亚洲综合在线| 国产成人综合欧美精品久久| 久久婷婷五月综合97色| 亚洲精品视频在线观看视频| 欧美A级V片在线观看| 亚洲欧美极品| 99精品热视频这里只有精品7| 青青青国产精品国产精品美女| 欧美精品啪啪一区二区三区| 无码日韩视频| 中文字幕亚洲另类天堂| 亚洲色图欧美在线| 亚洲男人在线天堂| 国产v欧美v日韩v综合精品| 中文字幕人妻无码系列第三区| jizz亚洲高清在线观看| 九色综合伊人久久富二代| 国产在线无码一区二区三区| 国产凹凸视频在线观看| 亚洲精品无码专区在线观看| 2022精品国偷自产免费观看| 日韩小视频在线观看| 特级aaaaaaaaa毛片免费视频| 毛片久久久| 老司机久久精品视频| 综合色婷婷| 国产真实自在自线免费精品| 国产成人无码播放| 国产精品免费入口视频| 高清色本在线www| 色欲不卡无码一区二区| 久久精品电影| 乱码国产乱码精品精在线播放| 亚洲无码高清一区二区| 操操操综合网| 国内精品九九久久久精品| 国产正在播放| 中文字幕2区| jizz在线免费播放| 人妻夜夜爽天天爽| 久久中文字幕2021精品| 乱人伦99久久| 国产导航在线| 国产成人精品免费视频大全五级| 嫩草国产在线| 91精品国产丝袜| 亚洲第一黄片大全| 五月天在线网站| 国产亚洲精品yxsp| 成人在线欧美| 成人在线第一页| 黄色网址免费在线| 亚洲人成色77777在线观看| 精品撒尿视频一区二区三区| 丁香亚洲综合五月天婷婷| 国产视频一区二区在线观看| 国产亚洲高清视频| 思思热精品在线8| 青青草a国产免费观看| 欧美性天天|