999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種迭代聚合的高分辨率網(wǎng)絡(luò)Anchor-free目標(biāo)檢測(cè)方法

2022-01-15 09:13:24王新李喆張宏立
關(guān)鍵詞:特征檢測(cè)方法

王新,李喆,張宏立

(1.新疆大學(xué)電氣工程學(xué)院,烏魯木齊 830047; 2.新疆大學(xué)網(wǎng)絡(luò)與信息技術(shù)中心,烏魯木齊 830046)

目標(biāo)檢測(cè)是圖像處理和計(jì)算機(jī)視覺研究中重要的研究方向,有廣闊的應(yīng)用領(lǐng)域,如自動(dòng)駕駛、視頻智能監(jiān)控及災(zāi)害檢測(cè)等。

傳統(tǒng)目標(biāo)檢測(cè)方法提取目標(biāo)的特征,如SIFT[1]、HOG等,采用滑動(dòng)窗口提取建議框,易受外界環(huán)境干擾,難以提取魯棒性強(qiáng)的特征,因此速度慢、魯棒性差。深度卷積神經(jīng)網(wǎng)絡(luò)算法的進(jìn)步,推進(jìn)了目標(biāo)檢測(cè)領(lǐng)域的研究。基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)方法可以歸納為2類,即兩階段目標(biāo)檢測(cè)方法和單階段目標(biāo)檢測(cè)方法[2]。兩階段目標(biāo)檢測(cè)方法先生成輸入圖像的建議框,然后對(duì)建議框進(jìn)行分類和位置回歸操作,最終得到檢測(cè)結(jié)果。R-CNN[3]將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于目標(biāo)檢測(cè),對(duì)圖像進(jìn)行Selective Search后得到約2 000個(gè)特征框,使用卷積神經(jīng)網(wǎng)絡(luò)對(duì)其進(jìn)行特征提取,最終通過SVM 分類器和回歸器對(duì)特征進(jìn)行處理,得到檢測(cè)結(jié)果。由于Selective Search的過程耗費(fèi)大量時(shí)間,輸出特征框有大量重復(fù),導(dǎo)致R-CNN模型速度慢、效率低。Fast R-CNN[4]通過共享卷積神經(jīng)網(wǎng)絡(luò)提取的特征,即對(duì)圖像只進(jìn)行一次卷積特征提取,降低了重復(fù)的計(jì)算過程,減少計(jì)算量的同時(shí)提高了檢測(cè)精度,但未能達(dá)到實(shí)時(shí)檢測(cè)的性能,訓(xùn)練方式仍十分繁瑣。Faster R-CNN[5]通過區(qū)域推薦網(wǎng)絡(luò)(Region Proposal Network,RPN)輔助生成可能存在目標(biāo)物體的建議框代替了Selective Search建議框提取方式,將建議框的特征送入檢測(cè)網(wǎng)絡(luò),檢測(cè)物體的類別和邊框。

兩階段目標(biāo)檢測(cè)方法雖然明顯地提高了檢測(cè)精度,但是因其訓(xùn)練方式繁瑣、速度慢,在實(shí)時(shí)性要求較高的場(chǎng)景下難以實(shí)際應(yīng)用。單階段目標(biāo)檢測(cè)方法取消了區(qū)域推薦的步驟,通過卷積神經(jīng)網(wǎng)絡(luò)直接得到目標(biāo)的類別和位置,一般情況下速度比兩階段的目標(biāo)檢測(cè)方法快。Yolo[6]、SSD[7]是經(jīng)典的基于錨點(diǎn)的單階段目標(biāo)檢測(cè)方法。Yolo將輸入圖像劃分為多個(gè)網(wǎng)格,通過在網(wǎng)格上放置錨點(diǎn)框進(jìn)行目標(biāo)檢測(cè),錨點(diǎn)框的大小和高寬比作為超參數(shù)通過聚類方式獲得。SSD通過提取不同分辨率的特征圖進(jìn)行檢測(cè),在特征圖上放置錨點(diǎn)框完成目標(biāo)檢測(cè)任務(wù)。

Anchor-free的目標(biāo)檢測(cè)方法是一類新型的單階段目標(biāo)檢測(cè)方法。Anchor-based的目標(biāo)檢測(cè)方法依賴錨點(diǎn)框進(jìn)行檢測(cè),但是錨點(diǎn)框的應(yīng)用帶來了許多弊端,如超參數(shù)過多、正負(fù)樣本不平衡。此外,Anchor-based的檢測(cè)方法為了消除重復(fù)的目標(biāo)框引入了非極大抑制方法(Non-Maximum Suppression,NMS),這增加了方法的復(fù)雜性、計(jì)算量,從而降低了方法的檢測(cè)速度。Anchor-free的目標(biāo)檢測(cè)方法不需要設(shè)定錨點(diǎn)框,直接通過學(xué)習(xí)輸入圖像的關(guān)鍵特征進(jìn)行檢測(cè)。CornerNet[8]改變了傳統(tǒng)的對(duì)物體邊框進(jìn)行預(yù)測(cè)的思路,將目標(biāo)檢測(cè)預(yù)測(cè)物體框的問題轉(zhuǎn)化成對(duì)物體左上角和右下角的預(yù)測(cè)進(jìn)而得到檢測(cè)結(jié)果,但檢測(cè)速度慢。FCOS[9]通過對(duì)特征圖像素級(jí)的回歸操作,回歸像素點(diǎn)到目標(biāo)框的left、top、right、bottom邊之間的距離得到輸入圖像的檢測(cè)結(jié)果,像素級(jí)的操作也帶來了檢測(cè)速度慢的問題。ExtremeNet[10]通過熱力圖檢測(cè)對(duì)應(yīng)物體的4個(gè)極值點(diǎn)和中心點(diǎn),并通過幾何關(guān)系對(duì)關(guān)鍵點(diǎn)進(jìn)行分組,進(jìn)而得到結(jié)果。CenterNet(Objects as Points)[10-11]將目標(biāo)看作物體的中心點(diǎn),并通過估計(jì)目標(biāo)中心點(diǎn)檢測(cè)物體,使用回歸方法直接得到物體的類別、寬高。訓(xùn)練和測(cè)試階段無需NMS、RPN等,CenterNet很好地平衡了檢測(cè)速度與精度,簡(jiǎn)潔有效。本文基于CenterNet提出了一種精度高、具有一定實(shí)時(shí)性的通用目標(biāo)檢測(cè)方法CenterNet-DHRNet。為了減少圖像空間位置信息的損失,設(shè)計(jì)了一種深度特征聚合的高分辨率表征的網(wǎng)絡(luò)結(jié)構(gòu);同時(shí),為了提高網(wǎng)絡(luò)對(duì)不同尺度物體的檢測(cè)效果引入空間金字塔池化,并用注意力機(jī)制提升檢測(cè)效果。

圖1 標(biāo)注示意圖Fig.1 Schematic diagram of annotation

1 Center Net目標(biāo)檢測(cè)方法

圖2 CenterNet總體結(jié)構(gòu)Fig.2 Architecture of CenterNet

2 Center Net-DHRNet目標(biāo)檢測(cè)方法

2.1 迭代聚合的高分辨率表征網(wǎng)絡(luò)設(shè)計(jì)

分類網(wǎng)絡(luò)會(huì)串聯(lián)卷積或者由卷積操作構(gòu)成的特征提取模塊,相鄰模塊之間會(huì)存在一個(gè)下采樣過程,輸出含有豐富語義信息的低分辨率特征圖進(jìn)行分類,如VGGNet[15]、ResNet等。這個(gè)過程對(duì)圖像識(shí)別任務(wù)來說效果顯著,但對(duì)檢測(cè)任務(wù)中輸出的低分辨率特征圖來說,盡管擁有豐富的高層語義特征,卻損失了大量的空間特征。ResNet18對(duì)輸入圖像進(jìn)行32倍的下采樣,輸入圖像中存在的2個(gè)相鄰物體經(jīng)過32倍的下采樣后會(huì)處在同一個(gè)特征點(diǎn)中,很難檢測(cè)區(qū)分出來。輸入圖像中的物體如果是32×32的小目標(biāo)或者更小,在經(jīng)過32倍的下采樣后會(huì)變成一個(gè)像素點(diǎn)甚至消失,難以提取特征進(jìn)行檢測(cè)。因此,本文提出了一種基于深度特征聚合的高分辨表征網(wǎng)絡(luò)CenterNet-DHRNet。引入的高分辨表征網(wǎng)絡(luò)(HRNet)[16]可以在整個(gè)網(wǎng)絡(luò)的特征提取過程中保持高分辨率的表征,并逐步增加并行的子網(wǎng)。并行子網(wǎng)的分辨率逐步由高到低,形成不同分辨率的特征圖。包含4個(gè)并行子網(wǎng)的網(wǎng)絡(luò)結(jié)構(gòu)示例如下所示:

式中:Nsr為第s階段的子網(wǎng),其分辨率是第一階段子網(wǎng)的1/2r-1。網(wǎng)絡(luò)提取到的高分辨率特征圖適合目標(biāo)定位和小尺度目標(biāo)的檢測(cè),低分辨率特征圖適合目標(biāo)分類和大尺度目標(biāo)的檢測(cè)。HRNet在不同分辨率的子網(wǎng)之間并行地連接,反復(fù)利用不同子網(wǎng)提取的特征圖進(jìn)行多尺度的特征融合,有效利用了不同分辨率的特征圖,對(duì)Heatmap的預(yù)測(cè)效果會(huì)更好。

本文為更好利用不同分辨率的并行子網(wǎng),改進(jìn)了HRNet最后的特征融合方式。HRNet將低分辨率特征圖上采樣到與高分辨率特征圖相同尺度后,再將4個(gè)特征圖進(jìn)行Concat操作,如圖3所示。

圖3 原始HRNet的特征融合方式Fig.3 Feature fusion method of original HRNet

原網(wǎng)絡(luò)雖然利用了不同分辨率的特征,但融合方式過于簡(jiǎn)單不能充分利用不同分辨率的特征。因此,使用迭代聚合的特征融合方式,如圖4所示。這種特征融合方式充分利用了各個(gè)尺度的語義信息,將低分辨率的特征通過迭代聚合的方式與高分辨率的特征進(jìn)行融合,可以最大化地利用骨干網(wǎng)絡(luò)提取的特征信息,從而對(duì)Heatmap有較好的預(yù)測(cè)結(jié)果,迭代聚合的公式為

圖4 迭代聚合的特征融合方式Fig.4 Feature fusion method of iterative aggregation

式中:G為聚合節(jié)點(diǎn);x1,x2,…,xn為聚合節(jié)點(diǎn)的輸入。此外迭代聚合的特征融合方式較原方法增加了網(wǎng)絡(luò)的深度,提高了對(duì)困難樣本的學(xué)習(xí)能力。由于聚合節(jié)點(diǎn)輸入特征圖的尺寸不同,為了融合不同尺寸的特征圖,需要統(tǒng)一不同特征圖的尺度。本文采取的方法是通過轉(zhuǎn)置卷積將低分辨特征圖上采樣到與高分辨率特征圖相同的尺寸。轉(zhuǎn)置卷積相比基于插值的上采樣方法,可以通過訓(xùn)練參數(shù)的方式達(dá)到更好的上采樣效果。

2.2 高效通道注意力機(jī)制

HRNet網(wǎng)絡(luò)可以充分提取圖像特征,網(wǎng)絡(luò)可以輸出4種不同尺度的特征圖,但其中有對(duì)最后檢測(cè)結(jié)果有效的特征,也有大量干擾最后檢測(cè)效果的特征。為了抑制無效特征,增強(qiáng)有效特征,讓網(wǎng)絡(luò)能自主區(qū)分不同特征圖通道之間的關(guān)聯(lián)性和有效性來提升檢測(cè)效果,本文引入了高效通道注意力機(jī)制ECA-Net[17]。ECA-Net與SENet[18]同屬于通道注意力機(jī)制,但ECA-Net引入的參數(shù)更少,不僅引入的額外計(jì)算很少幾乎可以忽略,而且效果更突出。首先,和SENet一樣進(jìn)行Squeeze操作,具體是通過全局平均池化獲取每個(gè)通道的全局特征,輸出的全局特征的維度為C×1×1,C為通道數(shù)目,通道的全局特征反映了通道特征圖之間的關(guān)聯(lián)性和有效性。不同于SENet使用2個(gè)全連接層(降維過程和升維過程)來學(xué)習(xí)通道之間的非線性關(guān)系,ECA-Net則是直接使用一維卷積獲取局部通道之間的關(guān)系,避免了對(duì)特征進(jìn)行降維。降維過程會(huì)造成關(guān)鍵信息的損失而且2個(gè)全連接層的使用也帶來了一定的參數(shù)量和計(jì)算量。因此,ECA-Net在增加極少計(jì)算量和參數(shù)量的情況下,效果仍然比SENet出色。接著,使用Sigmoid激活函數(shù)輸出反映通道重要性和關(guān)聯(lián)性的維度為C×1×1的新權(quán)值。最后,使用得到的新權(quán)值與輸入的特征圖進(jìn)行乘積運(yùn)算,完成對(duì)通道特征權(quán)值的重分配,抑制無效特征,增強(qiáng)有效特征。圖5為ECA-Net的示意圖。一般網(wǎng)絡(luò)在加入注意力機(jī)制時(shí)通常是串行地疊加使用,即在大部分卷積層后面加注意力機(jī)制。由于高分辨表征網(wǎng)絡(luò)具有多個(gè)并行子網(wǎng)的特殊性,本文僅在每個(gè)子網(wǎng)最后的輸出部分并行地添加ECA注意力機(jī)制,避免了串行疊加使用注意力機(jī)制造成過多的參數(shù)和計(jì)算開銷的問題,又保證了注意力機(jī)制的效果。

圖5 高效通道注意力機(jī)制Fig.5 Efficient channel attention network

2.3 多尺度感受野設(shè)計(jì)

在目標(biāo)檢測(cè)任務(wù)中有不同尺度、不同類別的物體,也有相同類別但尺度不同的物體。由于距離相機(jī)遠(yuǎn)近不同,即使是相同類別的物體也會(huì)有較大尺度上的差別,這就要求檢測(cè)方法能適應(yīng)檢測(cè)對(duì)象不同尺度的變化。受deeplabv3+[19]啟發(fā),本文設(shè)計(jì)空洞卷積空間金字塔池化并加入注意力機(jī)制(Essp)提高檢測(cè)器對(duì)多尺度物體的檢測(cè)效果。

空洞卷積[20]是對(duì)常規(guī)卷積操作的一種改進(jìn),常規(guī)卷積操作是圖像對(duì)應(yīng)位置像素的權(quán)重之和,如3×3大小的常規(guī)卷積的感受野為9。空洞卷積則是在每個(gè)卷積核的采樣點(diǎn)之間添加間隔。3×3大小的空洞卷積由于在采樣點(diǎn)之間添加了間隔,其感受野相比于常規(guī)卷積會(huì)得到提高并且計(jì)算量與常規(guī)卷積相同。空洞卷積感受野計(jì)算如下:

式中:K為空洞卷積的感受野;rate為空洞卷積率;k為卷積核大小。

空洞卷積增加了感受野,而特征金字塔池化則是將不同空洞率的空洞卷積輸出值即多種尺度感受野的特征圖通過Concat的方式結(jié)合起來。由于提取了多種尺度的感受野特征圖,特征金字塔可以提高對(duì)不同尺度物體的檢測(cè)效果。Concat之后使用ECA-Net注意力機(jī)制優(yōu)化輸出結(jié)果。圖6為Espp結(jié)構(gòu)圖。空洞卷積的空洞率設(shè)為1、2、3、6。

圖6 Espp結(jié)構(gòu)Fig.6 Structure of Espp

本文將Espp應(yīng)用于16倍下采樣特征圖中。32倍下采樣特征圖大小為16×16,常規(guī)卷積對(duì)其感受野已經(jīng)足夠大,不需要Espp提升感受野。為了不過度增加參數(shù)量和計(jì)算量,在4倍下采樣特征圖和16倍下采樣特征圖處不使用Espp。本文所提CenterNet-DHRNet方法結(jié)構(gòu)如圖7所示。

圖7 CenterNet-DHRNet方法結(jié)構(gòu)Fig.7 Structure of proposed CenterNet-DHRNet algorithm

3 實(shí)驗(yàn)結(jié)果和分析

3.1 網(wǎng)絡(luò)訓(xùn)練

為了驗(yàn)證本文提出的CenterNet-DHRNet方法的有效性,在PASCAL VOC 2007和PASCAL VOC 2012目標(biāo)檢測(cè)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)。

實(shí)驗(yàn)條件:操作系統(tǒng)為Ubuntu 18.04,深度學(xué)習(xí)開發(fā)環(huán)境為Pytorch0.4.1,CPU為i5-9600K,內(nèi)存大小為32 GB,GPU為NVIDIA GTX 1080Ti,顯存為11 GB,CUDA9.0,CuDNN7.0。

訓(xùn)練過程:使用Adam優(yōu)化器進(jìn)行優(yōu)化訓(xùn)練。訓(xùn)練時(shí)利用圖像翻轉(zhuǎn)、平移、縮放等方法進(jìn)行圖像增強(qiáng),輸入網(wǎng)絡(luò)的圖像分辨率統(tǒng)一縮放為512×512。在訓(xùn)練過程中使用逐步下降的學(xué)習(xí)率,初始學(xué)習(xí)率為1.25×10-4,在55Epoch和80Epoch下降為之前的1/10,訓(xùn)練110Epoch,Batch size設(shè)為8。CenterNet-DHRNet方法使用遷移學(xué)習(xí)的方式進(jìn)行訓(xùn)練,將HRNet作為基礎(chǔ)的特征提取網(wǎng)絡(luò),先使用HRNet在Imagenet上的預(yù)訓(xùn)練權(quán)重初始化網(wǎng)絡(luò)的參數(shù),再對(duì)網(wǎng)絡(luò)整體進(jìn)行訓(xùn)練。PASCAL VOC是一個(gè)通用目標(biāo)檢測(cè)數(shù)據(jù)集,包含20個(gè)類別,被廣泛用于驗(yàn)證目標(biāo)檢測(cè)方法。CenterNet-DHRNet在PASCAL VOC 2007的訓(xùn)練集驗(yàn)證集和PASCAL VOC 2012的訓(xùn)練集驗(yàn)證集上訓(xùn)練,最后使用PASCAL VOC 2007的測(cè)試集進(jìn)行測(cè)試,訓(xùn)練圖像16 551張,測(cè)試圖像4 952張。

3.2 損失函數(shù)

對(duì)于熱力圖中心點(diǎn)預(yù)測(cè)分支,由于每個(gè)目標(biāo)的中心點(diǎn)只有一個(gè),非目標(biāo)中心的點(diǎn)卻有很多,造成正負(fù)樣本分布不平衡的問題,故使用改進(jìn)的Focal-loss[21]損失函數(shù)解決正負(fù)樣本分布不均的問題,如下所示:

式中:λsize、λoff為對(duì)應(yīng)損失函數(shù)的權(quán)重系數(shù),分別為0.1、1。

3.3 實(shí)驗(yàn)結(jié)果

評(píng)價(jià)指標(biāo):評(píng)價(jià)指標(biāo)為平均精度(Average Precision,AP),平均精度可以綜合地反映檢測(cè)器的性能,用AP評(píng)價(jià)單個(gè)類別的檢測(cè)結(jié)果。對(duì)多個(gè)類別的檢測(cè)效果使用平均精度均值(mean Average Precision,mAP)進(jìn)行評(píng)價(jià)。AP、mAP的值越高,表示檢測(cè)器的性能越好。交并比(Intersection over Union,IoU)的閾值為0.5,即認(rèn)為IoU大于0.5的檢測(cè)結(jié)果是檢測(cè)成功的。使用每秒幀數(shù)(Frame Per Second,F(xiàn)PS)評(píng)價(jià)檢測(cè)速度。

在PASCAL VOC數(shù)據(jù)集上,本文將所提出的CenterNet-DHRNet方法與當(dāng)前性能優(yōu)秀的方法進(jìn)行對(duì)比,對(duì)比方法中包括兩階段目標(biāo)檢測(cè)方法和單階段目標(biāo)檢測(cè)方法。如表1所示,CenterNet-DHRNet方法相比于當(dāng)前流行的SSD300、Yolov3方法在mAP指標(biāo)上分別提高了4.7%和2.6%。CenterNet-DHRNet檢測(cè)效果比DSSD[22]好的同時(shí)檢測(cè)速度也大幅領(lǐng)先;在相同輸入圖像分辨率下,較原論文[11]在PASCAL VOC 2007數(shù)據(jù)集上的最好表現(xiàn)CenterNet-DLA的結(jié)果提高了1.2%,檢測(cè)速度不及CenterNet-DLA,但都達(dá)到了實(shí)時(shí)檢測(cè)的性能要求;在只損失3幀的情況下比未改進(jìn)的CenterNet-HRNet提升了2.9%。

表1 PASCAL VOC數(shù)據(jù)集測(cè)試結(jié)果Table 1 Test results of PASCAL VOC dataset

網(wǎng)絡(luò)的訓(xùn)練時(shí)間和模型復(fù)雜度如表2所示。

表2 PASCAL VOC數(shù)據(jù)集上訓(xùn)練時(shí)間、模型復(fù)雜度對(duì)比Table 2 Comparison of training time and model complexity on PASCAL VOC dataset

由于本文方法CenterNet-DHRNet的網(wǎng)絡(luò)結(jié)構(gòu)更復(fù)雜,導(dǎo)致了訓(xùn)練時(shí)間增加和模型復(fù)雜度提高。

網(wǎng)絡(luò)的Loss曲線如圖8所示,網(wǎng)絡(luò)在110Epoch后Loss值收斂。由于本文方法CenterNet-DHRNet的網(wǎng)絡(luò)結(jié)構(gòu)比CenterNet-HRNet復(fù)雜,在前期訓(xùn)練的訓(xùn)練過程中Loss值較大;其特征提取能力強(qiáng)于后者,因此網(wǎng)絡(luò)的收斂性要比后者好,最終收斂值好于后者。

圖8 Loss曲線對(duì)比Fig.8 Comparison of loss curve

表3列舉了不同方法在PASCAL VOC數(shù)據(jù)集上每個(gè)類別的AP,其中加粗的數(shù)據(jù)為對(duì)比結(jié)果中的最佳值。CenterNet-DHRNet在單個(gè)類別的AP對(duì)比中,只有一個(gè)電視類別比CenterNet-DLA低0.1%,20種類別中有13種優(yōu)于其他經(jīng)典方法中的最好結(jié)果,說明該方法性能和魯棒性優(yōu)秀,整體性能得到提高。由于盆栽植物類別數(shù)據(jù)量少、尺度變化大且小尺度目標(biāo)的數(shù)量多,大多方法對(duì)其檢測(cè)效果都不理想。而本文方法在對(duì)比盆栽植物中的表現(xiàn)遠(yuǎn)遠(yuǎn)優(yōu)于其他方法,精度達(dá)到了59.0%,說明本文設(shè)計(jì)的高分辨率網(wǎng)絡(luò)能較好保留空間語義信息,迭代聚合的特征融合方式又充分利用這些保留的信息,從而進(jìn)一步提升了檢測(cè)效果。在對(duì)比椅子、餐桌等容易受到遮擋的類別結(jié)果中同樣優(yōu)于其他方法,說明網(wǎng)絡(luò)的特征提取能力強(qiáng),相較于其他方法能較好地排除干擾特征檢測(cè)受遮擋的物體,具有良好的魯棒性。

表3 不同方法在PASCAL VOC數(shù)據(jù)集上每個(gè)類別的AP比較Table 3 AP comparison of differ ent algorithms for each category on PASCAL VOC dataset

檢測(cè)結(jié)果的可視化對(duì)比如圖9所示。圖9(a)、(b)分別為原CenterNet方法在PASCAL VOC數(shù)據(jù)集上的可視化熱力圖和檢測(cè)結(jié)果。圖9(c)、(d)為本文CenterNet-DHRNet方法的可視化結(jié)果。顯然,本文方法所生成的熱力圖比原CenterNet方法所生成的熱力圖要清晰、明確。圖9(a)中的熱力圖模糊,產(chǎn)生了漏檢和誤檢問題。圖9(c)中的熱力圖清晰、準(zhǔn)確,正確地檢測(cè)出了每個(gè)目標(biāo)。對(duì)比圖9(d)和(b),可以看出本文方法很好地解決了原CenterNet方法存在的漏檢、誤檢問題。

圖9 CenterNet-DHRNet與原CenterNet在PASCAL VOC數(shù)據(jù)集上結(jié)果對(duì)比Fig.9 Comparison of results between CenterNet-DHRNet and original CenterNet on PASCAL VOC dataset

本文在PASCAL VOC數(shù)據(jù)集上進(jìn)行消融實(shí)驗(yàn),表明CenterNet-DHRNet方法中每個(gè)改進(jìn)模塊的有效性,實(shí)驗(yàn)結(jié)果如表4所示。

表4 在PASCAL VOC數(shù)據(jù)集上的消融實(shí)驗(yàn)Table 4 Ablation experiment on PASCAL VOC dataset

為了更好地驗(yàn)證CenterNet-DHRNet方法,本文在KITTI數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)。KITTI數(shù)據(jù)集采集于實(shí)際道路,圖像中所含目標(biāo)密集,尺度變化大,遮擋較多,本文將其中目標(biāo)分為3類:Car、Pedestrian和Cyclist,在KITTI數(shù)據(jù)集上訓(xùn)練100個(gè)Epoch,初始學(xué)習(xí)率為1.25×10-4,學(xué)習(xí)率在55Epoch和80Epoch分別下降為之前的1/10。CenterNet-DHRNet與其他目標(biāo)檢測(cè)方法的對(duì)比結(jié)果如表5、表6所示。

表5 KITTI數(shù)據(jù)集上不同目標(biāo)檢測(cè)方法對(duì)比Table 5 Comparison of different object detection algorithms on KITTI dataset

表6 KITTI數(shù)據(jù)集上3類目標(biāo)AP對(duì)比Table 6 Comparison of three types of object AP on KITTI dataset

實(shí)驗(yàn)結(jié)果表明,CenterNet-DHRNet有更高的精度,且在每一個(gè)類別的精度上都有所提高。本文方法在KITTI數(shù)據(jù)集上的檢測(cè)結(jié)果如圖10所示。通過PASCAL VOC數(shù)據(jù)集和KITTI數(shù)據(jù)集上對(duì)比實(shí)驗(yàn)結(jié)果可知,本文所提方法有效提升了檢測(cè)精度。

圖10 CenterNet-DHRNet在KITTI數(shù)據(jù)集上的檢測(cè)結(jié)果Fig.10 Detection results of CenterNet-DHRNet on KITTI dataset

4 結(jié) 論

1)本文提出了一種高性能的目標(biāo)檢測(cè)方法CenterNet-DHRNet,在PASCAL VOC和KITTI數(shù)據(jù)集上與其他主流方法進(jìn)行了對(duì)比實(shí)驗(yàn)。在PASCAL VOC測(cè)試數(shù)據(jù)集上mAP達(dá)到了81.9%,相比于CenterNet-DLA、Yolov3、SSD500、SSD300分別提高了1.2%、2.6%、3.0%、4.7%,且保持了一定的檢測(cè)速度。

2)針對(duì)常規(guī)卷積網(wǎng)絡(luò)下采樣過程中特征圖縮小、目標(biāo)空間語義信息容易損失的問題,在整個(gè)網(wǎng)絡(luò)的設(shè)計(jì)中都保持了輸入圖像的高分辨率表示。迭代聚合的特征融合方式有效利用了不同尺度的特征圖和其中保留的空間語義信息,提高了檢測(cè)效果。

猜你喜歡
特征檢測(cè)方法
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
如何表達(dá)“特征”
不忠誠的四個(gè)特征
抓住特征巧觀察
小波變換在PCB缺陷檢測(cè)中的應(yīng)用
用對(duì)方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 国产午夜精品鲁丝片| 91激情视频| 精品综合久久久久久97超人| 黄色三级网站免费| 国产成人精品免费视频大全五级| 国产成人精品一区二区秒拍1o| 日韩高清中文字幕| 久久99热66这里只有精品一| a在线亚洲男人的天堂试看| 国产精品视屏| 操美女免费网站| 大陆国产精品视频| 成人综合久久综合| 日本人妻丰满熟妇区| 精品無碼一區在線觀看 | 美女啪啪无遮挡| 国产精品久久久久鬼色| 国产成人高清精品免费软件| 日韩中文精品亚洲第三区| 毛片一区二区在线看| 国产精品99在线观看| 在线精品视频成人网| 5388国产亚洲欧美在线观看| 国产男女XX00免费观看| 毛片网站在线看| 国产91特黄特色A级毛片| 精品国产成人高清在线| 亚洲清纯自偷自拍另类专区| 4虎影视国产在线观看精品| 国产办公室秘书无码精品| 在线看AV天堂| 日韩精品成人网页视频在线| 亚洲区第一页| 婷婷午夜影院| 久久亚洲高清国产| 亚洲人成网18禁| 亚洲中文字幕在线观看| 97在线公开视频| 一区二区三区精品视频在线观看| 99视频在线观看免费| 国产精品无码AⅤ在线观看播放| 在线国产综合一区二区三区| 一个色综合久久| 国产美女人喷水在线观看| 国产制服丝袜91在线| 日本91在线| 欧美视频在线观看第一页| 免费一级大毛片a一观看不卡| 一区二区三区四区精品视频 | 2020国产免费久久精品99| 久综合日韩| 亚洲成av人无码综合在线观看| 欧美黄网在线| 日韩在线第三页| 午夜免费视频网站| 无码有码中文字幕| 午夜国产小视频| 国产精品自在在线午夜区app| 呦视频在线一区二区三区| 91精品综合| 99久久人妻精品免费二区| 精品福利网| 亚洲视频免费播放| AV熟女乱| 2021国产在线视频| 国内毛片视频| 国产成人高清在线精品| 久久综合色88| 久久久久中文字幕精品视频| 高h视频在线| 国产打屁股免费区网站| 国产欧美性爱网| 亚洲AⅤ无码国产精品| 久久特级毛片| 91探花在线观看国产最新| 国产主播在线一区| 国产丝袜91| 欧美激情综合一区二区| 国产在线八区| av在线无码浏览| 欧美国产中文| 99久久精品免费看国产免费软件|