999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于MobileVit輕量化網(wǎng)絡(luò)的車輛檢測(cè)方法

2022-12-31 00:00:00熊李艷涂所成黃曉輝余俊英謝云馳黃衛(wèi)春

摘要:針對(duì)車輛檢測(cè)模型參數(shù)量大,以及對(duì)小目標(biāo)和遮擋目標(biāo)漏檢問(wèn)題,提出了一種基于MobileVit輕量化網(wǎng)絡(luò)的車輛檢測(cè)算法。首先,在數(shù)據(jù)預(yù)處理階段使用GridMask圖像增強(qiáng)方法,提升模型對(duì)遮擋車輛目標(biāo)的檢測(cè)性能;其次,使用基于MobileVit網(wǎng)絡(luò)作為模型的主干特征提取網(wǎng)絡(luò),充分提取特征信息且使得模型輕量化;最后,在預(yù)測(cè)層網(wǎng)絡(luò)中,使用基于PANet實(shí)現(xiàn)多尺度的車輛檢測(cè),提升模型對(duì)小目標(biāo)車輛的檢測(cè)能力。實(shí)驗(yàn)結(jié)果表明,該模型的平均檢測(cè)精度達(dá)98.24%,檢測(cè)速度達(dá)每張圖片0.058 s,模型大小為136 MB,與對(duì)比算法相比綜合性能更好。

關(guān)鍵詞:車輛檢測(cè);MobileVit;輕量化;圖像增強(qiáng)

中圖分類號(hào):TP391.4文獻(xiàn)標(biāo)志碼:A

文章編號(hào):1001-3695(2022)08-053-2545-05

doi:10.19734/j.issn.1001-3695.2021.12.0684

Vehicle detection method based on MobileVit lightweight network

Xiong Liyan1a,Tu Suocheng1a,Huang Xiaohui1a,Yu Junying1a,Xie Yunchi2,Huang Weichun1b

(1.

a.School of Information Engineering,b.Network Information Center,

East China Jiaotong University, Nanchang 330013,China;2.

Dept. of Transport,Traffic Monitoring amp; Command Center of Jiangxi Provincial,Nanchang 330036,China)

Abstract:In view of the large amount of vehicle detection model parameters and missing detection of small targets and occluded targets,this paper presented a vehicle detection algorithm based on lightweight MobileVit.Firstly,in the data preprocessing stage,the method used GridMask image enhancement to improve the performance of occluded target detection.Secondly,the method used MobileVit network as the backbone feature extraction network of the model to fully extract the feature information and make the model lightweight.Finally,in the prediction layer network,the method used multiscale vehicle detection and recognition based on PANet network to improve the detection performance of the model for small targets.The experimental results show that the average detection accuracy of this algorithm is 98.24%,the detection speed is 0.058 s per picture,and the model size is 136 MB,compared with the comparison algorithm,the comprehensive performance is better.

Key words:vehicle detection;MobileVit;lightweight;image enhancement

0引言

計(jì)算機(jī)視覺(jué)在智能視頻監(jiān)控、無(wú)人駕駛和機(jī)器人等領(lǐng)域有著廣泛的應(yīng)用。近年來(lái),隨著中國(guó)汽車保有數(shù)量的飛速增長(zhǎng),違反交通法規(guī)事件的數(shù)量越來(lái)越多,這給交通管理人員帶來(lái)了很大的壓力。通過(guò)監(jiān)控視頻對(duì)道路上的車輛進(jìn)行快速準(zhǔn)確的檢測(cè)是構(gòu)建智能交通系統(tǒng)必不可少的部分。

傳統(tǒng)的車輛檢測(cè)算法流程大致可以分為區(qū)域選擇、特征提取、分類器分類三個(gè)階段。區(qū)域選擇采用滑動(dòng)窗口的方法,特征提取采用HOG[1]、Haar-like[2]、SIFT[3]等方法,分類器使用SVM等實(shí)現(xiàn)對(duì)車輛目標(biāo)的分類。其中,最為重要的是特征提取階段,人工設(shè)計(jì)的特征直接影響著模型性能的好壞。然而,人工設(shè)計(jì)的特征依賴于具體的應(yīng)用場(chǎng)景,且滑動(dòng)窗口的方法提取了過(guò)多的冗余信息,這就導(dǎo)致了傳統(tǒng)的車輛檢測(cè)算法泛化能力差、檢測(cè)精度低、檢測(cè)速度慢。

近年來(lái),隨著深度學(xué)習(xí)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)不需要針對(duì)具體場(chǎng)景人工設(shè)計(jì)特征,因而具有很強(qiáng)的泛化能力,獲得了許多優(yōu)秀的成果。基于深度學(xué)習(xí)的車輛檢測(cè)主流算法大致可以分為一階段方法和兩階段方法。一階段方法直接對(duì)圖像中的先驗(yàn)框進(jìn)行類別預(yù)測(cè)和回歸,這使得模型的檢測(cè)速度較快,但檢測(cè)精度相對(duì)較低,代表算法有YOLO系列[4~7]。兩階段方法通過(guò)候選框生成器從圖像中提取候選區(qū)域,然后將獲得的候選區(qū)域進(jìn)行分類和回歸。兩階段算法檢測(cè)精度較高,但因候選區(qū)域提取過(guò)程中計(jì)算復(fù)雜,導(dǎo)致實(shí)時(shí)性較弱,代表算法有R-CNN系列[8~10]。厙向陽(yáng)等人[11]提出了基于殘差網(wǎng)絡(luò)的車輛檢測(cè)方法實(shí)現(xiàn)了較高的檢測(cè)精度,但檢測(cè)速度較低,難以達(dá)到實(shí)時(shí)性要求。宋煥生等人[12]通過(guò)改進(jìn)Faster R-CNN算法實(shí)現(xiàn)了對(duì)復(fù)雜場(chǎng)景下車輛的目標(biāo)檢測(cè),雖然基本能滿足實(shí)時(shí)性要求,但模型對(duì)遠(yuǎn)場(chǎng)景下的小目標(biāo)無(wú)法識(shí)別和檢測(cè)。以上方法在檢測(cè)精度和實(shí)時(shí)性兩個(gè)方面難以取得較好的平衡。

本文提出一種基于MobileVit[13]輕量化網(wǎng)絡(luò)模型,在保證檢測(cè)精度的同時(shí)也具有較好的實(shí)時(shí)性,其融合了卷積神經(jīng)網(wǎng)絡(luò)和vision transformer,提取圖像中車輛的局部信息和全局信息;引入GridMask圖像增強(qiáng)方法,在數(shù)據(jù)預(yù)處理階段適當(dāng)?shù)貏h除圖像中的部分信息。本文使用了真實(shí)場(chǎng)景下采集的數(shù)據(jù),通過(guò)實(shí)驗(yàn)對(duì)模型的檢測(cè)精度、檢測(cè)速度和模型參數(shù)量進(jìn)行評(píng)估。實(shí)驗(yàn)結(jié)果表明,與對(duì)比算法相比,本文算法綜合性能更好。

1本文算法

1.1預(yù)處理階段

特征提取的過(guò)程中,車輛遮擋目標(biāo)的特征提取不充分會(huì)導(dǎo)致模型對(duì)遮擋目標(biāo)漏檢現(xiàn)象。在數(shù)據(jù)預(yù)處理階段加入信息刪除的圖像增強(qiáng)方法,可以對(duì)訓(xùn)練集圖片中的目標(biāo)區(qū)域進(jìn)行部分刪除,進(jìn)而模型在訓(xùn)練過(guò)程中通過(guò)對(duì)車輛目標(biāo)部分特征的學(xué)習(xí),將被遮擋的車輛目標(biāo)準(zhǔn)確檢測(cè)出來(lái)。但是,當(dāng)區(qū)域被過(guò)度刪除時(shí),將會(huì)導(dǎo)致數(shù)據(jù)成為噪聲;當(dāng)區(qū)域被過(guò)度保留時(shí),將會(huì)導(dǎo)致對(duì)圖像中的目標(biāo)遮擋不充分,使得模型的泛化能力降低。因此,這種方法需要在區(qū)域的過(guò)度刪除和過(guò)度保留之間取得一個(gè)較好的平衡。為了提高模型對(duì)遮擋目標(biāo)的檢測(cè)能力,本文在數(shù)據(jù)預(yù)處理階段采用信息刪除方法,引入GridMask[14]數(shù)據(jù)增強(qiáng)算法,能夠適當(dāng)?shù)貏h除圖像中待檢測(cè)目標(biāo)的部分信息,實(shí)現(xiàn)過(guò)程如圖1(a)所示。輸入的圖像可以表示為X(X∈Euclid Math TwoRApH×W×C),H、W、C分別表示輸入圖像的高、寬和通道數(shù)。GridMask生成一個(gè)與輸入圖像尺寸一致的mask并表示為M,M中灰色部分對(duì)應(yīng)的像素值為1,黑色部分的像素值為0。GridMask數(shù)據(jù)增強(qiáng)操作將輸入圖像與mask矩陣點(diǎn)乘,結(jié)果灰色區(qū)域的信息被保留,黑色區(qū)域的信息被刪除。表達(dá)式如下:

=X×M(1)

如圖1(b)所示,黃色虛線框是mask的一個(gè)單元,mask由四個(gè)參數(shù)定義,即(r,d,x,y)。假設(shè)圖像尺寸為1×1,r表示的是一個(gè)單元中灰色短邊的占比,d代表的是一個(gè)單元的邊長(zhǎng),x和y分別表示圖像的邊界到第一個(gè)完整單元的距離。對(duì)訓(xùn)練集中目標(biāo)的真實(shí)框進(jìn)行K-means聚類,得到聚類框的尺寸為[138,243],相對(duì)面積約為0.09,為了減少過(guò)度刪除的情況,設(shè)置d為0.3,即一個(gè)單元面積也為0.09。在圖像中能放下9個(gè)這樣的完整單元,最左上角完整單元到圖像的邊界分別為0.1和0.1,所以x為0.1,y為0.1。對(duì)于超參數(shù)r,本文2.4節(jié)研究了不同的r值對(duì)模型效果的影響,通過(guò)對(duì)實(shí)驗(yàn)結(jié)果分析,r設(shè)置為1/3。綜上所述,對(duì)于超參數(shù)r、d、x和y,本文分別取1/3、0.3、0.1、0.1。

GridMask數(shù)據(jù)增強(qiáng)方法對(duì)圖像中的信息進(jìn)行離散的有序刪除,從而減少區(qū)域過(guò)度刪除和過(guò)度保留的情況,進(jìn)而實(shí)現(xiàn)對(duì)車輛目標(biāo)模擬部分遮擋。隨著模型對(duì)這種含有部分遮擋目標(biāo)的數(shù)據(jù)進(jìn)行訓(xùn)練,模型能夠提高對(duì)遮擋目標(biāo)的檢測(cè)能力。

1.2輕量化車輛檢測(cè)網(wǎng)絡(luò)設(shè)計(jì)

為了在保證精度的同時(shí)也具有較好的實(shí)時(shí)性,本文提出一種基于MobileVit輕量化網(wǎng)絡(luò)模型。網(wǎng)絡(luò)整體結(jié)構(gòu)如圖2所示。主干特征提取網(wǎng)絡(luò)使用改進(jìn)后的MobileVit,預(yù)測(cè)層網(wǎng)絡(luò)使用基于PANet[15]的多尺度融合網(wǎng)絡(luò)。本文使用基于輕量級(jí)的網(wǎng)絡(luò)MobileVit作為模型的主干網(wǎng)絡(luò)。卷積神經(jīng)網(wǎng)絡(luò)善于提取局部特征信息,基于自注意力機(jī)制的vision transformer[16]善于提取全局特征信息。MobileVit網(wǎng)絡(luò)將vision transformer視為卷積,它結(jié)合卷積神經(jīng)網(wǎng)絡(luò)和vision transformer的優(yōu)勢(shì)構(gòu)建了一個(gè)輕量級(jí)、通用的網(wǎng)絡(luò)模型。

MobileVit的網(wǎng)絡(luò)結(jié)構(gòu)如表1所示。input表示網(wǎng)絡(luò)中每個(gè)模塊輸入的尺寸;operator表示每個(gè)特征層所經(jīng)歷的模塊;#out表示經(jīng)過(guò)每個(gè)特征層后輸出的通道數(shù);L表示的是MVIT模塊中transformer模塊的個(gè)數(shù);s表示每一次操作的步長(zhǎng);MVIT表示MobileVit模塊;MV2表示MobileNetV2[17]模塊。

MobileVit模塊的結(jié)構(gòu)如圖3所示。它由三個(gè)子模塊組成,分別為局部信息編碼模塊、全局信息編碼模塊和特征融合模塊。三個(gè)子模塊分別對(duì)應(yīng)的功能是提取局部特征信息、提取全局特征信息和特征信息的融合。它能夠在具有較少參數(shù)量的情況下充分提取圖像的特征信息。

MobileNetV2模塊的結(jié)構(gòu)如圖4所示。它先將特征圖的通道數(shù)上升然后再下降,緊接著連接殘差模塊。特征圖的通道數(shù)越少,卷積層的計(jì)算量越少;但是只使用通道數(shù)少的特征圖,難以提取足夠的特征信息。MobileNetV2在這兩者之間進(jìn)行取舍,采取先提升通道數(shù)再降低通道數(shù)的策略。因此,MobileNetV2模塊能夠以較少的計(jì)算量獲得較高的檢測(cè)精度。

淺層特征包含更多的位置信息,深層特征包含更多的語(yǔ)義信息。MobileVit網(wǎng)絡(luò)為圖像分類網(wǎng)絡(luò),本文任務(wù)是車輛檢測(cè)任務(wù)。分類任務(wù)只需要提取語(yǔ)義信息,車輛檢測(cè)任務(wù)不僅需要提取語(yǔ)義信息,還需提取位置信息。MobileVit網(wǎng)絡(luò)第十層的特征信息已經(jīng)下采樣32倍,繼續(xù)提取特征將會(huì)丟失大量的位置信息,且后續(xù)網(wǎng)絡(luò)涉及到分類任務(wù)。因此,將MobileVit網(wǎng)絡(luò)的第十層之后舍棄,將剩下的網(wǎng)絡(luò)作為模型的主干特征提取網(wǎng)絡(luò)。為了實(shí)現(xiàn)多尺度預(yù)測(cè),將網(wǎng)絡(luò)的第七層、第九層和第十層提取的特征輸入PANet中進(jìn)行特征融合來(lái)獲取豐富的特征信息。

為了提升模型對(duì)小目標(biāo)的檢測(cè)性能,預(yù)測(cè)層網(wǎng)絡(luò)使用基于PANet的特征融合網(wǎng)絡(luò)。在特征提取過(guò)程中,淺層網(wǎng)絡(luò)和深層網(wǎng)絡(luò)提取的特征信息是不同的。淺層特征學(xué)習(xí)更多的是目標(biāo)位置信息,而深層特征學(xué)習(xí)更多的是目標(biāo)的語(yǔ)義信息。特征融合網(wǎng)絡(luò)融合了深層與淺層的特征信息,從而實(shí)現(xiàn)了特征增強(qiáng),同時(shí)避免了單一特征信息的使用造成的大量信息損失。PANet設(shè)計(jì)了兩條特征融合路徑,一條自下而上,另外一條自上而下,這使得該網(wǎng)絡(luò)能將淺層特征和深層特征進(jìn)行充分融合。充分融合的特征能夠提升模型對(duì)小目標(biāo)的檢測(cè)性能,從而實(shí)現(xiàn)多尺度預(yù)測(cè)。

1.3損失函數(shù)

損失函數(shù)決定著模型的訓(xùn)練方向,它是評(píng)價(jià)模型訓(xùn)練效果的重要指標(biāo)。本文算法對(duì)應(yīng)的損失函數(shù)由定位損失函數(shù)(losscdiou)、置信度(lossconfidence) 損失函數(shù)和類別(lossclass)損失函數(shù)三部分組成,如式(2)~(5)所示。

Loss=losscdiou+lossconfidence+lossclass(2)

losscdiou=∑s2i=0∑Bj=0Iobji,j[1-IoU+AE+BF+CG+DH4AG](3)

lossconfidence=-∑s2i=0∑Bj=0Iobji,j[C^jilog(Cji)+(1-C^ji)log(1-Cji)]

-λnoobj∑s2i=0∑Bj=0Inoobji,j[C^jilog(Cji)+(1-ji)log(1-Cji)](4)

lossclass=-∑s2i=0Iobji,j∑c∈classes[P^jilog(Pji)+(1-P^ji)log(1-Pji)](5)

其中:s2為劃分的網(wǎng)格數(shù);B為每個(gè)網(wǎng)格中包含的先驗(yàn)框數(shù);Iobji,j和Inoobji,j意思是第i個(gè)網(wǎng)格的第j個(gè)先驗(yàn)框是否有目標(biāo)和是否沒(méi)有目標(biāo),是取1,反之取0;λnoobj為不含目標(biāo)的先驗(yàn)框置信度誤差權(quán)重,因?yàn)橄闰?yàn)框中正樣本和負(fù)樣本極度不平衡(含目標(biāo)的先驗(yàn)框極少),所以λnoobj設(shè)置很小;C、C^和P、P^分別代表預(yù)測(cè)框和真實(shí)框的置信度和類別概率。

置信度和類別的損失函數(shù)采用交叉熵?fù)p失函數(shù),定位損失函數(shù)采用CDIoU loss[18]。與定位損失函數(shù)CIoU loss[19]相比,CDIoU loss沒(méi)有涉及到計(jì)算先驗(yàn)框和真實(shí)框長(zhǎng)寬比的反三角函數(shù),因此,在模型訓(xùn)練過(guò)程中能減少計(jì)算開(kāi)銷。CDIoU的公式和示意圖如式(3)和如圖5所示,其中AE、BF、CG、DH分別代表著預(yù)測(cè)框和真實(shí)框四個(gè)對(duì)應(yīng)頂點(diǎn)之間的距離,AG為包圍這兩個(gè)框的最小矩形的對(duì)角線距離。盡管CDIoU沒(méi)有直接考慮中心點(diǎn)距離和長(zhǎng)寬比,但是它的計(jì)算結(jié)果仍能反映預(yù)測(cè)框和真實(shí)框的差異程度,即CDIoU loss值越大,差異度越大,反之相似度越高。

如圖2所示,經(jīng)過(guò)PANet輸出了三個(gè)不同尺度的特征圖。這三個(gè)特征圖分別輸入到對(duì)應(yīng)的三個(gè)detection head中,得出預(yù)測(cè)框的位置、置信度和類別信息。各個(gè)detection head均使用三類損失函數(shù)且相互之間獨(dú)立,優(yōu)化模型的訓(xùn)練方向。

2實(shí)驗(yàn)與分析

2.1實(shí)驗(yàn)條件

本文實(shí)驗(yàn)數(shù)據(jù)采用KITTI數(shù)據(jù)集,KITTI數(shù)據(jù)集由德國(guó)卡爾斯魯厄理工學(xué)院和豐田美國(guó)技術(shù)研究院聯(lián)合創(chuàng)辦,它包含市區(qū)、鄉(xiāng)村和高速公路等場(chǎng)景采集的真實(shí)圖像數(shù)據(jù),每張圖像中最多達(dá)15輛車,還有各種程度的遮擋與截?cái)郲20]。根據(jù)本文車輛檢測(cè)任務(wù),選取數(shù)據(jù)集中三類車輛目標(biāo),分別是truck、van和car。此數(shù)據(jù)集共有7 481張圖片,取5 984張圖片作為訓(xùn)練集、748張圖片作為驗(yàn)證集、749張圖片作為測(cè)試集。數(shù)據(jù)集隨機(jī)劃分后的詳細(xì)情況如表2所示。

實(shí)驗(yàn)環(huán)境如下:操作系統(tǒng)為Windows 10;深度學(xué)習(xí)框架為PyTorch;CPU為Intel Core i3-9100F;內(nèi)存大小為16 GB;GPU為NVIDIA GeForce GTX 1660 6 GB。

2.2評(píng)價(jià)指標(biāo)

本文采用檢測(cè)速度、AP(average precision)和mAP(mean average precision)作為算法性能評(píng)價(jià)指標(biāo)。檢測(cè)速度為每張圖片檢測(cè)所需的時(shí)間。在計(jì)算AP值的時(shí)候,當(dāng)真實(shí)框與預(yù)測(cè)框的IoU大于0.5時(shí)定義為正樣本,反之為負(fù)樣本。mAP是針對(duì)多類目標(biāo)檢測(cè)精度的情況,它是多類目標(biāo)AP的平均值,表達(dá)式如下:

mAP=∑APN=∑∫10P(R)dRN(6)

2.3模型的訓(xùn)練與收斂性分析

為了減少模型訓(xùn)練的時(shí)間,將在COCO數(shù)據(jù)集上面預(yù)訓(xùn)練好的權(quán)值文件載入模型進(jìn)行訓(xùn)練。本文提出的模型輸入圖像大小為608×608,優(yōu)化器采用Adam,第一階段凍結(jié)模型的主干網(wǎng)絡(luò)層,初始學(xué)習(xí)率為0.001,訓(xùn)練輪次(epoch)為50次,迭代次數(shù)為37 400。第二階段訓(xùn)練整個(gè)網(wǎng)絡(luò),初始學(xué)習(xí)率為0.000 1,輪次設(shè)置為50次,迭代次數(shù)為74 800。

圖6為模型訓(xùn)練過(guò)程中損失值的趨勢(shì)變化圖。從圖中可以看出,前50個(gè)訓(xùn)練輪次損失值逐漸降低且降低速度逐漸放緩,到了第51個(gè)訓(xùn)練輪次,由于主干網(wǎng)絡(luò)也參與了訓(xùn)練,損失值突然增加,緊接著損失值逐漸降低且大約在第80個(gè)訓(xùn)練輪次模型開(kāi)始收斂。

2.4實(shí)驗(yàn)結(jié)果分析

如表3和4所示,將本文算法與Faster R-CNN、YOLOv3、YOLOv4、YOLOX、YOLOv4_MV3算法在KITTI數(shù)據(jù)集訓(xùn)練后并將在測(cè)試集上面的結(jié)果從檢測(cè)速度、平均類別檢測(cè)精度和模型參數(shù)量方面進(jìn)行對(duì)比。

本文算法與YOLOv4算法相比,檢測(cè)速度提高了約44.2%,檢測(cè)精度提高了2.46%,模型參數(shù)量減少44.3%。與兩階段算法Faster R-CNN相比,檢測(cè)速度是其3.6倍且檢測(cè)精度提高了9.61%。與YOLOv3算法相比,檢測(cè)速度提升了10.3%,檢測(cè)精度提升了3.71%,模型參數(shù)量是其57.9%。與anchor-free算法YOLOX相比,檢測(cè)精度提升了0.37%、檢測(cè)速度提升了22%,模型參數(shù)量為其65.7%。YOLOv4_MV3為將MobileNetV3[21]網(wǎng)絡(luò)替換YOLOv4的主干網(wǎng)絡(luò),與它相比,除檢測(cè)速度略低,本文算法的檢測(cè)精度和模型參數(shù)量均優(yōu)于它。小目標(biāo)和遮擋目標(biāo)因?yàn)槿狈μ卣餍畔?,從而容易造成漏檢,是車輛檢測(cè)中的難點(diǎn)問(wèn)題。在本文的測(cè)試集中,存在著許多小目標(biāo)和遮擋目標(biāo),故模型的檢測(cè)精度可以客觀地反映模型解決小目標(biāo)和遮擋目標(biāo)問(wèn)題的能力。綜上所述,本文算法表現(xiàn)出了更好的性能,能更好地滿足車輛檢測(cè)任務(wù)的要求。

為了更清晰地理解模型的各個(gè)模塊對(duì)模型效果的影響,本文進(jìn)行了消融實(shí)驗(yàn),結(jié)果如表5所示。

A為將模型的定位損失函數(shù)改為CIoU loss,B為將模型的主干網(wǎng)絡(luò)換為CSPDarkNet53,C為在數(shù)據(jù)預(yù)處理階段不引入GridMask數(shù)據(jù)。由表可知替換定位損失函數(shù)模型的檢測(cè)精度下降1.38%,檢測(cè)速度沒(méi)有變化。緊接著,再替換模型的主干網(wǎng)絡(luò),模型的檢測(cè)精度下降0.26%,檢測(cè)速度下降約30%。最后,去除GridMask數(shù)據(jù)增強(qiáng),模型的檢測(cè)精度下降1.04%,檢測(cè)速度幾乎沒(méi)有改變。因此,CDIoU loss和GridMask數(shù)據(jù)增強(qiáng)可以提升模型的檢測(cè)精度,改進(jìn)的MobileVit主干網(wǎng)絡(luò)既能提升模型的檢測(cè)精度,也能提升模型的檢測(cè)速度。

如表6所示,對(duì)本文中GridMask圖像增強(qiáng)方法中的超參數(shù)r進(jìn)行研究,展示了不同的r取值對(duì)模型性能的影響。r分別取值為1/6、1/3、1/2、2/3和5/6。由表可知,隨著r值的增大,模型性能先提升后降低。當(dāng)r取值為1/3時(shí),模型的性能相對(duì)較好。因此,本文中GridMask方法的超參數(shù)r取值為1/3。

2.5本文算法檢測(cè)效果

為了更直觀地感受本文提出模型的性能,從測(cè)試集中選取一些圖像進(jìn)行檢測(cè)。檢測(cè)效果如圖7~9所示。在第一組檢測(cè)圖片中,從原圖可以看到遠(yuǎn)處有4輛車,屬于小目標(biāo)場(chǎng)景。本文算法能夠?qū)?個(gè)目標(biāo)準(zhǔn)確地檢測(cè)出來(lái)。在第二組檢測(cè)圖片中,從原圖可以看出車輛處于低光照強(qiáng)度環(huán)境且道路上有5輛車,本文算法能準(zhǔn)確地將它們檢測(cè)出來(lái)。在第三組檢測(cè)圖片中,從原圖可以看出,場(chǎng)景十分復(fù)雜,存在高光照強(qiáng)度、低光照強(qiáng)度和遮擋環(huán)境。圖中左邊處于低光照?qǐng)鼍跋掠?輛嚴(yán)重遮擋的車輛,右邊處于高亮度光照?qǐng)鼍跋乱灿?輛嚴(yán)重遮擋的車輛。本文算法能將這6個(gè)目標(biāo)準(zhǔn)確地檢測(cè)出來(lái)。上述檢測(cè)效果表明,本文模型能夠?qū)崿F(xiàn)對(duì)小目標(biāo)和遮擋目標(biāo)的準(zhǔn)確檢測(cè)。

3結(jié)束語(yǔ)

為了解決車輛檢測(cè)過(guò)程中對(duì)小目標(biāo)和遮擋目標(biāo)漏檢問(wèn)題,本文提出了一種輕量化的車輛檢測(cè)模型。首先,在數(shù)據(jù)預(yù)處理階段采用GridMask圖像增強(qiáng)方法;其次,使用改進(jìn)的MobileVit網(wǎng)絡(luò)作為主干特征提取網(wǎng)絡(luò);最后,使用基于PANet的預(yù)測(cè)層網(wǎng)絡(luò),提出了本文算法。實(shí)驗(yàn)結(jié)果表明,本文算法在具備輕量化的同時(shí),對(duì)小目標(biāo)和遮擋目標(biāo)也能夠?qū)崿F(xiàn)很好的檢測(cè)效果,并且能夠更好地滿足車輛檢測(cè)任務(wù)的實(shí)時(shí)性要求。今后的研究工作中,在此研究基礎(chǔ)上嘗試將anchor-free方法引入本文模型,使模型擺脫對(duì)錨框的依賴,從而提升模型的檢測(cè)速度。

參考文獻(xiàn):

[1]Dalal N,Triggs B.Histograms of oriented gradients for human detection[C]//Proc of IEEE Conference on Computer Vision and Pattern Re-cognition.Washington DC:IEEE Computer Society,2005:886-893.

[2]Papgeorgiou C P,Oren M,Poggio T.A general framework for object detection[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Washington DC:IEEE Computer Society,2002:555-562.

[3]Lowe D G.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):91-11.

[4]Redmon J,Divvala S,Girshick R,et al.You only look once:unified,real-time object detection[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Washington DC:IEEE Computer Society,2016:779-788.

[5]Redmon J,F(xiàn)arhadi A.YOLO9000:better,faster,stronger[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Washington DC:IEEE Computer Society,2017:6517-6525.

[6]Redmon J,F(xiàn)arhadi A.YOLOv3:an incremental improvement[EB/OL].(2018)[2021-12-18].https://arxiv.org/pdf/1804.02767.pdf.

[7]Bochkovskiy A,Wang C Y,Liao H Y M.YOLOv4:optimal speed and accuracy of object detection[EB/OL].(2020)[2021-12-18].https://arxiv.org/pdf/2004.10934.pdf.

[8]Girshick R,Donahue J,Darrel T,et al.Rich feature hierarchies for accurate object detection and semantic segmentation[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Washington DC:IEEE Computer Society,2014:580-587.

[9]Girshick R.Fast R-CNN[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Washington DC:IEEE Computer Society,2015:1440-1448.

[10]Ren Shaoqing,He Kaiming,Girshick R,et al.Faster R-CNN:towards real-time object detection with region proposal networks[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.

[11]厙向陽(yáng),韓伊娜.基于殘差網(wǎng)絡(luò)的小型車輛目標(biāo)檢測(cè)算法[J].計(jì)算機(jī)應(yīng)用研究,2020,37(8):2556-2560.(She Xiangyang,Han Yina.Small vehicle target detection algorithm based on residual network[J].Application Research of Computers,2020,37(8):2556-2560.)

[12]宋煥生,張向清,鄭寶峰,等.基于深度學(xué)習(xí)方法的復(fù)雜場(chǎng)景下車輛目標(biāo)檢測(cè)[J].計(jì)算機(jī)應(yīng)用研究,2018,35(4):1270-1273.(Song Huansheng,Zhang Xiangqing,Zheng Baofeng,et al.Vehicle target detection in complex scene based on deep learning method[J].Application Research of Computers,2018,35(4):1270-1273.)

[13]Mehta S,Rastegari M.MobileVit:light weight general purpose,and mobile friendly vision transformer[EB/OL].(2021)[2021-12-18].https://arxiv.org/abs/2110.02178.pdf.

[14]Chen Pengguang,Liu Shu,Zhao Hengshuang,et al.GridMask data augmentation[EB/OL].(2020)[2021-12-28].https://arxiv.org/abs/2001.04086.pdf.

[15]Liu Shu,Qi Lu,Qin Haifang,et al.Path aggregation network for instance segmentation[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Washington DC:IEEE Computer Society,2018:8759-8768.

[16]Dosovitskiy A,Beyer L ,Kolesnikov A, et al.An image is worth 16×16 words:transformers for image recognition at scale[EB/OL].(2021)[2021-12-28].https://arxiv.org/abs/2010.11929.pdf.

[17]Sandler M,Howard A,Zhu Menglong,et al.MobileNetV2:inverted residuals and linear bottlenecks[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Washington DC:IEEE Computer Society,2018:4510-4520.

[18]Chen Dong,Miao Duoqian.Control distance iou and control distance IoU loss function for better bounding box regression[EB/OL].(2021)[2021-12-18].https://arxiv.org/abs/2103.11696.pdf.

[19]Zheng Zhaohui,Wang Ping,Liu Wei,et al.Distance IoU loss:faster and better learning for bounding box regression[C]//Proc of AAAI Conference on Artificial Intelligence.Palo Alto,CA:AAAI Press,2020:12993-13000.

[20]Geiger A,Lenz P,Urtasun R.Are we ready for autonomous driving? The KITTI vision benchmark suite[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Washington DC:IEEE Computer Society,2012:3354-3361.

[21]Howard A,Sandler M,Chu G,et al.Searching for MobileNetV3[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Washington DC:IEEE Computer Society,2019:1314-1324.

[22] Zheng Ge,Liu Songtao,Wang Feng,et al.Exceeding YOLO series[EB/OL].(2021)[2021-12-18].https://arxiv.org/abs/2107.08430.pdf.

收稿日期:2021-12-18;修回日期:2022-02-07基金項(xiàng)目:江西省交通廳科技資助項(xiàng)目(2021X0011,2022X0040);國(guó)家自然科學(xué)基金資助項(xiàng)目(62067002,61967006,62062033);江西省自然科學(xué)基金資助項(xiàng)目(20212BAB202008);江西省教育廳資助項(xiàng)目(GJJ190317)

作者簡(jiǎn)介:熊李艷(1968-),女,江西南昌人,教授,碩導(dǎo),碩士,主要研究方向?yàn)橛?jì)算機(jī)視覺(jué)、自然語(yǔ)言處理等;涂所成(1997-),男(通信作者),江西南昌人,碩士,主要研究方向?yàn)橛?jì)算機(jī)視覺(jué)、目標(biāo)檢測(cè)(tusuocheng@163.com);黃曉輝(1984-),男,江西宜春人,副教授,碩導(dǎo),博士,主要研究方向?yàn)闄C(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘;余俊英(1997-),女,江西南昌人,碩士,主要研究方向?yàn)闄C(jī)器視覺(jué)、深度學(xué)習(xí)、目標(biāo)檢測(cè);謝云馳(1994-),男,江西南昌人,高級(jí)工程師,碩士,主要研究方向?yàn)闄C(jī)器學(xué)習(xí);黃衛(wèi)春(1968-),男,江西撫州人,教授,碩導(dǎo),碩士,主要研究方向?yàn)樵朴?jì)算、高性能計(jì)算.

主站蜘蛛池模板: 日本福利视频网站| 国产chinese男男gay视频网| 熟妇丰满人妻av无码区| 日韩精品无码免费一区二区三区| 亚洲国产综合精品一区| 免费国产不卡午夜福在线观看| 试看120秒男女啪啪免费| 国产97视频在线| 香蕉蕉亚亚洲aav综合| 黄色网站不卡无码| 日本不卡视频在线| 91精品伊人久久大香线蕉| 国产h视频在线观看视频| 亚洲中文无码av永久伊人| 午夜少妇精品视频小电影| 91口爆吞精国产对白第三集 | 欧美日韩精品一区二区在线线 | 亚洲天堂777| 激情成人综合网| 成人精品免费视频| 久久77777| 天天色综合4| 国产拍在线| 亚洲一区国色天香| a毛片在线| 97人妻精品专区久久久久| 3p叠罗汉国产精品久久| 国产一区免费在线观看| 亚洲无码视频喷水| 91九色国产porny| 免费在线一区| 免费人欧美成又黄又爽的视频| 少妇精品在线| 在线欧美a| 99爱视频精品免视看| 国产在线一二三区| 五月婷婷丁香综合| 99热这里只有精品在线观看| 99视频在线精品免费观看6| 亚洲系列中文字幕一区二区| 91精品综合| 国产精品自拍露脸视频| 久久永久精品免费视频| 日韩国产高清无码| 国产一区亚洲一区| 91精品视频网站| 为你提供最新久久精品久久综合| 国产第一福利影院| 日本精品影院| 国产精品自在自线免费观看| 亚洲 欧美 偷自乱 图片| 在线观看av永久| 亚洲三级a| 第一区免费在线观看| 欧美精品综合视频一区二区| 97色伦色在线综合视频| 毛片网站免费在线观看| 国产91熟女高潮一区二区| 国产乱子伦视频三区| 欧美成a人片在线观看| 免费看a级毛片| 国产制服丝袜91在线| 国产成人无码Av在线播放无广告| 欧美视频在线观看第一页| 午夜日b视频| 亚洲第一成网站| 亚洲欧洲日韩综合色天使| 久久国语对白| 99精品视频九九精品| 大学生久久香蕉国产线观看| 国产91蝌蚪窝| 青青草原国产一区二区| 第一页亚洲| 免费人成视频在线观看网站| 美女扒开下面流白浆在线试听 | 免费无码AV片在线观看国产| 国产丝袜精品| 色一情一乱一伦一区二区三区小说| 亚洲天堂视频在线播放| 国产精品福利尤物youwu| 亚洲区一区| 一级香蕉视频在线观看|