999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)YOLOv5的道路目標(biāo)檢測

2023-04-29 00:00:00吳麗娟黃堯關(guān)貴明

摘要:為提高自動駕駛中的道路目標(biāo)檢測精度,設(shè)計了一種基于YOLOv5的道路目標(biāo)檢測模型。該模型在YOLOv5s的網(wǎng)絡(luò)模型基礎(chǔ)上,將原始的初始錨框聚類算法改為K-means+[KG-*4]+算法來減小隨機(jī)帶來的聚類誤差;并在Backbone中SPP模塊之前引入SENet注意力機(jī)制,以增強(qiáng)道路目標(biāo)重要特征并抑制一般特征,達(dá)到提高檢測網(wǎng)絡(luò)對道路目標(biāo)的檢測能力。在VOC2012改進(jìn)數(shù)據(jù)集上訓(xùn)練、測試,基于改進(jìn)的YOLOv5s的模型比原始YOLOv5s模型平均準(zhǔn)確精度提高了2.4%。實(shí)驗(yàn)結(jié)果表明,改進(jìn)的YOLOv5s模型能較好地滿足道路目標(biāo)檢測的精度要求。

關(guān) 鍵 詞:YOLOv5; 道路目標(biāo)檢測; 聚類算法; 注意力機(jī)制

中圖分類號:TP391 文獻(xiàn)標(biāo)志碼:A

doi:10.3969/j.issn.1673-5862.2023.01.014

Road object detection based on improved YOLOv5

WU Lijuan1, HUANG Yao1, GUAN Guiming2

(1. College of Physical Science and Technology, Shenyang Normal University, Shenyang 110034, China;

2. Troops 31441 of The Chinese Peoples Liberation Army, Shenyang 110001, China)

Abstract:In order to improve the accuracy of road target detection in automatic driving, a road target detection model based on YOLOv5 is proposed. Based on the network model of YOLOv5s, this model changes the original initial anchor frame clustering algorithm to K-means+[KG-*4]+ algorithm to reduce the clustering error caused by randomness. The SENet attention mechanism is introduced before the SPP module in Backbone to enhance the important features of road targets and suppress the general features to improve the detection capability of the detection network for road targets. After training and testing on the VOC2012 improved dataset, the average accuracy of the model based on the improved YOLOv5s is 2.4%, higher than that of the original YOLOv5s model. The experimental results show that the improved YOLOv5s model can better meet the accuracy requirements of road target detection.

Key words:YOLOv5; road object detection; clustering algorithm; attention mechanism

伴隨著人工智能技術(shù)的飛速發(fā)展,智能交通研究受到廣大研究者的青睞,其中道路目標(biāo)檢測是智能交通的重要組成部分,成為目前研究的熱點(diǎn)問題。道路目標(biāo)檢測作為自動駕駛系統(tǒng)中的重要組成部分,設(shè)計一套實(shí)時性強(qiáng),魯棒性高的算法很有必要。目標(biāo)檢測技術(shù)又分為傳統(tǒng)目標(biāo)檢測算法與基于深度學(xué)習(xí)的目標(biāo)檢測算法,傳統(tǒng)目標(biāo)檢測算法往往基于人為的手工設(shè)計提取特征,這種提取特征方式嚴(yán)重依賴研究人員對于該領(lǐng)域的了解程度,這種由研究人員決定算法的優(yōu)劣程度不具有較高的魯棒性。近年來,由于深度學(xué)習(xí)的蓬勃發(fā)展,目標(biāo)檢測算法領(lǐng)域又取得了長足的進(jìn)步。目前基于深度學(xué)習(xí)的目標(biāo)檢測算法主要分為2個方向,一類是以YOLO[1]系列算法、SSD[2]算法、RetinaNet[3]為代表的基于回歸思想的One-Stage檢測算法,另一類則是以R-CNN[4]、Fast R-CNN[5]、Faster R-CNN[6]為代表的基于區(qū)域性建議的Two-Stage檢測算法。One-Stage檢測算法不需要生成預(yù)選框,在網(wǎng)絡(luò)中直接提取特征實(shí)現(xiàn)目標(biāo)物體的定位和類別預(yù)測,其優(yōu)勢就是速度比Two-Stage算法快,但相對的就是精度略有損失。Two-Stage檢測算法首先是利用CNN網(wǎng)絡(luò)產(chǎn)生候選區(qū)域,然后再對候選區(qū)域分類,其優(yōu)勢在于精度高,但這是通過犧牲檢測速度換來的。

金宇塵等[7]基于YOLOv2算法融合多尺度特征層信息建立額外檢測特征層,提出自適應(yīng)損失函數(shù)與難樣本生成的方法對模型進(jìn)行訓(xùn)練,提高了車輛目標(biāo)檢測的準(zhǔn)確率與召回率。馬永杰等[8]將YOLOv3模型和DeepSort算法結(jié)合,兼顧了對不同尺寸目標(biāo)的檢測以及檢測度。陽珊等[9]基于RetinaNet提出一種改進(jìn)回歸損失函數(shù)與動態(tài)非極大值抑制的目標(biāo)檢測框架,該框架對于遮擋目標(biāo)有著良好的檢測效果。Tang等[10]以Faster R-CNN為基礎(chǔ),通過HRPN(Hyper region proposal network)提取目標(biāo),增強(qiáng)了對小尺寸目標(biāo)物的檢測能力。

基于對One-Stage檢測算法和Two-Stage檢測算法的分析,本文在最新的卷積神經(jīng)網(wǎng)絡(luò)YOLOv5算法的基礎(chǔ)上提出一種改進(jìn)的檢測算法,來實(shí)現(xiàn)道路上的多目標(biāo)檢測。

1 YOLOv5原理

YOLOv5算法分為4個模型,分別是YOLOv5s,YOLOv5m,YOLOv5l和YOLOv5x。由于YOLOv5s的模型最小,在模型的部署上有著獨(dú)特的優(yōu)勢。因此,本文主要依托于YOLOv5s模型進(jìn)行改進(jìn)。YOLOv5的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,由輸入端(Input)、主干網(wǎng)絡(luò)(BackBone)、頸部網(wǎng)絡(luò)(Neck)和輸出端(Head)4個部分組成:

1) 輸入端(Input)主要采用Mosaic數(shù)據(jù)增強(qiáng)[11]、自適應(yīng)錨框計算以及自適應(yīng)圖片縮放等操作來完成豐富數(shù)據(jù)集、計算最佳錨框值以及提升檢測速度。

2) 主干網(wǎng)絡(luò)(Backbone)主要由Focus結(jié)構(gòu)、CSP[12]結(jié)構(gòu)組成:

① Foucs結(jié)構(gòu)是將原始的608×608×3的圖像采用切片操作,先變成304×304×12的特征圖,再經(jīng)過一次32個卷積核的卷積操作,最終變成304×304×32的特征圖。

② CSP結(jié)構(gòu)借鑒CSPNet的設(shè)計思路,以增強(qiáng)學(xué)習(xí)能力及降低計算瓶頸和內(nèi)存成本。

3) 頸部網(wǎng)絡(luò)(Neck)采用了FPN+PAN的結(jié)構(gòu)來達(dá)到進(jìn)一步提高特征提取的能力。

4) 輸出部分(Head)即對于網(wǎng)絡(luò)的輸出,采用的是耦合的Head,使用了3個不同的輸出Head,進(jìn)行多尺度預(yù)測。

YOLOv5對于目標(biāo)的具體檢測與識別過程如圖1所示。將輸入的圖像通過Mosaic增強(qiáng)縮放至合適大小后輸入到卷積神經(jīng)網(wǎng)絡(luò)中,經(jīng)過Backbone,Neck,Head處理得到檢測物的位置、大小和類別,利用損失函數(shù)計算預(yù)測框與真實(shí)框的差距,通過梯度下降迭代降低預(yù)測框與真實(shí)框之間的差距,最后取總迭代次數(shù)里損失函數(shù)最小值時的權(quán)重矩陣和偏置,得到待檢測物預(yù)測信息。

2 基于YOLOv5s的道路目標(biāo)檢測算法改進(jìn)

本文設(shè)計的道路目標(biāo)檢測算法主功能是對汽車行駛過程中的道路中央以及兩側(cè)的目標(biāo)物進(jìn)行檢測與識別,從而更好地提升駕駛的安全性。本算法的設(shè)計結(jié)構(gòu)如圖2所示。

本算法主要改進(jìn)包括以下2點(diǎn):

1) 對初始錨框的優(yōu)化。區(qū)別于之前的幾代算法,YOLOv5增加了自適應(yīng)錨框計算,通過內(nèi)嵌自適應(yīng)錨框計算來完成在訓(xùn)練之前對于初始錨框的計算,不需要通過單獨(dú)的程序運(yùn)行。YOLOv5采用的自適應(yīng)錨框計算主要通過K-means算法及遺傳算法來完成,但是K-means算法有著結(jié)果只能保證局部最優(yōu),不能保證全局最優(yōu)的缺陷。因此,本文將對K-means算法進(jìn)行改進(jìn),采用K-means+[KG-*4]+算法替代,來減小隨機(jī)性帶來的聚類誤差。

2) 對主干網(wǎng)絡(luò)進(jìn)行優(yōu)化。加入SE[13]通道注意力機(jī)制來增強(qiáng)重要特征、抑制一般特征,提高網(wǎng)絡(luò)的表示能力,從而達(dá)到算法檢測效果的優(yōu)化。

2.1 初始錨框的優(yōu)化

目標(biāo)檢測算法通常會在輸入圖像中采樣大量的區(qū)域,然后判斷這些區(qū)域中是否包含感興趣的目標(biāo),并調(diào)整區(qū)域邊緣從而準(zhǔn)確地預(yù)測目標(biāo)的真實(shí)邊界框。不同模型使用的區(qū)域采樣方法可能不同,以每個像素為中心生成多個大小和寬高比不同的邊界框。這些邊界框稱為錨框。

2.1.1 交并比

IoU[14] 的全稱為交并比(intersection over union),其計算的是 “預(yù)測的邊框” 和 “真實(shí)的邊框” 的交集和并集的比值,計算公式如公式(1)所示。

2.1.2 K-means+[KG-*4]+算法

原始YOLOv5算法在Autoanchor里集成了K-means算法和遺傳算法。在訓(xùn)練開始前進(jìn)行數(shù)據(jù)的Anchor值的計算,根據(jù)所得到的BPR(best possible recall)值來判定該數(shù)據(jù)集是否需要重新計算Anchor,如果BPR小于0.98就需要重新計算,大于就不需要重新計算,采用當(dāng)前的Anchor值即可。

K-means聚類算法需要人為地去確定K值,且結(jié)果并不一定是全局最優(yōu)解,很可能是局部最優(yōu)解,這樣就大大地降低了算法的效率。基于K-means算法的缺點(diǎn),本文將用K-means+[KG-*4]+算法來替代K-means算法,對數(shù)據(jù)集進(jìn)行重新聚類,減小誤差,增強(qiáng)檢測算法的準(zhǔn)確性。由于YOLOv5本身使用的K-means方法是Scipy包提供的,使用的是歐式距離。因此,在將K-means算法改為K-means+[KG-*4]+算法的同時,本文也將K-means+[KG-*4]+算法的歐式距離改為1-IoU(bboxes,anchors)距離來獲得更好的計算效果。具體計算過程如下:

1) 從數(shù)據(jù)集中隨機(jī)選取一個樣本作為初始簇中心C1。

2) 首先計算每個樣本與當(dāng)前已有簇中心之間的最短距離,用D(x)表示;接著計算每個樣本被選為下一個簇中心的概率。最后,按照輪盤法選擇出下一個簇中心。

3) 重復(fù)第2步直到選擇出共K個簇中心。

4) 計算每個樣本離每個簇的距離1-IoU(bboxes, anchors)。

5) 計算每個樣本距離最近的簇中心,并分配到離它最近的簇中。

6) 根據(jù)每個簇中的樣本重新計算簇中心。

7) 重復(fù)第5步到第6步直到每個簇中元素不再發(fā)生變化。

2.1.3 改進(jìn)前后對比

通過對自動錨框聚類算法的改進(jìn),將K-means改為K-means+[KG-*4]+_IoU。為了更好地驗(yàn)證改進(jìn)的效果,本文在數(shù)據(jù)集上進(jìn)行了測試,測試結(jié)果也證明初始錨框的優(yōu)化提高了檢測精度,具體檢測精度由原來的72.7%提升到73.7%,提升了百分之一的精度,實(shí)驗(yàn)結(jié)果分析見表2。

2.2 主干網(wǎng)絡(luò)(Backbone)的改進(jìn)

針對在檢測圖像里的小目標(biāo)物體難以檢測的問題,本文提出在網(wǎng)絡(luò)中融合注意力機(jī)制的方法來進(jìn)行改善。

2.2.1 SENet注意力機(jī)制

深度學(xué)習(xí)里的注意力機(jī)制就是機(jī)器模仿人類對于一些物體的選擇性注意力行為,其本質(zhì)是在大量的信息之中篩選出核心的信息。在道路目標(biāo)檢測這種比較復(fù)雜的檢測場景下使用注意力機(jī)制提取重要的目標(biāo)信息無疑是一種很好的方法,因此,本文引入SENet注意力模塊。

SENet主要通過Squeeze模塊和Excitation模塊來實(shí)現(xiàn)通過自學(xué)的方式自動獲取每個特征通道位置的重要程度,并利用得到的重要程度來提升特征并抑制對當(dāng)前任務(wù)不重要的特征。首先,在得到U之后采用全局平均池化操作對其每個Feature map進(jìn)行壓縮,使得C個Feature map最后變成1*1*C的實(shí)數(shù)數(shù)列,選擇最簡單的全局平均池化操作,從而使其具有全局的感受野,使得網(wǎng)絡(luò)底層也能利用全局信息。然后,Exaction使用一個全連接神經(jīng)網(wǎng)絡(luò),對Squeeze之后的結(jié)果做一個非線性變化。最后,使用Excitation得到的結(jié)果作為權(quán)重,乘到輸入特征上。SENet的結(jié)構(gòu)如圖3所示。

2.2.2 注意力模塊的融合

雖然SENet注意力機(jī)制有著即插即用的優(yōu)勢,在網(wǎng)絡(luò)任何結(jié)構(gòu)都可以插入,但目前還沒有完整的理論說明SENet注意力模塊在網(wǎng)絡(luò)結(jié)構(gòu)的哪一部分中插入有著最好的效果。因此,本文通過實(shí)驗(yàn)探究在Backbone的C3模塊融合SE,Backbone的SPP模塊之前融合SE,Head前部融合SE對網(wǎng)絡(luò)性能的影響,并將以上3種模塊融合模型命名為YOLOv5s-K+[KG-*4]+_C3SE_Backbone,YOLOv5s-K+[KG-*4]+_SE_Backbone,YOLOv5s-K+[KG-*4]+_SE_Head,其結(jié)構(gòu)如圖4、圖5和圖6所示。

2.2.3 改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)

通過以上的幾種方法測試后,本文提出改進(jìn)算法YOLOv5s-K+[KG-*4]+_SE_Backbone,即在Backbone的SPP模塊之前融合SENet注意力機(jī)制,以提升算法檢測精度。同時,為了驗(yàn)證改進(jìn)模型的優(yōu)異性,也對CBAM,SA和ECA這3種注意力模塊進(jìn)行了融合對比實(shí)驗(yàn),得到的數(shù)據(jù)也充分證明了本文改進(jìn)算法的優(yōu)異性,見表3。

3 實(shí)驗(yàn)過程與分析

3.1 實(shí)驗(yàn)數(shù)據(jù)集

為了驗(yàn)證改進(jìn)算法的有效性,本文使用了多個數(shù)據(jù)集,分別為依賴于VOC2012[15]為基礎(chǔ)提取的五類道路目標(biāo):person, car,bus,bicycle,motorbike的數(shù)據(jù)集VOC2012_traffic,KITTI[16]自動駕駛數(shù)據(jù)集以及自制的交通工具類別數(shù)據(jù)集Vehicle。在數(shù)據(jù)集的使用過程中,將數(shù)據(jù)集按8∶2的比例分為訓(xùn)練集以及測試集。其中VOC2012_traffic數(shù)據(jù)集共有圖片10 870張,共分為person,car,bus,bicycle,motorbike五類;KITTI數(shù)據(jù)集共有圖片7 481張,共分為car,cyclist,pedestrain三類;Vehicle共有圖片2 022張,共分為bigcar,bigtruck,midcar,oil truck,smalltruck,specialcar,tinycar七類。實(shí)驗(yàn)中的訓(xùn)練集和測試集的劃分見表1。

3.2 實(shí)驗(yàn)平臺及訓(xùn)練參數(shù)

本實(shí)驗(yàn)的具體運(yùn)行環(huán)境如下:操作系統(tǒng)是Windows10專業(yè)版,CPU使用英特爾的I5-12490F,顯卡使用的是NAIDIA GeForce RTX3060 12G,內(nèi)存為16G,Python環(huán)境是基于Anaconda的Python3.8,Pytorch版本是1.9,CUDA版本為11.1,CUDNN版本為8005。

本實(shí)驗(yàn)的具體訓(xùn)練參數(shù)設(shè)置如下:圖片大小為640*480,初始學(xué)習(xí)率為0.01,迭代次數(shù)為100,Batch-size為32,Num_Workers為2。

3.3 評價指標(biāo)

本文實(shí)驗(yàn)結(jié)果從平均準(zhǔn)確率均值(mAP)、召回率(Recall)、查準(zhǔn)率(Precision)等3個方面來對改進(jìn)后的算法性能進(jìn)行評估。召回率、查準(zhǔn)率、平均準(zhǔn)確率均值計算公式如下所示:

其中:TP表示被正確檢測出的道路目標(biāo)數(shù)量;FP表示被錯誤檢測出的道路目標(biāo)數(shù)量;FN代表漏掉的道路目標(biāo)數(shù)量。

3.4 實(shí)驗(yàn)結(jié)果與分析

3.4.1 初始錨框優(yōu)化結(jié)果分析

為了方便區(qū)分訓(xùn)練結(jié)果,由K-means算法改進(jìn)為K-means+[KG-*4]+算法的YOLOv5s算法將命名為YOLOv5s-K+[KG-*4]+。為了驗(yàn)證K-means+[KG-*4]+算法的可靠性,本文分別在3個數(shù)據(jù)集上都進(jìn)行了實(shí)驗(yàn)。具體實(shí)驗(yàn)結(jié)果見表2。

從表2可以看出,改進(jìn)后算法的平均準(zhǔn)確率均值(mAP)均優(yōu)于改進(jìn)前的算法,都有提升,證明了改進(jìn)K-means+[KG-*4]+算法的可行性。

3.4.2 Backbone優(yōu)化結(jié)果分析

為了驗(yàn)證融合注意力模塊是否有效以及找出將注意力模塊在哪個位置融合的效果較好,本文以經(jīng)過優(yōu)化聚類算法后得到的改進(jìn)算法為基礎(chǔ),將SENet模塊融合在算法的不同位置,形成了3.2.2節(jié)中的3個新算法,然后將改進(jìn)后的3個算法以及基礎(chǔ)YOLOv5s-K+[KG-*4]+算法在VOC2012_traffic數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)對比,實(shí)驗(yàn)結(jié)果見表3。

從表3中可以看出,YOLOv5s-K+[KG-*4]+_SE_Backbone算法把SE注意力模塊添加在SPP模塊之前,檢測精度高于其他3類算法,相較于原始算法提升了2.4%的檢測精度,證明了改進(jìn)算法的有效性。同時,本文基于YOLOv5s-K+[KG-*4]+算法,再次引入了CBAM,ECA,CA這3種常見的注意力機(jī)制,添加到算法的Backbone的C3模塊中、SPP模塊之前以及Head模塊在VOC2012_traffic數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果見表3。

從表3中可以看出,算法在融合另外3種注意力之后,注意力模塊添加在SPP模塊之前的算法的檢測精度相較于原始算法也有提升,但是添加在C3模塊的方案中,除了YOLOv5s-K+[KG-*4]+_C3CBAM_Backbone檢測精度略有提升,其余的算法檢測精度都出現(xiàn)了下降的現(xiàn)象,其中YOLOv5s-K+[KG-*4]+_C3ECA_Backbone算法檢測精度下降最大,達(dá)到了3%。綜上所述,注意力機(jī)制并不是都能夠帶來檢測精度的提升,也有可能帶來算法的負(fù)優(yōu)化,同時上述對比也證明了本文所引入的SE注意力相比其他注意力機(jī)制更有優(yōu)越性。如圖7和圖8所示,改進(jìn)后的YOLOv5算法能夠檢測到原始算法漏掉的目標(biāo)。

4 結(jié) 語

針對YOLOv5在道路目標(biāo)檢測下會出現(xiàn)漏檢的問題,本文在YOLOv5s基礎(chǔ)上優(yōu)化了初始錨框的選擇以及在Backbone模塊里引進(jìn)SENet注意力機(jī)制。通過數(shù)據(jù)對比證明引入SENet注意力機(jī)制是相對來說較優(yōu)的選擇,改進(jìn)后的YOLOv5算法也展現(xiàn)出了較好的性能,將原始模型漏檢的目標(biāo)檢測出來。多次的實(shí)驗(yàn)結(jié)果表明,本文提出的改進(jìn)方法具有可行性,將優(yōu)化后的模型進(jìn)行輕量化改進(jìn)再部署到智能小車上并且能夠良好的運(yùn)行是下一步的研究重點(diǎn)。

參考文獻(xiàn):

[ 1 ]REDMON J,DIVVALA S,GIRSHICK R,et al. You only look once: Unified, real-time object detection[C]∥The IEEE Conference On Computer Vision and Pattern Recognition. Las Vegas: IEEE, 2016:779-788.

[ 2 ]LIU W,ANGUELOV D,ERHAN D,et al. SSD: Single shot MultiBox detector[C]∥Proceedings of the 2014 European Conference on Computer Vision, LNCS 9905. Cham: Springer, 2016:21-37.

[ 3 ]LIN T Y,GOYAL P,GIRSHICK R,et al. Focal loss for dense object detection[C]∥The IEEE International Conference on Computer Vision. New York: IEEE, 2017:2980-2988.

[ 4 ]GIRSHICK R,DONAHUE J,DARRELL T,et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]∥The IEEE Conference on Computer Vision and" Pattern Recognition. New York: IEEE, 2014:580-587.

[ 5 ]GIRSHICK R. Fast r-cnn[C]∥Proceedings of the IEEE International Conference on Computer Vision. New York: IEEE, 2015:1440-1448.

[ 6 ]REN S,HE K,GIRSHICK R,et al. Faster r-cnn: Towards real-time object detection with region proposal networks[J]. NIPS, 2015,28:91-99.

[ 7 ]金宇塵,羅娜. 結(jié)合多尺度特征的改進(jìn)YOLOv2車輛實(shí)時檢測算法[J]. 計算機(jī)工程與設(shè)計, 2019(5):1457-1463,1476.

[ 8 ]馬永杰,馬蕓婷,程時升,等. 基于改進(jìn)YOLOv3模型與DeepSort算法的道路車輛檢測方法[J]. 交通運(yùn)輸工程學(xué)報, 2021,21:222-231.

[ 9 ]陽珊,王建,胡莉,等. 改進(jìn)RetinaNet的遮擋目標(biāo)檢測算法研究[J]. 計算機(jī)工程與應(yīng)用, 2022(11):209-214.

[10]TANG T,ZHOU S,DENG Z,et al. Vehicle detection in aerial images based on region convolutional neural networks and hard negative example mining[J]. Sensors, 2017,17:336.

[11]YUN S,HAN D,CHUN S,et al. CutMix: Regularization strategy to train strong classifiers with localizable features[C]∥Proceedings of the IEEE/CVF International Conference On Computer Vison. Seoul,Korea(South): IEEE, 2019:659-668.

[12]WANG C Y,LIAO H Y M,WU Y H,et al. CSPNet: A new backbone that canenhance learning capability of CNN[C]∥Proceedings of the IEEE/CVF Conference On Computer Vision and Pattern Recognition Workshops. New York: IEEE, 2020:390-391.

[13]HU J,SHEN L,SUN G. Squeeze-and-excitation networks[C]∥Proceedings of the IEEE Conference On Computer Vision and Pattern Recognition. New York: IEEE, 2018:7132-7141.

[14]RAHMAN M A,WANG Y. Optimizing intersection-over-union in deep neural networks for image segmentation[C]∥International Symposium on Visual Computing. Cham: Springer, 2016:234-244.

[15]SHETTY S. Application of convolutional neural network for image classification on pascal voc challenge 2012 dataset[J]. CORR, 2016,21(3):1-6.

[16]FAN Q,BROWN L,SMITH J. A closer look at faster R-CNN for vehicle detection[C]∥Proceedings of the 2016 Intelligent Vehicles Symposium. Piscataway, New York: IEEE, 2016:124-129.

收稿日期:2022-10-25

基金項(xiàng)目:遼寧省教育廳科研項(xiàng)目(LFW202003)。

作者簡介:吳麗娟(1964—),女,遼寧沈陽人,沈陽師范大學(xué)教授,博士;

通信作者:黃 堯(1998—),男,江蘇淮安人,沈陽師范大學(xué)在讀碩士研究生。

主站蜘蛛池模板: 中文字幕av无码不卡免费| 久久国产成人精品国产成人亚洲| 亚洲欧美精品一中文字幕| lhav亚洲精品| 国产亚洲欧美日韩在线一区| A级毛片无码久久精品免费| 亚洲色图在线观看| 91成人在线观看视频| 性喷潮久久久久久久久| 日韩人妻无码制服丝袜视频| 一本色道久久88| 中文国产成人精品久久一| 亚洲首页在线观看| 久久久久久午夜精品| 久久性妇女精品免费| 欧美va亚洲va香蕉在线| 第九色区aⅴ天堂久久香| 狠狠色综合久久狠狠色综合| 国产自在自线午夜精品视频| 一级高清毛片免费a级高清毛片| 青草娱乐极品免费视频| 国产成人亚洲精品无码电影| 国产无遮挡猛进猛出免费软件| 欧美一级在线看| 高清国产在线| 亚洲男人的天堂视频| 成人第一页| 亚洲不卡无码av中文字幕| 国产内射在线观看| 欧美怡红院视频一区二区三区| 天堂网国产| 欧美一区二区丝袜高跟鞋| 一本大道香蕉高清久久| 丁香婷婷综合激情| 亚洲天堂精品在线| 国产色婷婷视频在线观看| 玖玖精品在线| 黄网站欧美内射| 国产va在线观看免费| 22sihu国产精品视频影视资讯| 影音先锋丝袜制服| 亚洲一区毛片| 毛片在线看网站| 久久久久国产精品熟女影院| 欧美啪啪视频免码| 99视频在线精品免费观看6| 国产一级α片| 亚洲男人在线| 国内精品自在自线视频香蕉| 国产人妖视频一区在线观看| 色AV色 综合网站| 欧美一区二区三区国产精品| 国产亚洲精品自在线| 国产真实自在自线免费精品| 亚洲精品在线影院| 超薄丝袜足j国产在线视频| 免费毛片a| 亚洲黄色高清| 国产午夜无码片在线观看网站| 国产欧美日韩精品第二区| 尤物亚洲最大AV无码网站| 国产在线观看99| 国产日产欧美精品| 国产精品成人免费视频99| 香蕉久久国产超碰青草| 免费一级毛片不卡在线播放| 精品国产91爱| 欧美伊人色综合久久天天| 免费aa毛片| 国产精品专区第1页| 噜噜噜综合亚洲| 欧美在线一二区| A级毛片高清免费视频就| 91麻豆国产精品91久久久| 免费观看三级毛片| 91丝袜乱伦| 亚洲欧洲日韩综合色天使| 国产全黄a一级毛片| 亚洲成人黄色网址| 国产精品美女在线| 9啪在线视频| 国产午夜福利亚洲第一|