999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)SPPnet的YOLOv4目標(biāo)檢測(cè)

2021-12-17 09:08:42楊海舟李丹
電子制作 2021年22期
關(guān)鍵詞:特征結(jié)構(gòu)檢測(cè)

楊海舟,李丹

(四川大學(xué)錦城學(xué)院,四川成都,611371)

0 引言

隨著時(shí)代的快速發(fā)展,目標(biāo)檢測(cè)的應(yīng)用在現(xiàn)代生活中占據(jù)了較大比重。如何快速而準(zhǔn)確的實(shí)現(xiàn)目標(biāo)檢測(cè)也成為了一個(gè)現(xiàn)階段的實(shí)際問(wèn)題?,F(xiàn)階段,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法可分為兩類:Two-stage[1-3]和 One-stage。

第一類是,以R-CNN[1]系列為代表的Tow-stage檢測(cè)算法,該類算法將檢測(cè)過(guò)程分成兩個(gè)階段,先利用邊界搜索生成預(yù)選框,再利用卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)分類和回歸。該類算法雖然增強(qiáng)了精度,但其檢測(cè)速度較低。第二類是,以YOLO為代表的One-stage檢測(cè)算法,該類算法通過(guò)使用回歸模型,將目標(biāo)定位和分類一體化處理,可以直接獲得結(jié)果,該類算法的最大特點(diǎn)是擁有較高的速度,而精度相對(duì)較低。在精度和速度之間獲得更好的平衡,成為衡量目標(biāo)檢測(cè)模型綜合性能重要的標(biāo)準(zhǔn)。YOLOv4(You Only Look Once)作為YOLO系列網(wǎng)絡(luò)的最先進(jìn)的工作,YOLOv4 網(wǎng)絡(luò)的檢測(cè)準(zhǔn)確率 以及運(yùn)行速度都遠(yuǎn)遠(yuǎn)高于 YOLOv3 網(wǎng)絡(luò)。其結(jié)合了眾多目測(cè)檢測(cè)的tricks,完美實(shí)現(xiàn)了檢測(cè)精度和速度的平衡。

表 1 tricks使用及結(jié)果對(duì)比

YOLOv4的網(wǎng)絡(luò)結(jié)構(gòu)有四個(gè)重要部分組成,分別是:輸入(Input)、主干(Backbone)、頸部(Neck)和頭部(Head)。輸入(Input):主要包括Mosaic數(shù)據(jù)增強(qiáng)、cmBN、自對(duì)抗訓(xùn)練(SAT)。Mosaic數(shù)據(jù)增強(qiáng)采用4張圖片隨機(jī)處理的方式進(jìn)行拼接,這增強(qiáng)了對(duì)目標(biāo)的檢測(cè),并且由于目標(biāo)減少,所以也降低了訓(xùn)練成本。自對(duì)抗訓(xùn)練(STA)作為一種新型的數(shù)據(jù)增強(qiáng)方式可以改善學(xué)習(xí)的決策邊界中的薄弱環(huán)節(jié),提高模型的魯棒性。主干(Backbone):采用的CSPDarkNet53作為主干網(wǎng)絡(luò),代替了之前的DarkNet53。增強(qiáng)了模型的學(xué)習(xí)能力的同時(shí)也解決了梯度消失問(wèn)題。并且采用了Mish激活函數(shù),使網(wǎng)絡(luò)具有更強(qiáng)的準(zhǔn)確性。頸部(Neck):目標(biāo)檢測(cè)網(wǎng)絡(luò)在主干網(wǎng)絡(luò)(Backbone)和最后的輸出層之間插入的一層。頸部網(wǎng)絡(luò)采用了空間金字塔池化(Space Pyramid Pool, SPP)模塊和路徑聚合網(wǎng)絡(luò)(Path Aggregation Network, PANet)的結(jié)構(gòu)。主要是用于對(duì)特征進(jìn)行融合。SPP網(wǎng)絡(luò)作為Neck的附加模塊,采用四種不同尺度的最大化操作:1×1,5×5,9×9,13×13,對(duì)上層輸出的feature map進(jìn)行處理,再將不同尺度的特征圖進(jìn)行Concat操作。該模塊顯著的增加了主干特征的接收范圍,并且將上下文特征信息分離出來(lái)。FPN+PAN結(jié)構(gòu),F(xiàn)PN是自頂向下,將高層的特征通過(guò)上采用的方式進(jìn)行傳遞融合,得到進(jìn)行預(yù)測(cè)的特征圖。而Neck這部分,除了FPN外,還在此基礎(chǔ)上添加了一個(gè)自底向上的特征金字塔,其中包含兩個(gè)PAN結(jié)構(gòu)。避免了在傳遞的過(guò)程中出現(xiàn)信息丟失的問(wèn)題,提高了網(wǎng)絡(luò)預(yù)測(cè)的準(zhǔn)確性。頭部(Head):沿用了YOLO-v3的多尺度預(yù)測(cè)方式。對(duì)圖像特征進(jìn)行預(yù)測(cè),生成邊界框和并預(yù)測(cè)類別。在損失函數(shù)方面,其損失函數(shù)由三部分組成,分別為:預(yù)測(cè)框回歸誤差、置信度誤差、分類誤差。其中預(yù)測(cè)框回歸誤差不再使用YOLO-v3的均方誤差,而是采用的CIoU損失。

1 基于改進(jìn)的SPPnet的YOLOv4

■1.1 模型結(jié)構(gòu)

在YOLOv4的主干網(wǎng)絡(luò)后使用了SPPnet,但漏檢等情況并未得到有效的改善,為此本文在YOLO head2前增加了使用不同大小池化核的SPPnet(命名為SPP-1),同時(shí)為了保證SPPnet的網(wǎng)絡(luò)的通道數(shù)在引入前后保持?jǐn)?shù)量一致,故在SPP-1后使用了cocat和卷積層。改進(jìn)后的模型結(jié)構(gòu)如圖1所示。

圖1 改進(jìn)后的模型結(jié)構(gòu)

■1.2 SPPnet

卷積神經(jīng)網(wǎng)絡(luò)(CNN)通常由卷積層和全連接層組成。卷積層不需要輸入數(shù)據(jù)的大小。然而,第一個(gè)完全連接的層要求輸入大小必須是固定的。以VGG網(wǎng)絡(luò)16為例,其輸入大小固定為224×224,這在一定程度上限制了模型的泛化性能和應(yīng)用場(chǎng)景。

SPP結(jié)構(gòu)是在CSPDarknet53最后一個(gè)特征層之后,在對(duì)最后一個(gè)特征層進(jìn)行三次卷積后,用四個(gè)不同尺寸的最大池化進(jìn)行處理,四個(gè)不同尺寸的池化核大小分別為13x13、9x9、5x5、1x1。YOLOv4中通過(guò)添加SPP結(jié)構(gòu),增大感受野,分離出最重要的上下文特征,并且不會(huì)降低檢測(cè)速度。通過(guò)對(duì)SPPnet結(jié)構(gòu)的分析得出,原YOLOv4結(jié)構(gòu)中使用的SPPnet并不能很好的實(shí)現(xiàn)對(duì)不同尺度目標(biāo)特征信息的有效提取。為此,本位針對(duì)性的提出在以CSPdarknet53為主干網(wǎng)絡(luò)結(jié)構(gòu)基礎(chǔ)上融合多個(gè)SPPnet結(jié)構(gòu)。分別命名為SPP、SPP_1,其中SPP結(jié)構(gòu)參數(shù)保持不變,SPP_1的卷積核大小調(diào)整為15x15、11x11、7x7、1x1以此滿足淺層神經(jīng)網(wǎng)絡(luò)中的多尺度特征融合,SPP、SPP_1的網(wǎng)絡(luò)結(jié)構(gòu)圖如圖2所示。

圖2 SPPnet結(jié)構(gòu)示意圖

■1.3 CSPDarknet

CSPNet 易于實(shí)現(xiàn),且具有很好的通用性,可以構(gòu)造在 ResNet、ResNeXt和 DenseNet等 網(wǎng) 絡(luò)體系中。CSPDar knet53是在 Darknet53基礎(chǔ)上,參考了CSPNet,其主干主要包括五個(gè)CSP模塊。CSP模塊先是將特征圖分成兩部分,一個(gè)部分是Resblock的結(jié)構(gòu),分別迭代1,2,8,8,4次,另一個(gè)部分是經(jīng)過(guò)少量操作的殘差邊,最后進(jìn)行通道疊加操作,主要目的是能夠?qū)崿F(xiàn)更豐富的梯度組合,同時(shí)減少計(jì)算量,用于解決需要大量推理計(jì)算的問(wèn)題。

■1.4 PANet

PANet的概念在Mask R-CNN中也存在。PANet是對(duì)特征金字塔網(wǎng)絡(luò)(Feature Pyramid Network, FPN)的進(jìn)一步改進(jìn)。FPNet采用的是自頂向下的傳輸模式,將高層特征傳入下層。因此底層的特征無(wú)法對(duì)高層特征產(chǎn)生影響。并且在FPNet的這種傳輸模式中,頂部的信息傳入底部是逐層傳輸?shù)模@也導(dǎo)致了計(jì)算量增大,所以提出了PANet來(lái)解決這一問(wèn)題。

在PANet中引入了自底層向頂層向上傳播信息的增強(qiáng)結(jié)構(gòu)路徑,避免了在傳遞過(guò)程中部分信息丟失的問(wèn)題,并使得底層的信息更容易到達(dá)高層頂部。在加入了PANet后,在進(jìn)行從頂層向下層的特征融合后,再進(jìn)行自下層向頂層的特征融合,這樣的特征傳遞方式穿越的特征圖數(shù)量得到了大大的減少,因此減少了計(jì)算量。

圖 3 CSPDarketnet53結(jié)構(gòu)

2 實(shí)驗(yàn)

為驗(yàn)證改進(jìn)后的檢測(cè)算法的綜合性能,本文使用的數(shù)據(jù)是PASCAL VOC 07+12,其包含16000余張訓(xùn)練數(shù)據(jù)集,和5000張測(cè)試數(shù)據(jù)集,并與YOLOv4算法進(jìn)行了對(duì)比實(shí)驗(yàn)。我們的方法是在2.2GHz Intel i7-8750 CPU和NVIDIA GeForce RTX 2070S GPU上執(zhí)行的。相應(yīng)的程序在Pytorch框架下使用Python實(shí)現(xiàn)。

在物體檢測(cè)中,通常使用 mAP 指數(shù)來(lái)評(píng)估準(zhǔn)確度?;谠糦OLOv4模型,輸入圖像的分辨率設(shè)置為416 × 416,Batch size為16,初始學(xué)習(xí)率為0.0001,經(jīng)過(guò)50個(gè)Epoch得到最終的網(wǎng)絡(luò)模型。原YOLOv4算法與改進(jìn)后的算法的20類相比,實(shí)驗(yàn)結(jié)果如圖4、圖5所示。

圖4 左圖為原YOLOv4實(shí)驗(yàn)結(jié)果,右圖為改進(jìn)后的YOLOv4

圖4中,改進(jìn)后的算法相比于原YOLOv4算法,在幾乎所有類別上都有顯著的提升。原YOLOv4對(duì)pottedplant的檢測(cè)效果本身在二十個(gè)類別中就是最低的,主要是因?yàn)檫@個(gè)類別物體在圖像屬于通常尺寸比較小,而且在測(cè)試集中物體或多或少的受到其他物體的遮擋,對(duì)于YOLO算法來(lái)說(shuō),檢測(cè)的難度比較大。圖4中,原YOLOV4和改進(jìn)后的模型,對(duì)圖像檢測(cè)的情況來(lái)看,第一幅圖像中, 改進(jìn)后的模型不僅能檢測(cè)YOLOV4檢測(cè)出的目標(biāo),還能檢測(cè)出YOLOV4沒(méi)有檢測(cè)出的右邊的男士。第二幅圖像中,原YOLOV4漏檢了diningtable目標(biāo),改進(jìn)后的模型能準(zhǔn)確檢測(cè)。第三幅圖像中,原YOLOV4漏檢的比較嚴(yán)重,而且還將目標(biāo)car類別檢測(cè)成motorbike類別,而改進(jìn)的算法能減少漏檢的情況,并且能正確檢測(cè)目標(biāo)的類別。所以與原YOLOV4相比,改進(jìn)后的模型檢測(cè)效果更好。

圖 5 改進(jìn)后的模型與原YOLOV4檢測(cè)圖像的對(duì)比

YOLOv4中 常 用 的tricks有Mosaic,cosine learning rate,smooth label,以及weight decay。從上述表1中可以看出,只有通過(guò)對(duì)改進(jìn)后的模型算法進(jìn)行對(duì)比驗(yàn)證,才能知道當(dāng)前的設(shè)計(jì)是最佳的,我們通過(guò)在實(shí)驗(yàn)中調(diào)整mosaic數(shù)據(jù)增強(qiáng)、余弦退火學(xué)習(xí)率、標(biāo)簽平滑和權(quán)重衰減這些訓(xùn)練方法,使得改進(jìn)的算法有最好的結(jié)果。只有當(dāng)Mosaic數(shù)據(jù)增 強(qiáng)、Cosine_Ir打 開(kāi),Smooth_label=0,Weight_decay關(guān)閉時(shí),改進(jìn)后的模型才達(dá)到最高89.63%的mAP。

3 總結(jié)

本文在YOLOv4的基礎(chǔ)上,通過(guò)嵌入改進(jìn)的SPPnet,提出了改進(jìn)的YOLOv4檢測(cè)模型。在相同的數(shù)據(jù)集下進(jìn)行目標(biāo)檢測(cè)的實(shí)驗(yàn),改進(jìn)后的YOLOv4檢測(cè)模型與YOLOv4等主流檢測(cè)模型相比較,改進(jìn)后的模型具有較好的效率和較高的準(zhǔn)確性。此外,在普通非結(jié)構(gòu)化場(chǎng)景下,該算法還能成功檢測(cè)出部分被遮擋的物體,包括小尺度和大尺度物體。該改進(jìn)方法是成功且有效果的。在未來(lái)的工作中,改進(jìn)后的模型有望應(yīng)用于室內(nèi)場(chǎng)景的目標(biāo)檢測(cè)、戴口罩下的人臉檢測(cè)、人流量移動(dòng)下的目標(biāo)檢測(cè)……等任務(wù)。關(guān)于本文的研究?jī)?nèi)容,依然存在進(jìn)一步的優(yōu)化空間,在后續(xù)的工作中,還可以開(kāi)闊思想,進(jìn)一步提升檢測(cè)的速度,將該功能廣泛應(yīng)用在更多的領(lǐng)域。

猜你喜歡
特征結(jié)構(gòu)檢測(cè)
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
《形而上學(xué)》△卷的結(jié)構(gòu)和位置
如何表達(dá)“特征”
論結(jié)構(gòu)
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
論《日出》的結(jié)構(gòu)
小波變換在PCB缺陷檢測(cè)中的應(yīng)用
主站蜘蛛池模板: 欧美自拍另类欧美综合图区| 久久人人妻人人爽人人卡片av| 久久人妻系列无码一区| 国产免费一级精品视频 | 91成人在线观看| 国产h视频在线观看视频| 欧美成人一级| 欧美成人午夜影院| 国产 日韩 欧美 第二页| 九色国产在线| 国禁国产you女视频网站| 国产欧美精品午夜在线播放| 亚洲欧美极品| 成人免费网站在线观看| 亚洲一区国色天香| 萌白酱国产一区二区| 在线国产综合一区二区三区 | 国产精品毛片在线直播完整版| 成人在线天堂| 在线观看91精品国产剧情免费| 久久精品只有这里有| 亚洲经典在线中文字幕 | 色成人综合| 亚洲精品成人片在线观看| av一区二区三区高清久久| 99re热精品视频国产免费| 国产高清在线观看| 亚洲综合婷婷激情| 国产一二三区在线| 一级毛片基地| 四虎永久免费地址在线网站 | 视频一区视频二区中文精品| 九月婷婷亚洲综合在线| 天天操天天噜| 亚洲欧美极品| 9久久伊人精品综合| 亚洲h视频在线| www.亚洲一区二区三区| 亚洲精品中文字幕午夜| 国产精品香蕉| 欧美成人国产| 精品国产污污免费网站| 国产亚洲一区二区三区在线| 一级毛片免费观看不卡视频| 香蕉视频国产精品人| 精品五夜婷香蕉国产线看观看| 色国产视频| 天天躁夜夜躁狠狠躁图片| 国产91丝袜在线播放动漫| 91精品国产福利| 91色爱欧美精品www| 国产无码精品在线播放| 精品久久久久久成人AV| 98精品全国免费观看视频| 欧美高清国产| 中文无码精品A∨在线观看不卡 | 欧美日韩国产在线人成app| 久久伊人操| 精品福利视频导航| av天堂最新版在线| 久久天天躁夜夜躁狠狠| 亚洲天堂成人在线观看| 国产a网站| 亚洲国产欧美自拍| 极品国产一区二区三区| 国产亚洲欧美在线中文bt天堂| 国产一级在线观看www色| 日韩中文字幕免费在线观看| 萌白酱国产一区二区| 国产亚洲精久久久久久久91| 国产成人无码Av在线播放无广告| 波多野结衣一区二区三区四区视频| 无码中字出轨中文人妻中文中| 人人91人人澡人人妻人人爽| 国产三级视频网站| 亚洲婷婷六月| 91区国产福利在线观看午夜 | 999国产精品永久免费视频精品久久| 91在线播放免费不卡无毒| 欧美成人亚洲综合精品欧美激情| 九色在线视频导航91| 国产第一页屁屁影院|