999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)YOLOv5的霧霾天氣下行人車(chē)輛檢測(cè)算法

2024-02-21 02:32:42張淑卿王亞超
無(wú)線電工程 2024年2期
關(guān)鍵詞:特征實(shí)驗(yàn)檢測(cè)

張淑卿,王亞超,肖 寒

(華北理工大學(xué) 電氣工程學(xué)院,河北 唐山 063210)

0 引言

高級(jí)駕駛輔助系統(tǒng)(Advanced Driving Assistance System,ADAS)旨在幫助駕駛員在行駛過(guò)程中避免交通事故,提高駕駛的安全性。車(chē)輛與行人檢測(cè)是其重要組成部分,通過(guò)車(chē)載小型攝像機(jī)對(duì)路況信息實(shí)時(shí)檢測(cè)、精準(zhǔn)定位目標(biāo),對(duì)避免交通事故的發(fā)生具有十分巨大的作用。然而在實(shí)際應(yīng)用場(chǎng)景中,作為汽車(chē)“眼睛”的攝像機(jī),在特殊天氣,如霧霾條件下,會(huì)產(chǎn)生圖像模糊、特征無(wú)法分辨等問(wèn)題,導(dǎo)致常規(guī)的檢測(cè)方法性能大幅下降,出現(xiàn)漏檢或誤檢等問(wèn)題,極大地增加了駕駛的危險(xiǎn)性[1]。因此,對(duì)霧霾天氣下的行人與車(chē)輛進(jìn)行檢測(cè),具有重要的研究?jī)r(jià)值。

目前,在霧霾條件下的行人與車(chē)輛檢測(cè)主要分為基于機(jī)器視覺(jué)的檢測(cè)方法與基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法[2]。傳統(tǒng)的基于機(jī)器學(xué)習(xí)的檢測(cè)方法主要利用顏色、紋理和邊緣等細(xì)節(jié)信息進(jìn)行檢測(cè)。如Schwartz等[3]將梯度特征與顏色、紋理特征進(jìn)行融合,構(gòu)建高維描述子,并通過(guò)偏最小二乘降維,可以檢測(cè)行人與車(chē)輛目標(biāo)。包曉敏等[4]提出一種基于Gabor小波與HOG特征融合(G-HOG)的行人檢測(cè)算法,取得了較好的查全率與識(shí)別率。基于機(jī)器視覺(jué)的檢測(cè)方法,存在特征提取難度大、泛化能力不強(qiáng)和計(jì)算復(fù)雜等問(wèn)題,難以滿足如今霧霾條件下行人與車(chē)輛檢測(cè)高效、實(shí)時(shí)的需求。

近年來(lái),基于深度學(xué)習(xí)的圖像分類(lèi)、目標(biāo)檢測(cè)等技術(shù)開(kāi)始興起。這類(lèi)目標(biāo)檢測(cè)方法主要可以分為一階段算法與二階段算法。一階段算法在保證檢測(cè)精度的前提下,相比二階段算法大幅提高了檢測(cè)速度,代表算法有YOLO[5]、SSD[6]和RetinaNet[7]等。YOLO系列算法將目標(biāo)識(shí)別與邊界框回歸同時(shí)進(jìn)行,具有快響應(yīng)、非接觸式、部署靈活的特點(diǎn),在行人與車(chē)輛檢測(cè)中具有廣泛的應(yīng)用。蔣超等[8]針對(duì)傳統(tǒng)行人檢測(cè)參數(shù)量較大和計(jì)算復(fù)雜度高的問(wèn)題,通過(guò)對(duì)YOLOv5模型進(jìn)行替換主干網(wǎng)絡(luò)、加入注意力機(jī)制等方法,獲得了一種輕量化的行人檢測(cè)算法。方康等[9]提出一種基于一階段無(wú)錨框檢測(cè)算法YOLOX的多光譜行人檢測(cè)算法,通過(guò)將多模態(tài)特征解耦與共性特征提取融合的方法,有效提高了對(duì)特征的提取能力,加快了模型的檢測(cè)速度。歐群雍等[10]為了提高多行人檢測(cè)跟蹤的準(zhǔn)確性與魯棒性,提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)與雙向長(zhǎng)短期記憶網(wǎng)絡(luò)相結(jié)合的跟蹤方法,獲得了較好的效果。目前,通過(guò)對(duì)YOLO系列檢測(cè)算法進(jìn)行改進(jìn),在復(fù)雜天氣條件下的檢測(cè)也取得了一定的成果。劉書(shū)剛等[11]將圖像去霧算法加入圖像預(yù)處理,同時(shí)微調(diào)YOLOv4網(wǎng)絡(luò),對(duì)霧天場(chǎng)景的行人檢測(cè)取得了較好的效果。院老虎等[12]通過(guò)改進(jìn)YOLOv5網(wǎng)絡(luò)的圖像增強(qiáng)技術(shù),優(yōu)化NMS非極大值抑制等方法,提高了對(duì)霧天場(chǎng)景下的車(chē)輛檢測(cè)效果。因此,本文采用YOLO算法作為改進(jìn)的基礎(chǔ)網(wǎng)絡(luò)。

針對(duì)霧霾天氣下拍攝到的圖像退化模糊,難以進(jìn)行準(zhǔn)確的識(shí)別與檢測(cè)的問(wèn)題,本文提出一種基于YOLOv5s改進(jìn)的霧霾天氣下行人與車(chē)輛檢測(cè)算法。

1 YOLOv5算法原理

YOLOv5網(wǎng)絡(luò)作為主流目標(biāo)檢測(cè)算法,繼承了YOLO系列網(wǎng)絡(luò)簡(jiǎn)潔高效的特點(diǎn),同時(shí)集合了許多計(jì)算機(jī)視覺(jué)方向相關(guān)技術(shù),根據(jù)內(nèi)部子模塊中卷積核的深度和寬度,可以分為4個(gè)模型,參數(shù)量由小到大依次為YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x。YOLOv5的一般結(jié)構(gòu)如圖1所示,從整體上來(lái)看,主要可以分為四部分:圖像預(yù)處理、Backbone、Neck和Head部分。

圖1 YOLOv5結(jié)構(gòu)Fig.1 YOLOv5 structure diagram

對(duì)于圖像預(yù)處理部分,在一般的隨機(jī)翻轉(zhuǎn)、水平旋轉(zhuǎn)和隨機(jī)裁剪的基礎(chǔ)上,YOLOv5繼續(xù)采用在YOLOv4中提出的Mosaic技術(shù),隨機(jī)選取4張圖片進(jìn)行尺度縮放,之后將其拼接成一張圖片輸入到網(wǎng)絡(luò)中。Mosaic技術(shù)可以極大地豐富檢測(cè)物體的背景,同時(shí)可以提高對(duì)小目標(biāo)的檢測(cè)效果。Backbone部分繼續(xù)延用YOLO系列的主干網(wǎng)絡(luò)CSPDackNet-53,采用Focus層,對(duì)輸入圖片進(jìn)行隔點(diǎn)采樣,在尺寸減半的基礎(chǔ)上通道數(shù)擴(kuò)充4倍,將圖片中的位置信息轉(zhuǎn)化為通道信息,緩解了傳統(tǒng)卷積下采樣帶來(lái)的信息損失。同時(shí)在CSP1_x模塊中加入殘差連接,加強(qiáng)網(wǎng)絡(luò)的學(xué)習(xí)能力,防止深層網(wǎng)絡(luò)在反向傳播中梯度消失問(wèn)題。在Neck部分,采用經(jīng)典的FPN+PAN結(jié)構(gòu),在通過(guò)上采樣將高層信息傳遞給底層的同時(shí),借助下采樣將信息反傳遞給高層,使得網(wǎng)絡(luò)的各層都擁有一定的信息。Head部分根據(jù)特征對(duì)目標(biāo)進(jìn)行預(yù)測(cè),輸出帶有預(yù)測(cè)信息的張量,經(jīng)過(guò)后處理操作,得到最終的預(yù)測(cè)結(jié)果。

雖然YOLOv5已經(jīng)具備很強(qiáng)的學(xué)習(xí)能力,但其特征提取與特征融合方面還有所不足,對(duì)遮擋、模糊等復(fù)雜條件下的檢測(cè)能力還有待提高。因此,本文采用YOLOv5s(v6.1)作為基礎(chǔ)模型,通過(guò)對(duì)圖片進(jìn)行去霧處理、加入基于自注意力機(jī)制的BoT3模塊、加入注意力機(jī)制和替換損失函數(shù)等方法來(lái)提高其對(duì)霧霾天氣下目標(biāo)的檢測(cè)能力,以滿足行人車(chē)輛檢測(cè)的要求。

2 改進(jìn)的YOLOv5算法

2.1 自注意力機(jī)制模塊

YOLOv5模型的主干網(wǎng)絡(luò)采用全卷積結(jié)構(gòu),具有簡(jiǎn)潔、高效的特點(diǎn),但隨著網(wǎng)絡(luò)層數(shù)的加深,全卷積結(jié)構(gòu)會(huì)在各尺度丟失大量的特征信息,導(dǎo)致網(wǎng)絡(luò)的檢測(cè)能力下降。因此,本文采用BoT3模塊替換原主干網(wǎng)絡(luò)中最深層的CSP2_1模塊,以增強(qiáng)網(wǎng)絡(luò)對(duì)于特征的提取能力。

BoT3模塊取材于BoTNet[13],其結(jié)構(gòu)如圖2所示,可以很明顯地發(fā)現(xiàn),BoT3結(jié)構(gòu)相比于普通的殘差結(jié)構(gòu),僅僅是將3×3的卷積替換為了多頭自注意力機(jī)制(Multi-Headed Self-Attention,MHSA),其他部分保持不變。BoT3中的MHSA結(jié)構(gòu)示意如圖3所示(顯示了head=1的情況,實(shí)驗(yàn)中所采用的head=4),MHSA的輸入特征矩陣尺寸為H×W×d,H、W表示輸入特征矩陣的長(zhǎng)與寬,d表示輸入特征的維度數(shù)。輸入特征通過(guò)與Q、K、V矩陣相乘,可以得到具有特征信息的q、k、v張量。Rh與Rw是可學(xué)習(xí)的參數(shù),分別表示長(zhǎng)度與寬度的相對(duì)位置編碼,其相加可以得到一個(gè)指定位置的位置編碼信息r,通過(guò)對(duì)q、k、v、r進(jìn)行一系列矩陣運(yùn)算,可以得到最終的注意力特征。

(a)全卷積殘差結(jié)構(gòu)

圖3 MHSA結(jié)構(gòu)示意Fig.3 MHSA structure diagram

本文采用BoT3模塊替換主干網(wǎng)絡(luò)中最深層的CSP2_1模塊,通過(guò)在網(wǎng)絡(luò)中引入全局注意力機(jī)制,提高網(wǎng)絡(luò)對(duì)于特征的提取能力,同時(shí),與卷積結(jié)構(gòu)的融合,避免了傳統(tǒng)自注意力機(jī)制巨大的計(jì)算負(fù)擔(dān),保持了網(wǎng)絡(luò)簡(jiǎn)潔高效的特點(diǎn),提高了模型對(duì)特征的提取能力。

2.2 混合注意力機(jī)制

圖4 HAM結(jié)構(gòu)示意Fig.4 HAM structure diagram

2.3 Wise-IOU

YOLOv5算法是基于邊界框的檢測(cè)算法,其檢測(cè)性能很大程度上依賴(lài)于損失函數(shù)的設(shè)計(jì)。邊界框損失函數(shù)作為其重要組成部分,其準(zhǔn)確定義可以帶來(lái)顯著的性能提升。原YOLOv5算法的邊界框損失函數(shù)采用CIOU損失,它側(cè)重于增強(qiáng)邊界框?qū)τ?xùn)練樣本中高質(zhì)量樣本的擬合能力,但這種方法對(duì)于低質(zhì)量樣本的擬合能力有所欠缺,同時(shí)盲目地強(qiáng)調(diào)高質(zhì)量樣本,而忽視低質(zhì)量樣本會(huì)導(dǎo)致模型泛化能力的下降。針對(duì)以上問(wèn)題,本文算法采用具有動(dòng)態(tài)非單調(diào)靜態(tài)聚焦機(jī)制的Wise-IOU(WIOU)損失函數(shù)替換CIOU損失函數(shù)。WIOU包含三部分:IOU損失、距離損失和非單調(diào)聚焦系數(shù)。圖5所示為WIOU參數(shù)示意。

圖5 WIOU參數(shù)示意Fig.5 WIOU parameter schematic

IOU損失定義為:

(1)

距離損失定義為:

(2)

式中:上標(biāo)*表示將Wg與Hg從計(jì)算圖中進(jìn)行分離,可有效提高收斂效率,并在邊界框與真實(shí)框重合較好的情況下降低其對(duì)中心點(diǎn)距離的關(guān)注,提高泛化能力。

非單調(diào)聚焦系數(shù)r定義為:

綜上所述,WIOU損失定義為:

(5)

采用WIOU替換CIOU,提高了模型收斂效率,提升了模型的精度。

2.4 圖像預(yù)處理

目標(biāo)檢測(cè)算法通常對(duì)于圖片的質(zhì)量要求較高,不良的圖片往往會(huì)導(dǎo)致檢測(cè)能力的下降。針對(duì)在霧霾條件下建立的數(shù)據(jù)集,本文采用暗通道先驗(yàn)去霧算法[15],在訓(xùn)練初始先進(jìn)行去霧操作,之后再送入到模型進(jìn)行訓(xùn)練。

暗通道先驗(yàn)去霧算法是一種基于圖像復(fù)原的去霧算法,通過(guò)對(duì)大量無(wú)霧圖片與有霧圖片進(jìn)行觀察總結(jié),得到二者之間某些參數(shù)的映射關(guān)系,之后根據(jù)有霧圖片的形成過(guò)程進(jìn)行逆過(guò)程,得到去霧圖片。算法實(shí)現(xiàn)過(guò)程如下:

① 計(jì)算大氣散射模型,公式如下:

I(x)=J(x)t(x)+A(1-t(x)),

(6)

式中:x表示圖像的空間坐標(biāo),I(x)、J(x)分別表示有霧與無(wú)霧圖像,A表示全球大氣光值,t(x)表示透射率。

② 暗通道的定義公式如下:

As mentioned,two design optimizations are done in this study.The first optimization is a deterministic optimization,and the second is a robust optimization.The considered objective functions and constraints are the same for both design optimizations.

(7)

式中:Ω(x)表示以x為中心的局部區(qū)域,上標(biāo)C表示RGB三通道。即先計(jì)算每個(gè)像素RGB通道中最小值,將其保存到一張預(yù)設(shè)灰度圖中,之后對(duì)其進(jìn)行最小值濾波,半徑由窗口大小決定。暗通道先驗(yàn)理論認(rèn)為對(duì)于非天空區(qū)域的無(wú)霧圖像J(x)趨于0。

③ 公式推導(dǎo):

(8)

設(shè)t(x)為常數(shù),且A給定,則推理如下:

(9)

由式(7)可推出:

(10)

將式(10)帶入式(9),可得:

(11)

綜上,可得最終的圖像去霧公式為:

(12)

本文通過(guò)將去霧算法加入到數(shù)據(jù)預(yù)處理階段,有效提高了模型的辨識(shí)能力與魯棒性。經(jīng)過(guò)以上改進(jìn),得到本文所提出的基于YOLOv5s改進(jìn)的霧霾天氣下行人與車(chē)輛檢測(cè)算法。改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。

圖6 改進(jìn)后的算法結(jié)構(gòu)Fig.6 Structure diagram of the improved algorithm

3 數(shù)據(jù)集及評(píng)價(jià)指標(biāo)

3.1 實(shí)驗(yàn)數(shù)據(jù)集

本實(shí)驗(yàn)采用自建數(shù)據(jù)集,圖片數(shù)據(jù)來(lái)源于網(wǎng)絡(luò)爬蟲(chóng)爬取,經(jīng)過(guò)VOC格式標(biāo)注,共包含圖片4 312張,共包含5類(lèi)目標(biāo),分別為行人(Person)、汽車(chē)(Car)、自行車(chē)(Bicycle)、巴士(Bus)和摩托車(chē)(Motorbike)。數(shù)據(jù)集類(lèi)別及標(biāo)注數(shù)量如表1所示。

表1 數(shù)據(jù)集類(lèi)別及標(biāo)注數(shù)量Tab.1 Data set category and number of annotation

將數(shù)據(jù)集按8∶1∶1的比例劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集。圖7為數(shù)據(jù)集標(biāo)注目標(biāo)的圖片示例。根據(jù)圖片示例可以發(fā)現(xiàn),在霧霾條件下采集到的圖像存在對(duì)比度與飽和度較低、顏色易發(fā)生偏移、失真和目標(biāo)輪廓模糊不清等問(wèn)題,同時(shí)數(shù)據(jù)集中包含較多的遮擋、重疊目標(biāo)與小目標(biāo)。因此,本文算法主要針對(duì)以上問(wèn)題對(duì)YOLOv5s進(jìn)行改進(jìn),以提高其在霧霾天氣下的檢測(cè)能力。

圖7 數(shù)據(jù)集標(biāo)注示例Fig.7 Example of dataset annotation

3.2 評(píng)價(jià)指標(biāo)

本文選擇準(zhǔn)確率(Precision,P)、召回率(Recall,R)和平均準(zhǔn)確率(mean Average Precision,mAP)作為評(píng)價(jià)指標(biāo)來(lái)對(duì)模型的性能進(jìn)行評(píng)估。公式如下:

式中:TP為將正樣本正確識(shí)別為正類(lèi)的數(shù)量,FP為將負(fù)樣本錯(cuò)誤識(shí)別為正類(lèi)的數(shù)量,FN為將正樣本錯(cuò)誤識(shí)別為負(fù)類(lèi)的數(shù)量,n為數(shù)據(jù)集中樣本類(lèi)別數(shù)量。同時(shí),還加入模型參數(shù)量(Params)和檢測(cè)速度(FPS)指標(biāo)來(lái)更加準(zhǔn)確地評(píng)估模型的性能。

4 實(shí)驗(yàn)與結(jié)果分析

本算法采用的操作系統(tǒng)為L(zhǎng)inux Ubuntu發(fā)行版,CPU為15核AMD 32-Core Processor,內(nèi)存80 GB,GPU選擇NVIDIA Gdforce RTX 3090,顯存24 GB,環(huán)境配置為Python 3.8+Pytorch 1.7.0+Cuda 11.0。輸入圖片尺寸為640 pixel×640 pixel,采取預(yù)訓(xùn)練方法,加載主干網(wǎng)絡(luò)參數(shù)凍結(jié)訓(xùn)練50個(gè)epoch,共訓(xùn)練100個(gè)epoch,凍結(jié)階段batch-size為48,解凍后batch-size為24。優(yōu)化器選擇adam,最大學(xué)習(xí)率1×10-3,最小學(xué)習(xí)率1×10-5,學(xué)習(xí)率下降方式選擇余弦退火策略。其余超參數(shù)在實(shí)驗(yàn)中均保持一致。

4.1 去霧算法對(duì)比實(shí)驗(yàn)

本文算法在數(shù)據(jù)預(yù)處理階段,針對(duì)實(shí)驗(yàn)數(shù)據(jù)集采用暗通道先驗(yàn)去霧算法先進(jìn)行去霧處理,之后再進(jìn)行如隨機(jī)水平反轉(zhuǎn)、隨機(jī)平移和隨機(jī)縮放等方法對(duì)圖片進(jìn)行增強(qiáng)處理。為更好地說(shuō)明本文所采用去霧算法的效果,設(shè)計(jì)本次對(duì)比實(shí)驗(yàn),采用的去霧方法有暗通道先驗(yàn)法、拉普拉斯增強(qiáng)法、限制對(duì)比度自適應(yīng)直方圖均衡化法(CLAHE)和伽馬變換法。暗通道先驗(yàn)算法具體參數(shù)設(shè)置為:最小值濾波半徑r=7,導(dǎo)向?yàn)V波半徑r=75,去霧程度w=0.95,透光率t(x)最小值設(shè)置為0.1,大氣遮罩圖像最大值設(shè)置為 0.8。實(shí)驗(yàn)結(jié)果如圖8所示。

圖8 去霧算法效果對(duì)比Fig.8 Comparison of the effect of defogging algorithms

由圖8可以看出,拉普拉斯增強(qiáng)法與CLAHE法并不理想,處理后的圖片與原圖相比,并無(wú)太大變化,而伽馬變化法對(duì)于某些圖片效果尚可,但其對(duì)于圖片亮度影響較大,會(huì)加深圖片的暗度,不利于目標(biāo)與背景的分離。相比之下,暗通道先驗(yàn)法提高了圖像的飽和度,同時(shí)易于區(qū)分目標(biāo)與背景,取得的效果最好。因此,本文選擇暗通道先驗(yàn)法對(duì)圖像進(jìn)行預(yù)處理,增強(qiáng)了模型對(duì)于目標(biāo)的檢測(cè)能力,提高了模型的泛化能力。

4.2 注意力機(jī)制對(duì)比實(shí)驗(yàn)

為了更好地說(shuō)明本文模型所添加的HAM相較以往注意力機(jī)制的優(yōu)勢(shì),設(shè)計(jì)本次注意力機(jī)制實(shí)驗(yàn),替換主干網(wǎng)絡(luò)為BoT3模塊后,在主干網(wǎng)絡(luò)的輸出端加入5種注意力機(jī)制進(jìn)行對(duì)比實(shí)驗(yàn),分別為ECA[16]、NAM、CA[17]、CBAM[18]、HAM。表2為加入各個(gè)注意力機(jī)制后模型的實(shí)驗(yàn)數(shù)據(jù)。

表2 注意力機(jī)制對(duì)比實(shí)驗(yàn)數(shù)據(jù)Tab.2 Comparative experimental data of attention mechanism

由實(shí)驗(yàn)結(jié)果可以發(fā)現(xiàn),加入注意力機(jī)制后,因?yàn)槟P蛥?shù)量的提高,導(dǎo)致推理速度有所下降,但模型的mAP均有所上升,其中,加入HAM的模型mAP提升最多,提升了1.41%,體現(xiàn)出了HAM的優(yōu)越性。

根據(jù)實(shí)驗(yàn)可知,加入HAM,可有效提高對(duì)目標(biāo)的關(guān)注程度,加強(qiáng)重要特征、抑制無(wú)用特征并減輕背景中干擾信息的影響,在行人與車(chē)輛檢測(cè)任務(wù)中可以有效提高模型準(zhǔn)確度。

4.3 消融實(shí)驗(yàn)

為了驗(yàn)證本文對(duì)YOLOv5算法所做的各項(xiàng)改進(jìn)對(duì)霧霾天氣下對(duì)行人車(chē)輛檢測(cè)的影響,對(duì)各處改進(jìn)點(diǎn)進(jìn)行評(píng)估,實(shí)驗(yàn)結(jié)果如表3所示,“√”代表添加此模塊。

表3 消融實(shí)驗(yàn)結(jié)果

由表3可以發(fā)現(xiàn),在進(jìn)行圖像去霧增強(qiáng)后,提高了模型對(duì)特征的辨別能力,同時(shí),由于圖像去霧處理只在訓(xùn)練階段啟用,在檢測(cè)階段并沒(méi)有啟用,故在保持速度的同時(shí),mAP提高了0.61%;在主干網(wǎng)絡(luò)中加入帶有全局注意力機(jī)制的BoT3模塊,提高了模型對(duì)特征的提取能力,mAP增加了1.31%,但同時(shí)模型的參數(shù)量有所增加,檢測(cè)速度有所下降;在主干網(wǎng)絡(luò)的輸出端加入HAM,起到了強(qiáng)調(diào)重要特征、抑制無(wú)關(guān)特征及緩解背景信息的干擾作用,在略微提高模型參數(shù)量的同時(shí),mAP提高了1.41%;采用WIOU損失替換CIOU損失,提高了模型訓(xùn)練過(guò)程中預(yù)測(cè)框?qū)τ谡鎸?shí)框的擬合效率,在不改變模型參數(shù)量和檢測(cè)速度的情況下,mAP提高了0.8%。

4.4 與已有算法對(duì)比實(shí)驗(yàn)

為了驗(yàn)證本文算法的性能,與當(dāng)前經(jīng)典的目標(biāo)檢測(cè)算法進(jìn)行對(duì)比實(shí)驗(yàn),選擇的目標(biāo)檢測(cè)算法包括SSD、YOLOv3、YOLOv4、YOLOv4-Tiny、YOLOv5、YOLOX、YOLOv7。對(duì)比實(shí)驗(yàn)結(jié)果如表4所示。

由表4可以發(fā)現(xiàn),本文的改進(jìn)算法相較YOLOv5在檢測(cè)準(zhǔn)確度mAP上提高4.13%,同時(shí)與SSD、YOLOv3、YOLOv4等算法相比具有參數(shù)量上的明顯優(yōu)勢(shì),更加符合移動(dòng)端檢測(cè)的部署要求。與YOLOv7相比,雖然其mAP和FPS占優(yōu),但本文算法參數(shù)量只有其19.3%,在精確度與模型參數(shù)量方面本算法取得了更好的平衡。

4.5 改進(jìn)算法檢測(cè)效果實(shí)驗(yàn)

本文算法在YOLOv5的基礎(chǔ)上改進(jìn)而來(lái),對(duì)霧霾天氣下行人車(chē)輛的檢測(cè)效果相比原算法具有比較顯著的提升,YOLOv5s算法與本文改進(jìn)算法對(duì)目標(biāo)的檢測(cè)效果如圖9所示。

圖9 檢測(cè)效果對(duì)比Fig.9 Comparison of testing effect

由圖9可以看出,原算法對(duì)于行人與車(chē)輛檢測(cè)存在漏檢和定位不準(zhǔn)的問(wèn)題,對(duì)小目標(biāo)的檢測(cè)很困難,在目標(biāo)堆疊情況下檢測(cè)效果很差。本文的改進(jìn)算法在小目標(biāo)檢測(cè)、目標(biāo)堆疊等情況下可以檢出更多目標(biāo),證明了改進(jìn)的效果,具有更高的檢測(cè)精度,模型的魯棒性更好。

5 結(jié)束語(yǔ)

本文提出了一種基于YOLOv5s改進(jìn)的霧霾天氣下行人與車(chē)輛檢測(cè)方法,主要工作和結(jié)論如下:

① 由于本文數(shù)據(jù)集包含了大量霧霾場(chǎng)景下的圖像,因此,在通常的圖像預(yù)處理階段中,采用暗通道先驗(yàn)法對(duì)圖像進(jìn)行處理,提高了模型對(duì)特征的辨識(shí)能力和檢測(cè)精度。

② 針對(duì)霧霾天氣下圖像的飽和度低、背景色彩偏移等問(wèn)題,通過(guò)加入HAM與替換損失函數(shù)的方法,抑制了背景中無(wú)關(guān)信息的干擾,提高了模型對(duì)特征的提取能力,在幾乎不提高模型參數(shù)量的情況下保持了檢測(cè)速度,同時(shí)提高了檢測(cè)精度。

③ 在相同的實(shí)驗(yàn)條件下,本文的改進(jìn)算法與其他傳統(tǒng)神經(jīng)網(wǎng)絡(luò)模型進(jìn)行了對(duì)比實(shí)驗(yàn),驗(yàn)證了本文算法在檢測(cè)精度與檢測(cè)速度方面取得了更好的平衡。

猜你喜歡
特征實(shí)驗(yàn)檢測(cè)
記一次有趣的實(shí)驗(yàn)
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
如何表達(dá)“特征”
做個(gè)怪怪長(zhǎng)實(shí)驗(yàn)
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
NO與NO2相互轉(zhuǎn)化實(shí)驗(yàn)的改進(jìn)
實(shí)踐十號(hào)上的19項(xiàng)實(shí)驗(yàn)
太空探索(2016年5期)2016-07-12 15:17:55
主站蜘蛛池模板: 免费又爽又刺激高潮网址| 天堂va亚洲va欧美va国产| 欧美人与性动交a欧美精品| 欧美成人一级| 国产自产视频一区二区三区| 国产激情在线视频| 99精品视频在线观看免费播放| jizz在线免费播放| 无码精油按摩潮喷在线播放| 日韩a级片视频| 欧美性猛交一区二区三区| 欧美乱妇高清无乱码免费| 免费 国产 无码久久久| 欲色天天综合网| 亚洲色大成网站www国产| 国产美女精品一区二区| 真实国产乱子伦高清| 91久久国产热精品免费| 青青极品在线| P尤物久久99国产综合精品| 久久免费精品琪琪| 免费高清毛片| 少妇被粗大的猛烈进出免费视频| 露脸一二三区国语对白| av一区二区无码在线| 色婷婷在线播放| 国产免费网址| 狠狠综合久久久久综| 激情综合五月网| 精品国产成人高清在线| 国产一级视频在线观看网站| 亚洲男人天堂网址| 久久久久久久蜜桃| 青青操国产| 亚洲性日韩精品一区二区| 麻豆精品久久久久久久99蜜桃| 制服丝袜一区二区三区在线| 国产精品精品视频| 国产一线在线| 在线免费无码视频| 国产亚洲欧美在线中文bt天堂| 国产XXXX做受性欧美88| 98超碰在线观看| 色哟哟国产精品| 色综合a怡红院怡红院首页| 在线观看亚洲成人| 国产99在线观看| 国产国模一区二区三区四区| 亚洲精品欧美重口| 国产国模一区二区三区四区| 71pao成人国产永久免费视频| 性色在线视频精品| 久久久久人妻一区精品色奶水| 91丝袜乱伦| 成年人视频一区二区| h网址在线观看| 大香网伊人久久综合网2020| 久久免费成人| 思思热精品在线8| 亚洲日韩国产精品无码专区| 欧美一区二区福利视频| 色噜噜在线观看| 色欲色欲久久综合网| 中美日韩在线网免费毛片视频| 91色综合综合热五月激情| 午夜毛片免费看| 国产白浆在线观看| 国产精品成人一区二区不卡| 一级一级一片免费| 亚洲欧美另类色图| 亚洲美女一区| 欧美劲爆第一页| 欧美日韩免费| Aⅴ无码专区在线观看| 国产精品99久久久| 九色最新网址| 好吊色国产欧美日韩免费观看| 午夜精品一区二区蜜桃| 精品国产成人国产在线| 天天色综合4| AV老司机AV天堂| 日本尹人综合香蕉在线观看|