999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于優(yōu)化YOLOv3算法的違章車輛檢測方法

2021-05-12 04:34:00谷玉海饒文軍王菊遠(yuǎn)
關(guān)鍵詞:檢測模型

劉 朔,谷玉海,饒文軍,王菊遠(yuǎn)

(北京信息科技大學(xué)現(xiàn)代測控教育部重點(diǎn)實(shí)驗(yàn)室,北京 100192)

近年來,隨著我國經(jīng)濟(jì)的快速發(fā)展,我國人民的生活水平也在不斷提高,汽車擁有量逐年增長,與此同時(shí),交通事故的發(fā)生也越來越頻繁。超速行駛是交通事故多發(fā)的主要原因之一[1],為了約束駕駛?cè)藛T的超速行為,目前很多國家和地區(qū)都在道路上安裝了車輛超速自動(dòng)拍照設(shè)備,對拍下來的車輛進(jìn)行檢測和識別,獲取超速行駛車輛的車型、車牌號、駕駛?cè)藛T以及乘坐人員等信息,然后對相關(guān)車輛的駕駛?cè)藛T進(jìn)行處罰,使用這種警示措施,更好地約束駕駛員,減少因超速造成的交通事故。

目標(biāo)檢測技術(shù)是對車輛超速自動(dòng)拍照設(shè)備所拍攝到的圖像中的車輛進(jìn)行檢測的關(guān)鍵技術(shù)[2],隨著科學(xué)技術(shù)的發(fā)展,目標(biāo)檢測在智能交通系統(tǒng)中的應(yīng)用越來越廣泛。近年來,卷積神經(jīng)網(wǎng)絡(luò)在目標(biāo)檢測領(lǐng)域取得了一系列突破性的研究成果,YOLOv3模型便是基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測模型,YOLOv3是由Joseph Redmon等在2018年4月提出來的,YOLOv3是在YOLO和YOLOv2的基礎(chǔ)上進(jìn)行改進(jìn)的算法,是目前檢測性能較高的目標(biāo)檢測算法。YOLO算法將目標(biāo)檢測視為回歸問題進(jìn)行求解,所以具有檢測速度快并且背景檢測錯(cuò)誤率較低的特點(diǎn)[3],但是檢測精度較低,并且容易產(chǎn)生漏檢現(xiàn)象,對于小目標(biāo)(面積小于322像素)物體的檢測效果非常差。YOLOv2在YOLO的基礎(chǔ)上,使用新的網(wǎng)絡(luò)結(jié)構(gòu)(darknet19)和技巧(batch normalization、high resolution classifier、convolutional with anchor boxes等),提高了檢測速度和檢測精度[4]。雖然YOLOv2準(zhǔn)確性有所提高,但是對小目標(biāo)檢測效果依然不好。YOLOv3算法借鑒了殘差神經(jīng)網(wǎng)絡(luò)的思想[5],引入多個(gè)殘差網(wǎng)絡(luò)模塊和使用多尺度預(yù)測的方式改善了YOLOv2對小目標(biāo)識別上的缺陷,其檢測的準(zhǔn)確率高并且時(shí)效性好,成為目標(biāo)檢測算法中集檢測速度和準(zhǔn)確率于一身的優(yōu)秀方法[6]。

本文使用YOLOv3算法對交通路口圖片中的車輛、車牌、人臉進(jìn)行目標(biāo)檢測,由于車牌和人臉在交通路口圖片中比較小,為了提高YOLOv3算法對小目標(biāo)的檢測能力,增加多個(gè)尺度檢測,提高模型對車牌、人臉等小目標(biāo)物體的檢測能力,并增加k-means算法中生成的anchors的數(shù)量,提高目標(biāo)檢測的準(zhǔn)確率。在真實(shí)交通卡口資源下使用不同的尺度以及不同的anchors進(jìn)行訓(xùn)練、測試,對實(shí)驗(yàn)結(jié)果進(jìn)行分析,發(fā)現(xiàn)改進(jìn)后的YOLOv3算法模型的mAP為89.52%,幀頻為45.25 FPS,檢測性能優(yōu)于原始算法,且能夠滿足實(shí)時(shí)檢測要求。

1 YOLOv3網(wǎng)絡(luò)模型

YOLO、YOLOv2和 YOLOv3算法是 Joseph Redmon等[7]提出的通用目標(biāo)檢測模型,YOLOv3在網(wǎng)絡(luò)模型上相對于YOLO和YOLOv2有較大改進(jìn),在同等檢測速度下,YOLOv3在進(jìn)行檢測任務(wù)時(shí)的平均準(zhǔn)確率相較于YOLO和YOLOv2都有較大地提升,并且對小目標(biāo)檢測的平均準(zhǔn)確率有較好的效果。YOLOv3有如下特點(diǎn):

1.1 Darknet-53網(wǎng)絡(luò)結(jié)構(gòu)

在對圖像進(jìn)行特征檢測的過程當(dāng)中,YOLOv3使用Darknet-53網(wǎng)絡(luò)代替了YOLOv2的Darknet-19網(wǎng)絡(luò)。YOLOv3借鑒了殘差網(wǎng)絡(luò)(Residual Network)的方法,在某些層設(shè)置了快捷鏈路[8],從而提高了效率。圖1為 Darknet-53網(wǎng)絡(luò)框圖[9],Darknet-53網(wǎng)絡(luò)相對于Darknet-19網(wǎng)絡(luò),平均準(zhǔn)確率有較高地增長,處理速度略微降低,同時(shí)Darknet-53網(wǎng)絡(luò)可以實(shí)現(xiàn)較高的測試浮點(diǎn)運(yùn)算,因此其可以更好地利用GPU,使預(yù)測效率更高[10]。

圖1 Darknet-53網(wǎng)絡(luò)框圖

1.2 邊界框預(yù)測

YOLOv3的anchor boxes是通過聚類方法得到的。如圖2所示,YOLOV3對每個(gè)bounding box預(yù)測4個(gè)坐標(biāo)值,分別為 tx、ty、tw、th。在圖像中,一般左上角為坐標(biāo)原點(diǎn),圖像的偏移為cx、cy,且對應(yīng)的邊框的長和寬分別為ph、pw,在預(yù)測的邊框中,式(1)為邊框的中心點(diǎn)橫坐標(biāo)的計(jì)算公式,式(2)為邊框的中心點(diǎn)縱坐標(biāo)的計(jì)算公式,式(3)為邊框的寬的計(jì)算公式,式(4)邊框的長的計(jì)算公式[11]。

圖2 位置預(yù)測的邊界框

1)跨尺度預(yù)測

YOLOv3采用多尺度結(jié)合進(jìn)行預(yù)測。YOLOv3借鑒 FPN(Feature Pyramid Networks)網(wǎng)絡(luò)中的融合(融合了3層)和上采樣方法,進(jìn)行多樣本、多尺寸檢測[12],在網(wǎng)絡(luò)第 82、94、106層進(jìn)行了跨尺度預(yù)測,極大地提高了YOLOv3對小目標(biāo)檢測的準(zhǔn)確率[13]。

2)分類預(yù)測

YOLOv3沒有使用YOLOv2的softmax分類方法,softmax分類只能輸出1個(gè)分類,YOLOv3采用多個(gè)簡單的邏輯回歸sigmoid輸出類別得分[14],用二元交叉熵計(jì)算類別損失,每個(gè)分類器對于目標(biāo)邊框中出現(xiàn)的物體只判斷其是否屬于當(dāng)前標(biāo)簽,即簡單的二分類,這樣便實(shí)現(xiàn)了多標(biāo)簽分類。

常見的基于回歸的目標(biāo)識別算法有YOLOv2、YOLOv3、SSD,在Microsoft COCO數(shù)據(jù)集下對它們的性能進(jìn)行測試,測試結(jié)果如表1所示[15]。

表1 基于回歸的目標(biāo)檢測算法性能對比

經(jīng)觀察對比發(fā)現(xiàn),YOLOv3在Microsoft COCO數(shù)據(jù)集下的識別平均準(zhǔn)確率和幀頻有較好表現(xiàn),并且在將尺寸歸一化為416像素時(shí),可滿足實(shí)時(shí)處理需求。

2 YOLOv3模型改進(jìn)

2.1 增加檢測尺度

YOLOv3算法的模型借鑒了FPN網(wǎng)絡(luò)的思想,同時(shí)利用底層特征的高分辨率和高層特征的信息,使用上采樣的方法,將不同層的特征進(jìn)行融合,在3個(gè)不同尺度的特征層上對物體進(jìn)行檢測。由于在違章車輛檢測的過程當(dāng)中,車輛距離攝像頭的遠(yuǎn)近會(huì)導(dǎo)致車輛在圖片中所占比例的大小不一樣,且在違章車輛實(shí)時(shí)檢測中還需要檢測車牌信息以及駕駛員的面部信息,這些目標(biāo)物在圖片中為小目標(biāo)物體,為了提高YOLOv3網(wǎng)絡(luò)模型對小目標(biāo)物體的檢測能力,本文對YOLOv3算法模型中的尺度檢測模塊進(jìn)行改進(jìn),將原有的3個(gè)尺度檢測擴(kuò)展為4個(gè)尺度檢測,給特征圖分配準(zhǔn)確的錨框,提高檢測精度。本文提出的YOLOv3多尺度檢測模塊如圖3所示。

圖3 改進(jìn)后的YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)

2.2 優(yōu)化錨框數(shù)目

YOLOv3算法模型依然延用了YOLOv2算法模型中的思想,使用k-means聚類的方法對訓(xùn)練數(shù)據(jù)集中標(biāo)記的目標(biāo)框進(jìn)行聚類,獲得合適的anchors(錨框),anchors的選取會(huì)影響到目標(biāo)檢測的速度以及精度。YOLOv3算法模型在VOC和COCO數(shù)據(jù)集上進(jìn)行聚類,每個(gè)尺度的anchors的數(shù)量為3,本文根據(jù)違章車輛檢測數(shù)據(jù)集和4個(gè)尺度檢測層的特點(diǎn),采用準(zhǔn)確度更高的FCM聚類算法對訓(xùn)練集的邊界框做聚類,選取合適的邊界先驗(yàn)框,對違章車輛以及車牌、駕駛員面部進(jìn)行更好的預(yù)測。在使用FCM聚類算法對樣本框進(jìn)行聚類時(shí),計(jì)算各個(gè)樣本框與聚類中心的IOU(intersection over union),然后使用(1-IOU)作為 FCM聚類算法的距離函數(shù),得到如式(4)所示的FCM聚類算法的目標(biāo)函數(shù),

式中,IOUij為第j個(gè)樣本框和第i個(gè)聚類中心的重合度;b為模糊加權(quán)指數(shù),且1<b<∞,b取值的最佳區(qū)間[16]為[1.5,2.5],本文 b值取 2;uij為第 j個(gè)樣本框?qū)儆诘趇類聚類中心的隸屬度,取值介于0~1之間,且滿足式(5)所示的約束條件。

通過最小化式(4)中的目標(biāo)函數(shù),可得到各樣本框?qū)τ诟骶垲愔行牡碾`屬度,最后根據(jù)式(6)可實(shí)現(xiàn)最終的聚類。

最終得到的 anchors為(4,7)、(8,9)、(7,17)、(8,12)、(11,23)、(22,12)、(34,12)、(19,31)、(36,18)、(35,64)、(84,40)、(94,53)、(34,188)、(105,66)、(81,125)、(63,223)、(169,116)、(130,198)、(145,240)、(190,274)。

在3個(gè)尺度檢測中的每個(gè)尺度下分別使用anchors數(shù)目為2、3、4、5的網(wǎng)絡(luò)模型進(jìn)行目標(biāo)檢測,然后在4個(gè)尺度檢測中的每個(gè)尺度下分別使用anchors數(shù)目為2、3、4、5的網(wǎng)絡(luò)模型進(jìn)行目標(biāo)檢測,對比實(shí)驗(yàn)結(jié)果,以此來選擇每個(gè)尺度下合適的anchors數(shù)目。

作為對比,采用k-means維度聚類的方法對訓(xùn)練集的邊界框做聚類,選取合適的邊界先驗(yàn)框,kmeans聚類方法中距離公式定義如式(7)所示[17]:

得到的 anchors為:(4,8)、(8,9)、(6,14)、(10,14)、(12,20)、(25,11)、(33,14)、(19,31)、(37,18)、(35,64)、(84,40)、(93,53)、(34,188)、(105,66)、(81,122)、(63,223)、(175,117)、(132,200)、(148,239)、(192,277)。

使用k-means維度聚類的方法所獲取的anchors,在篩選得到的最優(yōu)尺度和最優(yōu)anchors數(shù)目下進(jìn)行實(shí)驗(yàn)并對比實(shí)驗(yàn)結(jié)果,驗(yàn)證FCM聚類算法的優(yōu)越性。

3 實(shí)驗(yàn)

3.1 實(shí)驗(yàn)數(shù)據(jù)

對于交通圖像目標(biāo)檢測屬于監(jiān)督學(xué)習(xí),因此制作訓(xùn)練集時(shí)需標(biāo)注圖像的位置和類別,本文利用實(shí)際交通場景原圖資源作為訓(xùn)練集、驗(yàn)證集以及測試集。在實(shí)際交通場景圖片中采用labelimg開源工具標(biāo)記出所需要檢測的目標(biāo)物體,并使用不同的標(biāo)簽代表所需要檢測的不同物體,本次實(shí)驗(yàn)分別檢測車輛、車牌以及人臉3種目標(biāo)物體,標(biāo)簽代號分別為“car”“plate”“face”。

圖像資源共有23 741張,圖像資源分辨率有2 048×1 380、1 616×1 046兩種。訓(xùn)練集包含20 000張真實(shí)交通卡口圖像,驗(yàn)證集包含2 000張真實(shí)交通卡口圖像,測試集包含1 741張真實(shí)交通卡口圖像。

3.2 實(shí)驗(yàn)配置與訓(xùn)練

實(shí)驗(yàn)環(huán)境配置如下:CPU為 Intel(R)Core(TM)i5-8500@3.00 GHz,NVIDIA GeForce GTX 1080 Ti顯卡,CUDA版本為8.0,CuDNN版本為6.0,操作系統(tǒng)為 ubuntu16.04.05(64位)。

YOLOv3網(wǎng)絡(luò)的訓(xùn)練參數(shù)配置如下:將輸入圖片的batch、subdivisions分別設(shè)置為64、16。迭代次數(shù)設(shè)置為30 000次。學(xué)習(xí)率使用分步策略,初始值設(shè)置為0.001,變化的次數(shù)為25 000,比率為0.1。

網(wǎng)絡(luò)訓(xùn)練過程中損失變化曲線如圖4所示,IOU曲線如圖5所示。

圖4 損失變化曲線

圖5 IOU曲線

3.3 實(shí)驗(yàn)結(jié)果分析

在使用3個(gè)尺度的網(wǎng)絡(luò)模型進(jìn)行檢測時(shí),分別使用每個(gè)尺度的anchors數(shù)目為2、3、4、5的網(wǎng)絡(luò)模型進(jìn)行目標(biāo)檢測,檢測的AP(準(zhǔn)確率)和IOU(重疊率)如表2所示,平均檢測每張圖片所需的時(shí)間如表4所示;在使用4個(gè)尺度的網(wǎng)絡(luò)模型進(jìn)行檢測時(shí),分別使用每個(gè)尺度的anchors數(shù)目為2、3、4、5的網(wǎng)絡(luò)模型進(jìn)行目標(biāo)檢測,檢測的AP和IOU如表3所示,平均檢測每張圖片所需的時(shí)間如表4所示。

由表2、表3可以得出結(jié)論:在相同anchors數(shù)目的情況下,針對大目標(biāo)物體的檢測,以對車的檢測為例,使用YOLOv3原本的3個(gè)尺度進(jìn)行檢測的檢測效果,與使用改進(jìn)之后的4個(gè)尺度進(jìn)行檢測的檢測效果相差不大,但是針對于小目標(biāo)物體的檢測,以對車牌的檢測為例,使用4個(gè)尺度檢測時(shí),檢測效果明顯要優(yōu)于使用3個(gè)尺度進(jìn)行檢測,說明YOLOv3網(wǎng)絡(luò)模型的尺度的優(yōu)化對小目標(biāo)的檢測性能有所提高。在網(wǎng)絡(luò)模型的檢測尺度相同的情況下,每個(gè)尺度下anchors數(shù)量在4個(gè)的時(shí)候準(zhǔn)確率達(dá)到最高,對比YOLOv3原本每個(gè)尺度下anchors數(shù)量為3時(shí)的檢測效果,改進(jìn)之后的檢測效果明顯更優(yōu)。由表3可知,改進(jìn)之后的網(wǎng)絡(luò)模型的檢測速度比改進(jìn)之前的網(wǎng)絡(luò)模型的速度稍慢些,但是都小于50 ms,都能夠滿足實(shí)時(shí)檢測的需求。選取 4個(gè)尺度、4個(gè) anchors作為最終的YOLOv3優(yōu)化模型,測試的mAP為92.53%,幀頻為44.58 FPS。

表2 3個(gè)尺度檢測時(shí)使用不同anchors數(shù)目的AP與IOU %

表3 4個(gè)尺度檢測時(shí)使用不同anchors數(shù)目的A P與IOU %

表4 平均檢測每張圖片所需的時(shí)間 ms

表5 使用FCM聚類算法與k-means聚類算法的AP與IOU %

在4個(gè)尺度下使用k-means聚類算法生成的4個(gè)anchors進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表5所示,由表可知,除了在檢測車輛的時(shí)候,使用FCM聚類算法的IOU稍遜于k-means聚類算法,其他指標(biāo),F(xiàn)CM聚類算法均優(yōu)于k-means聚類算法,因此,使用FCM聚類算法生成anchors是一種有效可行的方法,且具有一定的優(yōu)越性。

實(shí)際場景檢測圖如圖6所示。當(dāng)在有反光的條件下進(jìn)行檢測的時(shí)候,使用原YOLOv3網(wǎng)絡(luò)模型進(jìn)行檢測,產(chǎn)生了人臉漏檢的情況,而使用改進(jìn)之后的YOLOv3網(wǎng)絡(luò)模型對相同的圖片進(jìn)行檢測,則能夠成功檢測出人臉,如圖7所示。

圖6 實(shí)際場景檢測圖

圖7 反光條件檢測對比圖

4 結(jié)論

為了提高對違章車輛檢測的準(zhǔn)確性與實(shí)時(shí)性,并對違章車輛的車牌以及駕駛員的面部等小目標(biāo)物體進(jìn)行檢測,提出一種基于YOLOv3框架的違章車輛實(shí)時(shí)檢測改進(jìn)算法。該算法以YOLOv3為基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu),結(jié)合違章車輛檢測任務(wù)特點(diǎn)進(jìn)行優(yōu)化與改進(jìn),使用增加檢測尺度、優(yōu)化錨框數(shù)目等方法來改進(jìn)檢測效果。實(shí)驗(yàn)結(jié)果表明,提出的方法在違章車輛檢測的實(shí)驗(yàn)中比原始YOLOv3方法檢測效果更好,且能夠滿足實(shí)時(shí)性的要求,基本達(dá)到實(shí)際應(yīng)用的要求。

猜你喜歡
檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
3D打印中的模型分割與打包
小波變換在PCB缺陷檢測中的應(yīng)用
主站蜘蛛池模板: 中文字幕va| 亚洲综合婷婷激情| 欧美精品黑人粗大| 亚洲一区免费看| 亚洲精品无码AⅤ片青青在线观看| 不卡午夜视频| 色综合天天综合| 熟女日韩精品2区| 国产精品久久久免费视频| 久久久久久久蜜桃| 在线看AV天堂| 亚洲无码视频一区二区三区| 亚洲午夜天堂| 久久夜夜视频| 婷婷六月综合网| 国产欧美日韩综合一区在线播放| 亚洲色欲色欲www在线观看| 亚洲三级a| 天天操天天噜| 国产青榴视频| 美女裸体18禁网站| 色网站免费在线观看| 国产人成午夜免费看| 精品国产免费第一区二区三区日韩| 成人亚洲视频| 91区国产福利在线观看午夜| 亚洲色图欧美一区| 日本午夜精品一本在线观看| 久久精品人人做人人爽电影蜜月 | 亚洲国产中文欧美在线人成大黄瓜| 国产情精品嫩草影院88av| 欧美a√在线| 中文字幕久久亚洲一区| 91麻豆精品国产高清在线| 国产农村妇女精品一二区| 中文字幕亚洲乱码熟女1区2区| 中文字幕永久视频| 日韩123欧美字幕| 人人爱天天做夜夜爽| 欧美性猛交一区二区三区| 无码一区二区三区视频在线播放| 国产毛片片精品天天看视频| 一区二区三区国产| 国产99在线观看| 国产一区二区三区精品欧美日韩| 欧美激情一区二区三区成人| 国产尤物视频网址导航| 黄片在线永久| 国产伦片中文免费观看| 欧美日韩久久综合| 91色国产在线| 无码一区18禁| 日本午夜视频在线观看| 99热这里只有精品久久免费| 一级成人欧美一区在线观看| 久996视频精品免费观看| 久久免费精品琪琪| 美女被躁出白浆视频播放| 日韩精品一区二区三区中文无码 | 欧美激情伊人| 国产杨幂丝袜av在线播放| 伊人大杳蕉中文无码| 亚洲欧美成人网| 久久综合丝袜长腿丝袜| 人妖无码第一页| 国产美女自慰在线观看| 精品久久综合1区2区3区激情| 久久99热这里只有精品免费看 | 潮喷在线无码白浆| 国产H片无码不卡在线视频| 成人毛片免费在线观看| 日本欧美在线观看| 精品三级在线| 成人毛片免费在线观看| 国产男女XX00免费观看| 成人无码一区二区三区视频在线观看 | 精品亚洲麻豆1区2区3区| 香蕉久久国产超碰青草| 一区二区理伦视频| 亚洲有无码中文网| 中文字幕首页系列人妻| 国产尤物视频网址导航|