999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)YOLOv3 網(wǎng)絡(luò)的非機(jī)動車檢測

2021-12-01 05:26:24楊紫輝任洪娟
智能計算機(jī)與應(yīng)用 2021年8期
關(guān)鍵詞:特征提取特征檢測

楊紫輝,江 磊,任洪娟

(上海工程技術(shù)大學(xué) 機(jī)械與汽車工程學(xué)院,上海 201620)

0 引言

近年來,自動駕駛技術(shù)和機(jī)動車駕駛輔助技術(shù)不斷突破與升級,智能駕駛系統(tǒng)發(fā)展勢頭迅猛。在此基礎(chǔ)上,路況信息的獲取、識別便顯得尤為重要,逐漸成為了智能駕駛系統(tǒng)研究應(yīng)用的基礎(chǔ)與關(guān)鍵,而非機(jī)動車的精準(zhǔn)檢測識別便是智能駕駛系統(tǒng)的重要組成部分[1-2]。

傳統(tǒng)的目標(biāo)檢測方法是使用人工設(shè)計的圖像特征來進(jìn)行檢測,如HOG 算子、SIFT 算子等,但由于真實場景復(fù)雜多樣性,難以提取非機(jī)動車等目標(biāo)特征,傳統(tǒng)方法難以滿足實際使用的需求。同時隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,基于深度卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測和目標(biāo)跟蹤算法被不斷提出,如R-CNN(Region Convolutional Neural Network)、Fast-RCNN等,目標(biāo)檢測率得到了大大提升,基于深度卷積網(wǎng)絡(luò)的目標(biāo)檢測已經(jīng)成為了主流檢測方法。在2015 年,Joseph Redmon 提出了YOLO(You Only Look Once)系列算法,極大地提升了算法檢測的速度。

在駕駛場景中執(zhí)行目標(biāo)檢測背景復(fù)雜,要測量的目標(biāo)密集分布或重疊,攝像機(jī)的觀看距離不固定,導(dǎo)致目標(biāo)大小不同。特別是較小的目標(biāo),如非機(jī)動車、行人和交通標(biāo)志,具有像素少、分辨率低、特征不明顯的特點,YOLO 算法對該類目標(biāo)的檢測性能并不理想[3-4]。由此,本文基于改進(jìn)優(yōu)化的YOLOv3網(wǎng)絡(luò)對非機(jī)動車進(jìn)行檢測,通過復(fù)制增加骨干網(wǎng)絡(luò)得到特征提取輔助網(wǎng)絡(luò),由此提高整個特征提取網(wǎng)絡(luò)的性能,并在輔助網(wǎng)絡(luò)與骨干網(wǎng)絡(luò)的特征信息融合時采用注意機(jī)制,重點對有效特征通道進(jìn)行處理,抑制無效信息通道,提高網(wǎng)絡(luò)的處理效率,經(jīng)測試整個優(yōu)化網(wǎng)絡(luò)的性能和功能滿足實際應(yīng)用。

1 YOLOv3 網(wǎng)絡(luò)結(jié)構(gòu)分析

YOLO 系列是一種典型的網(wǎng)絡(luò)結(jié)構(gòu)為端到端的算法[5],相較于R-CNN 系列的兩階段網(wǎng)絡(luò)算法,YOLO 算法的網(wǎng)絡(luò)結(jié)構(gòu)更加簡潔。YOLO 算法的網(wǎng)絡(luò)是首先生成候選推薦區(qū)域,然后執(zhí)行檢測與判斷。其檢測速度更加迅捷,原因在于其將候選區(qū)域機(jī)制和檢測集成到了同一網(wǎng)絡(luò)中。

1.1 訓(xùn)練過程

YOLOv3 的網(wǎng)絡(luò)結(jié)構(gòu)通過使用預(yù)定義的候選區(qū)域來取代R-CNN 網(wǎng)絡(luò)中的RPN。其將特征映射分成s × s網(wǎng)格,為了預(yù)測目標(biāo)會在每個網(wǎng)格生成b個邊界框,最后在特征地圖上生成可以覆蓋整個特征地圖區(qū)域的預(yù)測邊界框,其數(shù)量為s × s × b,同時直接對生成的預(yù)測邊界框進(jìn)行邊界回歸。為了防止預(yù)測邊界框是冗余的,需要對每個預(yù)測邊界框進(jìn)行置信度計算,然后為置信度設(shè)置閾值,閾值以上的預(yù)測邊界框保留用于回歸,低于閾值的邊界框直接刪除。其中,每個邊界框的置信度由兩部分組成:預(yù)測目標(biāo)類別概率和預(yù)測邊界框與實際幀的重合度。

置信度計算公式(1)為:

為了減少工作量,可以通過對預(yù)測邊界框設(shè)置閾值的方式消除多數(shù)無用邊界框,但某些單體對象可能同時持有多個邊界框來預(yù)測對象,從而在特征映射上產(chǎn)生冗余的預(yù)測邊界框。因此,YOLOv3 使用非極性非最大抑制算法去除冗余檢測框,從而得到一個對目標(biāo)精確檢測的目標(biāo)框。

1.2 網(wǎng)絡(luò)結(jié)構(gòu)

由于網(wǎng)絡(luò)的不斷深化,梯度消失和梯度爆炸等問題會在訓(xùn)練過程中凸顯出來,這類問題可以通過引入殘差網(wǎng)絡(luò)來解決。通常為了提取更深層次的特征信息,會使用將進(jìn)入殘差模塊前的特征與殘差模塊輸出的特征相結(jié)合的方法。YOLOv3 采用了新的網(wǎng)絡(luò)結(jié)構(gòu)darknet-53。darknet-53 主要由53 個卷積層組成,包含大量的3×3,1×1 卷積核。YOLOv3與v1 和v2 的網(wǎng)絡(luò)結(jié)構(gòu)相比,其利用剩余網(wǎng)絡(luò)設(shè)計了快捷連接模塊,如圖1 所示。

圖1 剩余結(jié)構(gòu)網(wǎng)絡(luò)圖Fig.1 Residual structure network diagram

快捷連接模塊的使用一方面有利于解決網(wǎng)絡(luò)層過多造成的梯度消失問題,另一方面使整個網(wǎng)絡(luò)的總層數(shù)達(dá)到106 層,更適合于特征提取。同時,YOLOv3 采用多尺度檢測機(jī)制,分別檢測13×13,26×26 和52×52 的特征映射,增強(qiáng)了提取小目標(biāo)的能力,其網(wǎng)絡(luò)結(jié)構(gòu)如圖2 所示。

圖2 YOLOv3 網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.2 YOLO v3 network structure

YOLOv3 使用3 個不同比列的特征映射來預(yù)測檢測結(jié)果。當(dāng)輸入圖像的分辨率確定時,基本尺度特征圖的大小為原始分辨率的1/32,其余2 個尺度分別為1/16 和1/8。例如,當(dāng)輸入圖像的分辨率為416×416 時,其基本尺度特征映射的大小為13×13× n,通過上采樣獲得26×26×n的特征映圖;將其與上一個卷積層的輸出融合,從而獲得26×26× m的第二尺度特征圖;基于第二尺度特征圖,用同樣的方法得到52×52× w的第三尺度特征圖;通過對每個尺度特征圖的類別預(yù)測、邊界框和目標(biāo)分?jǐn)?shù)來預(yù)測三維張量編碼。在此過程中,檢測幀共4 個參數(shù),目標(biāo)評價1 個參數(shù),類別數(shù)為80 個。每個尺度特征映射單元預(yù)測3 組上述信息,即3×(4+1+80)=255 維信息。最后3 個尺度的輸出張量維分別為y1=13×13×255,y2=26×26×255,y3=52×52×255。

2 研究改進(jìn)YOLOv3

本文的設(shè)計旨在研究非機(jī)動車的檢測問題,其檢測內(nèi)容為道路中行駛的非機(jī)動車,包括自行車、電動助力車等,需要測試的目標(biāo)具有多樣性特征。針對該情況,本文將YOLOv3 的特征提取網(wǎng)絡(luò)分為兩部分進(jìn)行優(yōu)化。第一部分是通過增添骨干網(wǎng)絡(luò)來獲得特征提取輔助網(wǎng)絡(luò),提高整個特征提取網(wǎng)絡(luò)的性能;第二部分是對骨干網(wǎng)絡(luò)和輔助網(wǎng)絡(luò)的特征信息融合采用注意機(jī)制,提高對有效特征通道的關(guān)注度,抑制無效信息通道,提高網(wǎng)絡(luò)處理效率。

2.1 特征提取輔助網(wǎng)絡(luò)結(jié)構(gòu)

YOLOv3 的特征提取網(wǎng)絡(luò)采用darknet-53,以殘差結(jié)構(gòu)形式加深采樣深度。其中剩余模塊內(nèi)部結(jié)構(gòu)相對簡單,使得整個網(wǎng)絡(luò)簡單易用,但特征提取能力無法優(yōu)化。本文優(yōu)化骨干網(wǎng)絡(luò)的主要方式是通過增加復(fù)制剩余模塊來拓寬整個網(wǎng)絡(luò),并對增加復(fù)制所得到的剩余模塊結(jié)構(gòu)進(jìn)行微調(diào),優(yōu)化后的網(wǎng)絡(luò)如圖3 所示。

圖3 YOLOv3 優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.3 Optimized YOLO v3 network structure

與單一結(jié)構(gòu)的原始網(wǎng)絡(luò)相比,本文增加了一個比骨干網(wǎng)絡(luò)規(guī)模更小的特征提取輔助網(wǎng)絡(luò),骨干網(wǎng)絡(luò)的旁路由多個剩余模塊組成。與YOLO 殘差模塊相比,本文對輔助網(wǎng)絡(luò)殘差模塊進(jìn)行了改進(jìn),其具體實現(xiàn)方式為將原來的殘差模塊使用3×3 卷積核進(jìn)行特征提取,而輔助網(wǎng)絡(luò)中的殘差模塊使用兩個連續(xù)的3×3 卷積核獲得5×5 的接受域,最后將提取的特征合并到骨干網(wǎng)絡(luò)中。

2.2 注意機(jī)制

二級網(wǎng)絡(luò)與骨干網(wǎng)絡(luò)的連接有兩種不同的方式。第一種方式是輔助模塊的輸出首先由1×1 卷積核集成,然后傳輸?shù)焦歉删W(wǎng)絡(luò);第二種方式是將注意機(jī)制增添到深度輔助網(wǎng)絡(luò)的兩個網(wǎng)絡(luò)之間。當(dāng)網(wǎng)絡(luò)達(dá)到一定深度時,其中的語義信息也變得更高級,輔助模塊將發(fā)揮對有效特征進(jìn)行處理和傳輸,對無效特征進(jìn)行信道抑制的作用。

由于SE 模塊具有結(jié)構(gòu)簡單,易于操作的優(yōu)點,本文采用SE 模塊實現(xiàn)兩個網(wǎng)絡(luò)之間的注意機(jī)制。通過SE 模塊的增加,達(dá)到對輔助模塊輸出特性的重新校準(zhǔn)。工作流程大致可分為擠壓和激勵。擠壓是為了更好地現(xiàn)實每層中各信道的特征值分布,將二維特征映射通過平均池轉(zhuǎn)化為一維特征映射,此時特征映射大小轉(zhuǎn)換為1×1×c;激勵是使用一個全連接神經(jīng)網(wǎng)絡(luò),對壓縮之后的結(jié)果做一個非線性變換,該過程由兩個全連接層組成,其中會加入一個縮放參數(shù)SERadio 來減少通道個數(shù),從而降低計算量。

3 實驗結(jié)果與分析

3.1 數(shù)據(jù)集訓(xùn)練

本文使用的數(shù)據(jù)集來自BDD100K。2018 年5月加州大學(xué)伯克利分校AI 實驗室對外發(fā)布了BDD100K,該數(shù)據(jù)集是目前規(guī)模最大、內(nèi)容最具多樣性的公開駕駛數(shù)據(jù)集,主要內(nèi)容由10 萬段高清視頻組成,其中每段視頻內(nèi)容約40 s,分辨率為720 p,幀數(shù)為30 fps。BDD100K 發(fā)布時,該實驗室同時設(shè)計了一個圖片標(biāo)注系統(tǒng),該系統(tǒng)通過對數(shù)據(jù)集中每個視頻的第10 s 關(guān)鍵幀進(jìn)行采樣,從而得到了10萬張圖片,并對其進(jìn)行標(biāo)注。

本文在通過多次調(diào)整參數(shù)后,對模型進(jìn)行了12 000次的迭代訓(xùn)練。通過損失曲線的實時繪制,可以直觀地觀察到訓(xùn)練過程中的實時動態(tài),如圖4所示。圖4 中藍(lán)色折線為本文模型訓(xùn)練工程中對應(yīng)的平均損失曲線。其中,橫坐標(biāo)表示訓(xùn)練迭代次數(shù),縱坐標(biāo)表示訓(xùn)練過程中的損失值。

圖4 訓(xùn)練函數(shù)損失圖Fig.4 Training loss function graph

3.2 模型測試與比較

使用測試集對訓(xùn)練好的模型進(jìn)行測試,測試指標(biāo)主要為對目標(biāo)的召回率和檢測的準(zhǔn)確率。其中,目標(biāo)召回率R(Recall)和檢測準(zhǔn)確率P(Precision)計算公式如下:

其中,XTP表示算法中正確分類的正樣本,即被正確檢測出的目標(biāo)數(shù);XFN表示錯誤分類的負(fù)樣本,即沒有被檢測出的目標(biāo)數(shù);XFP表示錯誤分類的正樣本,即被錯誤檢出的目標(biāo)數(shù)。

AP代表某一分類的精度,通過找到在不同查全率下最高的查準(zhǔn)率得到。mAP代表多分類檢測模型中所有類別的AP均值,mAP的值越大表示該模型的定位與識別的準(zhǔn)確率越高。

測試所使用的200 幅圖像中共有482 個目標(biāo),使用YOLOv3 算法和改進(jìn)后的新YOLOv3 算法在數(shù)據(jù)集上進(jìn)行測試,分別計算R和P,結(jié)果見表1。

表1 優(yōu)化模型與原網(wǎng)絡(luò)模型試驗結(jié)果對比表Tab.1 Comparison between optimized model and original network model test result

本文模型與YOLOv3 模型檢測對比結(jié)果如圖5所示。

圖5 檢測結(jié)果對比圖Fig.5 Comparison of test results

4 結(jié)束語

本文主要介紹了一種基于YOLOv3 網(wǎng)絡(luò)優(yōu)化的可用于非機(jī)動車檢測的新YOLO 網(wǎng)絡(luò)模型。本文的主要工作:

(1)新YOLO 網(wǎng)絡(luò)模型在原有YOLOv3 模型的基礎(chǔ)上,采用了雙重特征提取網(wǎng)絡(luò)結(jié)構(gòu)。采用規(guī)模為13×13,26×26,52×52的骨干網(wǎng)絡(luò),配置不同特征提取的接收域輔助網(wǎng)絡(luò);

(2)輔助網(wǎng)絡(luò)和骨干網(wǎng)絡(luò)的特征信息融合采用注意機(jī)制,重點對有效特征通道進(jìn)行處理,抑制無效信息通道,提高網(wǎng)絡(luò)處理效率。

與YOLOv3 相比,優(yōu)化后的網(wǎng)絡(luò)檢測能力得到了提升,但由于輔助網(wǎng)絡(luò)的增加,計算量也會增加,影響了檢測時間,但仍可滿足實際應(yīng)用的條件。為了進(jìn)一步提升網(wǎng)絡(luò)的檢測應(yīng)用能力,可以使用邊緣計算,將模型用于嵌入式設(shè)備,推動無人車智能駕駛技術(shù)發(fā)展。

猜你喜歡
特征提取特征檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達(dá)“特征”
基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
不忠誠的四個特征
抓住特征巧觀察
一種基于LBP 特征提取和稀疏表示的肝病識別算法
小波變換在PCB缺陷檢測中的應(yīng)用
基于MED和循環(huán)域解調(diào)的多故障特征提取
主站蜘蛛池模板: 91精品啪在线观看国产60岁| 欧美精品亚洲精品日韩专区| 欧美日韩免费在线视频| 亚洲无码91视频| 99爱视频精品免视看| 亚洲一欧洲中文字幕在线 | igao国产精品| 国产一区二区三区夜色| 日韩欧美中文亚洲高清在线| 98精品全国免费观看视频| 成人av手机在线观看| 日韩毛片免费| 国产成人无码久久久久毛片| 久久久久久久蜜桃| 久久综合五月| 国产午夜精品一区二区三区软件| 麻豆国产精品视频| 亚洲三级影院| 国产日韩欧美精品区性色| 欧洲一区二区三区无码| 国产欧美在线观看精品一区污| 国产a v无码专区亚洲av| 国产原创自拍不卡第一页| 午夜电影在线观看国产1区| 欧美高清三区| 亚洲中文字幕在线精品一区| 国产精品视频观看裸模| 国产一区二区三区在线观看视频| 玩两个丰满老熟女久久网| 欧美一级高清视频在线播放| 国产麻豆另类AV| 玖玖精品视频在线观看| 欧美一区二区精品久久久| 久久黄色视频影| 69免费在线视频| 麻豆国产在线不卡一区二区| 一本大道视频精品人妻| 亚洲日韩久久综合中文字幕| 欧美另类第一页| 伊人天堂网| 亚洲国产欧美目韩成人综合| 日本精品αv中文字幕| 国产呦精品一区二区三区网站| 亚洲欧美成aⅴ人在线观看| 亚洲欧美日韩久久精品| 国产男女免费视频| 人妻21p大胆| 国产不卡在线看| 日韩在线视频网站| 国产成人永久免费视频| 综合亚洲网| 久久综合色天堂av| 国产精品极品美女自在线| 欧美国产日本高清不卡| 亚洲无线国产观看| 在线高清亚洲精品二区| 视频一本大道香蕉久在线播放| 国产午夜福利在线小视频| 成人毛片免费观看| 成人精品亚洲| 欧美在线一二区| 男女猛烈无遮挡午夜视频| 亚洲福利视频网址| 女人18一级毛片免费观看| 国产成人综合亚洲网址| 亚洲色图欧美视频| 97国产精品视频自在拍| 91 九色视频丝袜| 欧美成人手机在线视频| 国产主播一区二区三区| 3D动漫精品啪啪一区二区下载| 国产精品主播| 乱人伦中文视频在线观看免费| 国产欧美视频一区二区三区| 国产成人久久综合777777麻豆| 亚洲高清资源| 日韩AV无码一区| 91精品国产自产91精品资源| 国产精品漂亮美女在线观看| 日韩欧美中文| 一本色道久久88| 久久99热这里只有精品免费看|