999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)YOLOv3的人車信號(hào)燈識(shí)別方法研究

2020-09-10 16:11:47
交通科技與管理 2020年11期
關(guān)鍵詞:深度學(xué)習(xí)

摘 要:目標(biāo)檢測(cè)是計(jì)算機(jī)視覺(jué)中的一個(gè)關(guān)鍵任務(wù),其中YOLOv3算法檢測(cè)速度較快,但存在邊界框定位不準(zhǔn),且對(duì)小目標(biāo)檢測(cè)精度不高的問(wèn)題。針對(duì)以上問(wèn)題,本文提出了一種基于改進(jìn)YOLOv3的人車信號(hào)燈識(shí)別方法,以獲取自動(dòng)駕駛中所需要的道路交通信息。本文基于Apolloscape數(shù)據(jù)集中的視頻或圖像,首先通過(guò)K-means聚類計(jì)算獲得新的anchors值,替換原始YOLOv3模型中的數(shù)據(jù)集參數(shù),并利用高斯分布特性增加對(duì)邊界框準(zhǔn)確度的判斷,再采用改進(jìn)后的YOLOv3模型對(duì)行人、車輛和信號(hào)燈等道路交通信息進(jìn)行檢測(cè),實(shí)現(xiàn)了端對(duì)端的運(yùn)動(dòng)目標(biāo)檢測(cè),實(shí)時(shí)性良好。實(shí)驗(yàn)結(jié)果與仿真數(shù)據(jù)呈現(xiàn)出良好的一致性,研究結(jié)果表明,相比于原始YOLOv3模型,本文提出的改進(jìn)的YOLOv3算法具有實(shí)時(shí)性強(qiáng)、精準(zhǔn)度高等優(yōu)點(diǎn),在準(zhǔn)確度、召回率和平均IOU值上均有提升。

關(guān)鍵詞:人車信號(hào)燈目標(biāo)檢測(cè);YOLOv3;K-means聚類;深度學(xué)習(xí)

中圖分類號(hào):U491.5 文獻(xiàn)標(biāo)識(shí)碼:A

0 引言

全自動(dòng)駕駛是汽車工業(yè)未來(lái)的發(fā)展方向,國(guó)際自動(dòng)機(jī)工程師學(xué)會(huì)根據(jù)智能程度將自動(dòng)駕駛分為L(zhǎng)0-L5共六個(gè)級(jí)別。其中輔助駕駛相當(dāng)于L1和L2級(jí)的自動(dòng)駕駛。多種輔助駕駛技術(shù)已經(jīng)被廣泛應(yīng)用,其應(yīng)用能力和操作權(quán)限也處于逐步提升階段,但由于技術(shù)和成本的限制,完全無(wú)人駕駛尚處于實(shí)驗(yàn)和驗(yàn)證階段。

隨著社會(huì)發(fā)展,自動(dòng)駕駛成為當(dāng)前熱門話題之一。自動(dòng)駕駛系統(tǒng)首先需要獲取道路交通信息,主要有淺層學(xué)習(xí)和深度學(xué)習(xí)兩種方法[1]。淺層學(xué)習(xí)主要依據(jù)模板與圖像穩(wěn)定的特征點(diǎn)獲取模板與場(chǎng)景中對(duì)象的對(duì)應(yīng)關(guān)系來(lái)檢測(cè)目標(biāo),使用Canny[2]和粒子群SVM[3]。近年來(lái),基于卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)得到迅速發(fā)展,主要分為兩類:一類是基于R-CNN算法,需要先使用啟發(fā)式方法(selective search)或者CNN網(wǎng)絡(luò)(RPN)產(chǎn)生Region Proposal,然后再在Region Proposal上做分類與回歸,雖然精度很高,但速度非常慢。另一類是基于YOLO(You Only Look Once)[4]、SSD(Single Shot Multi-box Detector)[5]這類算法,其僅僅使用一個(gè)CNN網(wǎng)絡(luò)直接預(yù)測(cè)不同目標(biāo)的類別與位置。本文檢測(cè)行人、車輛和信號(hào)燈所用到的改進(jìn)YOLOv3算法結(jié)合了特征金字塔,借鑒了殘差網(wǎng)絡(luò)和多尺度預(yù)測(cè)網(wǎng)絡(luò),從而表現(xiàn)出較好的目標(biāo)檢測(cè)速度和精準(zhǔn)度。這使得此方法在自動(dòng)駕駛中的應(yīng)用具有良好的前景。

1 概述

本文提出了一種基于改進(jìn)YOLOv3的人車信號(hào)燈識(shí)別方法,以解決原始YOLOv3算法存在的邊界框定位不準(zhǔn),且對(duì)小目標(biāo)檢測(cè)精度不高的問(wèn)題。本文基于Apolloscape數(shù)據(jù)集中的視頻或圖像,首先通過(guò)K-means聚類計(jì)算獲得新的anchors值,替換原始YOLOv3模型中的數(shù)據(jù)集參數(shù),再采用改進(jìn)后的YOLOv3模型對(duì)行人、車輛和信號(hào)燈等道路交通信息進(jìn)行檢測(cè),可應(yīng)用于自動(dòng)駕駛或車輛輔助系統(tǒng)。目標(biāo)檢測(cè)流程圖如圖1所示。

2 YOLOv3算法原理

本論文所使用的YOLOv3的網(wǎng)絡(luò)結(jié)構(gòu)如下圖2所示,Darknet-53作為骨干網(wǎng)絡(luò)主要用于提取圖像特征,它是全卷積網(wǎng)絡(luò),包含有53個(gè)卷積層,引入了殘差結(jié)構(gòu)。輸入為416x416時(shí),Darknet-53特征提取網(wǎng)絡(luò)將輸出三個(gè)尺度的特征圖,大小分別為13x13、26x26和52x52。將三個(gè)不同尺度的特征圖通過(guò)FPN(Feature Pyramid Network)[6]進(jìn)行融合,利用多尺度策略幫助網(wǎng)絡(luò)模型同時(shí)學(xué)習(xí)不同層次的特征信息,最后將融合后的特征輸入YOLO層進(jìn)行類別預(yù)測(cè)和邊界框回歸。

YOLOv3采用先驗(yàn)框(anchor box)機(jī)制來(lái)預(yù)測(cè)目標(biāo)邊界框,對(duì)標(biāo)注邊界框尺寸進(jìn)行K-means聚類得到一組尺寸固定的初始候選框。先驗(yàn)框尺寸與特征圖尺度大小成反比,在較大的特征圖上應(yīng)用較小的先驗(yàn)框,用于檢測(cè)較小的目標(biāo),在較小的特征圖上應(yīng)用較大的先驗(yàn)框,用于檢測(cè)較大的目標(biāo)。對(duì)于輸入圖像,YOLOv3按特征圖尺度將其劃分為S×S個(gè)網(wǎng)格,每個(gè)單元格會(huì)預(yù)測(cè)B個(gè)邊界框(bounding box)以及邊界框的置信度。所謂置信度其實(shí)包含兩個(gè)方面,一是這個(gè)邊界框含有目標(biāo)的可能性大小,二是這個(gè)邊界框的準(zhǔn)確度。前者記為Pr(object),當(dāng)該邊界框是背景時(shí)(即不包含目標(biāo)),此時(shí)Pr(object)=0。而當(dāng)該邊界框包含目標(biāo)時(shí),Pr(object)=1。邊界框的準(zhǔn)確度可以用預(yù)測(cè)框與實(shí)際框的交并比來(lái)表征,記為IOUtruthpred。因此置信度計(jì)算公式為:

得到全部預(yù)測(cè)邊界框后,設(shè)置閾值將置信度較低的邊界框去除,其余邊界框經(jīng)過(guò)非極大值抑制得到目標(biāo)邊界框。

3 改進(jìn)的YOLOv3算法

若兩個(gè)目標(biāo)類別均值之間的距離小于預(yù)先設(shè)定的閾值,則將這兩個(gè)目標(biāo)類別合并為一個(gè)類;再繼續(xù)通過(guò)上式計(jì)算類均值的距離。經(jīng)過(guò)對(duì)樣本子集的并集進(jìn)行合并,得到最終的K-means值聚類結(jié)果;使用最終生成的聚類結(jié)果計(jì)算符合本模型使用的anchors值,將新的anchors值替換原始YOLOv3模型中的數(shù)據(jù)集參數(shù)。

在YOLOv3損失函數(shù)中利用高斯分布特性增加對(duì)每個(gè)邊界框準(zhǔn)確度的預(yù)測(cè),以提升網(wǎng)絡(luò)的精度,YOLOv3算法的損失函數(shù)主要從邊界框坐標(biāo)預(yù)測(cè)誤差、邊界框置信度誤差、類別預(yù)測(cè)誤差這三個(gè)方面考慮,其損失函數(shù)公式表示為:

其中,S表示圖像的網(wǎng)格數(shù),B表示每個(gè)網(wǎng)格中預(yù)測(cè)的邊界框數(shù),C表示總類別數(shù),P表示目標(biāo)屬于某一類別的概率,c為類別序號(hào),S2為網(wǎng)格序號(hào),B為邊框序號(hào);xi表示屬于第i個(gè)網(wǎng)格的邊界框中心點(diǎn)的橫坐標(biāo),yi表示屬于第i個(gè)網(wǎng)格的邊界框中心點(diǎn)的縱坐標(biāo),wi表示屬于第i個(gè)網(wǎng)格的邊界框的寬度,hi表示屬于第i個(gè)網(wǎng)格的邊界框的高度,λcoord為權(quán)重系數(shù),λnoobj為懲罰權(quán)重系數(shù),表示第i個(gè)網(wǎng)格的第j個(gè)邊界框是否負(fù)責(zé)預(yù)測(cè)這個(gè)目標(biāo)。

利用高斯分布特性改進(jìn)損失函數(shù),增加對(duì)邊界框準(zhǔn)確度的判斷,以邊界框中心點(diǎn)x方向坐標(biāo)為例,修改后的邊界框x坐標(biāo)預(yù)測(cè)誤差計(jì)算方法如下式:

式中,tx表示邊界框中心點(diǎn)坐標(biāo)相對(duì)于網(wǎng)格左上角x坐標(biāo)的偏移量,W和H分別表示預(yù)測(cè)層中網(wǎng)格的數(shù)目,K表示先驗(yàn)框的數(shù)目。

4 實(shí)驗(yàn)結(jié)果分析

本文實(shí)驗(yàn)環(huán)境為1080ti gpu服務(wù)器,CUDA版本是10.0,tensorflow版本是2.0,keras版本是2.3,數(shù)據(jù)集選取的是Apolloscape數(shù)據(jù)集。Apolloscape發(fā)布的整個(gè)數(shù)據(jù)集包含數(shù)十萬(wàn)幀逐像素語(yǔ)義分割標(biāo)注的高分辨率圖像數(shù)據(jù),涵蓋了更復(fù)雜的道路狀況,同時(shí)開(kāi)放數(shù)據(jù)集采用了逐像素語(yǔ)義分割標(biāo)注的方式,是目前環(huán)境最復(fù)雜、標(biāo)注最精準(zhǔn)、數(shù)據(jù)量最大的自動(dòng)駕駛數(shù)據(jù)集。通過(guò)本文改進(jìn)的YOLOv3模型得到的目標(biāo)檢測(cè)結(jié)果如下圖3。

從圖3中,我們可以看到,本文對(duì)圖像中的行人、車輛和信號(hào)燈的識(shí)別檢測(cè)結(jié)果表現(xiàn)良好。目標(biāo)檢測(cè)結(jié)果圖中,可以得到行人、車輛和信號(hào)燈的類別和置信度,并用不同的顏色標(biāo)出。在車輛檢測(cè)中,本文將車輛按車型分為三類進(jìn)行識(shí)別:小車car,卡車truck以及公交車bus。

為了定量評(píng)估本文提出的基于改進(jìn)YOLOv3的人車信號(hào)燈識(shí)別方法在性能上的優(yōu)越性,實(shí)驗(yàn)使用相同的數(shù)據(jù)集進(jìn)行訓(xùn)練與測(cè)試,最終得出各項(xiàng)性能測(cè)試結(jié)果如下表1。相比于原始的YOLOv3模型,本文提出的改進(jìn)的YOLOv3模型在準(zhǔn)確度、召回率和平均IOU值上均有提升。

5 結(jié)論

本文提出了一種基于改進(jìn)YOLOv3的人車信號(hào)燈識(shí)別方法,以解決原始YOLOv3算法存在的邊界框定位不準(zhǔn),且對(duì)小目標(biāo)檢測(cè)精度不高的問(wèn)題。本文基于Apolloscape數(shù)據(jù)集中的視頻或圖像,首先通過(guò)K-means聚類計(jì)算獲得新的anchors值,替換原始YOLOv3模型中的數(shù)據(jù)集參數(shù),并利用高斯分布特性增加對(duì)邊界框準(zhǔn)確度的判斷,再采用改進(jìn)后的YOLOv3模型對(duì)行人、車輛和信號(hào)燈等道路交通信息進(jìn)行檢測(cè),可應(yīng)用于自動(dòng)駕駛或車輛輔助系統(tǒng)。目前的工作對(duì)信號(hào)燈的檢測(cè)較為單一,還未實(shí)現(xiàn)對(duì)信號(hào)燈指示方向的判斷,相關(guān)研究將在后續(xù)研究中進(jìn)一步展開(kāi)。

參考文獻(xiàn):

[1]馬立,鞏笑天,歐陽(yáng)航空.Tiny YOLOv3目標(biāo)檢測(cè)改進(jìn)[J].光學(xué)精密工程,2020,28(04):988-995.

[2]丁鵬,張葉,劉讓,等.結(jié)合形態(tài)學(xué)和Canny算法的紅外弱小目標(biāo)檢測(cè)[J].液晶與顯示,2016,31(08):793-800.

[3]張國(guó)梁,賈松敏,張祥銀,等.采用自適應(yīng)變異粒子群優(yōu)化SVM的行為識(shí)別[J].光學(xué)精密工程,2017,25(06):1669-1678.

[4]Redmon J,Divvala S,Girshick R,et al.You only look once: unified,real-time object detection[C].Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2016:779-788.

[5]Liu W,Anguelov D,Erhan D,et al.SSD: single shot multibox detector[C].Proceedings of the 2016 European Conference on Computer Vision.Cham: Springer,2016:21-37.

[6]Lin T Y,Dollár P,Girshick R,et al.Feature pyramid networks for object detection[C].Proceedings of the IEEE conference on computer vision and pattern recognition,2017:2117-2125.

[7]Faster R-CNN:Towards Real-Time Object Detection with Region Proposal Networks.Ren S,He K,Girshick R,et al.IEEE Transactions on Pattern Analysis and Machine Intelligence.2015

[8]李鵬飛,劉瑤,李珣,等.YOLO9000模型的車輛多目標(biāo)視頻檢測(cè)系統(tǒng)研究[J].計(jì)算機(jī)測(cè)量與控制,2019,27(08):21-24+29.

[9]You only look once:Unified,real-time object detection.Redmon J,Divvala S,Girshick R,et al.Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.2016.

[10]YOLO9000:Better Faster,Stronger.Redmon J,F(xiàn)arhadi A.Conference on Computer Vision and Pattern Recognition.2017.

[11]High-Speed tracking-by-detection without using image information.E.Bochinski,V.Eiselein,T.Sikora.2017 14th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS).2017.

[12]Feature Pyramid Networks for Object Detection.Tsung-Yi Lin,Piotr Dollár,Ross Girshick,Kaiming He,Bharath Hariharan,Serge Belongie.Computer Vision and Pattern Recognition.2017.

[13]Very deep convolutional networks for large-scale image recognition.Simonyan K,Zisserman A.ICLR.2015.

[14]Faster r-cnn:Towards real-time object detection with region proposal networks.Ren S,He K,Girshick R,et al.NIPS.2015.

[15]An improved tiny-yolov3 pedestrian detection algorithm.ZHANG Y,SHEN Y L,ZHANG J.Optik.2019.

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開(kāi)放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
基于自動(dòng)智能分類器的圖書(shū)館亂架圖書(shū)檢測(cè)
搭建深度學(xué)習(xí)的三級(jí)階梯
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 无遮挡一级毛片呦女视频| 欧美视频在线第一页| 最新国产精品鲁鲁免费视频| 波多野结衣一区二区三区88| 国产av一码二码三码无码| 99视频精品全国免费品| 人妻少妇久久久久久97人妻| 亚洲精品不卡午夜精品| 中文字幕一区二区视频| 国产一级α片| 欧美亚洲国产精品久久蜜芽| 91精品国产91欠久久久久| 色综合久久综合网| 黄色网页在线播放| 精品人妻一区无码视频| 日本黄色a视频| 一区二区日韩国产精久久| 亚洲AV无码不卡无码| 2020国产精品视频| 日a本亚洲中文在线观看| 亚洲最大福利网站| 亚洲欧洲日韩综合| 在线无码av一区二区三区| 国产精品yjizz视频网一二区| 婷婷伊人五月| 国产主播在线一区| 亚洲侵犯无码网址在线观看| 久久青草免费91观看| 日本午夜影院| 日韩午夜福利在线观看| 91无码国产视频| 天天综合色网| 国产精品视频久| 国产杨幂丝袜av在线播放| 香蕉eeww99国产精选播放| 青青草原国产精品啪啪视频| 久久久久夜色精品波多野结衣| 广东一级毛片| 免费激情网站| 亚洲欧美日韩中文字幕在线一区| 国产在线精品香蕉麻豆| 国产人人干| 亚洲一级毛片在线观播放| 国产永久无码观看在线| 小蝌蚪亚洲精品国产| 国产在线观看一区精品| 国产性生交xxxxx免费| 日本色综合网| 欧美成人怡春院在线激情| 久久久久免费精品国产| 亚洲第一成年人网站| 亚洲欧美一区在线| 日韩资源站| 久草视频一区| 无码内射中文字幕岛国片| 97se亚洲综合| 2018日日摸夜夜添狠狠躁| 99九九成人免费视频精品 | 91无码视频在线观看| A级毛片高清免费视频就| 伊人中文网| 青青草a国产免费观看| 国产日韩精品欧美一区灰| 99热这里只有精品5| 亚洲大尺码专区影院| 中文无码精品A∨在线观看不卡| 国产成人精品第一区二区| 91小视频版在线观看www| 久久精品aⅴ无码中文字幕 | 国产区人妖精品人妖精品视频| 激情综合网址| 在线播放真实国产乱子伦| 色香蕉影院| 国内视频精品| 91麻豆精品视频| 国产乱子伦一区二区=| 激情综合网激情综合| 国产九九精品视频| 国产精品女熟高潮视频| 国产精品三级av及在线观看| 亚洲欧美激情另类| 久久综合色视频|