999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于神經(jīng)網(wǎng)絡(luò)的交通標志檢測方法

2020-08-10 08:51:23陳新宇金艷梅
計算機與網(wǎng)絡(luò) 2020年6期

陳新宇 金艷梅

摘要:交通標志識別系統(tǒng)是高級駕駛員輔助系統(tǒng)的重要組成部分,在許多實際應(yīng)用中至關(guān)重要,介紹了常見的檢測和分類算法,并且將不同的檢測和分類方法結(jié)合用于交通標志的實時檢測,對比分析了實驗結(jié)果。對ssd_mobilenet_v2,faster_rcnn_inception_v2,ssd_mobilenet_v1,ssd_inception_v2實時識別交通標志的效果進行了分析與評估。實驗表明,faster_rcnn_inception_v2獲得最佳的檢測性能,而ssd_mobilenet_v2則在準確性和執(zhí)行時間上都取得了較好的效果,可考慮將其應(yīng)用于實時的交通標志檢測系統(tǒng)。

關(guān)鍵詞:交通標志檢測;圖片識別;神經(jīng)網(wǎng)絡(luò);智能駕駛;實時檢測

中圖分類號:TP391文獻標志碼:A文章編號:1008-1739(2020)06-66-4

0引言

交通標志識別系統(tǒng)(TSRS)構(gòu)成高級駕駛員輔助系統(tǒng)的重要組成部分,在許多實際應(yīng)用中至關(guān)重要,例如自動駕駛、交通監(jiān)控及駕駛員安全和輔助,道路網(wǎng)絡(luò)維護以及道路交通場景的分析。TSRS通常涉及交通標志檢測(TSD)和交通標志識別(TSR)2個相關(guān)主題,前者專注于目標在幀中的定位,而后者則執(zhí)行細粒度分類以識別所檢測目標的類型[1-2]。

通過開源模型,分析并比較了4種CNN模型用于交通標志的識別,評估后的檢測模型是檢測模型(Faster R-CNN,SSD)和分類模型(mobilenet_v2,inception_v2,mobilenet_v1)。同時評估多個重要因素,例如mAP,推理執(zhí)行時間和內(nèi)存消耗。本文概述了基于CNN的現(xiàn)代對象檢測算法,即Faster R-CNN,SSD,分析和評估專門針對交通標志檢測任務(wù)而調(diào)整的幾個最新對象檢測器,模型的評估包括關(guān)鍵指標,例如mAP等。

1交通標志檢測方法

近些年,深度卷積神經(jīng)網(wǎng)絡(luò)被成功地應(yīng)用于物體識別與目標檢測,其中以AlexNet為代表[3]。2012年,Krizhevsky等人在ImageNet大規(guī)模視覺識別的挑戰(zhàn)賽中展現(xiàn)了CNN顯著提高圖像分類精確度的能力。受到AlexNet在圖像處理領(lǐng)域的顯著效果的啟發(fā),Ross Girshick[4]等人提出一種深度學習模型,命名為R-CNN,將CNN運用于目標檢測問題,該模型首先使用選擇性搜索算法來計算圖像的候選區(qū)域,然后將所有的候選區(qū)域輸入到R-CNN模型中提取特征,最后在SVM中完成分類。雖然R-CNN的正確率有了很大提升,但也存在著缺點,由于每張圖像有大約2 000個候選區(qū)域,導(dǎo)致計算量很大。微軟亞洲研究院工作者SPPnet[5]的思想運用于目標檢測中,其過程和R-CNN一樣,在PASCAL VOC測試,準確率和R-CNN相近,但運行時間大大減少。2015年,Ross Girshick進一步將SPPnet的思想和R-CNN結(jié)合提出卷積神經(jīng)網(wǎng)絡(luò)模型Faster R-CNN[6],再用Softmax[7]回歸替代SVM分類器降低空間和時間的開銷。整個訓練過程不需要分級進行,檢測過程更加高效,準確度更高。2016年,Liu Wei[8]等人將YOLO網(wǎng)絡(luò)[9]的結(jié)構(gòu)與Girshick的Faster R-CNN[6]相結(jié)合,提出了SSD目標檢測算法,SSD網(wǎng)絡(luò)的速度比Faster R-CNN要快很多,但其工作方式卻和Faster R-CNN存在顯著不同。SSD算法直接在整幅圖像上生成各種大大小小的目標邊界框,然后使用非極大值抑制技術(shù)將高度重疊的邊界框整合成一個。將處理候選區(qū)域的問題轉(zhuǎn)化為線性回歸的問題,利用線性回歸思想找出與目標最為接近的預(yù)測框,該算法提高了計算速度,準確率也有一定的保證。采用這種方式的優(yōu)點是極大提升了運算速度,適用于計算力較低的硬件環(huán)境。

1.1 Faster R-CNN

Faster R-CNN[6]引入了區(qū)域提案網(wǎng)絡(luò),是完全卷積神經(jīng)網(wǎng)絡(luò),可同時預(yù)測對象邊界框和對象度得分。由于全圖像卷積特征圖與檢測網(wǎng)絡(luò)共享,模型完全可以從端到端訓練。區(qū)域提議以滑動窗口的方式生成,在最新卷積層的輸出特征圖上滑動一個小型網(wǎng)絡(luò),區(qū)域提案網(wǎng)絡(luò)會在每個滑動窗口位置預(yù)測多個區(qū)域提議,其中是每個位置的最大提議數(shù)目。個提議相對于個參考框(稱為錨點)進行參數(shù)化,這些錨框中的每一個都與縱橫比和比例相關(guān)聯(lián),并以滑動窗口位置為中心。為了減少重疊區(qū)域提案網(wǎng)絡(luò)的冗余,對提議區(qū)域進行非最大抑制(NMS)算法,NMS算法負責合并屬于同一對象的多個檢測。將排序后的提案區(qū)域轉(zhuǎn)發(fā)到檢測網(wǎng)絡(luò),檢測網(wǎng)絡(luò)最終將邊界框回歸,并在確定的對象類別中對每個邊界框進行分類。

1.2 SSD

SSD[8]將所有計算封裝在單個前饋卷積神經(jīng)網(wǎng)絡(luò)中,直接推斷出框偏移量和對象類別分數(shù)。因此,不需要邊界框提議生成和隨后的特征或像素重采樣的階段。SSD使用一組默認框(定位框),這些默認框由開發(fā)人員手動選擇,這些開發(fā)人員必須事先觀察要檢測的對象的大小。這些默認框的目的是使每個要素圖位置的縮放框的輸出空間離散化為不同的比例和縱橫比。也就是說,在每個特征圖單元中,SSD會預(yù)測相對于該單元中錨點形狀的偏移量,以及指示每個錨點中存在對象類實例的類別分數(shù)。

此外,為處理多種尺寸的對象,SSD結(jié)合了來自不同分辨率特征圖的預(yù)測。SSD模型的早期網(wǎng)絡(luò)層基于高質(zhì)量圖像分類的標準體系結(jié)構(gòu),然后將輔助結(jié)構(gòu)添加到網(wǎng)絡(luò),以生成用于檢測目的的多尺度特征圖。這種結(jié)構(gòu)由卷積特征層組成,其目的是逐步減小這些特征圖的大小,并允許在多個尺度上預(yù)測檢測。

2交通標志特征提取方法

2.1 Mobilenet_v1

Mobilenet_v1[10]的創(chuàng)新點在于用深度可分離卷積代替?zhèn)鹘y(tǒng)的卷積操作,這樣可以減少參數(shù)的數(shù)量和操作,但同時會使特征丟失導(dǎo)致精度下降。為了解決上述問題,mobilenet_v1在深度可分離卷積的基礎(chǔ)上,使用倒殘差(Inverted Residual)和線性瓶頸(Linear Bottleneck)技術(shù)來保持模型的表征能力。

2.2 Mobilenet_v2

Mobilenet_v2的基礎(chǔ)結(jié)構(gòu)中增加的升維PW卷積,可以將通道數(shù)擴大到較高的維度。mobilenet_v2的改進是紡錘形Block,將一個卷積操作繼續(xù)分解為3個乘法的和,這樣使得每個Block之間可以以較小的通道數(shù)[24 32 64-96 160-320]進行傳遞,在Block中升維[144 192 384-576 960-1920]可以得到更多特征。將CONV1x1層的參數(shù)數(shù)量和計算量直接減小若干倍(文中6倍),輕微增加DWCONV3x3的通道數(shù)以保證網(wǎng)絡(luò)容量[11]。

2.3 Inception_v2

Inception_v2[12]設(shè)置了ILSVRC2014檢測和分類挑戰(zhàn)中的最新技術(shù)。Inception網(wǎng)絡(luò)使用Inception單元,這些單元可以增加網(wǎng)絡(luò)的深度和寬度而不會增加其計算成本。當將SSD用作元體系結(jié)構(gòu)時,SSD中不需要區(qū)域提議的特征提取,因此inception_v2不會拆分,而是整個網(wǎng)絡(luò)模型被用作主要特征提取器。但是需要多個尺度的輔助卷積特征圖。選擇最頂層的卷積特征圖和較低級別的高分辨率特征圖,然后將具有批處理歸一化和深度512,256,256,128的4個卷積層序列添加到先前選擇的層以執(zhí)行預(yù)測任務(wù),這些附加層中的每一個都會使特征圖的空間分辨率降低2倍。

3實驗仿真

3.1數(shù)據(jù)集

本文采用德國交通標志識別基準(GTSDB),在比較文獻中被廣泛應(yīng)用于交通標志檢測方法。GTSRB包括各種類型的道路(道路、村莊、城市)在白天和黃昏期間記錄的自然交通場景,以及許多天氣條件。數(shù)據(jù)集由900幅包含1 206個交通標志的完整圖像組成,分為600個訓練集(846個交通標志)和300個測試集(360個交通標志)。目前共標記43個種類,含有43個類別,如圖1所示。每個圖像包含0個或1個或多個交通標志,如圖2所示。為了更好地測試每種類方法對小、中、大目標的識別效果,按照目標范圍的大小將圖片分為小背景圖片(0~32像素)、中級背景圖片(32~64像素)和大背景圖片(64~96像素)。

3.2實驗結(jié)果對比

實驗在Intel Core i5-8400 CPU 8 G內(nèi)存和GeForce GTX1060GPU上運行。表1提供了4種方法在不同背景圖片的檢測指標。不同天氣條件下測試數(shù)據(jù)集的部分可視化結(jié)果如圖3所示,可以看出,每個交通標志實例都很小,占整個場景的比例不到1%。但是faster_rcnn_inception_v2仍然可以識別到目標區(qū)域。

由表1可以看出,其中faster_rcnn_inception_v2檢測小尺寸交通標志圖片的precision測量值為24.8%,中尺寸的precision測量值為65.7%。大尺寸的precision測量值為80.0%。而ssd_mobilenet_v2檢測小尺寸交通標志圖片的precision測量值為24.6%,中尺寸的precision測量值為64.8%,大尺寸的precision測量值為86.4%??梢?,雖然faster_rcnn_inception_v2小目標、中目標和大目標均獲得最佳的檢測性能,但是其檢測時間遠高于ssd_mobilenet_v2,因此不能作為實時交通標志的方法,而ssd_mobilenet_v2檢測性能與檢測時間都取得比較好的效果,可考慮將其應(yīng)用于實時的交通標志檢測系統(tǒng)。

4結(jié)束語

交通標志的識別是無人駕駛中的重要組成部分,神經(jīng)網(wǎng)絡(luò)識別方法被廣泛應(yīng)用于交通標志檢測方法,而不同的方法有其優(yōu)劣性。研究表明,faster_rcnn_inception_v2獲得最佳的檢測性能,而ssd_mobilenet_v2則在準確性和執(zhí)行時間之間取得了最佳效果,可考慮將其應(yīng)用于實時的交通標志檢測系統(tǒng)。

在未來的工作中,計劃研究其他神經(jīng)網(wǎng)絡(luò)架構(gòu),這些架構(gòu)已被證明可以很好地檢測或分類通用對象,并使它們適應(yīng)于真實背景下交通標志識別領(lǐng)域。并且實現(xiàn)真實背景的交通標志應(yīng)用。

參考文獻

[1] LAESCALERA A D,MORENO L E,SALICHS M A,et al. Road Traffic Sign Detection and Classification[J]. IEEE Transactions on Industrial Electronics,1997,44(6):848-859.

[2] ARCOS-GARCIA A, ALVAREZ-GARCI A J A, SORIA-MORILLO L M. Deep Neural Network for Traffic Sign Recognition Systems: An Analysis of Spatial Transformers and Stochastic Optimisation Methods[J].Neural Netw,2018(99):158-165.

[3] ALEX K, LLYA S, GEOFFREY H. Image Net Classification with Deep Convolutional Neural Networks[J].Commun ACM,2017,60(6):84-90.

[4] GIRSHICK R, DONAHUE J, DARRELL T. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition,Ohio,USA:2014:580-587.

[5] SATURNINO M B, SERGIO L A,PEDRO G J. Road-Sign Detection and Recognition Based on Support Vector Machines[J]. IEEE Transactions on Intelligent Transportation Systems,2007, 8(2):264-278.

[6] HE K M,ZHANG X.Y, REN S Q,et al. Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition[J].IEEE Trans. Pattern Anal. Mach. Intell, 2015,37(9):1904-1916.

[7] BOUCHARD G. Clustering and Classification Employing Softmax Function Including Efficient Bounds[J].U.S. Patent 8, 2011:246.

[8] REDMON J, DIVVALA S,GIRSHICK R. You Only Look Once: Unified, Real-Time Object Detection[C]//InIEEE Conference on Computer Vision and Pattern Recognition, NV, USA,2016:779-788.

[9] LIU W, ANGUELOV D, ERHAN D.SSD: Single Shot Multibox Detector[J].Proc. Eur. Conf. Comput.Vis.,2016: 21-37.

[10] HOWARD A G,ZHU M,CHEN B,et al.Mobilenets: Efficient Convolutional Neural Networks for Mobile Vision Applications[J].arXiv preprint arXiv:1704.04861,2017.

[11] SIMONYAN K,ZISSERMAN A. Very Deep Convolutional Networks for Large-Scale Image Recognition[J].arXiv preprint arXiv:1409.1556,2014.

[12] IOFFE S,SZEGEDY C. Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift[J].arXiv preprint arXiv:1502.03167,2015.

主站蜘蛛池模板: 亚洲无码四虎黄色网站| 久久窝窝国产精品午夜看片| 国产精品女主播| 欧美综合区自拍亚洲综合绿色 | 高清视频一区| 大香网伊人久久综合网2020| 午夜视频www| 欧美精品导航| 国产日韩欧美在线视频免费观看| 蜜芽国产尤物av尤物在线看| 成人日韩欧美| 国产特级毛片| 最新亚洲人成无码网站欣赏网| 19国产精品麻豆免费观看| 久久频这里精品99香蕉久网址| 亚洲美女视频一区| 国产aⅴ无码专区亚洲av综合网| 国产成人久久综合777777麻豆 | 99视频精品在线观看| 久久免费看片| 麻豆国产在线观看一区二区| 国产一区二区精品高清在线观看| 亚洲人成电影在线播放| 小说 亚洲 无码 精品| 亚洲侵犯无码网址在线观看| 久久国产亚洲偷自| 2020久久国产综合精品swag| 日韩精品一区二区三区中文无码| jizz国产视频| 国产午夜一级毛片| 最新亚洲av女人的天堂| 国产欧美日本在线观看| 国产成人高清精品免费5388| 国产永久免费视频m3u8| 精品在线免费播放| 国产精品尤物铁牛tv| 伊人成人在线| 国产真实乱人视频| 黄色网页在线播放| 日本高清在线看免费观看| 久久久精品国产SM调教网站| 久久久成年黄色视频| 国产一区二区三区在线观看免费| 亚洲综合国产一区二区三区| av一区二区人妻无码| 欧美a级完整在线观看| 日韩人妻少妇一区二区| 国产精品欧美在线观看| 国产成人无码播放| 不卡午夜视频| 国产午夜看片| 国产www网站| 熟女成人国产精品视频| 亚洲天堂网2014| 最新国产网站| 狠狠色丁香婷婷综合| 国产精品99久久久| 青青青国产视频| 在线看片免费人成视久网下载| 自拍偷拍欧美| 成人国产精品一级毛片天堂 | 精品国产成人国产在线| 国产原创自拍不卡第一页| 精品国产网| 免费国产黄线在线观看| 女人18毛片水真多国产| 毛片免费高清免费| 国产美女精品一区二区| 亚洲人成影视在线观看| 国产亚洲视频中文字幕视频| 亚洲第一页在线观看| 911亚洲精品| 精品无码国产自产野外拍在线| 99热免费在线| 亚洲成AV人手机在线观看网站| www中文字幕在线观看| 亚洲国产成人麻豆精品| 99久久精品国产自免费| 99福利视频导航| 国产国产人成免费视频77777 | 色综合久久88| 国产精品成|