999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于SSD卷積神經網絡的智能交通應用研究

2019-09-19 11:34:52金亞楠嚴碧波
電腦知識與技術 2019年20期

金亞楠 嚴碧波

摘要:針對傳統的道路交通監控系統對目標的識別準確率較差、模型魯棒性較弱且不具備實時性等問題,本文提出了一種基于卷積神經網絡的道路交通目標檢測方法。和傳統的道路監控檢測系統相比,卷積神經網絡的模型更加適合處理大規模的數據。在卷積神經網絡的分層特征提取下,既可以獲得圖像的低級語義,也可以獲得圖像的高級語義,經過對不同層級的樣本特征分析,可以綜合性地對目標進行識別分類,進一步提高模型的分類性能。驗證結果表明該方法不但在準確率方面遠遠優于傳統的識別系統,而且在硬件條件允許的情況下具有實時性。

關鍵詞:卷積神經網絡;SSD模型;遷移學習;目標檢測

中圖分類號:TP18? ? ? ? 文獻標識碼:A

文章編號:1009-3044(2019)20-0211-03

開放科學(資源服務)標識碼(OSID):

Abstract: To address the problems that the traditional road traffic monitoring system has poor target recognition accuracy, weak model robustness and no real-time performance, a road traffic target recognition method based on convolutional neural networks is proposed. Compared with the traditional road monitoring and recognition system, the convolutional neural network model is more suitable for processing large-scale data. Under the hierarchical feature extraction of convolutional neural networks, both the low-level and the high-level semantics of the image can be obtained. After analyzing the sample features of different levels, the target can be comprehensively identified and classified, and the models classification performanc can be further improved as well. Experiments show that this method is not only superior to the traditional identification system in terms of accuracy, but also has real-time performance when the hardware conditions permit.

Key words: convolutional neural networks; SSD model; migration learning; target detection

隨著人們生活水平的不斷提高,國內的汽車保有量近幾年快速攀升,導致道路交通擁堵,交通事故頻發等問題層出不窮,交通管理部門所面臨的壓力越來越大。通過道路監控系統進行目標檢測成了智能交通領域的一個重要研究課題,可以為交通監管和違章識別告警等方面提供有力的技術支持。

傳統的道路監控系統主要采用以下幾種非深度學習的目標檢測方法:特征匹配法[1],光流法[2],幀差法[3]和背景建模法[4]等,但由于在實際的道路環境下,監控畫面的角度、光照和背景等多方面的原因都會給傳統的識別系統帶來很大的挑戰。傳統的目標識別系統對復雜環境的目標捕捉和識別率較低,模型的魯棒性也很差。

近幾年,利用深度學習方法,借助卷積神經網絡等進行目標檢測的研究工作有明顯上升[5]。卷積神經網絡使圖像可以直接作為網絡的數據輸入,避免了傳統識別算法中復雜的特征提取過程,圖像特征也更加充分得到應用。與傳統方法相比,卷積神經網絡可以將更多的數據特征拿來訓練模型,進而有效降低外界條件對模型性能的影響,使模型具有更好的識別準確率和魯棒性,更適合道路交通目標的檢測識別要求。

1 SSD模型

由于對交通目標的檢測需要具有實時性,這就不僅要求深度學習模型具有較高的識別精度和魯棒性,而且還要求對目標的檢測速度要足夠快。根據對目前較為流行的目標檢測模型Faster R-CNN[6]、YOLO[7]、SSD[8]等進行對比(見表2),最終選擇性能更為優越的端到端檢測的單發多框檢測器(Single Shot Multibox Detector,SSD)模型作為道路交通目標檢測系統的訓練模型。

1.1模型功能介紹

SSD模型在VGG16[9]的基礎上設計了6個特征提取模塊,來對不同層級的語義特征進行提取和分類識別預測,同時在同一層級的特征圖上選擇長寬比不同的預測框,來提高目標檢測精度。為了避免過多的負樣本邊界框影響模型訓練的準確率,網絡在非最大抑制策略的基礎上,使用Hard Negative Mining策略,根據邊界框的置信損失進行排序,只訓練較高損失度的負樣本子集,保證正負樣本的比例為1:3,這樣既減少了樣本計算量又避免了負樣本過多造成的模型訓練精確度的影響。

該模型的算法結合了YOLO和Faster R-CNN的優勢,以對目標特征進行分層提取和預測作為主體思路進而實現回歸和分類。根據圖像的語義分析,在低層次的特征圖中語義分割質量更高,包含較多的特征細節,適合對小尺度目標的進行特征提取;在高層次的特征圖中語義分割更為抽象化,更為適合大尺度目標。該模型的結構在單一的回歸網絡的基礎上,針對不同的特征層級進行多尺度目標特征提取和預測分類,進而實現目標分類識別。SSD模型是采用端到端的訓練方法,把檢測和分類一體化,它既綜合了YOLO模型端到端快速檢測的優勢,又保留了Faster R-CNN模型對小目標的檢測精度等特點。

1.2模型的損失函數

神經網絡的模型的效果以及優化的目標都是通過損失函數來定義的,SSD模型的損失函數是模型訓練和驗證時的重要衡量指標之一,損失函數是可以根據數據要求進行自定義的。根據訓練時的目標匹配策略,該模型總體的目標損失函數是定位損失(loc)和置信度損失(conf)的加權和:

其中參數N是匹配的默認邊界框的數量,如果N為0,則將損失函數設為0。定位損失是預測框()與真實框()參數之間的Smooth L1損失,置信度損失是在多類別置信度(c)上的softmax損失[8]。參數為權衡定位損失和置信度損失的加權值,通過交叉驗證,加權參數通常設置為1。在實際訓練過程中,真實值和預測值的誤差會以損失函數的形式進行計算,可以對模型訓練結果進行分析,改進參數以訓練出性能更好的預測模型。

2 構建數據集

道路監控系統要求基于交通監控設備對交通目標進行實時的目標檢測,識別道路上的機動車、非機動車和行人,因此我們需要構建一個具有一定數量的不同目標的數據集來實現對深度學習模型的訓練、驗證和測試。數據來源分為兩個部分,一部分來自MIT的車輛數據集,另一部分由道路監控采集而來,樣本的采集兼顧了不同的背景、不同光照條件等,通過左右翻轉和調整飽和度等方式實現數據增廣,保證樣本數據的多樣性和全面性。

構建的數據集共包含4648張圖片,其中包含的檢測目標分別為機動車、非機動車和行人,采用lableImg標注工具對收集的目標數據進行標注,制作成為PASCAL VOC 2007格式。根據要求將數據集按照4 :1的比例分為訓練驗證集和測試集,再按照1 :1的比例將訓練驗證集分為訓練集和驗證集。數據集制作完成之后采用數據分析的形式對PASCAL VOC數據集的XML文件進行數據分析,統計訓練集、驗證集和測試集中各個目標樣本的真實標注框的數量和所在圖片的數量,作為SSD模型訓練和驗證時的參數。數據集統計數據如下表所示:

3 對模型進行遷移學習

所謂遷移學習,就是將一個已經訓練相當成熟的模型通過簡單的結構調整使其適應新的問題,在新的數據集上,可以直接利用這個訓練好的模型來提取特征,然后再將新組合的特征向量作為輸入來訓練調整后的模型參數,以此來實現新的分類問題[10]。遷移學習的優點在于所需要的訓練時間和訓練樣本都要遠遠小于重新訓練完整模型,而且可以達到令人滿意的實驗效果。

由于實驗數據和實驗條件的限制,我們將在現有的SSD模型的基礎上,保留SSD原有模型的權重參數,根據實驗的分類要求對模型相關超參數進行更改,這些超參數主要有類別、學習率、學習率衰減因子、代次、迭代最大步數等(具體參數見下文4.2實驗參數設置),進而對模型個別層的參數進行微調,使模型能夠很好地滿足對道路交通目標中機動車、非機動車和行人的識別要求。

4 模型的測試及相關數據

4.1 實驗環境

本文實驗環境是操作系統 Windows 10 64位 ( DirectX 12 ),處理器型號為英特爾 Core i7-8750H @ 2.20GHz 六核,顯卡型號為Nvidia GeForce GTX 1060,顯存為6G,內存為16G。所選擇的深度學習框架為Tensorflow。

4.2 實驗參數設置

該實驗是在采集制作的PASCAL VOC 2007格式的數據集上進行,實驗所采用的模型為VGG16-SSD模型,采用的最優化算法為Adam,經過不斷對各個參數的調試對比,最終選擇模型效果較好的超參數組合。經過對模型的不斷調試,確定各個超參數設置如下:批次大小為24,權重衰減為0.005,學習率初始值為0.01,學習率衰減因子為0.98,學習率衰減頻率為8 epochs,最大迭代步數50000,GPU占用量0.7。

4.3 實驗數據對比分析

深度學習的神經網絡模型有一系列的評價標準,其中在模型訓練時較為重要的評價指標主要是模型總體損失函數,而在測試階段模型性能評價指標主要有平均準確率及平均準確率均值等。平均準確率(Average precision,AP)是評價深度學習檢測模型準確性最直觀的標準,平均準確率均值(mean AP,mAP)是各個類別 AP 的平均值,mAP 越高表示模型在全部類別中檢測的綜合性能越高。下表是各類算法在測試數據集上的性能評價指標對比:

4.4 模型的測試效果展示

在實驗的過程中為了方便表示不同分類目標,選擇了用數字代表分類的方法;其中數字1代表機動車,數字2代表行人,數字3代表非機動車。以下四幅圖片是訓練的模型檢測效果展示:

由以上測試結果可知,該模型的性能優于先前的算法,對道路交通目標有更高的檢測準確率和更低的誤檢率,而且滿足系統所要求的實時性和模型魯棒性,但圖6的檢測結果同時也表明該模型還存在一定的缺點,如目標漏檢等,經過分析,可能是數據集還不夠充分,有待進一步改進。

5 結束語

目標檢測是深度學習熱門的研究方向之一,應用前景非常廣泛。通過實驗對比,深度學習模型SSD在道路目標檢測上取得了較為不錯的測試效果。但與此同時也發現了該模型算法存在的不足,在基于視頻目標檢測時,幀與幀的圖像之間在時序和內容上存在上下文關系,而該模型并未對此加以利用來優化模型準確率和誤檢率。根據跟蹤算法和循環神經網絡結構在時序問題上所展現的優勢,我們可以考慮以此為研究方向對該模型進行更進一步的改進和優化。

參考文獻:

[1] 李雙雙,趙高鵬,王建宇.基于特征融合和尺度自適應的干擾感知目標跟蹤[J].光學學報,2017,37(5):15-20.

[2]? BARRON J L, FLEET D J, BEAUCHEMIN S S. Performance of optical flow techniques[M]. Kluwer Academic Publishers, 1994, 12(1):43-77.

[3]? ALI A T, DAGLESS E L. Alternative practical methods for moving object detection[C].International Conference on Image Processing and ITS Applications, 1992:77-80.

[4]? HARITAOGLU I, HWRWOOD D, DAVIS L S. W4: real-time surveillance of people and their activities[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2000,22(8):809-830.

[5] 章毓晉.中國圖像工程:2017[J].中國圖象圖形學報,2018,23(5):617-628.

[6]? REN S, He K, GIRSHICK R, et al.? Faster R-CNN: towards real-time object detection with region proposal networks[C].? International Conference on Neural Information Processing Systems, 2015:91-99.

[7] REDMON J, DIVVALA S, GIRSHICK R, et al.? You Only Look Once: Unified, Real-Time? Object Detection[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2016:779-788.

[8] LIU W, ANGUELOY D, ERHAN D, et al. SSD: Single Shot Multi Box Detector[J].Computer Vision-ECCV2016, 2016:21-37.

[9] SIMONYAN K, ZISSERMAN A. Very Deep Convolutional Networks for Large-Scale Image Recognition[J]. Computer Science, 2014.

[10] 鄭澤宇,梁博文,顧思宇.Tensorflow 實戰Google深度學習框架[M].2版.北京:電子工業出版社,2018:161.

【通聯編輯:唐一東】

主站蜘蛛池模板: 91po国产在线精品免费观看| 国产在线拍偷自揄观看视频网站| 国产午夜精品一区二区三区软件| 国产精品一区在线麻豆| 精品国产乱码久久久久久一区二区| 中文成人在线视频| 91亚洲影院| 国产精品亚欧美一区二区| 欧美一区二区自偷自拍视频| 一本大道无码日韩精品影视| 亚洲欧美另类视频| 久久青草视频| 直接黄91麻豆网站| 国产欧美精品午夜在线播放| 免费Aⅴ片在线观看蜜芽Tⅴ | 国产手机在线小视频免费观看| 亚洲二区视频| 91精品专区国产盗摄| 亚洲性视频网站| 国产视频入口| 久久久久久久久18禁秘| 国产香蕉国产精品偷在线观看| 55夜色66夜色国产精品视频| 国产精品思思热在线| 亚洲小视频网站| 成人午夜免费观看| 久草网视频在线| 996免费视频国产在线播放| 亚洲乱码视频| 欧美自慰一级看片免费| 日韩AV手机在线观看蜜芽| 国产一级小视频| 99热这里只有免费国产精品 | 激情乱人伦| 尤物精品视频一区二区三区| 国产SUV精品一区二区| 亚洲视频在线网| 夜夜爽免费视频| 中文无码精品a∨在线观看| 国产又黄又硬又粗| 亚洲三级片在线看| 国产精品第| 亚洲最新在线| 色综合天天娱乐综合网| 亚洲无码高清一区二区| 国产高潮视频在线观看| 国产一区二区免费播放| 亚洲中文在线视频| 亚洲成a人片7777| 亚洲精品中文字幕午夜| 国产精品视频猛进猛出| 国产亚洲美日韩AV中文字幕无码成人| 97免费在线观看视频| 精品一区二区三区视频免费观看| 萌白酱国产一区二区| 26uuu国产精品视频| 国产午夜一级淫片| 国产尤物在线播放| 77777亚洲午夜久久多人| 国产精品嫩草影院视频| 亚洲人成成无码网WWW| 国产视频入口| 成人午夜免费观看| 国产高潮流白浆视频| 伊人91视频| 精品一区二区久久久久网站| 综合色天天| 婷婷激情亚洲| 国产午夜不卡| 久99久热只有精品国产15| 国产情侣一区| 91视频区| 日韩a在线观看免费观看| 一本大道香蕉久中文在线播放| 日韩精品欧美国产在线| 亚洲成网777777国产精品| 中文无码精品a∨在线观看| 日本精品一在线观看视频| 欧美激情首页| 成人久久精品一区二区三区| 久久综合色天堂av| 国产在线精彩视频二区|