999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的行人和騎行者目標檢測及跟蹤算法研究*

2019-07-19 05:36:52胡超超劉軍張凱高雪婷
汽車技術 2019年7期
關鍵詞:檢測

胡超超 劉軍 張凱 高雪婷

(江蘇大學,鎮江 212013)

主題詞:YOLO-R網絡 卡爾曼濾波 目標檢測 深度學習

1 前言

行人、騎行者作為道路交通環境中的弱勢群體,其安全問題不容小覷,建立完善的行人和騎行者檢測系統已成為研究熱點。另外,深度神經網絡在機器視覺領域表現出優異的性能,已獲得學者們廣泛的關注,將深度學習用于駕駛輔助系統正成為發展趨勢。本文以車輛前方行人、自行車作為研究對象,開展了基于深度學習的目標檢測及跟蹤算法的研究。

2 YOLOv2網絡改進

YOLO(You Only Look Once)v2網絡相比于YOLO網絡,在檢測率和檢測速度上均有大幅提高,為使網絡模型更適合檢測行人和騎行者目標,本文進一步優化了YOLOv2網絡:

a.使用K-means聚類的方法對樣本集中標注的目標矩形框進行維度聚類,確定anchor boxes的初始規格和數量。YOLOv2中anchor參數是通過在Pascal VOC數據集中聚類得到的,涉及種類眾多,不適合用于訓練檢測行人和騎行者的模型,因此本文在自制的行人和騎行者樣本庫中重新聚類,獲得anchor參數。

b.YOLOv2網絡通過Passthrough層將淺層特征按不同通道數進行重組,再與深層特征結合,得到細粒度特征。但當小目標成群出現時,即使使用了細粒度特征,檢測效果仍然不佳[1]。為了解決該問題,在原有YOLOv2網絡結構的基礎上,去掉Passthrough層,增加殘差網絡(Residual Network,ResNet),構成YOLO-R網絡。修改后的網絡結構不僅實現了淺層外觀信息與深層語義信息的進一步融合,提高了網絡對群簇小目標的檢測性能,而且降低了網絡的訓練難度,防止出現梯度消失現象。

2.1 聚類選取anchor boxes

為了加快收斂速度,提高目標檢測的位置精度,YOLOv2中使用K-means方法對樣本集中的目標真實框進行聚類分析,得到適合樣本集的最優anchor的尺寸和個數。

K-means聚類通常將歐式距離作為評價相似性的準則函數,但本文需對候選框的尺寸進行聚類,如果采用距離評價指標,大框會比小框產生更大的誤差,因此改用預測框與真實框的交并比(Intersection Over Union,IOU)來反映兩者的差異,IOU越大,兩者的相似度越高。聚類的準則函數為:

式中,k、ni分別為聚類數和第i個聚類中心的樣本集數;box、centroidi分別為真實框和聚類得到的矩形框;IOU(box,centroidi)為box、centroidi面積的交并比。

聚類數k對聚類效果影響較大,不合理的k值會導致K-means算法最終輸出局部最優而非全局最優解。為了解決該問題,本文根據聚類算法中類內相似度最大差異度最小和類間差異度最大相似度最小的基本原則[2],提出了基于IOU的評價函數F。F越小,說明聚類效果越好,其定義為:

同時,k值也影響模型復雜度,其值越大,模型越復雜。因此,k值的選擇必須綜合考慮模型復雜度S和評價函數F。本文用416像素×416像素的圖片需要預測的候選框數目表示模型復雜度S,S=13×13×k。由于這兩個評價指標具有不同的量綱,因此先使用minmax標準化方法歸一化數據,再作出S、F與k的關系圖,結果如圖1所示,在平衡了模型復雜度和聚類效果后,本文將k=5的聚類結果作為最終選取的anchor boxes的尺寸。

圖1 評價函數及模型復雜度變化曲線

2.2 結合殘差網絡搭建YOLO-R網絡

殘差網絡可在網絡層數較多時防止梯度消失,減輕深層網絡訓練的負擔,其基本模塊如圖2所示。假設網絡的輸入為x,要學習的函數映射為H(x),定義殘差映射F(x)為H(x)~x,則原始的函數映射H(x)變為F(x)+x,即H(x)由線性映射x→x和非線性映射F(x)組成。試驗證明,學習殘差映射F(x)較學習原始映射H(x)容易得多[3]。

圖2 殘差網絡基本模塊

本文在YOLOv2網絡結構的基礎上,利用殘差學習思想,引入跨層捷徑,構成了如圖3所示的YOLO-R網絡結構,其中C層表示卷積層,步長為1,S層表示池化層,方式為最大池化,步長為2。去除YOLOv2網絡原有的Passthrough層后,增加了4條捷徑。為減少訓練過程中的資源空間和計算量,所有捷徑的輸入都選擇原網絡中池化操作后的特征圖。第1條捷徑連接第2個池化層與第5個卷積層后的特征圖,第2條連接第3個池化層與第8個卷積層后的特征圖,第3條連接第4個池化層與第13個卷積層后的特征圖,最后一條連接第5個池化層與第20個卷積層后的特征圖。在所有捷徑上增加一個1×1的卷積層,使捷徑與主徑保持相同的維度。捷徑與主徑匯合使淺層特征與深層特征深入融合,更加充分地利用淺層特征,提高了群簇小目標的檢測性能。

圖3 YOLO-R網絡結構

3 目標檢測

3.1 目標檢測過程

YOLO網絡檢測過程如下:

a.將圖像及標簽信息輸入到訓練好的網絡模型中,圖像被劃分為13×13個單元格,每個單元格預測5個候選框,共預測13×13×5=845個候選框,然后利用網絡前向算法預測每個候選框的相對位置、置信度以及所屬類別的后驗概率P。

b.對預測的相對位置以及置信度進行映射變換,得到與anchor box更接近的窗口作為檢測框。檢測框位置預測如圖4所示。

圖4 檢測框位置預測

c.通過設定閾值T(本文取T=0.25),去除可能性較小的檢測框。具體做法是:將σ(t0)與max(p)相乘,得到檢測框屬于某類別的置信度。如果結果大于閾值T,保留該檢測框,否則去除。

d.對每個類別分別進行非極大值抑制[4]處理,去除冗余窗口,具體步驟為:對每個類別的檢測框按置信度[5]大小排列;找出置信度最高的檢測框,依次與其他框計算IOU,當IOU大于閥值0.4時刪除此框,否則保留此框;從未處理的檢測框中選出置信度最高的,重復上述步驟,直到所有窗口處理完畢;輸出留下的檢測框的位置、類別和置信度。

3.2 行人和騎行者分類

圖像中的騎行者經過網絡模型檢測后,會輸出行人和自行車2個矩形框。因此本文利用匹配算法對檢測算法輸出結果進一步融合,完成行人、騎行者分類。

圖5 匹配算法

4 基于Kalman濾波的多目標跟蹤

本文基于Kalman濾波設計了多目標跟蹤算法,流程如圖6所示,該算法包含預測、匹配和更新過程,具體步驟如下:

a.根據前一幀的目標跟蹤結果,利用Kalman濾波器預測目標在當前幀的位置,獲得目標的預測結果Kt。

b.在當前幀中,根據檢測結果和預測結果判斷匹配情況。通常將歐氏距離作為損失函數[6],但其無法很好地表達兩個矩形框之間的匹配程度,因此本文使用預測框和檢測框的IOU來衡量匹配度,定義損失函數為:

利用匈牙利匹配算法[7]將檢測結果與預測結果進行最優相似度匹配,匹配過程通過最小化損失函數之和實現。

c.處理匹配結果。對于匹配成功的檢測目標,用當前幀的預測及檢測結果得到目標位置的最優估計值。

d.顯示跟蹤結果并進行下一幀的預測。

5 試驗驗證

5.1 試驗平臺搭建

系統所用的硬件包括1個前視攝像頭、1個視頻采集卡、1個GPS模塊和1臺計算機(英特爾酷睿i7-7700K@3.0 GHz,NVIDIA GTX 1060)如圖7所示。

圖6 基于Kalman濾波的多目標跟蹤流程

圖7 硬件安裝

在Visual Studio 2015的編程環境下,采用GPU并行計算架構CUDA 8.0、深度學習加速庫cuDNN以及OpenCV 2.4.10計算機視覺庫實現系統軟件編寫。并通過微軟基礎類(Microsoft Foundation Classes,MFC)應用程序進行圖形用戶界面設計。

5.2 試驗結果分析

為了評估本文開發的前方行人和騎行者檢測算法的檢測性能,在不同背景環境下進行行人和騎行者檢測測試,結果如圖8所示。從圖8可以看出,本文開發的檢測算法對不同背景下的目標檢測效果良好,并且算法的魯棒性較好,對于不同姿態以及群簇目標的檢測情況,效果也較理想。但當目標與背景顏色過于相近或目標被遮擋嚴重時,也會出現一些漏檢。

圖8 前方行人和騎行者檢測試驗結果

對本文檢測算法的檢測性能進行定量分析,一般用精度(Precision)和召回率(Recall)評價分類器的性能。精度是指檢測結果中正例的數量與檢測結果總數的比值,召回率是指檢測結果中正例的數量與樣本集中標注的目標總數的比值。以精度為縱坐標,以召回率為橫坐標,繪制PR曲線后,曲線下的面積即為平均正確率(Average Precision,AP),所有類別AP的均值為(mean Average Precision,mAP):

式中,C為類別數;p為精度;r為召回率。

圖9、圖10所示為在測試集上分別利用YOLOv2和YOLO-R模型獲得的行人和自行車的PR曲線。使用的YOLOv2和YOLO-R網絡,除結構及anchor boxes尺寸不同外,訓練樣本、迭代次數及其他網絡參數相同。

圖9 行人的PR曲線對比

圖10 自行車的PR曲線對比

從圖9、圖10中可以看出,優化后的網絡在對行人、自行車的檢測上,明顯優于原YOLOv2網絡。對比原YOLOv2網絡和YOLO-R網絡的mAP和平均檢測時間,結果如表1所示,其中平均檢測時間是指網絡模型檢測測試集中4 500張圖片所用時間的平均值。

表1 mAP和平均檢測時間的比較結果

從表1可以看出:在訓練樣本、網絡參數都相同的情況下,YOLO-R網絡的mAP提高了3.4%,這表明YOLO-R網絡不僅保留了原YOLOv2網絡的優勢,其增加的殘差網絡結構還提升了行人、自行車群簇出現時的目標檢測性能;同時,YOLO-R的平均檢測時間略高于YOLOv2,主要原因是YOLO-R在結構上比YOLOv2多了4個卷積層,但YOLO-R網絡完全可以滿足實時性的要求。

6 結束語

本文對YOLOv2結構進行改進,構建了YOLO-R網絡,通過訓練模型進行目標檢測。為了進一步區分行人和騎行者,在目標檢測中添加了匹配算法,并利用Kalman濾波完成了對多個目標的跟蹤。試驗結果表明,與YOLOv2相比,在滿足速度要求的前提下,本文構建的YOLO-R網絡檢測效果更優,YOLO-R網絡的mAP提高了3.4%。

猜你喜歡
檢測
QC 檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
“有理數的乘除法”檢測題
“有理數”檢測題
“角”檢測題
“幾何圖形”檢測題
主站蜘蛛池模板: 欧美精品色视频| 久久免费视频6| 国产91特黄特色A级毛片| 日韩精品欧美国产在线| 国产91小视频| 国产剧情国内精品原创| 亚洲AⅤ波多系列中文字幕 | 欧美色99| 久久亚洲欧美综合| 亚洲永久色| 中文字幕无线码一区| 精品三级网站| 在线高清亚洲精品二区| 沈阳少妇高潮在线| 精品自窥自偷在线看| 日韩精品久久久久久久电影蜜臀| julia中文字幕久久亚洲| 精品一区二区三区四区五区| 国模极品一区二区三区| 亚洲一级毛片| 日韩精品资源| 国内精品视频| 亚洲第一视频网站| 26uuu国产精品视频| 777国产精品永久免费观看| 成人亚洲天堂| 久视频免费精品6| 亚洲av成人无码网站在线观看| 亚洲伊人天堂| 91在线一9|永久视频在线| 尤物精品视频一区二区三区| aⅴ免费在线观看| 国产精品va免费视频| 国产成人久视频免费| 日本黄色a视频| 67194亚洲无码| 成人在线观看不卡| 欧美日韩在线亚洲国产人| 毛片免费观看视频| 免费在线看黄网址| 亚洲美女一级毛片| 超清无码熟妇人妻AV在线绿巨人 | 亚洲国产一区在线观看| 国产69囗曝护士吞精在线视频| 国产成人免费观看在线视频| 国产成人高精品免费视频| 成人亚洲视频| 国产成人精品综合| 夜夜操天天摸| 欧美翘臀一区二区三区| 操国产美女| 内射人妻无码色AV天堂| 玖玖精品视频在线观看| 日韩 欧美 小说 综合网 另类 | 欧美国产综合视频| 亚洲中文精品人人永久免费| 91九色最新地址| 伊人久久久久久久久久| 无码福利日韩神码福利片| 精品一区二区三区自慰喷水| 五月激情婷婷综合| 中文字幕啪啪| 国产成人毛片| 综合色88| 国产精品无码制服丝袜| 国产女人在线观看| 亚洲欧美日本国产综合在线| 精品国产中文一级毛片在线看| 久久国产V一级毛多内射| 久久国产精品麻豆系列| 国产国语一级毛片在线视频| 99中文字幕亚洲一区二区| 999国内精品视频免费| 欧美日韩精品一区二区在线线 | 国产无码精品在线| 国产欧美在线观看精品一区污| 亚洲最大福利网站| 91激情视频| 国产福利免费视频| 制服丝袜国产精品| 国产在线精彩视频二区| 99在线观看视频免费|