




【摘要】為提升碰撞預警系統對周圍環境的感知能力,提出一種基于YOLOv5及危險區域判斷的碰撞預警系統。首先,通過通道注意力模塊提高模型的判別能力和準確性,然后,使用路徑聚合網絡與空間金字塔池化提高模型對多尺度特征的提取能力,最后,通過引入預警激活區域過濾相對安全的目標,提高了預警系統的預警精確度。結果表明,引入預警激活區域后,與無預警激活區域相比,預警系統的準確度、精度和召回率分別提高20%、50%和26.7%,運行速度提升49.1%,進一步證明了方法的有效性。
主題詞:YOLOv5 通道注意力模塊 路徑聚合網絡 空間金字塔池化 預警激活區域
碰撞預警系統
中圖分類號:U463.6;TP291.3" 文獻標志碼:A" "DOI: 10.19620/j.cnki.1000-3703.20240026
Research on Collision Warning System Based on Improved YOLOv5 amp; Hazardous Zone Judgment
Yi Zhenxing1, Zhan Zhenfei1,2, Mao Qing1, Sun Bowen1, Wang Ju2
(1. Chongqing Jiaotong University, Chongqing 400074; 2. State Key Laboratory of Automotive Noise, Vibration and Safety Technology, Chongqing 401120)
【Abstract】In order to improve the ability of the collision warning system to perceive the surrounding environment, this paper proposed a collision warning system based on YOLOv5 and hazardous area judgment. Firstly, the discriminative ability and accuracy of the model were improved by the channel attention module, then, the extraction ability of the model for multi-size features was improved by using path aggregation network and spatial pyramid pooling, and finally, the warning accuracy of the warning system was improved by filtering relatively safe targets through the introduction of warning activation regions. The results show that the introduction of warning activation regions improves the accuracy, precision and recall of the warning system by 20%, 50% and 26.7%, respectively, the running speed is increased by 49.1%, which further proves the effectiveness of the method.
Key words: YOLOv5, Channel attention module, Path aggregation network, Spatial pyramid pooling, Warning activation area, Collision warning system
1 前言
車輛碰撞預警系統通過實時監測分析車輛周圍的環境信息,及時發出警示,從而避免碰撞事故發生。
近年來,隨著計算機視覺、傳感器技術和機器學習的快速發展,基于目標檢測的碰撞預警系統一般通過改進目標檢測方法與改進預警策略提高系統性能。在改進目標檢測方法方面:談文蓉[1]通過改進YOLOv4算法提高碰撞預警系統的準確性和實時性,但是無法檢測出其他交通參與者,如行人、非機動車等;夏聰[2]采用基于單目視覺的車輛前向碰撞預警系統,實現了車輛前向行人與非機動車碰撞預警,但在檢測小目標或密集目標時,該方法檢測性能較差;胡超超[3]基于YOLOv2網絡引入殘差網絡,提高了模型檢測群簇小目標的準確率,但目標與背景相近或被嚴重遮擋時,極易出現漏檢現象。
在改進預警策略方面:李林偉[4]提出基于同車道判斷的碰撞預警系統,通過對車道線的識別,過濾相對安全的目標,降低了運算復雜度,但在轉彎或車道線標識模糊路況中,算法效果不理想;劉軍[5]提出了分級識別碰撞預警的方法,但在車輛密集或多車換道情況下,模型準確率較低;唐兵[6]依據制動距離將危險區域劃分為多個等級,從而提高預警系統的性能,但在惡劣天氣環境下模型的魯棒性較低。
為提升碰撞預警系統的環境感知能力,本文基于YOLOv5的目標檢測模型,使用空間金字塔池化[7](Spatial Pyramid Pooling,SPP)和路徑聚合網絡[8](Path-Aggregation Network,PANet)結構提取特征信息,利用通道注意力[9](Channel Attention,CA)模塊融合特征信息,并通過深度可分離卷積降低模型參數數量,從而提高檢測模型性能,同時,引入危險區域判斷與預警激活區域,過濾相對安全目標,減少運算量,保證檢測的實時性和準確性。
2 目標檢測模型及改進
2.1 YOLOv5模型改進
本文以YOLOv5網絡為基礎,改進獲得的目標檢測模型整體結構如圖1所示。為了便于移動端應用,以MobileNet系列輕量級特征提取網絡[10-12]和GhostNet網絡[13]為骨干網絡,其中,主干網絡采用多種特征提取網絡,out3、out4、out5分別表示在第3次、第4次和第5次下采樣后獲取的有效特征層。
頸部(Neck)部分使用SPP和PANet結構處理特征層信息,處理并應用淺層位置紋理信息與深層語義信息,檢測頭(Head)部分采用3組YOLO檢測結構增強多尺度目標檢測能力。
在進行特征信息融合前連接注意力模塊以提升檢測性能,利用替換深度可分離卷積減少模型參數量,提升前向推理的速度,降低目標檢測模塊計算開銷,更快速地為預警系統提供目標信息。
2.2 YOLOv5模型改進結果
本文模型訓練采用部分ImageNet數據集,其中,訓練集與測試集的比例為8∶2。模型訓練環境為NVIDIA GeForce RTX 3060 12 G,選用PyTorch作為深度學習框架,使用Python作為編程語言。
采用平均精度[3](mean Average Precision,mAP)、每秒處理幀數[14](Frames Per Second,FPS)、模型參數量及浮點運算數[15](Floating Point Operations,FLOPs)作為模型性能評價指標。平均精度是對檢測精度(Precision)和召回率(Recall)的綜合評價指標,mAP越大,證明模型的精度和準確性越好;每秒處理幀數即模型實時處理圖片的數量;浮點運算數表示計算的復雜度,FLOPs越小,模型計算效率越高。
模型改進前、后在測試集上的P-R曲線比較結果如圖2所示。召回率R為檢測結果中正例的數量與樣本集中標注的目標總數的比值,檢測精度P為檢測結果中正例的數量與檢測結果總數的比值,二者負相關,曲線所包圍的面積則為mAP。因此,改進后模型的P-R曲線明顯優于原始模型,模型性能得到提高。
不同網絡模型的性能如表2所示,改進后以GhostNet作為主干網絡的Ghost-CA網絡模型FPS最大,比MobileNet系列網絡模型能更好地滿足實時性要求。Ghost-CA網絡模型的FLOPs最小,即計算復雜度最低,計算時對硬件的要求更低。同時,由于系統應用場景為車載端設備,網絡模型越小,適用性越強,Ghost-CA的模型參數量少于MobileNet,證明Ghost-CA的性能明顯更具優勢。因此,本文選取以GhostNet為特征提取網絡的Ghost-CA模型進行目標檢測。
對不同尺寸圖片的目標檢測結果進行可視化分析,如圖3所示。檢測框信息包括目標類別和置信度信息,圖中目標檢測框緊密地擬合了目標的輪廓,沒有顯著的空隙或超出目標邊緣的部分,證明目標檢測框在空間上準確地標記出目標的位置。
因此,本文模型的檢測精度及定位精度較高,對不同尺寸特征的目標檢測效果良好。
3 基于危險區域判斷的預警策略
目標檢測提供了預警系統所需的實時、準確的目標識別和定位數據。預警系統基于檢測結果,對危險、異常或重要事件進行實時監控和響應。為了進一步提高預警系統的性能,基于上述改進目標檢測算法,引入危險區域判斷概念,設定預警激活區域為危險區域,過濾預警激活區域以外的相對安全目標,從而減少算力浪費,進一步提高預警系統的準確性和運算速度。
3.1 預警激活區域設定
將預警激活區域的形狀設定為梯形,如圖4所示。該區域中,dfmin、dfmax分別為車輛與目標的最近、最遠縱向距離,dsmin、dsmax分別為最小、最大橫向邊界距離,X=g(Y)、X=f(Y)分別為預警激活區域的左腰線、右腰線方程,X、Y分別為預警激活區域腰線上任意一點到自車的縱向、橫向距離。
車輛與目標最近及最遠縱向距離的計算公式為[16]:
式中:s為制動距離,trmin、trmax分別為駕駛員反應時間的最小值與最大值,tTTCc為臨界碰撞時間(Time to Collision,TTC),u為車速。
設trmin=0.3 s、trmax=1 s[17]、tTTCc=3 s[18],當自車與前方目標的碰撞時間小于臨界值時,自車與目標存在碰撞危險。而車速、目標的速度對預警激活區域的橫向邊界均會產生較大影響,其計算公式為:
式中:vmin、vmax分別為目標的最小速度與最大速度,本文設vmin=1 m/s、vmax=6 m/s[19];t(dfmin)、t(dfmax)分別為自車行駛與目標的最近、最遠縱向距離所需的時間。
式中:X、Y分別為目標與自車的縱向、橫向距離。
3.2 基于預警激活區域的目標過濾
單目視覺目標檢測方法需識別視野范圍內所有目標,但前向碰撞預警方法中僅需關注預警區域內的目標,因此,可通過設定預警區域對目標進行過濾。從目標檢測網絡中獲取預警區域的擬合參數(am、bm、cm),假定預警區域左、右腰線的擬合方程為:
3.3 碰撞預警模型設計
本文預警算法中,預警系統數據采集模塊使用車載單目相機,數據處理模塊連接上位機計算平臺。其中,輸入為車載單目相機采集的圖像序列信息,輸出為目標距離、速度和預警的圖像顯示的判定結果,系統預警邏輯流程如圖5所示。
車輛前向碰撞預警算法流程為:
a. 使用單目相機獲取環境視覺信息;
b. 基于計算平臺通過改進目標檢測模型對目標進行初步檢測定位;
c. 通過圖像處理方法對檢測區域圖像數據進行二次處理,實現目標精確定位;
d. 利用目標檢測結果獲取目標在圖像中的位置、尺寸信息,根據小孔成像原理對圖像中的目標進行測距操作,實現對圖像中目標的距離估計;
e. 利用多目標跟蹤算法跟蹤弱勢道路使用者目標,并結合各目標的距離估計結果計算不同目標的相對速度;
f. 通過預警激活區域判斷所屬區域;
g. 將目標的距離信息導入預警算法模型,得到預警判定結果,同時,將結果以圖像形式輸出。
4 多場景測試與結果分析
本文試驗場景包含行車環境為城市道路的中低速跟車工況,根據車載視頻進行前向碰撞預警系統測試。通過安全距離預警模型計算前車碰撞預警的安全距離閾值,當自車與前方目標距離小于預警閾值時,輸出圖像包含原圖信息、目標檢測結果及車距信息,目標檢測框和目標跟蹤軌跡實時跟隨目標,顯示結果如圖6所示。
對預警策略進行驗證,連續4幀圖像構成一個交通場景,選取不同組別交通場景的數據集進行測試。為了計算預警指標,重點保存攝像頭標定信息,結果如表3所示。
引入預警激活區域后,準確度、精確度及召回率分別提高20%、50%和26.7%,預警系統的性能大幅提升。預警激活區域篩除預警激活區域外的安全目標,相較于無預警激活區域,運算時間降低,運行速度提升49.1%。
5 結束語
本文基于YOLOv5目標檢測算法,通過引入空間金字塔池化和路徑聚合網絡結構處理特征層信息,并在進行特征信息融合前連接通道注意力模塊,驗證結果表明,本文改進的網絡模型的檢測精度、實時性等性能均有所提高。
在預警策略中引入危險區域判斷,通過設置預警激活區域,濾除相對安全的目標,從而提高預警系統的預警精確度及運算速度,將前向碰撞預警系統應用于多種場景進行測試,驗證了預警系統的有效性。
未來,在保證實時性的條件下,應進一步提高檢測預警精度,并增強模型對遮擋和背景移動的抗干擾能力。
參 考 文 獻
[1] 談文蓉, 薛余坤, 陳秋實, 等. 改進YOLOv4算法的高速公路碰撞預警系統[J]. 西南民族大學學報(自然科學版), 2022, 48(1): 64-74.
TAN W R, XUE Y K, CHEN Q S, et al. Improved YOLOv4 Algorithm for Highway Collision Warning System[J]. Journal of Southwest Minzu University (Natural Science Edition), 2022, 48(1): 64-74.
[2] 夏聰. 基于單目視覺的車輛前向碰撞預警系統研究[D]. 重慶: 重慶大學, 2022.
XIA C. Research on Vehicle Forward Collision Warning" "System Based on Monocular Vision[D]. Chongqing:" " " " " Chongqing University, 2022.
[3] 胡超超, 劉軍, 張凱, 等. 基于深度學習的行人和騎行者目標檢測及跟蹤算法研究[J]. 汽車技術, 2019(7): 19-23.
HU C C, LIU J, ZHANG K, et al. Research on Pedestrian and Cyclist Object Detection and Tracking Algorithm Based on Deep Learning[J]. Automotive Technology, 2019(7): 19-23.
[4] 李林偉. 面向前向碰撞預警的單目視覺感知方法研究[D]. 重慶: 重慶大學, 2022.
LI L W. Research on Monocular Vision Perception Method for Forward Collision Warning[D]. Chongqing: Chongqing University, 2022.
[5] 唐兵. 基于機器視覺的車輛前向碰撞預警系統研究與實現[D]. 成都: 西華大學, 2021.
TANG B. Research and Implementation of Vehicle Forward Collision Warning System Based on Machine Vision[D]. Chengdu: Xihua University, 2021.
[6] 劉軍, 高雪婷, 王利明, 等. 基于OpenCV的前方車輛檢測和前撞預警算法研究[J]. 汽車技術, 2017(6): 11-16.
LIU J, GAO X T, WANG L M, et al. Research on Forward Vehicle Detection and Forward Collision Warning Algorithm Based on OpenCV[J]. Automobile Technology, 2017(6): 11-16.
[7] 張博, 張苗輝, 陳運忠. 基于空間金字塔池化和深度卷積神經網絡的作物害蟲識別[J]. 農業工程學報, 2019, 35(19): 209-215.
ZHANG B, ZHANG M H, CHEN Y Z. Crop Pest" " " " " " " Recognition Based on Spatial Pyramid Pooling and Deep Convolutional Neural Network[J]. Transactions of the" " " " Chinese Society of Agricultural Engineering, 2019, 35(19): 209-215.
[8] 楊真真, 鄭藝欣, 邵靜, 等. 基于改進路徑聚合和池化YOLOv4的目標檢測[J]. 南京郵電大學學報(自然科學版), 2022, 42(5): 1-7.
YANG Z Z, ZHENG Y X, SHAO J, et al. Object Detection Based on Improved Path Aggregation and Pooling YOLOv4[J]. Journal of Nanjing University of Posts and" " " " " " " " " Telecommunications (Natural Science), 2022, 42(5): 1-7.
[9] 徐誠極, 王曉峰, 楊亞東. Attention-YOLO: 引入注意力機制的YOLO檢測算法[J]. 計算機工程與應用, 2019, 55(6): 13-23+125.
XU C J, WANG X F, YANG Y D. Attention-YOLO: YOLO Detection Algorithm with Introduction of Attention" " " " " " "Mechanism[J]. Computer Engineering and Applications, 2019, 55(6): 13-23+125.
[10] HOWARD A G, ZHU M, CHEN B, et al. MobileNets:" " " " Efficient Convolutional Neural Networks for mobile Vision Applications[EB/OL]. (2017-04-17)[2024-01-10]. https://arxiv.org/abs/1704.04861.
[11] SANDLER M, HOWARD A, ZHU M, et al. MobileNetV2: Inverted Residuals and linear Bottlenecks[C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern" " " " " " " "Recognition. Salt Lake City, UT, USA: IEEE, 2018: 4510-4520.
[12] HOWARD A, SANDLER M, CHEN B, et al. Searching for MobileNetV3[C]// 2019 IEEE/CVF International" " " " " "Conference on Computer Vision (ICCV). Seoul, South" " " "Korea: IEEE, 2019: 1314-1324.
[13] HAN K, WANG Y, TIAN Q, et al. GhostNet: More Features from Cheap Operations[C]// 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)." " " "Seattle, WA, USA: IEEE, 2020: 1580-1589.
[14] 高健宸, 張家洪, 李英娜, 等. 基于YOLOv4的絕緣子爆裂故障識別研究[J]. 激光與光電子學進展, 2022, 59(2): 130-137.
GAO J C, ZHANG J H, LI Y N, et al. Research on Insulator Burst Fault Identification Based on YOLOv4[J]. Laser amp; Optoelectronics Progress, 2022, 59(2): 130-137.
[15] 毛國君, 翁偉棟, 朱晉德, 等. 基于改進YOLO-V4網絡的淺海生物檢測模型[J]. 農業工程學報, 2021, 37(12): 152-158.
MAO G J, WENG W D, ZHU J D, et al. Shallow-Sea" " " "BioloGical Detection Model Based on Improved YOLO-V4 Network[J]. Transactions of the Chinese Society of" " " " " "Agricultural Engineering, 2021, 37(12): 152-158.
[16] ZADEH R B, GHATEE M, EFTCKHARI H R, et al. Three-Phases Smartphone-Based Warning System to Protect" " Vulnerable Road Users Under Fuzzy Conditions[J]. IEEE Transactions on Intelligent Transportation Systems, 2018, 19(7): 1-13.
[17] YAN X, ZHANG Y, MA L. The Influence of In-Vehicle Speech Warning Timing on Drivers’ Collision Avoidance Performance at Signalized Intersections[J]. Transportation Research Part C, 2015, 51: 231-242.
[18] LUBBE N, ROSEEN E. Pedestrian Crossing Situations: Quantification of Comfort Boundaries to Guide Intervention Timing[J]. Accident Analysis amp; Prevention, 2014, 71(2): 261-266.
[19] HUANG S, YANG J, EKLUND F. Evaluation of Remote" "Pedestrian Sensor System Based on The Analysis of" " " Car-Pedestrian Accident Scenarios[J]. Safety Science, 2008, 46(9): 1345-1355.
(責任編輯 瑞 秋)
修改稿收到日期為2024年1月10日。
*基金項目:智能車輛安全技術國家重點實驗室開放基金項目(IVSTSKL-202305);重慶交通大學-長三角先進材料研究所省級研究生聯合培養基地基金項目(JDLHPYJD2021008)。
【引用格式】 衣振興, 詹振飛, 毛青, 等. 基于改進YOLOv5及危險區域判斷的碰撞預警系統研究[J]. 汽車技術, 2024(4): 1-6.
YI Z X, ZHAN Z F, MAO Q, et al. Research on Collision Warning System Based on Improved YOLOv5 amp; Hazardous Zone Judgment[J]. Automobile Technology, 2024(4): 1-6.