999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

面向自動駕駛的YOLO目標檢測算法研究綜述*

2023-11-15 02:17:12楊飛帆李軍
汽車工程師 2023年11期
關鍵詞:特征提取特征檢測

楊飛帆 李軍

(重慶交通大學,重慶 400047)

1 前言

目標檢測是計算機視覺領域的重要任務之一,主要處理和檢測視覺上特定類(如人、動物或標志等)在數字圖像上的類別和位置分布情況[1]。目標檢測通過建立有效的計算機應用模型提供計算機視覺所需要的最基本信息,即何目標在何處。其通常分為目標識別與目標定位,目標識別即特征提取與分類,目標定位則進行邊界框回歸。作為圖像分割、圖像識別、目標跟蹤等計算機視覺任務的基礎,目標檢測算法的進步對計算機視覺發展有著重要的意義。

近年來,隨著深度學習的不斷發展,基于卷積神經網絡的兩階段(Two-Stage)和一階段(One-Stage)算法研究取得了較大進展。兩階段算法在數據特征提取后先生成區域提取(Region Proposal)網絡,再進行樣本的分類與定位回歸,代表性算法有區域卷積神經網絡(Region based Convolutional Neural Network,R-CNN)[2]、快速區域卷積神經網絡(Fast Region based Convolutional Neural Network,Fast R-CNN)[3]、更快的區域卷積神經網絡(Faster Region based Convolutional Neural Network,Faster RCNN)[4];一階段算法則直接在網絡中提取特征進行分類與回歸,大幅提升了目標檢測的效率,更容易滿足實時檢測的要求[5],代表性算法包括單步多框目標檢測(Single Shot MultiBox Detector,SSD)[6]和YOLO(You Only Look Once)系列算法。

作為一階段算法的開山之作,YOLOv1[7]創造性地將檢測問題直接作為統一的端到端回歸問題,使其相較于同時期的R-CNN算法有更快的檢測速度,此后,YOLOv2~YOLOv8 算法不斷進行優化,為一階段算法的實際應用提供了重要理論支撐,同時為各領域的深入研究提供了性能卓越的檢測方法。

Zou 等[1]從里程碑式檢測器、數據集、度量標準和主要技術進展4個方面綜述了目標檢測領域近20年(1990~2019 年)的發展成果,并深入分析了目標檢測算法的應用前景;Jiang 等[8]梳理了YOLO 系列算法(YOLOv1~YOLOv5)的發展歷程,總結了一些目標識別與特征選擇方式。本文圍繞YOLO 系列算法(YOLOv1~YOLOv8)的研究進程、各研究階段的主要成果及應用于自動駕駛領域的改進YOLO 檢測算法進行綜述,同時對用于自動駕駛領域目標檢測的算法性能提升方式進行總結,并展望其發展趨勢。

2 YOLO系列算法研究進展

YOLO 算法只需要瀏覽一次便可以識別出圖中物體的準確位置和類別。短短數年間,YOLO 系列算法已誕生了多個版本,2022年問世的YOLOv7[9]在5~160 幀/s 范圍內,檢測速度和精度遠超目前已知的其他檢測器,2023 年,具備更好兼容性能、可擴展的YOLOv8 算法的源代碼發布。YOLO 系列主流算法的發展進程如圖1所示。

圖1 YOLO系列算法發展時間線

2.1 YOLOv1

YOLOv1 主干網絡類似于GoogleNet[10],采用卷積層(Conv.Layer)提取特征,最大池化層(Maxpool Layer)進行空間降采樣,并由連接層(Coon.Layer)輸出預測值,算法將輸入圖片劃分為7×7 個柵格,每個柵格形成2 個預測框,同時預測20 個類別(class)概率,每個預測框包含5 個特征的預測結果(x,y,w,h,c),其中(x,y)為預測框相對于柵格的位置,(w,h)為預測框相對于圖片的寬和高比例,c為置信度,表示預測框內存在被檢物體的概率及預測框的位置準確度。將預測到的類別概率與預測框的置信度相乘,即可獲得每個預測框中各類別的概率,以概率最高的結果作為預測結果輸出,通過非極大值抑制(Non-Maximum Suppression,NMS)得到預測結果。網格參數信息如圖2 所示。

圖2 YOLOv1網絡結構[7]

監督學習訓練通過梯度下降和反向傳播迭代進行神經元權重微調使損失函數最小化,算法的目的是使預測結果盡可能與人工標注的標準框(Ground Truth)擬合,最小化損失函數。YOLOv1 的損失函數考慮了預測框坐標預測損失、預測框置信度預測損失以及類別預測損失。

預測框坐標損失(Bounding Box Coordinate Loss)為:

目標置信度損失(Object Confidence Loss)為:

類別預測損失(Class Prediction Loss)為:

式中,為第i個柵格的第j個預測框,若負責預測目標則取1,否則取0;為第i個柵格中的第j個預測框,若不負責預測目標則取1,否則取0;

為第i個柵格,若包含目標則取1,否則取0;S為柵格數量;B為預測框數量;xi、yi、wi、hi、Ci分別為預測框位置、寬高比例以及置信度的預測值;分別為預測框位置、寬高比例以及置信度的標簽值分別為第i個柵格類別的預測值與標簽值;λcoord、λnoobj為權重;class 表示類別。

YOLOv1 推翻了兩階段算法一直采用的區域提取思路,直接將整張圖片輸入神經網絡,經過卷積、池化、全連接層得到一個輸出張量,將目標檢測問題轉變為簡單回歸問題。YOLO 在PASCAL VOC 2007(Pattern Analysis, Statistical Modeling, and Computational Learning Visual Object Classes 2007)數據集上測試得到其平均精度均值(Mean Average Precision,mAP)達63.4%[7],擁有極快的檢測速度和較好的通用特征提取能力,但同時存在只支持固定尺寸的輸入,對較近、較小或群體目標檢測效果較差和定位并不精確等問題。

2.2 YOLOv2

YOLOv2[11]在YOLOv1 基礎上,結合視覺幾何組(Visual Geometry Group,VGG)網絡構建出新的DarkNet-19 網絡,新網絡采用1×1 的卷積進行通道降維、3×3 的卷積進行特征提取、5 層最大池化層進行5 次下采樣。DarkNet-19 網絡結構如表1所示。

表1 DarkNet-19網絡結構[11]

YOLOv2 引入Faster R-CNN 中先驗框(Anchor Box)思想,通過先驗框同時預測類別和位置,一個柵格內的5 個先驗框可以分別預測5 種類別,預測邊界框的數量也由7×7×2 提高到13×13×5,提高了不同尺寸、不同長寬比物體預測的準確率。

除以上改進外,YOLOv2 通過采用批歸一化(Batch Normalization,BN)、高分辨率圖像分類器(High Resolution Classifier)、多尺度訓練(Multi-Scale Training)等方式對YOLO 算法進行了全方位改進,支持少樣本對象檢測的同時有效提高了召回率和定位準確率。不足之處在于,沒有進行多尺度特征的結合預測,傳遞模塊(Pass-Through Module)的使用在提升細粒度特征的同時也對特征的空間分布產生了一定影響,以及對小目標的檢測能力沒有明顯提升。

2.3 YOLOv3

YOLOv3[12]的主干網絡DarkNet-53 包含卷積層(Convolutional Layer)、殘差層(Residual Layer)、特征融合層(Feature Fusion Layer),網絡層數的加深提高了檢測精度,大量殘差網絡模塊的引入減少了由網絡層數加深引起的梯度下降問題,金字塔池化模塊的引入可以實現多尺寸的輸入和統一尺寸的輸出。卷積層與殘差層結構對比如圖3所示。

圖3 卷積層與殘差層對比

借鑒SSD 的思想,YOLOv3 引入了多尺度特征預測,采用32 倍下采樣(13×13 大小特征圖)、16 倍下采樣(26×26 大小特征圖)、8 倍下采樣(52×52 大小特征圖)3 個不同尺寸分別進行大、中、小目標檢測,構造出9個先驗框,有效提高了尺度特征差異較大情況下的目標檢測準確性,尤其是在對小目標的檢測能力上產生了質的飛躍。在標簽分配策略方面,YOLOv3 采用多標簽多分類的邏輯(Logistic)層實現復雜環境下多類別物體重疊時良好的識別效果,多個二分類任務的劃分使其支持一個物體的多個標簽輸出。

相較于YOLOv1,YOLOv3 的損失函數在置信度損失和類別損失方面進行了優化,采用交叉熵計算縮短收斂時間,其損失函數為:

YOLOv3 的主要改進體現在主干網絡、多尺度特征融合以及標簽分配策略方面,雖然模型的召回率相對較低,但是極大提升了整體檢測精度,可以在不提高輸入圖片分辨率的情況下實現對小目標的精確檢測,使YOLOv3 成為一階段算法中的里程碑式算法,在工業領域得到廣泛應用。

2.4 YOLOv4

YOLOv4[13]的主干網絡是在DarkNet-53 基礎上借鑒Wang 等[14]提出的跨階段局部網絡(Cross Stage Partial Network,CSPNet)升級得到的CSP-DarkNet-53,可以有效增強CNN 的學習能力、降低模型計算的參數量和內存成本,激活函數采用Mish[15]替換修正線性單元(Rectified Linear Unit,ReLU),在保證準確度的同時平滑梯度,采用DropBlock[16]正則化方式提高網絡的泛化性能和抗過擬合能力。在輸入端借鑒Sang 等[17]提出的CutMix 數據增強方式,提出Mosaic數據增強方法將多張圖片隨機縮放拼接為一張圖片,擴充數據的多樣性。

在特征提取方面,YOLOv4采用空間金字塔池化網絡(Spatial Pyramid Pooling Net,SPP Net)增大感受野,且在不降低運算速度的同時顯著分離上下文特征信息,由路徑聚合網絡(Path Aggregation Network,PANet)代替特征金字塔網絡(Feature Pyramid Network,FPN)進行參數聚合,使用張量連接代替捷徑拼接。YOLOv4中PANet的結構如圖4所示。

圖4 YOLOv4中的PANet結構

YOLOv4 的損失函數在預測坐標損失中采用了考慮邊框重合度、中心距和寬高比的完全交并比損失(Complete Intersection over Union Loss,CIoU Loss)函數全面體現預測框與真實框的位置關系,有利于預測框的收斂。

YOLOv4算法在YOLO算法的框架上,廣泛整合目標檢測領域的優化策略進行全方位優化,獲得了高效、快速、精確的檢測特性,在Tesla V100 圖形處理器(Graphics Processing Unit,GPU)上以65 幀/s 的圖像處理速度獲得COCO 數據集上43.5%的平均精度(Average Precision,AP)[10],但是由于融合了大量的優化策略導致其模型復雜度較高。

2.5 YOLOv5

由YOLOv5的源碼可知,其主干網絡在YOLOv4基礎上進行了簡單改進:將網絡的第1層Focus模塊替換為6×6 的卷積層,在GPU 設備上運行更加高效;引入CSPNet 優化了主干網絡中的梯度重復,在減少參數量的同時壓縮了模型體積;將SPP 模塊替換為更高效的快速空間金字塔池化(Spatial Pyramid Pooling-Fast,SPPF),大幅提升了運算速度;采用了更多的數據增強方式,如Mosaic、Copy Paste、Random Affine、MixUp,有效提升了模型的泛化能力與魯棒性[18]。

YOLOv5 采用多尺度訓練(Multi-Scale Training),可以包含更多尺寸的圖片輸入;采用K-均值(K-Means)聚類算法對數據集中的邊界框進行聚類分析,進而得到合適的先驗框;采用預熱和余弦LR 調度程序(Warmup and Cosine LR Scheduler)進行學習率的調整。

YOLOv5基本沿用了YOLOv4的結構,同時根據通道的尺度縮放提供YOLOv5S、YOLOv5M、YOLOv5L、YOLOv5X 4 種不同網絡結構,支持在檢測精度與速度間進行一定權衡,其中YOLOv5S通常部署于嵌入式設備中構建輕量級網絡,相較于YOLOv4,YOLOv5 在犧牲部分檢測性能的情況下提升了模型的靈活性、檢測速度、部署方便性。

2.6 YOLOX

YOLOX[19]基于YOLOv3 的網絡結構新增2 個3×3 卷積將分類和回歸任務解耦,達到提升精度和收斂速度的效果,對于FPN 特征采用1×1 卷積層減小特征通道,然后添加并行分支分別用于分類和回歸任務。YOLOv3~YOLOv5 耦合頭與YOLOX 解耦頭結構對比如圖5所示。

圖5 YOLOv3~YOLOv5耦合頭與YOLOX解耦頭結構對比[19]

YOLOX 采用無先驗框(Anchor-Free)方法預先定義預測目標的中心作為原點,基于原點確定網格左上角的預測框高度和寬度2個偏移量作為預測過程取代了YOLOv1~YOLOv5慣用的預測的平移邊框過程,避免了聚類引起的時間浪費和檢測區域限制,減少了預測框的生成;采用正負樣本匹配策略(Advanced Label Assigning Strategy,SimOTA)[20]為不同目標設定不同的正樣本數量,避免了額外的參數優化,提升了檢測速度;提供一種通過添加2 層卷積、一對一標簽分配模塊在稍微降低性能的條件下實現NMS Free(Non-Maximum Suppression Free)的端到端檢測。

YOLOX 是在YOLOv3 的基礎上融合目標檢測領域的無先驗框檢測器、高級標簽分配、端到端檢測器得到的檢測模型算法,YOLOX-L 在Tesla V100上以68.9 幀/s的圖像處理速度在COCO 數據集上實現了50.0%平均精度,同時支持開放神經網絡交換(Open Neural Network Exchange,ONNX)、Tensor RT、NCNN(Nihao Convolutional Neural Network)、開放視覺推理及神經網絡優化(Open Visual Inference and Neural network Optimization,Open VINO)多個部署版本[19]。

2.7 YOLOv6

YOLOv6[21]的主干網絡Efficient Rep 是引入重參數化視覺幾何組(Re-parameterization Visual Geometry Group,Rep VGG)[22]結構設計出的高效可重參數化網絡,可以實現速度與精度的平衡,同時優化SPPF 得到更高效的SimSPP(Simplified SPPF)模塊,并采取混合通道策略得到更高效的解耦頭結構,在分類和回歸過程中均進行了自我提升。

YOLOv6 采取了與YOLOX 相同的無先驗框檢測方式和SimOTA 樣本分配策略,采用標準交并比邊界回歸損失(Standard Intersection over Union Loss,SIoU Loss)函數進行監督網絡學習,提升回歸精度,同時引入額外的通用實踐性技巧(訓練更多輪次、自蒸餾策略),提高了工業領域的應用性能。

YOLOv6 在網絡設計、標簽分配、損失函數、工業便利化方面進行了改進,YOLOv6-nano 在COCO數據集上的精度達35.0% AP,在推理專用GPU T4上推理速度達1 242 幀/s,YOLOv6-s 在COCO 數據集上的精度為43.1% AP,在T4 上推理速度為520 幀/s。YOLOv6 支持CPU(Open VINO)、ARM(MNN(Mobile Neural Network)、NCNN)等不同平臺[21],為不同工業場景提供了不同規模、各有側重的目標檢測框架網絡,但是YOLOv6 的優化策略大多針對小型網絡結構設計,當網絡深度和寬度增加后,檢測效果可能下降。

2.8 YOLOv7

YOLOv7[9]提出了高效層聚合網絡(Efficient Layer Aggregation Networks,ELAN)的擴展版本,即擴展高效層聚合網絡(Extended ELAN,E-ELAN),通過拓展(Expand)、重組(Shuffle)結構實現不改變原有梯度路徑的多次模塊堆疊,使網絡更好地進行學習和收斂。YOLOv7 借鑒YOLOv4、YOLOv5 的方式,通過對網絡深度和寬度的縮放來擴展效率層網絡,利用梯度傳播路徑的概念分析了重參數化模塊的網絡搭配,最終提出無恒等映射的重參數化卷積模塊。

YOLOv7 提供了全新的標簽分配策略:使用引導頭的預測結果引導生成由粗到細的層次標簽用作引導頭和輔助頭的學習,使引導頭具備更強的殘余信息學習能力,為不同的分支輸出動態目標。

YOLOv7 設計出幾種可以訓練的免費包,使檢測器在不提升成本的情況下大幅提高檢測精度,為實時探測器提出擴展、縮放策略從而對參數進行高效利用,為重參數化模塊代替原有模塊、動態標簽處理輸出層的分配提出了處理方法,并優化了網絡架構和訓練過程。在COCO 數據集上,YOLOv7-E6E 的精確度為56.8% AP,相較于YOLOv6-s(43.1%AP)取得了較大提升[9]。

2.9 YOLOv8

YOLOv8 和YOLOv5 均由Ultralytics 團隊發布,提供了一個全新的SOTA(State Of The Art)模型并基于縮放系數提供N、S、M、L、X 尺度的不同大小模型以滿足不同場景需求,在YOLOv5 的基礎上使用基于YOLOv7中E-ELAN模塊的C2f模塊代替YOLOv5中的C3 模塊,增加了更多的梯度流信息,并參考YOLOX,采用了解耦頭結構將分類和回歸解耦。

YOLOv8 采用無先驗框檢測方式及任務對齊學習(Task Alignment Learning,TAL)動態匹配的方式,從任務對齊的角度出發,依據所設計的指標動態選擇高質量的先驗框作為正樣本融入損失函數的設計,使用DFL(Distribution Focal Loss)和CIoU Loss作為回歸損失[23]。

YOLOv8 是在YOLOv5 的基礎上參考了YOLOX、YOLOv6、YOLOv7 算法而提出的包括圖像分類、無先驗框物體檢測和實例分割的高效算法,同時具備可擴展性,與YOLO 算法框架兼容,可以切換、比較不同版本的性能。

2.10 YOLO系列算法的主要改進方向

YOLO 系列目標檢測算法專注于平衡檢測速度與精度,旨在不犧牲檢測精度的同時提升檢測的實時性,YOLO 的每個版本都在維持甚至提升框架實時性的同時提升精確性,YOLOv4 之后的模型實現了速度與精度的進一步權衡,提供不同比例的模型以適應特定應用環境,更適合使用者進行權衡選擇。YOLO系列主要改進方向如表2所示,其未來的發展將致力于獲得更快、更高效的網絡架構,更有效的特征積分方法,更準確的檢測方式,魯棒性更強的損失函數,更有效的標簽分配方法,更有效的訓練方式以及更優良的兼容性能。

3 YOLO算法在自動駕駛領域中的應用

YOLO 系列算法以其準確、高效的檢測效果被應用到各檢測領域,包括醫療口罩檢測[24]、工程安全帽檢測[25]、農業作物檢測[26]等,在自動駕駛領域,YOLO 算法也憑借其實時性和較高的準確性在車輛、車道線、行人和交通標志等檢測任務中得到了廣泛應用,并在相關學者的不斷改進下取得了良好的效果。

3.1 車輛檢測

隨著城市交通的不斷發展,機動車、非機動車等車輛檢測的壓力不斷增加,良好的車輛檢測系統可以有效緩解交通壓力。

霍愛清等[27]對YOLOv3 算法的殘差結構單元和特征提取網絡進行改進,采用深度可分離卷積代替了傳統卷積,改用Swish 激活函數減小網絡模型的計算量,引入CIoU 作為損失函數,緩解了目標回歸框的發散,改進后算法的mAP提升了3.68%,參數量下降了67%,擁有較高的準確性、適用性、魯棒性。Wu 等[28]通過調整YOLOv5s 的網絡層結構使其更適合嵌入式設備,應用于車輛和距離檢測,在mAP 略微降低(3%)的情況下檢測速度提升了19 幀/s。章程軍等[29]在YOLOv5s網絡基礎上通過引入一次性聚合模塊優化網絡加強特征提取,引入非局部注意力機制增強特征,采用加權非極大值抑制的方法進行預測框篩選,在自制的車輛數據集上mAP 提升了3%,可以在車輛密集和各類光照條件下完成檢測。趙帥豪等[30]通過改進YOLOX 網絡結構,采用深度可分離卷積代替傳統卷積,引入卷積塊注意力模塊(Convolutional Block Attention Module,CBAM)融合特征,采用CIoU 優化損失函數,提升定位精度,得到的模型在自建數據集上測試時mAP 提升了2.01%。Zhang 等[31]提出使用翻轉拼接算法加強YOLOv5 網絡對小目標的感知,在自建的數據集上的測試結果表明,該數據增強方式可以有效提高車輛的檢測準確率。

在車輛檢測任務中,通過改善損失函數可以提升定位精度,采用翻轉拼接算法可以提升網絡對小目標特征的提取能力,采用可分離卷積或調整網絡深度可以在犧牲部分精度的條件下擁有更快的檢測速度以適用于嵌入式設備,采用聚合模塊可以有效提高特征提取能力,適用于車輛密集場合。

3.2 車道線檢測

隨著城市交通的發展與智能駕駛的普及,車道線信息的采集可以為車輛的導航提供參考、保證車輛的安全,是輔助駕駛的重要組成部分。

崔文靚等[32]在YOLOv3 基礎上采用K-Means++代替K-Means 進行聚類分析,通過改進網絡架構得到共101 層新網絡架構,該網絡結構可以有效降低小目標檢測場景下卷積層過深導致的特征消失情況,在美國加利福尼亞理工大學車道線數據集上的測試結果表明,算法的mAP 提高了11%。Dong 等[33]在YOLOv4 的基礎上提出YOLOP,構建了高效的多任務網絡,采用1 個特征提取編碼器和3 個解碼器同時處理物體檢測、車道線檢測和可行駛區域分割3 個任務。丁玉玲等[34]提出采用K-Means++聚類對YOLOv4 算法進行參數優化,使其更便于檢測車道線,同時根據車道線特征增加了縱軸的檢測密度,取得了更好的檢測效果。Ji 等[35]通過分析車道線特征,在YOLOv3的基礎上調整網絡結構的卷積層數、劃分車道線圖網格、調整檢測尺寸使之適合車道線小目標檢測,同時改進簇中心距以及損失函數參數,獲得了92.03%的mAP。

在車道線檢測任務中,車道線檢測數據集通常為彩色圖像,算法在信息復雜、圖像信息不多的情況下訓練效果有待提高。通過K-Means++聚類分析對算法進行參數優化可以使算法適用于車道線檢測,通過改變特定網絡結構可以提升網絡針對車道線目標的特征提取能力,通過增加解碼器也可以將車道線檢測并入其他檢測任務。關于車道線的檢測,還需要更多的數據集支持。

3.3 行人檢測

交通領域的行人作為最廣泛的特殊參與群體,是安全檢測中最主要的檢測對象之一,檢測行人的體態語言并預測其行為動作對自動駕駛領域有著重要意義。

Liu 等[36]在YOLOv3 網絡中引入壓縮與激勵網絡(Squeeze and Excitation Network,SENet)和距離-交并比損失函數(Distance-Intersection over Union Loss,DIoU Loss),考慮真實框與預測框的中心點距離,提升了對小尺寸的非機動車、行人的檢測精度。李翔等[37]在YOLOv3 基礎上通過上采樣提升金字塔分辨率并引入淺層特征增強相鄰特征層的差異,生成可以區分高重疊度的深層特征,同時引入優化預測框方差均值降低假陽率的聚類損失算法,有效提升遮擋情況下行人的檢測準確率。Yan 等[38]基于YOLOv5 提出通過融合多尺度感受野捕捉圖像的信息,引入注意力分支增強特征的表達能力,解決了行人等小目標特征容易消失的問題。李克文等[39]通過引入一種邊界增強算子,從邊界的極限點中自適應地提取邊界特征來增強已有點特征,增加目標檢測尺度,基于目標檢測中目標實例特性及改進網絡模型引入完全交并比函數對YOLOv3損失函數進行改進,可以有效提高擁擠環境下目標檢測的準確性。Liu 等[40]利用MobileNetv3 優化特征提取網絡,在YOLOv4 的基礎上加入CBAM 提高檢測效率,采用可分離卷積替換3×3 卷積減小參數量,有效提升了行人檢測的精度與速度,在PASCAL VOC 2007+2012 數據集上進行測試,與YOLOv4 的測試結果相比,mAP 提升了5.00%。方康等[41]通過在YOLOX 網絡中融入多尺度特征增強模塊豐富特征圖中的語義信息,將多模態特征提取解耦為特性與共性特征提取,在KAIST 多光譜行人檢測基準數據集(KAIST Multispectral Pedestrian Detection Benchmark Dataset)和FLIR 熱 成 像 數 據 集(FLIR Thermal Dataset)上的驗證結果表明,該方法可以有效提高多光譜行人的識別。

在行人檢測任務中,引入SENet 模塊根據損失函數學習特征權重可以使有效特征圖所占權重大,無效或效果小的特征圖所占權重小,使訓練模型達到更好的效果;通過提升特征提取與融合能力可以在進行小目標的特征提取時融合目標圖像的各種特征信息,實現精度與速度平衡。在進行行人等易遮擋的小目標檢測時,引入上下文信息、注意力模塊,以及加強特征提取與融合往往會提高模型的復雜程度,增加運算成本,故融合更多輕量化網絡模型設計至關重要。

3.4 交通標志檢測

交通標志的檢測作為智能駕駛的關鍵任務,直接關系到駕駛的安全性,有效且可靠的交通標志檢測算法可以在很大程度上減少安全事故的發生。

Dewi等[42]通過生成式對抗網絡生成交通標志進行增強數據集的訓練,在YOLOv3、YOLOv4 模型上的mAP 分別為84.9%、89.33%。Gao 等[43]在道路交通信號圖像上進行了檢測試驗,證明了YOLOv4 擁有較高的交通標志識別性能。潘惠萍等[44]在YOLOv4的基礎上結合SPP 模塊消除網絡的尺寸限制,修改原特征圖尺寸的分辨率增大感受野,利用行車記錄儀采集的交通標志進行檢測,平均檢測時間為0.449 s,mAP 達到99.0%。錢伍等[45]在YOLOv5 算法基礎上使用復合數據增強對模型輸入進行增強處理,設計多尺度代替固定尺度訓練,構建多尺度特征融合網絡,直接提升了模型對交通信號的檢測能力,在自采集數據集上檢測時間可以達到9.5 ms,mAP為99.8%。

在交通標志檢測任務中,通過生成式對抗性網絡可以生成更多的交通標志圖像,結合真實圖像以增強數據集,通過該策略擴充訓練數據集規模,可以增強檢測模型的魯棒性;通過修改特征圖尺寸的分辨率增大感受野、構建多尺度特征融合網絡可以有效提升交通標志檢測算法的性能。

車輛領域的YOLO 系列目標檢測優化方式如表3 所示,此外,YOLO 系列算法應用于汽車牌照檢測[46]、汽車零部件檢測[47]和車輛徽標檢測[48]等領域,在極大解放人力、緩解交通壓力的同時取得了良好的檢測效果,為安全行車提供了便利。

表3 車輛目標檢測常見的優化方式

4 研究展望

YOLO 系列算法歷經一代代的發展,不斷融合目標檢測領域的研究成果,提升檢測性能,但距離實現自動駕駛領域的廣泛應用還面臨一些挑戰,仍需在以下幾個方面開展進一步研究:

a.YOLO 系列在進行復雜場景下的小目標檢測時,細節特征的捕捉難以達到較高的檢測精度,國內外學者通常通過整合上下文語意信息、聯系局部與整體信息提升檢測精度,但會增加模型的復雜程度與計算量,因此需要一種更好的特征融合提取結構來提升算法性能。

b.YOLO 算法當前主要面向計算機端,在邊緣計算需求增加的背景下,面向嵌入式AI設備的應用要求YOLO 算法在保證檢測效果的前提下更輕、更快。

c.YOLO 算法在極端環境條件下的檢測效果還有待提高,面對風霜雨雪等條件干擾時如何保證其實際的檢測效果仍需不斷地研究與突破。

5 結束語

深度學習的發展推動著目標檢測算法的進步,從YOLOv1 到YOLOv8,檢測精度與速度、框架的兼容性能逐步提高,YOLOv8 所具備的可擴展性使得YOLOv1~YOLOv7 可以實現切換進行性能比較。同時,YOLO 系列算法的發展應用于智能駕駛領域也取得了一定進展,在進行車輛、車道線、行人、交通標志等不同檢測任務時通常對檢測模型采取不同的優化方式:引入上下文信息、增強特征表示可以在大多數場景下提升檢測效果;在進行行人、車輛等密集且背景復雜的目標檢測任務時可以通過改善損失函數提升訓練效果,進而提升模型魯棒性;在交通燈、車道線檢測時通常通過聚類進行精度提升。隨著YOLO 系列算法的不斷發展,更多適用于自動駕駛領域的YOLO 系列改進算法將推動該領域的扎實進步。

猜你喜歡
特征提取特征檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達“特征”
基于Gazebo仿真環境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
一種基于LBP 特征提取和稀疏表示的肝病識別算法
小波變換在PCB缺陷檢測中的應用
基于MED和循環域解調的多故障特征提取
主站蜘蛛池模板: 中文字幕乱码二三区免费| 国产网友愉拍精品视频| a级毛片毛片免费观看久潮| 一区二区三区国产精品视频| 激情无码视频在线看| 精品国产免费观看| 九九九国产| 久久亚洲中文字幕精品一区| 亚洲成aⅴ人在线观看| 免费jizz在线播放| 色哟哟国产精品| 国产91麻豆视频| 精品国产www| 国内精品久久人妻无码大片高| 国产av色站网站| 亚洲一级毛片免费看| 国产又大又粗又猛又爽的视频| 日韩福利视频导航| 免费在线一区| 国产成人高清精品免费5388| 五月婷婷丁香色| 一级成人欧美一区在线观看 | 免费无码在线观看| 国内黄色精品| jizz在线观看| 中文字幕中文字字幕码一二区| 亚洲色精品国产一区二区三区| 香蕉蕉亚亚洲aav综合| 黄色网页在线播放| 在线看免费无码av天堂的| 国产又粗又猛又爽| JIZZ亚洲国产| 婷婷色婷婷| 精品亚洲欧美中文字幕在线看| 亚洲综合片| 伊人查蕉在线观看国产精品| 一本二本三本不卡无码| 国产美女免费| 亚洲全网成人资源在线观看| 午夜毛片免费观看视频 | 五月天在线网站| 欧美色视频在线| 亚洲色图欧美在线| 日韩精品一区二区三区大桥未久| 精久久久久无码区中文字幕| 欧美三级不卡在线观看视频| 亚洲综合色婷婷| 国产成人亚洲欧美激情| 亚洲一区二区三区香蕉| 久久久精品久久久久三级| 台湾AV国片精品女同性| 国产91小视频在线观看| 欧美国产菊爆免费观看| 99re热精品视频国产免费| 欧美第九页| 激情综合网址| 亚洲第一极品精品无码| 久久伊人操| 成人福利在线观看| 奇米精品一区二区三区在线观看| 在线免费a视频| 亚洲国产天堂久久综合226114| 亚洲精品第一在线观看视频| 国产黄色免费看| 午夜视频免费试看| 国产精品视频猛进猛出| 国产成人91精品| 国产欧美日韩91| 99久久国产自偷自偷免费一区| 免费看a级毛片| 亚洲综合专区| 91日本在线观看亚洲精品| 天堂在线亚洲| 亚洲第一视频网| 成人免费视频一区| 亚洲人在线| 日韩国产综合精选| 亚洲第一成年网| 亚洲精品成人片在线播放| 青青草a国产免费观看| 日韩在线观看网站| 国产主播一区二区三区|