劉 毅 安 移
(上海理工大學光電信息與計算機工程學院 上海 200093)
交通標志識別是目前計算機視覺識別在實際場景的應用之一,也是輔助自動駕駛[1]至關重要的環節,在檢測物體方面看和思考的機制應用到了計算機視覺識別實例化中,隨著深度學習和圖像處理的發展王[2]等將傳統的特征提取(如SIFT、HOG特征等)換成了深度卷積網絡提取的特征;隨后為了減少重復卷積和推算時間提出Fast R-CNN 算法[3]。基 于 區 域 全 卷 積 網 絡(R-FCN)方 法Light-Head R-CNN[4]都是二階段方法,二階段目標檢測算法的檢測精度雖然比一階段法更高,但一階段法在檢測速度上具有更快更優的表現。作為一階段算法的代表YOLOv2[5]設計了一個DarkNet-19的網絡結構并使用錨點框用來預測邊界框,大大提升了模型的速率。隨后Redmon 等在YOLOv2 的基礎上提出YOLOv3[6],引入二進制交叉熵損失來提高檢測精度,但對低級信息融合不充分,針對這一問題Chen等提出YOLOv3-dense[7]實現多樣化的感受野來提升特征信息融合能力。Gkioxari等針對特征圖識別和分割中出現正負樣本不均衡、置信度差的問題,提出Mask R-CNN[8]算法使模型均衡性得到改進。Alexey 等提出的YOLOv4 算法[9]引入空間金字塔池網絡結構來提升識別速率和檢測精度,但導致原始圖中的上下文信息損失嚴重。
通過以上分析,本文提出一種改進YOLOv4-tiny交通標志識別算法LYOLOv4(Loop YOLOv4),為了提升模型檢測速度和性能,引入深度可分離卷積塊減少參數量和計算量,在特征提取和融合時采用遞歸特征金字塔(RFP)建立在特征金字塔網絡(FPN)的基礎上,將遞歸結構展開為一個順序實現,獲得了一個觀察圖像兩次或更多次的對象檢測網絡模型。……