



摘 要:為了提高YOLOv5模型對無人機遙感圖像的檢測性能,本文進行了研究,該模型的主要問題是對小目標的漏檢率和誤檢率較高。通過理論分析,發現其Anchor機制具有一定的優化空間,改進策略為使用NWD損失函數代替IoU損失函數。在性能仿真階段,對比了4種基準模型的特點,將YOLOv5s模型與改進后的模型進行對比,對無人機遙感圖像進行檢測。結果顯示,改進后的YOLOv5模型在準確度、召回率、多類別平均精確度方面均優于改進前。
關鍵詞:YOLOv5;無人機遙感圖像檢測算法;Anchor機制改進;網絡結構改進
中圖分類號:TP 391" " " " 文獻標志碼:A
YOLOv5是一種應用廣泛的圖像檢測算法模型,它能夠識別無人機遙感圖像中的人、物及環境信息,但該模型的性能存在不足,難以準確識別圖像中較小的檢測目標。鑒于此,研究過程旨在確定影響算法性能的原因,并進行改進。
1 YOLOv5模型在圖像檢測中的應用
1.1 YOLOv5模型基本原理
1.1.1 YOLOv1~YOLOv4模型發展過程
YOLOv5模型由YOLOv1~YOLOv4模型發展而來,因此繼承了前4種算法模型的基本原理。YOLOv1模型將整個圖形作為輸入,利用網絡將圖形劃分為若干區域,在此基礎上進行預測和歸類,從而對特定目標進行檢測。區域劃分的本質是將圖像切割成正方形的格柵,如果在某個格柵中出現物體的影像,就預測其邊界框,并計算反映物體是否存在以及物體類別的Score[1]。雖然該算法的檢測速度較快,但也有一定的局限性,例如難以檢測小目標,在每個格柵中只能預測2個物體。
YOLOv2模型是在YOLOv1模型的基礎上進行改進的,其 引入了批量歸一化處理、Anchor機制,并且將YOLOv1中的原有的網絡結構改為Darknet-19?!?br>