蔡易南 肖小玲



蔡易南,肖小玲. 基于改進YOLO v5n的葡萄葉病蟲害檢測模型輕量化方法[J]. 江蘇農業科學,2024,52(7):198-205.
doi:10.15889/j.issn.1002-1302.2024.07.027
(長江大學計算機科學學院,湖北荊州 434000)
摘要:由于較大的參數量和較高的計算復雜度,直接在移動端部署通用檢測及識別模型的難度較高。為了解決輕量化的移動端部署難題及提升移動設備上葡萄葉病害的檢測能力,擬提出1種輕量化、高精度、實時性的檢測模型。首先,引入Slimming算法對傳統的YOLO v5n網絡進行縮減,利用模型稀疏化訓練、批歸一化的縮放因子分布狀況對不重要的通道進行篩選;其次,引入輕量級上采樣算子CARAFE增加感受野,進行數據特征融合;最后,將邊界框回歸損失函數改進為WIoU損失函數,制定合適的梯度增益分配策略來獲得更加精準的框定位提升模型對每個類別目標的檢測能力。試驗結果表明,改進后的模型能夠在保持模型性能的情況下有效輕量化。與傳統的YOLO v5n相比,改進后的算法mAP提高了0.2百分點,同時改進后的模型權重、參數量、計算量分別為1.6 MB、0.6 M、1.8 G,分別比原模型減少了58%、67%、57%,能夠滿足移動端和嵌入式設備的部署要求。
關鍵詞:葡萄葉病害;YOLO v5;Slimming剪枝;WIoU損失函數;CARAFE算子
中圖分類號:TP391.41;S126? 文獻標志碼:A? 文章編號:1002-1302(2024)07-0198-07
葡萄是我國種植面積較大的經濟作物之一,并且我國目前是全球第二大葡萄生產國和全球第一大鮮食葡萄生產國[1]。在葡萄樹的生長過程中,準確識別葡萄葉片上的病蟲害類型能有效提高葡萄的產量。傳統的人工識別方法耗費的時間和精力十分巨大,而利用計算機視覺和圖像處理等技術,可以實現更為精準的病蟲害檢測識別,對節省人力、提升葡萄的產量和質量具有重要意義[2]。
目前在農業領域已經有應用深度學習目標檢測方法對農業病蟲害進行識別的應用,戴久竣等在ResNet50的基礎上采用金字塔卷積網絡,并在金字塔網絡結構上采用深度超參數化卷積層代替傳統的卷積層使模型能夠更快收斂的同時提高精度[3]。謝圣橋等在ResNet50模型的基礎上,保留了卷積層并設計了全新的全連接層,提升了模型的魯棒性和識別性能[4]。何欣等針對RestNet模型對不同尺度特征的提取效果較差的問題,提出了在Mask R-CNN 模型中引入多尺度卷積的方法,并且通過添加注意力機制提升了網絡的特征提取能力[5]。陳浪浪等以DenseNet121為基礎網絡,引入坐標注意力學習圖像特征通道關系和空間位置的重要性來增強模型的特征提取能力[6]。YOLO系列算法及其改進的方法在農業領域也被廣泛應用,張伏等采用輕量級特征提取網絡對YOLO v4模型進行結果輕量化改進,引入了深度可分離卷積結構完成了輕量級網絡的搭建,并增加小目標檢測層,提高了檢測模型對圣女果的識別精度[7]。劉廣等通過引入輕量級網絡ShuffleNet v2模塊優化YOLO v3原有的特征提取網絡,以降低網絡模型的參數,然后在優化后的特征提取網絡中融合了CBAM注意力機制以提升模型的數據精度[8]。
但是,上述模型的網絡結構都存在過于復雜、計算量過大和參數量過多等問題,對設備的計算能力要求較高,以致在嵌入式或移動端設備上實現實時目標檢測依舊難以實現。針對模型過于龐大和參數量過多的問題,許多研究人員提出了輕量化模型,但輕量化模型在減少了模型大小和參數量的同時也降低了模型的精度。針對上述問題,本研究擬引入一種剪枝算法,該算法對原始YOLO v5n網絡訓練完成后的模型中貢獻較小的網絡通道進行剪裁,以達到在減小模型復雜度的同時能夠保持模型原有的精度。同時融合輕量級上采樣算子CARAFE在上采樣的過程中對特征進行重新組裝和提取來提升上采樣的質量。并引入WIoU來獲得更加精準的框定位以提升模型的識別能力。
1 材料與方法
1.1 試驗數據集
本研究的數據集包括3個類別的染病葉片圖片,分別為黑腐病、埃斯卡病、褐斑病(圖1)。由于獲取的數據集大多數都沒有標注,因此對數據集進行重新標注。對葉片中的病害部分采用最大外接矩形框進行標注,標注的類別和圖片的類別相同。
首先將原始數據集進行樣本分類,再采取旋轉、翻轉、局部放大等數據增強方式擴充數據集并以xml格式保存標注文件,示例結果見圖2。為了保持試驗數據的隨機性,本試驗將數據集劃分為訓練集和驗證集,比例為9 ∶1。訓練集包含4 005張圖片,測試集和驗證集的圖片總數為445張。為了保證試驗的準確性與嚴謹性,所有試驗數據皆為進行3次試驗后統計出的平均值。
1.2 YOLO v5網絡模型
目前,主流的目標檢測模型可以大致歸為兩大類:二階段目標檢測模型和一階段目標檢測模型。二階段目標檢測模型首先生成一系列候選框,然后對這些候選框進行分類。一種經典的二階段目標檢測模型是Faster-RCNN[9]。除了Faster-RCNN,還有一些其他二階段目標檢測模型,如R-FCN等[10]。一階段目標檢測模型是一種直接從輸入圖像中預測目標類別和邊界框的目標檢測模型,相比于兩階段目標檢測模型,一階段目標檢測模型具有更快的檢測速度,具有代表性的網絡模型有SSD、YOLO系列等[11-15]。
相比于之前的YOLO系列目標檢測模型,YOLO v5 能夠實現140幀/s的推理速度,并且在MSCOCO數據集上的mAP@50能夠達到55.0%以上。YOLO v5的5個版本有YOLO v5n、YOLO v5s、YOLO v5m、YOLO v5x、YOLO v5l,區別主要在于網絡的深度和寬度。在YOLO v5中,網絡深度、寬度的改變是通過調整C3的數量來實現的。YOLO v5n是最小的版本,其網絡結構相對簡單,訓練后的模型參數量較小并能保持較好的檢測速度和精度。因為本試驗考慮到需要滿足實時檢測和足夠的輕量化的要求,故采用深度最小和特征圖寬度最小的YOLO v5n模型作為基礎模型進行改進,改進后的YOLO v5n模型結構如圖3所示。
YOLO v5n目標檢測模型主要包括輸入層、主干網絡、頸部網絡和預測層4個部分。輸入層是網絡的起始點,負責接收并預處理輸入圖像,YOLO v5n 接收固定尺寸的輸入圖像并經過歸一化、通道順序轉換等處理,以便于后續網絡的處理。主干網絡是YOLO v5的核心,被用于提取圖像特征,YOLO v5n主干網絡采用CSPDarknet53架構,它是一種輕量級的網絡結構,CSPDarknet53利用CSP連接,通過在不同的層級進行特征融合,進一步提高了特征的表達能力。頸部網絡位于主干網絡之后,負責進一步處理和增強從主干網絡中提取到的特征,YOLO v5n使用特征金字塔網絡結構及路徑聚合網絡來增強特征的融合程度,以獲取不同尺度上層級上的特征信息,多尺度特征融合有助于檢測不同大小的目標,從而提高檢測的準確性[16-17]。預測層是YOLO v5n的最后一層,負責生成目標檢測的結果。預測層會根據不同尺度和特征圖預測邊界框位置、目標類別和置信度得分。
1.3 輕量化葡萄葉病蟲害識別方法
1.3.1 Slimming剪枝算法 優化YOLO v5n以使其更加輕量化的方法有很多,如權值量化、輕量化模型架構等。然而,在進行輕量化時不能僅關注模型的大小以及計算量和參數量,還要保持模型的檢測性能。為了在不影響準確性的情況下降低運算量和減小模型的大小,本研究選擇Slimming剪枝算法對模型進行壓縮。Slimming剪枝原理如圖4所示[18]。
由圖4可見,深度學習網絡在卷積之后會得到多個特征圖,但有些特征圖的權重接近0,并未起到作用。因此Slimming剪枝算法采用在BN層中引入縮放因子(γ)來評估每個通道的重要性,并且使用L1正則化來稀疏γ的值。引入BN層可以有效避免網絡過擬合、提高訓練的穩定性和訓練速度并有效避免內部協變量偏移,其基本公式如下所示:
z^=zin-μBσ2B+;zout=γz^+β。(1)
式中:zin、zout分別為BN層的輸入、輸出;μB表示本批次該層輸入的均值;σB表示本批次該層輸入的方差;γ表示縮放因子。
在BN層之后插入1個縮放層,對于每個通道將會有2個連續的縮放因子。引入縮放因子正則項之后,部分縮放因子會趨于0,剪掉接近0的縮放因子對應的通道從而達到減小模型的大小和計算量的目的。相對較大的縮放因子所對應的通道則被視為相對重要的通道保留下來以保證模型的性能不受影響。
Slimming剪枝算法的定義公式如下:
L=∑(x,y)l[f(x,W),y]+λ∑γ∈Γ g(γ)。
式中:(x,y)為訓練的輸入和目標;W為網絡中的可訓練參數;前一項代表卷積神經網絡中的訓練損失函數,后一項是縮放因子上的懲罰項;λ為2項的平衡因子。
Slimming剪枝算法包含5個主要步驟:(1)初始訓練。首先使用訓練集對深度神經網絡模型進行初始訓練,以確保其具備一定的準確性。(2)評估權值的重要性。在訓練過程中,計算每個權重對模型準確性的貢獻。(3)剪枝。根據權重的重要性,選擇1個合適的閾值來確定需要剪枝的權重。所有權重的絕對值低于閾值的節點將被剪枝,即將其權重重新設定為0。(4)微調。對于經過剪枝的模型,經過微調以恢復其準確性。(5)迭代剪枝。重復執行步驟(2)至步驟(4),直到達到期望的模型大小和準確性。
1.3.2 WIoU Loss YOLO v5原網絡中使用的邊界框回歸損失函數是GIoULoss,GIoU考慮到了預測框和真實標注框的外接矩形面積,并將其納入損失計算中,從而改善了IoU只關注預測框和真實標注框的重疊區域而不能反映二者相交的不足。損失函數的定義如下所示:
GIoU=IoU-|C-(A∪B)|[]|C|;(3)
LossGIoU=1-GIoU。(4)
WIoU是一種動態非單調聚焦機制的邊界框定位損失函數,對于低質量示例,預測框和真實框的縱橫比、距離等幾何度量會增加對低質量示例的懲罰,從而影響模型的泛化能力,當預測框、真實框能夠很好地重合時,應適當降低幾何度量的懲罰[19]。WIoU共有3個版本,v1構造了基于注意力的邊界框損失,v2、v3在v1的基礎上附加了聚焦機制,其中v3的性能更好。WIoU根據距離度量構建得到了WIoUv1,如下式所示:
LossWIoUv1=RWIoULIoU;(5)
RWIoU=exp(x-xgt)2+(y-ygt)2(W2g+H2g)*。(6)
式中:Wg、Hg分別代表最小包圍框的寬、高;當RWIoU∈[1,e)時,會在一定程度上擴大普通質量錨框的IoU損失函數值LIoU,當LIoU∈[0,1]時,會明顯降低高質量錨框的RWIoU;在目標框、錨框匹配度重疊較高的情況下,應重點關注2個框中心點的距離;*表示將Wg、Hg從計算圖中分離。
WIoUv2邊界框回歸損失函數設計了能夠減少簡單樣本對損失函數的貢獻,同時使模型能夠聚焦于困難樣本的單調聚焦系數,從而提升模型目標檢測性能。WIoUv2損失函數的計算公式如下:
LWIoUv2=Lγ*IoULWIoUv1,γ>0。(7)
式中:Lγ*IoU在訓練時會隨著LIoU的減小而減小,這會導致模型在訓練后期收斂速度變慢。針對這一問題,WIoUv2引入了移動平均值LIoU[TX-]使L*IoULIoUγ整體能保持在較高水平,詳見如下公式:
LWIoUv2=]L*Io]LIoUγLWIoUv1。(8)
WIoUv3損失函數使用離群度來描述錨框的質量,離群度越低表示高質量錨框,離群度高表示低質量錨框。離群度的定義如下所示:
β=[SX(C*5]L*IoU[]LIoU[TX-*5][SX)]∈[0,+∞)。(9)
利用β構造了一個非單調動態聚焦機制并將其應用到WIoUv1,從而得到WIoUv3,該機制通過將小梯度增益分配到具有小β的高質量錨框,使得錨框回歸能夠專注于普通質量的錨框。同時,該機制將小梯度增益分配給β較大的低質量錨框,進而有效削弱低質量樣例對錨框回歸的危害。動態聚焦機制的定義如下所示:
LWIoUv3=γLWIoUv1,γ=[SX(]β[]δαβ-δ。(10)
式中:當β=δ時,δ使得γ=1。當錨框的離群度滿足β=C(C為一個常數)時,錨框將獲得最高的梯度增益。由于LIoU[TX-]是動態的,這就使得WIoUv3在每一刻都做出最符合當前情況的梯度增益。
1.3.3 上采樣算子CARAFE 特征上采樣是卷積神經網絡中不可或缺的一部分。[JP2]在傳統算法中較常見的上采樣方法為最近鄰插值法,該方法僅使用離待插值最近的像素的灰度值作為該采樣點的灰度值,而沒有考慮到其他相鄰像素點的影響,故不能充分利用特征圖的語義信息。此外,傳統方法通常具有較小的感知域并且還引入了大量參數量和計算量。
輕量級上采樣算子CARAFE在保持高精度的同時,具有輕量級、高效和內容感知的特點[20]。CARAFE能夠通過聚合相鄰特征通道來恢復目標的語義信息,從而有效地增強感受野。與其他上采樣方法不同,CARAFE不是簡單地通過像素點的空間位置來決定上采樣核,而是充分利用了特征圖的語義信息。這使得采樣點更加集中在物體區域,從而有效忽略背景區域,達到內容感知重構的效果。引入CARAFE替換所有頸部網絡中的上采樣操作,能夠更好地恢復圖像的細節信息,提供更好的上采樣效果,從而改善模型的性能、結果質量。CARAFE的原理如圖5所示。
CARAFE分為上采樣預測模塊、特征重組模塊等2個主要模塊。假定上采樣倍率為σ,給定1個形狀為H×W×C的輸入特征圖,首先通過上采樣核預測模塊來預測上采樣核,然后通過特征重組模塊完成上采樣操作,得到形狀為σH×σW×C的輸出特征圖。CARAFE的操作可以分為2個步驟。在第1步中,CARAFE會根據每個目標位置的內容預測1個重組核。這個過程可以視為特征圖通道壓縮,例如使用1個1×1的卷積將它的通道數降低,以減少后續計算量。在第2步中,用預測的核對特征進行重組,生成1個新的特征圖。因此,CARAFE并不僅僅是簡單地插值或反褶積,而是能夠根據輸入特征來指導重組過程,這樣在不同的位置可以使用自適應和優化的重組核,從而實現更好的性能。
2.1 試驗環境與準備
本試驗所有輕量化處理及訓練均在臺式計算機上進行,所用計算機配置如下:Windows 10操作系統,Intel Core I5-12600KF CPU,NVIDIA RTX3080Ti GPU,32 GB內存。所用環境為Pytorch 2.0.1,Cuda 12.2,cuDNN 8.7.0,Python 3.9。試驗時間為2023年1—9月,試驗地點為長江大學東校區3號教學樓。
2.2 評測指標
試驗結果采用Precision、Recall、AP、mAP作為評價指標,評價指標的計算公式如下:
Precision=[SX(]TP[]TP+FP[SX)][JZ)];(11)
Recall=[SX(]TP[]TP+FN[SX)][JZ)];(12)
AP=∫1[KG-1]0p(r)dr[JZ)];](13)
mAP=[SX(]1[]m[SX)]∑[DD(]m[]i=1[DD)]APi。(14)
式中:m表示樣本類別數;p(r)表示Precision以Recall為參數的一個函數;TP表示被正確識別的正樣本;TN表示被正確識別的負樣本;FP表示負樣本被錯誤識別為正樣本;FN表示正樣本被錯誤識別為負樣本。
2.3 損失函數對比試驗
本試驗通過對比LCLoU、LFocal-ELoU、LWIoUv1、LWIoUv2以及LWIoUv3這5種損失函數,驗證WIoUv3能夠降低框回歸損失,從而使模型能夠更好地預測準確的邊界框,有助于提高目標檢測中框的質量,減少誤檢、漏檢(表1)。
圖6為模型精度隨著訓練輪次增長的過程,LWIoUv3相比于LCLoU、LWIoUv1和LWIoUv2、LFocal-ELoU能夠在精度上使模型達到更高的檢測性能。WIoUv3 Loss通過引入類別權重,可以平衡不同類別的重要性,使得模型更加關注那些類別較少的目標,從而提高模型對于稀有類別的檢測能力。同時,本試驗使用的數據集中,受埃斯卡病所感染的葉片目標區域相對于褐斑病和黑腐病來說比較大,目標數量較少,因此使得3個類別中的目標數量差距較大。而引入WIoU Loss可以動態調整每個類別的權重,從而提高模型整體的檢測性能。
2.4 輕量化對比試驗
在本試驗中,利用常見的MobileNet v3-small、GhostNet及EfficientNet來優化YOLO v5n的骨干網絡與Slimming算法進行對比試驗,驗證了Slimming算法能夠更加有效地實現YOLO v5n模型的輕量化[21-23]。試驗模型的對比結果見表2。為了保證試驗結果的嚴謹性,本研究中所有模型的參數設定都一致。
由表2可知,輕量化主干網絡雖然可以降低參數量和模型大小,但是其檢測速度也有所下降。本試驗提出的Slimming剪枝算法可以在有效減少參數量、計算量和模型權重文件大小的同時保持模型精度和推理時間,保證模型的實時性。GhostNet、EfficientNet等方法具有較低的參數量和計算量,但推理速度較慢。對于GPU來說,算力瓶頸在于訪問帶寬。EfficientNet這類輕量化網絡的特點是使用了大量低FLOPs、高數據讀寫量的操作,這會使得模型將大量時間浪費在從現存中讀寫數據上,使模型的實時性變差。因此,采用Slimming算法能在輕量化的同時兼顧模型的檢測性能和推理速度。
2.5 消融試驗
為了評估Slimming剪枝方法、WIoUv3損失函數及輕量級上采樣算子CARAFE對YOLO v5n算法帶來的影響,進行消融試驗,試驗結果見表3。[JP2]為了提高模型的泛化能力和避免過擬合,所有試驗均采用較大的epoch值(300)。[JP2]表3中,改進1模型對原有YOLO v5n算法進行剪枝,改進2模型對剪枝之后的模型添加了WIoUv3 Loss,改進3模型在改進2模型的基礎上引入輕量級上采樣算子CARAFE的結果。
由表3可知,對YOLO v5n使用Slimming剪枝方法可以在模型精度輕微下降的同時使參數量降低72%,使計算量降低62%。通過后續引入WIoUv3 Loss、輕量級上采樣算子CARAFE,模型的精度相比于比YOLO v5n算法提高了0.2百分點,同時參數量減少了67%,計算量減少了57%,模型的大小也縮減了58%。因此可見,改進后的模型不僅在檢測精度上有所提升,而且在參數量、計算量和檢測速度方面也表現出色。模型的驗證結果如圖7所示。
3 結論
為了解決現有葡萄葉病蟲害檢測模型難以部署在移動端設備或嵌入式設備上的問題,本研究提出了1種基于改進的YOLO v5n的深度卷積神經網絡模型。通過Slimming剪枝方法對YOLO原有網絡模型進行剪枝并添加WIoUv3損失函數,引入輕量級上采樣算子CARAFE。[JP2]在減小58%的模型大小和減少67%的參數量及57%計算量的基礎上,最終的模型大小僅為1.6 MB,模型精度相比YOLO v5n[JP]的原模型提升了0.2百分點。結果表明,本研究方法在葡萄葉病蟲害識別上獲得了較好效果,為部署于移動設備與嵌入式設備上提供了可能。
參考文獻:
[1]田 野, 陳冠銘,李家芬,等. 世界葡萄產業發展現狀[J]. 熱帶農業科學, 2018, 38(6):96-101.
[2]翟肇裕,曹益飛,徐煥良,等. 農作物病蟲害識別關鍵技術研究綜述[J]. 農業機械學報, 2021, 52(7):1-18.
[3]戴久竣,馬肄恒,吳 堅,等. 基于改進殘差網絡的葡萄葉片病害識別[J]. 江蘇農業科學,2023,51(5):208-215.
[4]謝圣橋,宋 健,湯修映,等. 基于遷移學習和殘差網絡的葡萄葉部病害識別[J]. 農機化研究,2023,45(8):18-23,28.
[5]何 欣, 李書琴, 劉 斌. 基于多尺度殘差神經網絡的葡萄葉片病害識別[J]. 計算機工程, 2021, 47(5):285-291.
[6]陳浪浪,張 艷. 基于改進深度卷積神經網絡的水稻病蟲害識別[J]. 山東農業科學,2023,55(5):164-172.
[7]張 伏,陳自均,鮑若飛,等. 基于改進型YOLO v4-LITE輕量級神經網絡的密集圣女果識別[J]. 農業工程學報,2021,37(16):270-278.
[8]劉 廣,胡國玉,趙騰飛,等. 基于改進YOLO v3的葡萄葉部病蟲害檢測方法[J]. 微電子學與計算機,2023,40(2):110-119.
[9]Ren S Q,He K M,Girshick R,et al. Faster R-CNN:towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.
[10]Dai J F,Li Y,He K M,et al. R-FCN:object detection via region-based fully convolutional networks[J]. Advances in Neural Information Processing Systems,2016,29:379-387.
[11]Liu W,Anguelov D,Erhan D,et al. SSD:single shot multibox detector[C]//Computer Vision–ECCV 2016:14th European Conference,Amsterdam:Springer International Publishing,2016:21-37.
[12]Bochkovskiy A,Wang C Y,Liao H Y M. YOLO v4:optimal speed and accuracy of object detection[J/OL]. [2023-09-09]https://arxiv.org/abs/2004. 10934.
[13]Redmon J,Divvala S,Girshick R,et al. You only look once:unified,real-time object detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,Las Vegas,USA,2016:779-788.
[14]Redmon J,Farhadi A. Yolo9000:better,faster,stronger[C]//Proceedings of the IEEE conference on Computer Vision and Pattern Recognition,Honolulu,USA,2017:7263-7271.
[15]Redmon J,Farhadi A. YOLO v3:An incremental improvement[J/OL]. [2023-09-09]https://arxiv.org/abs/1804. 02767.
[16]Lin T Y,Dollár P,Girshick R,et al. Feature pyramid networks for object detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,Honolulu,USA,2017:2117-2125.[HJ2mm]
[17]Liu S,Qi L,Qin H,et al. Path aggregation network for instance segmentation[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,Salt Lake City,USA,2018:8759-8768.
[18]Liu Z,Li J,Shen Z,et al. Learning efficient convolutional networks through network slimming[C]//Proceedings of the IEEE International Conference on Computer Vision,Venice,Italy,2017:2736-2744.
[19]Tong Z,Chen Y,Xu Z,et al. Wise-iou:bounding box regression loss with dynamic focusing mechanism[J/OL]. [2023-09-09]https://arxiv.org/abs/2301. 10051.
[20]Wang J,Chen K,Xu R,et al. Carafe:content-aware reassembly of [JP3]features[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision,Seoul,Korea(South),2019:3007-3016.
[21]Howard A,Sandler M,Chu G,et al. Searching for mobilenetv3[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision,Seoul,Korea(South),2019:1314-1324.
[22]Han K,Wang Y,Tian Q,et al. Ghostnet:more features from cheap operations[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition,Seattle,USA,2020:1580-1589.
[23]Tan M,Le Q. Efficientnet:rethinking model scaling for convolutional neural networks[C]//International Conference on Machine Learning. PMLR,Long Beach,California,USA,2019:6105-6114.
基金項目:國家自然科學基金(編號:61771354)。
作者簡介:蔡易南(2000—),男,湖北黃岡人,碩士研究生,主要研究方向為計算機視覺與目標檢測。E-mail:2022710621@yangtzeu.edu.cn。
通信作者:肖小玲,博士,教授,主要研究方向為智能信息處理與網絡安全。E-mail:xxl@yangtzeu.edu.cn。