999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv5的自然環境下番茄患病葉片檢測模型

2024-01-01 00:00:00李仁杰宋濤高婕李東高鵬李炳鑫楊坡
江蘇農業學報 2024年6期
關鍵詞:深度學習

摘要: 針對自然環境下番茄葉片存在的復雜背景和密集遮擋情況,提出一種改進的YOLOv5模型,用于實時檢測自然環境下番茄葉片的病害。首先,使用RepVGG模塊代替YOLOv5中主干網絡的卷積層,改善主干網絡的特征提取能力,減少模型的內存占用,加速模型的推理速度;其次,在頸部的C3模塊中引入注意力機制模塊CBAM,提高模型在復雜背景下對番茄患病葉片的檢測精度以及對遮擋目標的識別率;最后,引用新的損失函數SIoU,加速模型的收斂速度并降低模型的損失值。研究結果表明,相比于原YOLOv5模型,改進模型的平均精度提升3.0個百分點,平均精度高達98.9%,說明改進模型在自然環境下對番茄患病葉片的檢測更具優勢。

關鍵詞: 病害檢測;深度學習;YOLOv5;注意力機制

中圖分類號: TP391;S641.2"" 文獻標識碼: A"" 文章編號: 1000-4440(2024)06-1028-10

Tomato diseased leaf detection model based on improved YOLOv5 in natural environment

LI Renjie, SONG Tao, GAO Jie, LI Dong, GAO Peng, LI Bingxin, YANG Po

(School of Electronic and Information Engineering, Hebei University of Technology, Tianjin 300000, China)

Abstract: Aiming at the complex background and dense occlusion of tomato leaves in natural environment, an improved YOLOv5 model was proposed for real-time detection of tomato leaf diseases in natural environment. Firstly, the RepVGG module was used to replace the convolutional layer of the backbone network in YOLOv5, which improved the feature extraction capability of the backbone network, reduced the memory occupation of the model and accelerated the reasoning speed of the model. Secondly, the attention mechanism module CBAM was introduced into C3 module in neck part to improve the detection accuracy of tomato diseased leaves and the recognition rate of shielded targets in the complex background. Finally, a new loss function SIoU was introduced to accelerate the convergence speed of the model and reduce the loss value of the model. The research results showed that compared with the original YOLOv5 model, the average precision of the improved model increased by three percentage points, and the average accuracy was as high as 98.9%, indicating that the improved model was more advantageous in the detection of tomato diseased leaves in natural environment.

Key words: disease detection;deep learning;YOLOv5;attention mechanism

番茄營養豐富、口感獨特、種植面積大,是重要的經濟作物之一[1]。番茄種植過程中常見的病害有早疫病、晚疫病、斑點病等。不同的病害會導致番茄葉片生理形態發生不同的變化,如形變、變色、卷曲、腐爛等,檢測番茄葉片形態變化是識別番茄病害的關鍵。在實際生產過程中,生產者往往采用人工識別的方法去識別番茄葉片病害種類,這種識別方法效率低且效果不佳。因此,如果能夠實現對番茄病害的實時檢測,就能夠及時指導生產者進行植物保護,從而達到提高番茄產量和質量的生產目標。

針對作物病害檢測問題,傳統機器學習識別方法由于具有計算效率高、魯棒性強等優勢而廣受歡迎。但是傳統機器學習識別方法需要具有豐富經驗和專業知識的人去設計特征提取過程,且特征提取過程需要進行大量的試驗和調整,會花費大量時間和精力[2]。

相較于傳統機器學習識別方法,深度學習方法可以使用更深、更復雜的模型來自動地學習特征,從而避免了手動設計特征的繁瑣過程[3],因此,深度學習方法在農業生產中得到了廣泛的運用。Ozguven等[4]通過改變Faster R-CNN模型的參數實現對甜菜葉斑病的自動檢測,獲得了95.48%的總體分類正確率。Waheed等[5]提出一種用于檢測玉米早期病害的卷積神經網絡模型,該模型的識別準確率達到98.06%。Liu等[6]將Inception結構、深度可分離卷積和稠密連通結構相結合,構建了一個高效的葡萄葉片害蟲檢測網絡,該模型的準確率可達97.22%。

雖然深度學習方法在農業病害檢測方面取得了不錯的成果,學者們構建的作物病害檢測模型有著較高的識別率,但是大多數檢測模型的研究都是基于簡單的實驗室環境進行的[7],而自然場景下番茄葉片的檢測過程中普遍存在背景復雜、葉片被遮擋等情況,復雜的背景信息會引入大量的噪聲信息,而葉片之間的遮擋會使目標區域的部分信息丟失,這大大增加了誤檢率和漏檢率,從而降低了算法的檢測精度[8]。因此,本研究擬提出一種改進的YOLOv5模型,使用RepVGG模塊代替主干網絡中的CBS結構,以提升模型的檢測精度,并加速模型的推理;頸部(Neck)中的C3模塊引入注意力機制模塊CBAM并命名為C3CBAM,以使模型在訓練時加強對目標區域的關注,提升對遮擋目標的識別率和對復雜背景的區分能力,有效減少漏檢和誤檢的情況;使用損失函數SIoU代替YOLOv5模型原本的損失函數CIoU,以加速模型的收斂并降低損失值,以期為自然環境下番茄患病葉片的實時、精準檢測奠定基礎。

1 材料與方法

1.1 數據集

本研究使用的數據集來自于公開的PlantDoc[9]數據集,數據集包括7類番茄葉片,即健康的番茄葉片、患早疫病的番茄葉片、患晚疫病的番茄葉片、患葉斑病的番茄葉片、患葉菌斑病的番茄葉片、患葉黃病的番茄葉片、患花葉病的番茄葉片,一共1 178張。7類番茄葉片的圖像如圖1所示。

本研究使用的番茄患病葉片、健康葉片數據集均采用LabelImg標簽標注工具進行手動注釋,繪制出葉片邊界框和葉片患病的種類,以數據集中部分番茄葉片圖片為例,LabelImg工具標注的結果見圖2。

1.2 數據預處理

為了防止由于訓練數據太少而導致的過度擬合和不收斂問題,對數據集樣本進行數據增強,數據增強的方法包括高斯模糊、水平翻轉、隨機旋轉、色彩抖動4種方法。擴充之后的數據集共有3 130張圖片。擴充后的數據集按8∶1∶1的比例劃分為訓練集、測試集和驗證集。本研究原始數據集中番茄葉片的種類和數量見表1。

1.3 試驗環境

試驗設備為臺式計算機,選擇Windows10作為操作系統,搭載PyTorch深度學習框架,編程語言選擇Python 3.8,CUDA版本為11.3。硬件部分:處理器為Intel CoreTM i7-11700KF,主頻為3.60 GHz,內存為32 G,顯卡為NVIDIAGeForce RTX3090。模型網絡的訓練輪次設為200個周期,批量大小設置為64,優化器默認采用隨機梯度下降(Stochastic gradient descent,SGD),動量參數取值為0.937,初始學習率默認設為0.01。

1.4 YOLOv5模型結構

YOLOv5模型具有推理速度快、精度高、體積小等優點,本研究選取YOLOv5模型作為基線網絡,在此基礎上對模型進行改良。YOLOv5模型結構見圖3,模型主要分為輸入層(Input)、主干網絡(Backbone)、頸部(Neck)和頭部(Head)4個部分。

在輸入模塊對輸入的圖像進行預處理。利用馬賽克(Mosaic)數據增強方法增加數據集的多樣性;自適應錨框運用K均值聚類算法計算出最佳初始錨框值;用自適應圖片縮放功能調整圖像的大小,使得圖像能夠被高效處理,同時保持較好的目標檢測性能。

主干網絡由焦點(Foucs)切片、CBS、CSP和空間金字塔池化(SPP)4個模塊構成,輸入圖片采用Foucs進行切片操作,然后經過CBS和CSP模塊完成特征提取,最后利用空間金字塔池化模塊對輸入特征圖進行池化操作,實現圖片自適應尺寸的輸出。

頸部采用了特征金字塔網絡(FPN)結構加路徑聚合網絡(PANet)結構,FPN的作用是將上層的強語義信息融入底層,PANet的作用則是自底向上傳遞特征圖的定位信息[10]。

頭部輸出20×20、40×40、80×80共3個不同大小的特征圖,每個特征圖對應不同大小的預測框,每個預測框都包含置信度、分類概率和邊界框位置信息,采用非極大值抑制算法(NMS)保留符合閾值的預測框。

1.5 YOLOv5模型改進方法

1.5.1 引入RepVGG模塊 RepVGG模塊[11]利用結構重參數化方法設計了一種可融合的網絡結構,在訓練階段,RepVGG模塊采用由3×3卷積、1×1卷積和恒等映射模塊組成的多分支網絡結構,如圖4A所示,多分支結構可以使模型在訓練時融合不同尺度的特征圖信息,加強網絡的特征提取能力,但是多分支結構會增加硬件內存消耗,這是因為每路分支計算都會占用硬件的內存空間,直到所有分支計算結束融合后才釋放內存[12]。因此在推理階段,RepVGG模塊通過結構重參化的方式將多分支的卷積算子融合到主分支結構中,合并成卷積核為3×3的單分支網絡,如圖4B所示,單分支結構可以有效減少內存開銷,提升模型推理速度。

本研究引入RepVGG模塊來對YOLOv5網絡結構進行優化設計,將主干網絡中原有的CBS模塊替換為RepVGG模塊,為了兼顧模型的復雜度和性能,主干網絡中的C3模塊的數量縮減為原來的1/3。融合RepVGG模塊的主干網絡(圖5),RepVGG模塊能使網絡在進行番茄患病葉片檢測時兼具多分支模型與單路模型的優點。在訓練階段,多分支結構可以通過融合不同大小的卷積核來獲得不同大小的感受野,強化了網絡的特征表達能力,從而改善了網絡模型對患病葉片的檢測效果;在推理階段,RepVGG模塊通過結構重參數化方式將多分支結構解耦為單路結構,提升了推理速度,以滿足模型實時檢測的需求。

1.5.2 CBAM注意力機制模塊 CBAM[13]模塊融合了通道注意力模塊(CAM)和空間注意力模塊(SAM)。在通道注意力模塊中,輸入尺寸為長度(C)×高度(H)×寬度(W)的特征圖會經過上下路并行的平均池化層和全局池化層,輸出大小為C×1×1的特征圖,然后通過共享網絡多層感知機(MLP)將特征圖大小縮小至C/r×1×1,其中r為縮減比,將這2個輸出結果進行逐元素相加,再經過激活函數得到大小為C×1×1的特征圖,將最后得到的特征圖與原特征圖相乘,得到大小為C×H×W的通道注意力特征圖傳入空間注意力模塊。

在空間注意力模塊中,輸入特征圖依次經過全局池化層、平均池化層,得到大小為1×H×W的2個特征圖,將得到的特征圖進行通道上的相加,再采用7×7的卷積核進行卷積操作,最后通過激活函數得到1×H×W大小的特征圖,此時得到的1×H×W大小的特征圖反映了特征圖上每個區域的權重,數值越大表明重要性越高。將該反映權重的特征圖與原特征圖進行相乘,使得輸出的特征圖維度變為原來的C×H×W,就能通過不同區域的加權值大小來區分特征圖中區域的重要程度高低。CBAM模塊的結構如圖6所示。

自然環境下采集到的番茄葉片圖像背景復雜且目標對象多,患病葉片之間存在較嚴重的遮擋情況,檢測時可能會造成對遮擋葉片的漏檢和誤檢。因此,在C3模塊上引入了CBAM注意力機制模塊,目的是希望檢測模型能夠對圖片的重要位置和重要內容進行關注,區分復雜背景和需要關注的目標對象區域,提高對遮擋目標的識別率進而改善模型的檢測性能。本研究在YOLOv5頸部的C3模塊中加入了CBAM注意力機制,命名為C3CBAM模塊,頸部原始的C3模塊結構如圖7A所示,改進后的C3CBAM模塊結構如圖7B所示。

1.5.3 損失函數設計 YOLOv5模型的損失函數為邊界回歸損失值(Lbox)、目標置信度損失值(Lobj)和分類損失值(Lcls)的加權和,損失值(LOSS)的計算方法如公式(1)所示:

Loss=λ1Lbox+λ2Lobj+λ3Lcls(1)

式中,λ1~λ3為權重參數。

YOLOv5的邊界回歸損失值(Lbox)采用CIoU損失函數表示[14],計算方法如公式(2)所示:

CIoU=1-IoU+ρ2(b,bgt)c2+αv(2)

式中,IoU[15]表示預測框與真實框交集和并集的比值;ρ2(b,bgt)表示預測框與真實框中心點的歐氏距離;c表示預測框與真實框最小外接矩形的對角線長度;α為權重參數,計算方法如公式(3)所示;v表示縱橫比的一致程度,v的計算方法如公式(4)所示。

α=v(1-IoU)+v(3)

v=4π2(arctanwgthgt-arctanwh)2(4)

式中,w、h分別表示預測框的寬度、高度;wgt、hgt分別表示真實框的寬度、高度。

CIoU損失函數引入了預測框和真實框的寬高比,但是忽略了預測框和真實框之間的方向性,這樣網絡在訓練過程中會發生預測框隨意匹配的問題。因此本研究采用SIoU[16]函數代替CIoU函數,SIoU函數通過引入預測框和真實框之間的向量角度信息,重新定義了懲罰標準,具體包括以下幾個部分:

第一,角度損失(Λ),計算方法如公式(5)所示:

Λ=1-2×sin2arcsin(chσ)-π4(5)

式中,ch表示真實框和預測框中心點的高度差;σ表示真實框和預測框中心點的距離;arcsin(chσ)即表示真實框和預測框中心點坐標形成的線段與水平線的夾角。角度損失計算方法如圖8所示。

第二,距離損失(Δ),計算方法如公式(6)所示:

Δ=2-e-γρx-e-γρy(6)

其中:

ρx=bgtcx-bcxcw2,ρy=bgtcy-bcych2,γ=2-Λ(7)

式中,Λ表示角度損失值;(bgtcx,bgtcy)、(bcx,bcy)分別表示真實框、預測框的中心點位置坐標;cw、ch分別表示包含真實框、預測框的最小外接矩形的寬度和高度。距離損失計算方法如圖9所示。

第三,形狀損失(Ω)的計算方法如公式(8)所示:

Ω=(1-e-ww)θ+(1-e-wh)θ(8)

其中:

ww=|w-wgt|(w,wgt)max,wh=|h-hgt|(h,hgt)max(9)

式中,w、h分別表示預測框的寬度、高度,wgt、hgt分別表示真實框的寬度、高度;(w,wgt)max表示取w、wgt2個變量的最大值;(h,hgt)max表示取h、hgt 2個變量的最大值;參數θ的大小與模型對形狀損失的關注度高低呈正相關,θ值過大會影響預測框的移動,本研究通過遺傳算法計算得到最佳的θ值接近4,因此設置θ的范圍為[2,6]。

最后得到SIoU函數,與現有的損失函數相比,SIoU函數通過關注預測框和真實框之間的方向性,加速了網絡的收斂并降低了網絡損失函數值(LSIoU)。

LSIoU=1-IoU+Δ+Ω2(10)

式中,IoU表示預測框與真實框交集和并集的比值大小;Δ表示距離損失;Ω表示形狀損失。

1.6 評價指標

采用精度(Precision)、召回率(Recall)、平均精度(mAP)3個指標衡量改進的YOLOv5模型的預測效果,計算公式如下:

Precision=TPTP+FP(11)

Recall=TPTP+FN(12)

mAP=∑Ni=1APiN(13)

式中,TP表示實際為正樣本且被預測為正樣本的數量;FP表示實際為負樣本但被預測為正樣本的數量;FN表示實際為正樣本但被預測為負樣本的樣本數量;APi表示第i個樣本的平均準確度;N表示總的類別數。

2 結果與分析

2.1 對比試驗

為了驗證CBAM注意力機制的有效性,選取CA[17]、SE[18]、ECA[19]等注意力機制進行對比試驗,不同注意力機制模塊插入的位置都相同,并且保證網絡其他結構不變,損失函數采用的是YOLOv5原本的CIoU損失函數。表2顯示,C3CBAM注意力機制模塊對模型整體性能的提升效果最佳,精度提升了0.2個百分點,召回率提升了1.9個百分點,平均精度相較于原模型提高了1.4個百分點。

本研究使用了當前目標檢測中常用的幾種損失函數進行對比試驗,在YOLOv5網絡的基礎之上,分別采用GIoU[20]、CIoU、EIoU[21]和SIoU作為邊界框回歸損失函數,以此來驗證SIoU損失函數對改進模型的有效性,將每輪網絡訓練中得到的損失函數值繪制成損失函數曲線圖。圖10顯示,模型在100個周期之后逐漸收斂,其中,EIoU的收斂效果最差,GIoU和CIoU的收斂效果相當,SIoU不但收斂速度最快,而且模型訓練的損失值也小于其他損失函數。

為了進一步驗證SIoU對模型的有效性,對加入不同損失函數的模型訓練完成之后,分析其損失值和mAP。表3顯示,相較于GIoU、EIoU和CIoU,YOLOv5模型采用SIoU之后的整體效果最好,其損失值為0.039 09,mAP為96.8%,相較于以CIoU為損失函數的原模型,損失值下降了0.001 58,mAP上升了0.9個百分點。由此可見,SIoU相較于其他損失函數,對模型性能的改善效果最優,得到的損失值最低。

2.2 消融試驗

本研究對YOLOv5模型一共提出了3項改進措施,為了進一步論證改進模塊的合理性與有效性,采用消融試驗進行分析論證。表4顯示,在主干網絡中引入了RepVGG模塊代替卷積層進行特征提取,多分支結構加強了模型對番茄患病葉片的特征提取能力,提升了模型的性能,其中精度提升1.4個百分點,召回率提升0.4個百分點,平均精度提升0.7個百分點。對模型Neck部分增加CBAM注意力機制模塊后,模型精度提升0.2個百分點,召回率提升1.9個百分點,平均精度提升1.4個百分點,這是因為模型在引入CBAM注意力機制模塊后,CBAM注意力機制強化了對番茄患病葉片圖像中背景和目標的區分能力,使模型更好地注意到患病葉片的細節,從而提升了復雜環境和目標被遮擋情況下的識別率,降低了誤檢率和漏檢率。模型使用SIoU損失函數后,精度提升1.2個百分點,召回率提升0.3個百分點,平均精度提升0.9個百分點,相較于原模型,采用SIoU損失函數后模型關注了真實框與預測框之間的方向性,從而提升了模型的收斂速度,降低了模型的損失值。完成3項改進后,模型的精度上升2.9個百分點,召回率上升4.2個百分點,平均精度上升3.0個百分點。綜上所述,本研究提出的3項改進措施都能有效改善模型的訓練效果,進一步驗證了改進模型的有效性。

2.3 不同模型的對比試驗

為了驗證改進模型的有效性,將本研究構建模型與SSD模型[22]、Faster R-CNN模型[23]、YOLOv3模型[24]、YOLOv5模型進行對比試驗。表5顯示,雖然Faster R-CNN模型的平均精度達到了96.5%,比YOLOv5模型高0.6個百分點,但是模型的參數量為137.1 M,浮點計算量為370.2,要遠大于YOLOv5模型。SSD模型和YOLOv3模型的平均精度比YOLOv5模型低,且參數量和浮點計算量比YOLOv5模型高。與SSD、Faster R-CNN模型相比,改進模型整體更具優勢,與原YOLOv5模型相比,雖然改進模型檢測單張圖片的時間增加了0.002 s,但是平均精度提升了3.0個百分點,且模型的參數量為5.5 M,浮點計算量為15.8,較改進前都有所降低。

為了更加直觀地反映本研究改進模型相對于原YOLOv5模型在檢測性能方面的提升效果,以及對復雜環境下密集遮擋的番茄患病葉片識別率的提高,使用測試集的樣本圖片進行測試分析,測試結果(圖11)表明,改進模型可以檢測出YOLOv5模型漏檢的部分遮擋葉片,并且改進模型的平均精度要高于YOLOv5模型。

3 討論

在實時檢測番茄患病葉片的過程中,為了克服自然環境下復雜背景和葉片遮擋對模型精度的影響,本研究提出了一種改進的YOLOv5檢測模型,改進模型對YOLOv5的網絡做出了合理的調整。首先,使用RepVGG模塊代替YOLOv5中主干網絡的卷積層,RepVGG模塊加強了主干網絡對番茄患病葉片的特征提取能力,改善了模型在復雜背景下對番茄患病葉片的檢測效果;其次,在頸部引入了CBAM注意力機制,CBAM注意力機制的加入使得網絡獲得了圖像的全局上下文信息,更加容易區分復雜背景和需要關注的目標對象區域,從而進一步提升了網絡模型在復雜背景下對被遮擋的番茄患病葉片的檢測效果;最后,本研究采用更加合理的損失函數SIoU,SIoU通過關注真實框和預測框的之間的方向性,使得算法在訓練過程中收斂得更快,且損失函數值更低,從而改善了模型的推理精度。研究結果表明,改進的YOLOv5模型的平均精度達到98.9%,模型單張圖片檢測用時為0.011 s,滿足實時檢測的要求,解決了自然環境下番茄病害葉片的檢測問題。

參考文獻:

[1] 周 蓉,趙統敏,趙麗萍,等. 高光澤番茄育種及果實表面光澤度[J]. 江蘇農業學報,2018,34(6):1437-1440.

[2] LI Y, NIE J, CHAO X. Do we really need deep CNN for plant diseases identification[J]. Computers and Electronics in Agriculture,2020,178:105803.

[3] 周惠汝,吳波明. 深度學習在作物病害圖像識別方面應用的研究進展[J]. 中國農業科技導報,2021,23(5):61-68.

[4] OZGUVEN M M, ADEM K. Automatic detection and classification of leaf spot disease in sugar beet using deep learning algorithms[J]. Physica A:Statistical Mechanics and Its Applications,2019,535:122537.

[5] WAHEED A, GOYAL M, GUPTA D, et al. An optimized dense convolutional neural network model for disease recognition and classification in corn leaf[J]. Computers and Electronics in Agriculture,2020,175:105456.

[6] LIU B, DING Z, TIAN L, et al. Grape leaf disease identification using improved deep convolutional neural networks[J]. Frontiers in Plant Science,2020,11:1082.

[7] 邵明月,張建華,馮 全,等. 深度學習在植物葉部病害檢測與識別的研究進展[J]. 智慧農業(中英文),2022,4(1):29-46.

[8] 張志遠,羅銘毅,郭樹欣,等. 基于改進YOLOv5的自然環境下櫻桃果實識別方法[J].農業機械學報,2022,53(增刊1):232-240.

[9] SINGH D, JAIN N, JAIN P, et al. PlantDoc: a dataset for visual plant disease detection[M]. New York:ACM,2020:249-253.

[10]LIU S, QI L, QIN H, et al. Path aggregation network for instance segmentation[C]. Salt Lake City:IEEE,2018.

[11]DING X, ZHANG X, MA N, et al. RepVGG:making vgg-style convnets great again[C]. Nashville:IEEE,2021.

[12]孫龍清,王泊寧,王嘉煜,等. 基于G-RepVGG和魚類運動行為的水質監測方法[J].農業機械學報,2022,53(增刊2):210-218.

[13]WOO S, PARK J, LEE J Y, et al. CBAM:convolutional block attention module[C]. Berlin:Springer,2018.

[14]ZHENG Z, WANG P, LIU W, et al. Distance-IoU loss: faster and better learning for bounding box regression[C]. Menlo Park:AAAI,2020.

[15]YU J, JIANG Y, WANG Z, et al. Unitbox:an advanced object detection network[C]. New York:ACM,2016.

[16]GEVORGYAN Z. SIoU loss:more powerful learning for bounding box regression[J]. ArXiv Preprint ArXiv,2022. DOI:10.48550/arXiv.2205.12740.

[17]HOU Q, ZHOU D, FENG J. Coordinate attention for efficient mobile network design[C]. Nashville:IEEE,2021.

[18]HU J, SHEN L, SUN G. Squeeze-and-excitation networks[C]. Piscataway:IEEE,2018.

[19]WANG Q, WU B, ZHU P, et al. ECA-Net:efficient channel attention for deep convolutional neural networks[C]. Seattle:IEEE,2020.

[20]REZATOFIGHI H, TSOI N, GWAK J Y, et al. Generalized intersection over union: a metric and a loss for bounding box regression[C]. Long Beach:IEEE,2019.

[21]ZHANG Y, REN W, ZHANG Z, et al. Focal and efficient IOU loss for accurate bounding box regression[J]. Neurocomputing,2022,506:146-157.

[22]LIU W, ANGUELOV D, ERHAN D, et al. SSD:single shot multibox detector[C]. Berlin:Springer,2016.

[23]REN S, HE K, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6):1137-1149.

[24]REDMON J, FARHADI A. YOLOv3: an incremental improvement[J]. ArXiv Preprint ArXiv,2018. DOI:10.48550/arXiv.1804.02767.

(責任編輯:王 妮)

收稿日期:2023-04-24

基金項目:河北省重點研發計劃項目(22370701D)

作者簡介:李仁杰(1997-),男,安徽蕪湖人,碩士研究生,研究方向為計算智能與無線網絡。(E-mail)2270464695@qq.com

通訊作者:宋 濤,(E-mail)songtao@hebut.edu.cn

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數據遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
利用網絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 大学生久久香蕉国产线观看| 免费无码一区二区| 亚洲精品无码AⅤ片青青在线观看| 99视频国产精品| 在线观看国产黄色| 欧美午夜视频在线| www.亚洲色图.com| 亚洲第一区欧美国产综合| a天堂视频| 熟妇无码人妻| 欧美在线天堂| 亚洲婷婷在线视频| A级毛片无码久久精品免费| 国产在线一区二区视频| 香蕉视频国产精品人| 国产精品无码AV中文| 日韩视频福利| 国产精品流白浆在线观看| 人妻少妇久久久久久97人妻| 欧美日一级片| 亚洲熟女中文字幕男人总站| 色悠久久久久久久综合网伊人| 欧美福利在线观看| 免费黄色国产视频| 人妻精品久久无码区| 久久91精品牛牛| 久久99蜜桃精品久久久久小说| 亚洲综合18p| 国产十八禁在线观看免费| 亚洲日韩图片专区第1页| 日本精品视频一区二区| 欧美日韩免费| 中文字幕亚洲第一| 成人国内精品久久久久影院| 久久特级毛片| 亚洲欧美极品| 日本人妻一区二区三区不卡影院| 99热在线只有精品| 9cao视频精品| 国产va免费精品观看| 亚洲一区色| 亚洲Aⅴ无码专区在线观看q| 国产一区二区三区免费观看| 中文字幕1区2区| 亚洲欧美激情小说另类| 亚洲视频三级| 日韩欧美中文字幕在线韩免费| 精品无码日韩国产不卡av| 伊人大杳蕉中文无码| аⅴ资源中文在线天堂| 久久国产精品无码hdav| 99国产在线视频| 美女视频黄又黄又免费高清| 婷婷色中文| 色噜噜中文网| 欧美日韩另类在线| 亚洲精品男人天堂| 三区在线视频| 日韩精品亚洲一区中文字幕| 全部免费毛片免费播放| 久久亚洲高清国产| 精品视频在线观看你懂的一区| 青青青国产精品国产精品美女| 精品久久久久久中文字幕女| 亚洲成a∧人片在线观看无码| 亚洲国产一区在线观看| 国产亚洲欧美在线中文bt天堂 | 精品久久777| 午夜免费视频网站| 日韩视频免费| 久草青青在线视频| 久久黄色小视频| 亚洲国内精品自在自线官| 特级做a爰片毛片免费69| 永久免费无码日韩视频| 欧美亚洲网| 国产乱肥老妇精品视频| 黄色网页在线播放| 91精品国产自产在线老师啪l| 日韩精品毛片| 久久人搡人人玩人妻精品| 日韩高清欧美|