宋懷波 王亞男 王云飛 呂帥朝 江 梅
(1.西北農(nóng)林科技大學(xué)機(jī)械與電子工程學(xué)院, 陜西楊凌 712100;2.農(nóng)業(yè)農(nóng)村部農(nóng)業(yè)物聯(lián)網(wǎng)重點(diǎn)實(shí)驗(yàn)室, 陜西楊凌 712100)
油茶樹(shù)是典型的長(zhǎng)效型經(jīng)濟(jì)油料作物[1],主要分布在我國(guó)南方的高山丘陵山地,是帶動(dòng)區(qū)域經(jīng)濟(jì)增長(zhǎng)的優(yōu)良樹(shù)種。搖枝振蕩式機(jī)械采收是目前最適合油茶果的采收方式,確定油茶果的疏密分布以確定振蕩采收的夾持區(qū)域,是研發(fā)自動(dòng)振蕩采收機(jī)械的關(guān)鍵技術(shù)之一[2],故實(shí)現(xiàn)復(fù)雜場(chǎng)景下油茶果果實(shí)目標(biāo)的高效識(shí)別意義重大。
油茶果果實(shí)具有體積小、分布密集等特點(diǎn),在自然環(huán)境下油茶果果實(shí)鄰接、重疊、遮擋普遍存在,且易受不同光照條件的影響,識(shí)別難度較大。目前,國(guó)內(nèi)外學(xué)者對(duì)果實(shí)目標(biāo)識(shí)別與定位進(jìn)行了大量研究[3-7]。劉天真等[8]提出了一種改進(jìn)的YOLO v3-SE模型進(jìn)行冬棗果實(shí)識(shí)別,與傳統(tǒng)的YOLO v3模型相比,該模型的綜合評(píng)價(jià)指標(biāo)提升了2.38個(gè)百分點(diǎn),平均精度均值(Mean average precision, mAP)提升了4.38個(gè)百分點(diǎn)。劉小剛等[9]將卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural networks, CNN)用于草莓果實(shí)的識(shí)別之中,成熟草莓識(shí)別準(zhǔn)確率為97.14%,未成熟草莓識(shí)別準(zhǔn)確率為96.51%。陳斌等[10]利用Faster-RCNN模型開(kāi)展了自然環(huán)境下油茶果檢測(cè)方法研究,平均識(shí)別率為92.39%,準(zhǔn)確率為98.92%,召回率為93.32%,綜合評(píng)價(jià)指標(biāo)為96.04%,平均每幅圖像的識(shí)別時(shí)間為0.21 s。李立君等[11]提出一種基于凸殼理論和顏色特征閾值分割法的遮擋油茶果定位檢測(cè)方法,相比傳統(tǒng)凸殼算法,該方法雖然耗時(shí)增加了24.07%,但識(shí)別率提升了7.47個(gè)百分點(diǎn)。張習(xí)之等[12]提出了一種基于改進(jìn)卷積自編碼機(jī)神經(jīng)網(wǎng)絡(luò)的油茶果圖像識(shí)別方法,利用非對(duì)稱(chēng)分解卷積核提升模型的訓(xùn)練速度,以輸出端重構(gòu)輸入端的直連訓(xùn)練方式減少了信息損失,提升了模型收斂性能,識(shí)別準(zhǔn)確率為90.4%,單幅圖像識(shí)別時(shí)間2 s。陳斌等[13]提出了基于歸一化傅里葉描述子、Hu不變矩特征和BP神經(jīng)網(wǎng)絡(luò)的油茶果識(shí)別方法,識(shí)別率提升了15%。
REDMON等[14-15]提出的YOLO系列神經(jīng)網(wǎng)絡(luò)算法具有識(shí)別速度快、精度高等特點(diǎn)[16-22]。YOLO v5s模型通過(guò)借鑒CutMix方法[23],并采用Mosaic數(shù)據(jù)增強(qiáng)方式,可有效解決模型訓(xùn)練中的小目標(biāo)問(wèn)題。本文擬選擇YOLO v5s作為油茶果目標(biāo)識(shí)別模型,利用訓(xùn)練好的YOLO v5s網(wǎng)絡(luò)實(shí)現(xiàn)油茶果目標(biāo)的快速精準(zhǔn)定位,以期為自然條件下油茶果目標(biāo)識(shí)別提供一種有效方法。
1.1.1油茶果數(shù)據(jù)采集與預(yù)處理
試驗(yàn)數(shù)據(jù)采集于湖南省衡陽(yáng)市衡南縣大三湘油茶種植基地,油茶果成熟果實(shí)多為紅色或紅黃色,未成熟果實(shí)為青黃色和青色,受到品種和種植環(huán)境影響,部分油茶果表面顏色差異較大,增加了識(shí)別難度,部分示例圖像如圖1所示。數(shù)據(jù)采集時(shí)間為2020年8月31日—9月12日,采集設(shè)備是華為HMA-AL00型相機(jī),分辨率為2 976像素×3 968像素,焦距35 mm。

圖1 不同顏色的油茶果Fig.1 Camellia oleifera fruit with different colors
為保證所制作數(shù)據(jù)集的多樣性,分別采集了白天、傍晚、遮擋、重疊、密集及逆光等環(huán)境下的油茶果圖像1 382幅及視頻5段,再?gòu)拿慷我曨l中隨機(jī)選取20幅圖像,共1 482幅圖像作為原始數(shù)據(jù),圖像分辨率為2 976像素×3 968像素。為了提高模型的泛化能力和魯棒性,對(duì)原始圖像進(jìn)行了數(shù)據(jù)增強(qiáng)以增加訓(xùn)練的基礎(chǔ)數(shù)據(jù)量。經(jīng)典的數(shù)據(jù)增強(qiáng)[24]方法包括:圖像翻轉(zhuǎn)、圖像旋轉(zhuǎn)、圖像縮放、圖像裁剪、圖像平移、添加噪聲和修改對(duì)比度等。選擇對(duì)部分圖像添加椒鹽噪聲和高斯噪聲進(jìn)行了數(shù)據(jù)集增強(qiáng),此操作可用來(lái)模擬特殊天氣和鏡頭不清晰等情況,通過(guò)引入噪聲點(diǎn)降低圖像的清晰度,有利于驗(yàn)證算法的魯棒性。圖2b是對(duì)圖2a原始圖像添加了2.5%椒鹽噪聲之后的圖像,圖2d是對(duì)圖2c原始圖像添加了12%高斯噪聲之后的圖像,可以看出圖像平滑度降低。同時(shí),增加了Mosaic拼接法,即將多幅待檢測(cè)圖像各截取一部分合成一幅圖像,隨即遮擋圖像部分進(jìn)行整體檢測(cè),這種方式能夠同時(shí)有效提升擾動(dòng)條件下模型的檢測(cè)準(zhǔn)確性,拼接結(jié)果如圖2e所示。

圖2 數(shù)據(jù)增強(qiáng)Fig.2 Data enhancement
1.1.2數(shù)據(jù)集制作
通過(guò)數(shù)據(jù)增強(qiáng)處理,結(jié)合所標(biāo)注的原始樣本,共獲得3 296幅圖像,按照比例4∶4∶1將圖像分為簡(jiǎn)單、中等和困難3個(gè)等級(jí):圖像平滑且果實(shí)稀疏無(wú)陰影遮擋為簡(jiǎn)單樣本,圖像果實(shí)密集或輕微遮擋或有陰影為中等難度樣本,圖像果實(shí)超密集或嚴(yán)重遮擋或嚴(yán)重噪聲、虛化為困難樣本。采用LabelImg工具進(jìn)行標(biāo)注,生成.xml標(biāo)簽文件。由于本研究?jī)H進(jìn)行油茶果果實(shí)目標(biāo)識(shí)別,因此在標(biāo)簽制作時(shí)只將圖像分為果實(shí)目標(biāo)與背景兩類(lèi),僅需標(biāo)注果實(shí)目標(biāo),圖像其他部分LabelImg自動(dòng)標(biāo)注為背景,數(shù)據(jù)保存為PASCAL VOC格式[25]。
為測(cè)試算法的有效性和環(huán)境適應(yīng)性,采集了695幅圖像作為測(cè)試樣本。在自然條件下進(jìn)行果實(shí)識(shí)別,影響因素主要為果實(shí)重疊或枝葉遮擋、果實(shí)密集程度、光照環(huán)境和圖像平滑度4方面,具體分類(lèi)如表1所示。果實(shí)輪廓或果實(shí)表面被遮擋1/3以下屬于輕微遮擋,2/3以上屬于嚴(yán)重遮擋;光照因素按照?qǐng)D像光線明暗進(jìn)行分類(lèi);圖像中目標(biāo)果實(shí)為1~3個(gè)屬于稀疏圖像,4~8個(gè)屬于密集程度中等,9個(gè)果實(shí)及以上屬于密集分布。果實(shí)數(shù)量增多會(huì)伴隨著拍攝距離增加和果實(shí)目標(biāo)變小的問(wèn)題;噪聲處理和虛化圖像導(dǎo)致圖像不清晰,進(jìn)一步增加了識(shí)別難度。

表1 測(cè)試集分類(lèi)Tab.1 Classification of test set
1.1.3試驗(yàn)平臺(tái)
本研究模型訓(xùn)練和測(cè)試均在同一環(huán)境下運(yùn)行,硬件配置為英特爾Xeon E5-1620 v4 @ 3.50 GHz四核,GPU為11 GB的NVIDIA GeForce RTX 2080Ti,32 GB運(yùn)行內(nèi)存,軟件環(huán)境為64位Windows 10系統(tǒng),PyTorch深度學(xué)習(xí)框架。本文對(duì)比算法均在該硬件環(huán)境下進(jìn)行。
1.2.1基于YOLO v5s的油茶果目標(biāo)識(shí)別算法
YOLO系列深度學(xué)習(xí)框架利用回歸的思想,以一階網(wǎng)絡(luò)直接完成目標(biāo)位置檢測(cè)和目標(biāo)物體分類(lèi)[26]。本試驗(yàn)基于YOLO v5s深度學(xué)習(xí)網(wǎng)絡(luò)實(shí)現(xiàn)油茶果的檢測(cè),經(jīng)過(guò)150輪訓(xùn)練得到最優(yōu)模型。為了檢測(cè)模型的優(yōu)良性,選擇當(dāng)下認(rèn)可度較高的YOLO v4-tiny和RetinaNet進(jìn)行對(duì)比試驗(yàn),用相同的數(shù)據(jù)集依次對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,分別得到其最優(yōu)模型。最后選取不同特征的低質(zhì)量圖像組成驗(yàn)證集對(duì)得到的模型分別進(jìn)行驗(yàn)證,通過(guò)相關(guān)指標(biāo)比較網(wǎng)絡(luò)性能,驗(yàn)證模型的有效性,具體操作過(guò)程如圖3所示。

圖3 試驗(yàn)流程圖Fig.3 Flow chart of experiment
1.2.2YOLO v5s網(wǎng)絡(luò)模型
YOLO v5s沿用了YOLO系列的整體布局,整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)分成Input、Backbone、Neck和Output 4部分,網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。在網(wǎng)絡(luò)輸入端自適應(yīng)縮放圖像,采用Mosaic數(shù)據(jù)增強(qiáng)方式,可自動(dòng)計(jì)算數(shù)據(jù)集的最佳錨框值。Backbone部分在YOLO v4-tiny基礎(chǔ)上增加了Focus結(jié)構(gòu)和CSPNet(Cross stage partial networks)結(jié)構(gòu),實(shí)現(xiàn)了跨階段局部融合網(wǎng)絡(luò)。Focus結(jié)構(gòu)共包含4次切片操作和1次32個(gè)卷積核的卷積操作,切片操作將1幅圖像中每隔1個(gè)像素取1個(gè)值,類(lèi)似于近鄰下采樣,得到4幅圖像,但是4幅圖像的信息并沒(méi)有丟失,而是將原圖像寬度W、高度H信息集中到了通道空間,輸入通道擴(kuò)充了4倍,即拼接圖像相對(duì)于原RGB 3通道模式變成了12個(gè)通道。然后將新得到的圖像進(jìn)行卷積操作,原始608×608×3的圖像變成信息完整的2倍304×304×32的特征圖。CSPNet結(jié)構(gòu)仿照DenseNet的密集跨層跳層連接思想,進(jìn)行局部跨層融合,利用不同層的特征信息獲得更為豐富的特征圖。Neck部分包含了路徑聚合網(wǎng)絡(luò)(Path aggregation network, PANet)[27]和空間金字塔池化(Space pyramid pooling, SPP)[28]模塊。自頂向下將高層特征信息與不同層CSP模塊的輸出特征進(jìn)行聚合,再通過(guò)自底向上路徑聚合結(jié)構(gòu)聚合淺層特征,從而充分融合不同層的圖像特征。SPP模塊采用1×1、5×5、9×9、13×13共4種不同的池化核進(jìn)行處理,處理后再進(jìn)行張量拼接。SPP處理可有效增加感受野,分離出顯著的上下文特征,同時(shí)不損失原有檢測(cè)速度。輸出層使用GIOU_Loss代替YOLO v3的IOU_Loss作為損失函數(shù),增加了相交尺度的衡量,緩解了IOU_Loss無(wú)法優(yōu)化2個(gè)框不相交的情況。

圖4 YOLO v5s網(wǎng)絡(luò)模型Fig.4 Network model of YOLO v5s
1.2.3對(duì)比算法及評(píng)價(jià)指標(biāo)
為了驗(yàn)證YOLO v5s模型的有效性和實(shí)用性,本試驗(yàn)采用相同的油茶果數(shù)據(jù)集與YOLO v4-tiny和RetinaNet網(wǎng)絡(luò)進(jìn)行了對(duì)比測(cè)試。選取精確率P(Precision)、召回率R(Recall)、調(diào)和平均值F1(F-measure)和平均精度均值(mAP)作為評(píng)價(jià)指標(biāo)進(jìn)行性能對(duì)比。
1.2.4權(quán)重模型訓(xùn)練
本試驗(yàn)共訓(xùn)練了150輪,權(quán)重模型序號(hào)記為1~150。每25輪取一個(gè)權(quán)重模型,加上P值最高的模型,共7個(gè)權(quán)重模型,模型評(píng)價(jià)指標(biāo)如表2所示。從表2可知,模型24綜合性能最差;模型49、74、99評(píng)價(jià)指標(biāo)逐漸變好,性能逐漸上升;模型124、149性能逐漸穩(wěn)定。模型134的F1值最高,說(shuō)明該模型綜合表現(xiàn)最好,油茶果目標(biāo)識(shí)別的準(zhǔn)確率為90.73%,召回率為98.39%,平均精度為98.71%,故選擇利用模型134進(jìn)行油茶果果實(shí)的識(shí)別。

表2 權(quán)值模型的性能比較Tab.2 Performance comparison of weight models %
通過(guò)用相同的數(shù)據(jù)集進(jìn)行訓(xùn)練和測(cè)試,YOLO v5s、YOLO v4-tiny和RetinaNet 3種網(wǎng)絡(luò)的最優(yōu)模型評(píng)估指標(biāo)如表3所示。從表3可以看出,YOLO v5s所占內(nèi)存空間最小,說(shuō)明其網(wǎng)絡(luò)更加簡(jiǎn)潔,模型具有更好的移植潛力。其他各評(píng)估指標(biāo)均優(yōu)于YOLO v4-tiny和RetinaNet 2種網(wǎng)絡(luò)。相比二者,YOLO v5s的P分別提高了1.99個(gè)百分點(diǎn)和4.50個(gè)百分點(diǎn),R分別提高了9.41個(gè)百分點(diǎn)和10.77個(gè)百分點(diǎn),mAP分別提高了9.48個(gè)百分點(diǎn)和10.79個(gè)百分點(diǎn)。

表3 評(píng)估指標(biāo)對(duì)比Tab.3 Comparison of evaluation indicators
測(cè)試時(shí)分別記錄了3個(gè)模型的檢測(cè)時(shí)間,并將每幅圖像的平均耗時(shí)作為其檢測(cè)速度。試驗(yàn)結(jié)果表明,針對(duì)單幅圖像,YOLO v5s檢測(cè)耗時(shí)12.7 ms,YOLO v4-tiny檢測(cè)耗時(shí)351.8 ms,RetinaNet檢測(cè)耗時(shí)338.5 ms。相比2種模型,YOLO v5s檢測(cè)速度明顯提升,時(shí)間分別降低了96.39%和96.25%,所占內(nèi)存空間分別減少124.84 MB和124 MB,表明YOLO v5s在速度方面更具優(yōu)越性,更有利于將其移植至邊緣設(shè)備中。
2.2.1遮擋目標(biāo)識(shí)別對(duì)比
為了進(jìn)一步探究YOLO v5s對(duì)遮擋問(wèn)題的處理能力,選取輕微遮擋和嚴(yán)重遮擋2種圖像各65幅,分別輸入2.1節(jié)得到的3個(gè)模型進(jìn)行檢測(cè),部分圖像的試驗(yàn)結(jié)果如表4所示。由表4可知,遮擋程度越大,檢出目標(biāo)的置信度越低。由于YOLO v5s采用了多層神經(jīng)特征網(wǎng)絡(luò)結(jié)構(gòu),對(duì)于更小的柵格預(yù)測(cè)更占優(yōu)勢(shì),輕微遮擋和嚴(yán)重遮擋情況下均無(wú)漏檢情況;YOLO v4-tiny在2種情況下也沒(méi)有漏檢;RetinaNet雖無(wú)漏檢,但嚴(yán)重遮擋情況下錯(cuò)檢1個(gè)。

表4 遮擋情況檢測(cè)結(jié)果對(duì)比Tab.4 Comparison of detection results under occlusion
對(duì)應(yīng)的檢測(cè)圖像如圖5所示,其中圖5a~5c為輕微遮擋圖像檢測(cè)結(jié)果,圖5d~5f為嚴(yán)重遮擋圖像結(jié)果。本研究檢測(cè)結(jié)果統(tǒng)一使用紅色方框標(biāo)記,未識(shí)別結(jié)果采用藍(lán)色方框標(biāo)記,誤識(shí)別結(jié)果采用藍(lán)色箭頭標(biāo)記。從圖5e和圖5f可以看出,YOLO v4-tiny和RetinaNet均存在定位不準(zhǔn)確、嚴(yán)重遮擋情況下無(wú)法識(shí)別出果實(shí)目標(biāo)等問(wèn)題。可見(jiàn),在果實(shí)目標(biāo)重疊或者嚴(yán)重被遮擋情況下YOLO v5s依舊能準(zhǔn)確分割果實(shí)邊緣,對(duì)于果實(shí)目標(biāo)預(yù)測(cè)取得了更好的效果。

圖5 遮擋情況圖像檢測(cè)結(jié)果對(duì)比Fig.5 Comparison charts of detection results under occlusion
2.2.2陰影圖像檢測(cè)對(duì)比
亮度對(duì)果實(shí)目標(biāo)識(shí)別的效果具有較大影響,昏暗環(huán)境下油茶果表面變得模糊,邊緣特征清晰度降低,果實(shí)目標(biāo)特征下降,增加了識(shí)別難度。為探究YOLO v5s對(duì)此類(lèi)問(wèn)題處理能力,選取逆光、陰天及光線不足環(huán)境下油茶果圖像共65幅輸入3個(gè)模型進(jìn)行測(cè)試。部分試驗(yàn)結(jié)果如圖6所示,其中不同部分圖像從上到下、從左到右依次記為1、2、3、4,對(duì)應(yīng)檢測(cè)結(jié)果如表5所示,4幅圖像中油茶果目標(biāo)分別是4、2、2、1個(gè)。由表5可以看出,YOLO v5s將目標(biāo)全部正確識(shí)別出,YOLO v4-tiny漏檢1個(gè),RetinaNet漏檢1個(gè)。從圖6b來(lái)看,雖然YOLO v4-tiny的單個(gè)置信度高,但其存在目標(biāo)定位不準(zhǔn)確的問(wèn)題。由此可以看出,在同樣的陰天或者傍晚環(huán)境下,YOLO v5s對(duì)油茶果目標(biāo)識(shí)別在準(zhǔn)確率和置信度上均更有優(yōu)勢(shì)。

圖6 逆光或昏暗環(huán)境圖像檢測(cè)結(jié)果對(duì)比Fig.6 Comparison charts of detection results in backlit or dim environment

表5 陰影、逆光情況檢測(cè)結(jié)果對(duì)比Tab.5 Detection results under shadow and backlight conditions
2.2.3小目標(biāo)密集圖像識(shí)別對(duì)比
為了驗(yàn)證YOLO v5s對(duì)密集小目標(biāo)的識(shí)別效果,選取不同密集程度的油茶果圖像共190幅分別輸入3個(gè)模型進(jìn)行檢測(cè)。部分檢測(cè)結(jié)果如圖7所示,其中前3幅為密集分布圖像,第4幅為超密集分布圖像,對(duì)應(yīng)的試驗(yàn)結(jié)果如表6所示。由表6可以看出,YOLO v5s的識(shí)別效果最好。對(duì)于果實(shí)密集分布的圖像,YOLO v5s漏檢5個(gè),錯(cuò)誤識(shí)別1個(gè);YOLO v4-tiny漏檢23個(gè),錯(cuò)誤識(shí)別1個(gè);RetinaNet漏檢22個(gè)。對(duì)于果實(shí)超密集分布的圖像,YOLO v5s漏檢6個(gè),YOLO v4-tiny漏檢26個(gè),RetinaNet漏檢26個(gè)。綜上可知,YOLO v5s在小目標(biāo)識(shí)別方面更具優(yōu)勢(shì),可用于密集小目標(biāo)識(shí)別之中。但也可以發(fā)現(xiàn),YOLO v5s在油茶果果實(shí)識(shí)別方面仍存在一定的不足:在識(shí)別小目標(biāo)且伴隨有果實(shí)超密集分布的圖像時(shí),存在個(gè)別漏檢情況。這是由于YOLO v5s神經(jīng)網(wǎng)絡(luò)通過(guò)多層卷積和池化等方式提取圖像特征,圖像的細(xì)節(jié)信息會(huì)隨著網(wǎng)絡(luò)深度的增加而有一定丟失。

圖7 果實(shí)密集、小目標(biāo)情況圖像檢測(cè)結(jié)果對(duì)比Fig.7 Comparison of detection results of dense fruits and small targets

表6 果實(shí)密集、小目標(biāo)情況檢測(cè)結(jié)果對(duì)比Tab.6 Comparison of detection results of dense fruits and small targets
2.2.4虛化及噪聲圖像檢測(cè)對(duì)比
為了探究YOLO v5s對(duì)模糊圖像的檢測(cè)能力,選取虛化、模糊和經(jīng)過(guò)噪聲處理后的圖像共130幅分別輸入3個(gè)模型進(jìn)行測(cè)試。部分檢測(cè)效果如圖8所示,對(duì)應(yīng)檢測(cè)結(jié)果如表7所示。由表7可以看出,YOLO v5s的識(shí)別效果最好,無(wú)漏檢;YOLO v4-tiny漏檢4個(gè);RetinaNet漏檢1個(gè)。結(jié)果表明,在識(shí)別不平滑圖像時(shí)YOLO v5s更有優(yōu)勢(shì),可以完整地檢測(cè)出目標(biāo)果實(shí),具有良好的魯棒性。

圖8 虛化、噪聲情況圖像檢測(cè)結(jié)果對(duì)比Fig.8 Comparison of detection results under blur and noise

表7 虛化、噪聲情況檢測(cè)結(jié)果對(duì)比Tab.7 Comparison of detection results under blur and noise
(1)本研究將YOLO v5s網(wǎng)絡(luò)用于油茶果的識(shí)別,經(jīng)過(guò)訓(xùn)練得到的最優(yōu)模型檢測(cè)的P為90.73%,R為98.38%,mAP為98.71%。與一階檢測(cè)算法YOLO v4-tiny和RetinaNet相比,模型P分別提高了1.96個(gè)百分點(diǎn)和4.47個(gè)百分點(diǎn),R分別提高了9.40個(gè)百分點(diǎn)和10.76個(gè)百分點(diǎn)。表明將YOLO v5s網(wǎng)絡(luò)用于油茶果目標(biāo)的識(shí)別是可行的。
(2)對(duì)比試驗(yàn)表明,YOLO v5s模型具有檢測(cè)精度高、抗干擾能力強(qiáng)的優(yōu)點(diǎn)。在果實(shí)重疊或大面積被遮擋,逆光或昏暗環(huán)境,密集小目標(biāo)等自然情況下都能達(dá)到良好的識(shí)別效果,在處理模糊、虛化、不平滑圖像時(shí)均可準(zhǔn)確識(shí)別定位果實(shí)目標(biāo)。
(3) YOLO v5s模型檢測(cè)速度快,檢測(cè)單幅圖像的平均耗時(shí)僅為12.70 ms,相比YOLO v4-tiny和RetinaNet 2種算法,時(shí)間分別降低了96.39%和96.25%。且模型體積小,具備更好的移植潛力。