






摘 要:基于視覺導(dǎo)航的森林移動(dòng)機(jī)器人具有機(jī)器人作為邊緣設(shè)備算力有限、導(dǎo)航效果受光照影響較大的問題。為此,提出一種輕量化的樹干檢測(cè)方法,該方法基于YOLOv7-tiny模型,采用可見光圖像與熱成像圖像作為輸入,導(dǎo)航效果受光照影響較小;同時(shí)采用基于部分通道卷積(Partial Convolution,PConv)的特征提取模塊-部分通道卷積高效層聚合網(wǎng)絡(luò)(Partial Efficient Layer Aggregation Networks,P-ELAN),對(duì)基準(zhǔn)模型進(jìn)行輕量化改進(jìn);在訓(xùn)練階段用alpha-CIoU損失函數(shù)替換原始的CIoU損失函數(shù),提高邊界框回歸的準(zhǔn)確性。結(jié)果表明,所提出的森林移動(dòng)機(jī)器人樹干檢測(cè)方法相較于原始YOLOv7-tiny模型參數(shù)量減少31.7%,計(jì)算量減少33.3%,在圖形處理器(Graphics Processing Unit,GPU)和中央處理器(Central Processing Unit,CPU)上的推理速度分別提升了33.3%和7.8%。修改后的模型在保持對(duì)樹干檢測(cè)精度基本不變的基礎(chǔ)上更加輕量化,成為部署在機(jī)器人等邊緣設(shè)備上的理想選擇。
關(guān)鍵詞:樹干檢測(cè); 森林移動(dòng)機(jī)器人; 目標(biāo)檢測(cè); 熱成像; 輕量化
中圖分類號(hào):S762;TP391.4 文獻(xiàn)標(biāo)識(shí)碼:A DOI:10.7525/j.issn.1006-8023.2024.04.012
Trunk Detection for Forest Mobile Robots Based on Deep Learning
HU Junfeng, ZHU Hao, HUANG Xiaowen, LI Baicong, ZHAO Yafeng*
(College of Computer and Control Engineering, Northeast Forestry University, Harbin 150040, China)
Abstract: Forest mobile robots based on visual navigation face the problem of limited computational power as edge devices and the navigation performance is greatly affected by illumination. To address this, a lightweight trunk detection method is proposed. This method uses visible and thermal image as inputs, minimizing the impact of illumination on navigation performance it also employs a feature extraction module based on Partial Convolution (PConv) and a Partial Efficient Layer Aggregation Network (P-ELAN) to achieve lightweight improvements to the baseline model. During training, the alpha-CioU loss function is used to replace the original CIoU loss function, increasing the accuracy of bounding box regression. The results show that the proposed tree trunk detection method for forest mobile robots reduces the parameter count of the original YOLOv7-tiny model by 31.7%, decreases computation by 33.3%, and improves inference speeds on Graphics Processing Units (GPU) and Central Processing Units (CPU) by 33.3% and 7.8%. The modified model maintains comparable accuracy while being more lightweight, making it an ideal choice for deployment on edge devices such as robots.
Keywords: Trunk detection; forest mobile robots; object detection; thermal image; lightweight
0 引言
森林移動(dòng)機(jī)器人在森林管理和保護(hù)中發(fā)揮著重要作用,廣泛應(yīng)用于森林資源監(jiān)測(cè)、野生動(dòng)物追蹤、森林火災(zāi)預(yù)防和監(jiān)測(cè)和環(huán)境數(shù)據(jù)收集等任務(wù)。然而,要想完成這些任務(wù),有效且可靠的導(dǎo)航必不可少。因此,研究森林移動(dòng)機(jī)器人的視覺導(dǎo)航問題具有重要意義。
孫上杰等[1]提出一種森林消防機(jī)器人路徑規(guī)劃方法,通過建立二維網(wǎng)格地圖,對(duì)復(fù)雜的環(huán)境進(jìn)行模擬,之后分別對(duì)強(qiáng)化學(xué)習(xí)和深度強(qiáng)化學(xué)習(xí)算法進(jìn)行仿真研究。楊松等[2]將蟻群算法引入森林防火移動(dòng)機(jī)器人的路徑規(guī)劃中,實(shí)現(xiàn)更強(qiáng)的全局搜索能力和較好的應(yīng)用價(jià)值。但這2種方法都基于全局環(huán)境信息已知這一前提條件,因此存在局限性。
森林環(huán)境本質(zhì)上是復(fù)雜且不可預(yù)測(cè)的[3]。如何進(jìn)行實(shí)時(shí)的環(huán)境判別成為一個(gè)重要的主題。一種做法是采用激光雷達(dá)(Light Detection and Ranging,LiDAR)系統(tǒng)對(duì)周圍環(huán)境進(jìn)行實(shí)時(shí)掃描,并根據(jù)激光的往返時(shí)間進(jìn)行精確距離測(cè)量。Malavazi等[4]通過點(diǎn)云處理激光雷達(dá)數(shù)據(jù)進(jìn)行農(nóng)作物和雜草檢測(cè),取得了不錯(cuò)的成果。然而,激光雷達(dá)提供的信息有限,因?yàn)槠鋬H捕獲距離和角度數(shù)據(jù),不能從中對(duì)感知到的物體進(jìn)行分類。另一種做法是使用相機(jī)作為導(dǎo)航系統(tǒng)的輸入設(shè)備。相機(jī)具備成本低且易于安裝的優(yōu)勢(shì),同時(shí)能提供豐富的信息。基于此,相機(jī)在導(dǎo)航系統(tǒng)中得到了廣泛的應(yīng)用。Takagaki等[5]使用相機(jī)提供的顏色信息,以及陰影和土壤紋理,成功區(qū)分可通行區(qū)域(犁溝)和不可通行區(qū)域(山脊)。森林移動(dòng)機(jī)器人全天候的工作內(nèi)容對(duì)應(yīng)著不同的光照條件,這對(duì)開發(fā)高效的機(jī)器人視覺系統(tǒng)提出重大挑戰(zhàn)[6]。而普通RGB相機(jī)對(duì)光照敏感,弱光照下其拍照精度可能降低[7]并導(dǎo)致目標(biāo)識(shí)別受損。與普通RGB相機(jī)不同,熱成像儀具有不受光照條件阻礙的檢測(cè)能力。Beyaz等[8]使用熱成像儀檢測(cè)樹干的內(nèi)部損壞,從而評(píng)估樹干的健康情況。因此將熱成像儀應(yīng)用于森林移動(dòng)機(jī)器人的導(dǎo)航是可行的。此外,人工智能和深度學(xué)習(xí)也被用于林業(yè)移動(dòng)機(jī)器人的視覺導(dǎo)航。Itakura等[9]將YOLOv2和ResNet-50用于使用城市街道圖像自動(dòng)檢測(cè)樹木。Xie等[10]提出利用Faster R-CNN進(jìn)行樹木檢測(cè)的注意力網(wǎng)絡(luò)。
為實(shí)現(xiàn)復(fù)雜光照環(huán)境下森林移動(dòng)機(jī)器人的視覺導(dǎo)航,本研究在強(qiáng)光照環(huán)境下使用可見光圖像,在弱光照或無光照條件下使用熱成像圖像來進(jìn)行樹干檢測(cè),使森林移動(dòng)機(jī)器人在各類光照條件下都能執(zhí)行自動(dòng)化任務(wù)。由于森林移動(dòng)機(jī)器人作為邊緣設(shè)備算力有限,提出一種改進(jìn)的YOLOv7-tiny模型,引入部分通道卷積并構(gòu)建輕量化的特征提取模塊P-ELAN,減少模型的參數(shù)和計(jì)算要求,使模型輕量化且硬件友好;同時(shí)引入alpha-CIoU損失函數(shù),提升邊界框預(yù)測(cè)的魯棒性,同時(shí)提高模型檢測(cè)的準(zhǔn)確性。
1 數(shù)據(jù)與方法
1.1 數(shù)據(jù)采集
本研究使用的數(shù)據(jù)最初來源于開源數(shù)據(jù)集ForTrunkDet,之后通過新采集的部分?jǐn)?shù)據(jù)對(duì)該數(shù)據(jù)集進(jìn)行補(bǔ)充。
1.1.1 開源數(shù)據(jù)集ForTrunkDet
Da silva等[11]提供一個(gè)包含2 895個(gè)可見光圖像和熱成像圖像的數(shù)據(jù)集。該數(shù)據(jù)集收集葡萄牙 3個(gè)不同森林地區(qū)的圖像:瓦隆古(41°11′22.09″ N,8°29′55.54″ W)、孔迪(41°21′14.22″ N,8°44′30.66″ W)和洛邦(40°59′05.10″ N,8°29′17.41″ W)。這3個(gè)林區(qū)主要由2種樹種組成,分別為桉樹和松樹。使用4臺(tái)攝像機(jī)進(jìn)行圖像采集,GoPro Hero6、FLIR M232、ZED Stereo 和 Allied Mako G-125。數(shù)據(jù)集結(jié)構(gòu)的詳細(xì)信息見表1。
1.1.2 自采數(shù)據(jù)
本研究使用iPhone14相機(jī)和海康威視LH15熱成像模組,采集東北林業(yè)大學(xué)城市林業(yè)示范基地(45°43'25.50″ N, 126°37'51.05″ E)的圖像并進(jìn)行人工標(biāo)注,對(duì)上述開源數(shù)據(jù)集進(jìn)行補(bǔ)充。補(bǔ)充數(shù)據(jù)集包括200張可見光圖像與100張熱成像圖像。
1.2 數(shù)據(jù)集預(yù)處理
根據(jù)對(duì)森林樹干檢測(cè)這一任務(wù)的適用性進(jìn)行篩選,消除存在缺陷的圖像,例如過度模糊的圖像或過度曝光的圖像。然后使用標(biāo)注工具LabelImg進(jìn)行人工標(biāo)注。
預(yù)選產(chǎn)生的原始數(shù)據(jù)集由3 195張圖像組成,其中包含2 229張可見光圖像,966張熱成像圖像,按9∶1的比例劃分為訓(xùn)練集和驗(yàn)證集。由于深度學(xué)習(xí)模型需要大量數(shù)據(jù)才能達(dá)到更高的準(zhǔn)確性,本研究通過模糊圖像、水平翻轉(zhuǎn)、更改色調(diào)和飽和度、更改圖像的對(duì)比度、向圖像添加高斯噪聲、將圖像旋轉(zhuǎn)-10°、將圖像旋轉(zhuǎn)+10°、縮放圖像的方法對(duì)原始訓(xùn)練集進(jìn)行增強(qiáng)。
1.3 樹干檢測(cè)方法
1.3.1 改進(jìn)的YOLOv7-tiny模型
作為目標(biāo)檢測(cè)領(lǐng)域經(jīng)典的網(wǎng)絡(luò)框架之一,YOLO算法已經(jīng)過多次迭代,實(shí)現(xiàn)精度和速度之間的最佳平衡。考慮到森林移動(dòng)機(jī)器人作為邊緣設(shè)備并不適合搭載高算力硬件,本研究選擇在YOLOv7算法[12]的輕量化分支YOLOv7-tiny的基礎(chǔ)上加以改進(jìn)。改進(jìn)后的YOLOv7-tiny算法由骨干網(wǎng)絡(luò)、頸部和檢測(cè)頭3大部分組成。
骨干網(wǎng)絡(luò)主要負(fù)責(zé)特征提取。本研究構(gòu)建算力友好的特征提取模塊(Partial Efficient Layer Aggregation Networks,P-ELAN),降低了特征提取時(shí)所需要的參數(shù)量和計(jì)算量。之后,提取到的特征在頸部通過空間金字塔池化模塊(Spatial Pyramid Pooling,SPP)和改進(jìn)的金字塔注意力網(wǎng)絡(luò)(Pyramid Attention Network,PAN)進(jìn)行融合。SPP模塊取代卷積層之后的常規(guī)池化層,可以增大感受野并獲得多尺度特征,且訓(xùn)練速度較為理想。PAN結(jié)構(gòu)有效地整合不同層次的特征圖,生成新的特征表示并增強(qiáng)檢測(cè)性能。檢測(cè)頭負(fù)責(zé)預(yù)測(cè)圖像特征、構(gòu)建邊界框、輸出用于檢測(cè)的特征圖,完成檢測(cè)過程的最后階段。
此外,在訓(xùn)練過程中,本研究放棄原始模型中所用的CIoU損失函數(shù),改用alpha-CIoU損失函數(shù)來提高邊界框回歸的準(zhǔn)確性。
1.3.2 改進(jìn)的特征提取模塊P-ELAN
ELAN模塊是一種高效的網(wǎng)絡(luò)結(jié)構(gòu),由多個(gè)卷積層組成,并控制梯度路徑以增強(qiáng)特征學(xué)習(xí)能力并增強(qiáng)魯棒性。其中每個(gè)卷積層都包括1次卷積、1次批量歸一化與1次激活。ELAN由2個(gè)分支組成:第1個(gè)分支通過一個(gè)1×1卷積改變通道數(shù);第2個(gè)分支依次通過1個(gè)1×1卷積和2個(gè)3×3卷積。每通過1個(gè)卷積便產(chǎn)生1個(gè)輸出,最終使用1個(gè)1×1卷積調(diào)整這些分支的4個(gè)輸出。
Chen等[13]提出部分通道卷積。該方法通過僅在選擇的輸入通道上執(zhí)行卷積運(yùn)算并直接傳輸剩余通道特征來減少特征圖中的計(jì)算冗余。為使模型更加輕量化從而便于部署,本研究基于最初的ELAN塊,使用部分通道卷積替換了2個(gè)標(biāo)準(zhǔn)3×3卷積,通過僅在部分輸入通道上執(zhí)行卷積運(yùn)算并保留其余通道的特征來減少特征圖中的計(jì)算冗余。改進(jìn)的特征提取模塊P-ELAN結(jié)構(gòu)如圖1所示。
1.3.3 改進(jìn)的損失函數(shù)alpha-CIoU
在訓(xùn)練過程中,引入了alpha-CIoU替換了原本的CIoU,其推導(dǎo)過程如下。
交并比(Intersection over Union,IoU,式中記為IoU)用于評(píng)估預(yù)測(cè)邊界框和真實(shí)邊界框之間的匹配程度。IoU僅考慮二者的位置重疊,而不考慮其位置和尺度偏差。因此,Zheng等[14]提出一種更精確的評(píng)估指標(biāo),稱為完備交并比(Complete Intersection over Union,CIoU,式中記為L(zhǎng)CIoU)。其表達(dá)式為
L_CIoU=S+D+V。 (1)
式中:S為重疊區(qū)域;D為距離;V為長(zhǎng)寬比。
S為原始IoU損失函數(shù),公式為
(S=1-I_oU )。 (2)
D通過計(jì)算預(yù)測(cè)框和真實(shí)框中心點(diǎn)之間的歐氏距離來測(cè)量邊界框之間的位置偏差,公式為
(D=(ρ^2 (p_p,p_t ))/c^2 )。 (3)
式中:ρ(pp,pt)為預(yù)測(cè)框中心點(diǎn)pp和真實(shí)框中心點(diǎn)pt之間的歐氏距離;c為目標(biāo)框與預(yù)測(cè)框最小包裹框的對(duì)角線長(zhǎng)度。
V測(cè)量邊界框之間的縱橫比偏差,是通過比較預(yù)測(cè)框和真實(shí)框的縱橫比獲得的,公式為
(V=4/π^2 ?(arctan(h_t/w_t )-arctan(h_r/w_r ) )^2 )。 (4)
式中:wt、ht、wr和hr分別為目標(biāo)框與預(yù)測(cè)框的寬與高。
最后,CIoU損失函數(shù)(LCIoU)可以表示為
(L_CIoU=1-I_oU+(ρ^2 (p_p,p_t ))/c^2 +β?V)。 (5)
式中,β取決于IoU。
He等[15]提出alpha-CIoU。計(jì)算公式(6)為
(L_(α-CIoU)=1-I_oU^α+(ρ^2α (p_p,p_t ))/c^2α +(β?V)^α )。 (6)
式中:α為超參數(shù),alpha-CIoU通過添加α超參數(shù),對(duì)原始的CIoU進(jìn)行了推廣。當(dāng)α=1時(shí),alpha-CIoU被還原為CIoU;當(dāng)α>1時(shí),相較于原始CIoU損失函數(shù),alpha-CIoU加重了高IoU值對(duì)象的損失和梯度,從而提高了邊界框回歸的準(zhǔn)確性;當(dāng)0<α<1時(shí),效果則相反,邊界框回歸的準(zhǔn)確性降低了。過往試驗(yàn)證明,α對(duì)于不同的模型或數(shù)據(jù)集并不太敏感,因此,本研究中α超參數(shù)取經(jīng)驗(yàn)值為3。
1.3.4 評(píng)價(jià)指標(biāo)
在本研究中,使用參數(shù)量和浮點(diǎn)運(yùn)算數(shù)(Floating Point Operations,F(xiàn)LOPs)來評(píng)估模型大小;使用平均精度均值(Mean Average Precision,mAP,式中記為mAP)在不同IoU閾值(0.5~0.95,步長(zhǎng)0.05)下的平均數(shù)即mAP@.5:.95來評(píng)估模型檢測(cè)精度;使用單張圖片推理時(shí)間來評(píng)估檢測(cè)速度。mAP被認(rèn)為是評(píng)估目標(biāo)檢測(cè)模型整體精度的重要指標(biāo),是其性能的可靠指標(biāo),計(jì)算公式為
m_AP=1/M ∑_(k=1)^M?〖A_P (k)〗×100%。 (7)
式中:AP為平均精度;M為類別總數(shù)。
2 結(jié)果與分析
2.1 試驗(yàn)環(huán)境搭建
試驗(yàn)選用Intel? Core? i7-13700K 3.4 GHz CPU,內(nèi)存128 G,顯卡為GeForce RTX 4090 24 G。使用Ubuntu 22.04系統(tǒng)搭建基于Python 3.10和Pytorch 2.0.0的深度學(xué)習(xí)框架。在訓(xùn)練過程中設(shè)置輸入分辨率為512×512,學(xué)習(xí)率為0.01,批量大小為128,訓(xùn)練迭代次數(shù)設(shè)置為100。
2.2 樹干檢測(cè)試驗(yàn)結(jié)果與分析
使用處理以后的數(shù)據(jù)集對(duì)改進(jìn)的YOLOv7-tiny模型進(jìn)行訓(xùn)練和驗(yàn)證,為驗(yàn)證各模塊對(duì)網(wǎng)絡(luò)性能的影響,進(jìn)行消融試驗(yàn),并與經(jīng)典網(wǎng)絡(luò)進(jìn)行對(duì)比。每輪訓(xùn)練后都進(jìn)行一次評(píng)價(jià)指標(biāo)和損失值的計(jì)算,經(jīng)過100輪訓(xùn)練后,得到以下試驗(yàn)結(jié)果。
2.2.1 消融試驗(yàn)
為驗(yàn)證引入的alpha-CIoU損失和改進(jìn)后的P-ELAN模塊對(duì)改進(jìn)YOLOv7-tiny模型的影響,在本研究數(shù)據(jù)集中進(jìn)行消融試驗(yàn)來分析每個(gè)成分的貢獻(xiàn)。為保證試驗(yàn)結(jié)果的可靠性,對(duì)每個(gè)模型重復(fù)試驗(yàn)3次,并選取3次試驗(yàn)結(jié)果的平均值作為最終結(jié)果,試驗(yàn)結(jié)果見表2,其中“√”代表該模塊被乘用。
在本研究中,alpha-CIoU首先單獨(dú)替換到原本使用CIoU的基線模型中,成功使mAP@.5:.95增加1.4%。隨后,單獨(dú)添加P-ELAN模塊導(dǎo)致mAP@.5:.95降低3.5%,同時(shí)模型參數(shù)量減少31.7%,計(jì)算量減少33.3%。當(dāng)兩者結(jié)合起來時(shí),模型的參數(shù)和計(jì)算成本減少了三分之一,而mAP@.5:.95僅減少1.9%。消融試驗(yàn)結(jié)果表明,P-ELAN模塊雖然可能導(dǎo)致檢測(cè)精度下降,但大大降低模型的計(jì)算復(fù)雜度,提高檢測(cè)速度。同時(shí),alpha-CIoU損失函數(shù)強(qiáng)化模型的訓(xùn)練過程,在不增加任何負(fù)擔(dān)的情況下獲得更好的精度。
由表2可知,雖然改進(jìn)后的YOLOv7-tiny模型在CPU和GPU上都比原始YOLOv7-tiny模型實(shí)現(xiàn)了更快的推理速度,但并不能確定本試驗(yàn)所提算法是否能夠在低功耗邊緣設(shè)備上保持或在多大程度上保持其推理速度優(yōu)勢(shì)。這是未來研究中可以進(jìn)一步探討的一點(diǎn)。
2.2.2 對(duì)比試驗(yàn)
為進(jìn)一步驗(yàn)證改進(jìn)YOLOv7-tiny算法在樹干檢測(cè)中的效果,在本研究數(shù)據(jù)集上將改進(jìn)YOLOv7-tiny與YOLOv4 tiny、SSD-ResNet50[16]、Faster R-CNN[17]進(jìn)行對(duì)比,試驗(yàn)結(jié)果見表3。
本研究提出的方法相對(duì)于其他經(jīng)典的目標(biāo)檢測(cè)算法,檢測(cè)精度提高6.3%~11.0%。試驗(yàn)結(jié)果表明,本研究方法在樹干檢測(cè)中表現(xiàn)出色,檢測(cè)精度很高。
2.2.3 可視化
圖2為一組驗(yàn)證集圖像,顯示本研究模型在識(shí)別樹干方面的識(shí)別效果。其中,圖2(a)和圖2(b)是可見光圖像,圖2(c)和圖2(d)是熱成像圖像。盡管圖2(d)圖背景中的塔與樹干相似,但本研究模型仍然成功地區(qū)分樹干和塔。但與此同時(shí),圖2(b)中的一些小樹干沒有被識(shí)別出來,這表明本研究模型在對(duì)小目標(biāo)的識(shí)別方面仍有提升空間。
3 結(jié)論
森林移動(dòng)機(jī)器人的視覺導(dǎo)航是林業(yè)自動(dòng)化過程的重要要求。因此,提出一種改進(jìn)森林移動(dòng)機(jī)器人直立樹干檢測(cè)方法。該方法引入部分卷積技術(shù)來創(chuàng)建獨(dú)特的P-ELAN塊,并通過alpha-CIoU損失函數(shù)增強(qiáng)YOLOv7-tiny。試驗(yàn)結(jié)果表明,改進(jìn)后的模型比未修改的YOLOv7-tiny更輕量化,參數(shù)量和計(jì)算量從6.0×106和13.2×109減少到4.1×106和8.8×109。因此,修改后的模型更適合機(jī)器人等邊緣設(shè)備,為開發(fā)森林移動(dòng)機(jī)器人視覺導(dǎo)航系統(tǒng)提供了強(qiáng)有力的支持。對(duì)比試驗(yàn)結(jié)果也表明,該方法優(yōu)于其他檢測(cè)器。
未來的工作將包括通過添加深度圖像來增加數(shù)據(jù)集,這些圖像對(duì)于影響探測(cè)器性能的森林中頻繁的光線變化具有魯棒性,并且除了樹干圖像之外還包括更多的森林物體圖像。此外,也會(huì)將這些模型集成到現(xiàn)有的森林機(jī)器人中,以執(zhí)行依賴于模型檢測(cè)的自主導(dǎo)航和其他任務(wù)。
【參 考 文 獻(xiàn)】
[1] 孫上杰,姜樹海,崔嵩鶴,等.基于深度學(xué)習(xí)的森林消防機(jī)器人路徑規(guī)劃[J].森林工程,2020,36(4):51-57.
SUN S J,JIANG S H,CUI S H,et al.Path planning of forest fire fighting robots based on deep learning[J].Forest Engineering,2020,36(4):51-57.
[2] 楊松,洪濤,朱良寬.改進(jìn)蟻群算法的森林防火移動(dòng)機(jī)器人路徑規(guī)劃[J].森林工程,2024,40(1):152-159.
YANG S,HONG T,ZHU L K.Forest fire prevention mobile robot path planning based on improved ant colony algorithm[J].Forest Engineering,2024,40(1):152-159.
[3] BERGERMAN M,BILLINGSLEY J,REID J,et al.Robotics in agriculture and forestry[J].Springer Handbook of Robotics,2016:1463-1492.
[4] MALAVAZI F B P,GUYONNEAU R,F(xiàn)ASQUEL J B,et al.LiDAR-only based navigation algorithm for an autonomous agricultural robot[J].Computers and Electronics in Agriculture,2018,154:71–79.
[5] TAKAGAKI A,MASUDA R,IIDA M,et al.Image processing for ridge/furrow discrimination for autonomous agricultural vehicles navigation[J].IFAC Proceedings Volumes,2013,46(18):47-51.
[6] ZHANG Y,CHEN H,HE Y,et al.Road segmentation for all-day outdoor robot navigation[J].Neurocomputing,2018,314:316-325.
[7] GUO Z,LI X,XU Q,et al.Robust semantic segmentation based on RGB-thermal in variable lighting scenes[J].Measurement,2021,186:110176.
[8] BEYAZ A,?ZKAYA M T.Canopy analysis and thermographic abnormalities determination possibilities of olive trees by using data mining algorithms[J].Notulae Botanicae Horti Agrobotanici Cluj-Napoca,2021,49(1):12139-12139.
[9] ITAKURA K,HOSOI F.Automatic tree detection from three-dimensional images reconstructed from 360° spherical camera using YOLO v2[J].Remote Sensing,2020,12(6):988.
[10] XIE Q,LI D,YU Z,et al.Detecting trees in street images via deep learning with attention module[J].IEEE Transactions on Instrumentation and Measurement,2019,69(8):5395-5406.
[11] DASILVA D Q,DOSSANTOS F N,SOUSA A J,et al.Visible and thermal image-based trunk detection with deep learning for forestry mobile robotics[J].Journal of Imaging,2021,7(9):176.
[12] WANG C Y,BOCHKOVSKIY A,LIAO H Y M.YOLOv7:Trainable Bag-of-freebies Sets New State-of-the-art for Real-time Object Detectors[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition.2023:7464-7475.
[13] CHEN J,KAO S,HE H,et al.Run,Don′t Walk:Chasing Higher FLOPS for Faster Neural Networks[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition.2023:12021-12031.
[14] ZHENG Z,WANG P,REN D,et al.Enhancing geometric factors in model learning and inference for object detection and instance segmentation[J].IEEE Transactions on Cybernetics,2021,52(8):8574-8586.
[15] HE J,ERFANI S,MA X,et al.Alpha-IoU:A family of power intersection over union losses for bounding box regression[J].Advances in Neural Information Processing Systems,2021,34:20230-20242.
[16] LIU W,ANGUELOV D,ERHAN D,et al.Ssd:Single Shot Multibox Detector[C]//Computer Vision-ECCV 2016:14th European Conference,Amsterdam,The Netherlands,October 11-14,2016,Proceedings,Part I 14.Springer International Publishing,2016:21-37.
[17] REN S,HE K,GIRSHICK R,et al.Faster r-cnn:Towards real-time object detection with region proposal networks[J].Advances in neural information processing systems,2015,39(6):1137-1149.