















摘要:
傳統的甘蔗蔗梢圖像分割算法步驟煩瑣、整體優化較為困難,采用在小樣本上仍表現優異的UNet網絡,將模型原有主干網絡替換為ResNet50來簡化模型訓練過程,上采樣部分用Ghost輕量級模塊替換普通卷積模塊以減少模型的參數量和浮點數計算量,同時在編碼器和解碼器之間加入SE注意力機制對提取到的特征權重進行優化,最終得到一個輕量級的RGE—UNet蔗梢分割模型。結合遷移學習的方法對模型進行訓練,將訓練完成的模型通過Canny算子與水平垂直投影法對蔗梢區域進行識別,并提取蔗梢分割路徑坐標。結果表明,基于RGE—UNet模型識別方法的平均像素準確率為94.98%,單張圖片分割時間為0.31s,分割速度較UNet與R50—UNet模型分別提高13.9%和18.4%。該模型能實現對蔗梢的快速準確識別,為甘蔗收割的自動化研究提供一定的技術參考。
關鍵詞:甘蔗蔗梢;路徑識別;語義分割;RGE—UNet;遷移學習
中圖分類號:S566.1; TP391.41
文獻標識碼:A
文章編號:2095-5553 (2025) 03-0188-07
收稿日期:2023年9月9日" 修回日期:2023年11月20日*
基金項目:廣西壯族自治區重大科技專項(桂科技字[2022]117號)
第一作者:沈中華,男,1970年生,廣西桂林人,博士,高級工程師;研究方向為虛擬樣機技術。E-mail: shenzh2627369@aliyun.com
Research on sugarcane shoot recognition based on RGE—UNet model
Shen Zhonghua1, Cheng Huqiang1, 2, Xia Aiqiang1, Li Han1
(1. Guilin University of Technology, Guangxi University Key Laboratory of Advanced Manufacturing and
Automation Technology, Guilin, 541006, China; 2. College of Intelligent Equipment,
Lanzhou University of Information Science and Technology, Lanzhou, 730700, China)
Abstract:
In response to the problems of cumbersome steps and difficulty in overall optimization of traditional image segmentation algorithms for sugarcane shoots, this paper adopts a UNet network, which performs well on small samples. The original backbone network of the model is replaced with ResNet50 to simplify the model training process. In the upsampling part, the Ghost lightweight module is used to replace the ordinary convolution module to reduce the number of model parameters and floating-point operations. An SE attention mechanism is added between the encoder and decoder to optimize the extracted feature weights. The result is a lightweight RGE—UNet sugarcane shoot segmentation model. Then, the trained model identifies the shoot region using the Canny operator and the horizontal/vertical projection methods and extracts the segmentation path coordinates. The experimental results show that the recognition method based on the RGE—UNet model achieves an average pixel accuracy of 94.98%, a segmentation time of 0.31 seconds per image, improving segmentation speed by 13.9% and 18.4% compared with the UNet and R50—UNet models, respectively. This model achieves fast and accurate recognition of sugarcane shoots and provides technical references for the automation of sugarcane harvesting.
Keywords:
sugarcane shoots; path recognition; semantic segmentation; RGE—UNet; transfer learning
0 引言
甘蔗是全球最重要的糖料作物之一,在我國南方種植廣泛,經濟地位極其重要[1]。目前,我國甘蔗收獲仍以人工收獲方式為主,機械化程度較低,其主要原因之一是機械化收獲的甘蔗含雜率較高,難以滿足國內糖廠的制糖工藝要求[2, 3]。成熟后的甘蔗尾梢含糖率低、蔗葉較嫩、含水率較高、葉鞘緊緊包裹著蔗莖,并且多個葉鞘彼此重疊,是機收時的主要雜物來源[4, 5]。由于受到多種因素的影響,成熟期的甘蔗高度不一,機收時甘蔗尾梢切割位置主要由機手肉眼判斷,且在收獲過程中不輕易調整,隨意性較大,從而導致甘蔗產量不能實現持續增長[6]。因此,利用機器視覺技術對蔗梢進行識別與定位有利于降低原料蔗含雜率。現有農業收獲機械中的目標識別與定位通常采用機器視覺及其相關技術進行實現[7],如在自動化采摘、作物品質分級、植物病害檢測等方面,機器視覺技術發揮著十分重要的作用,推動了傳統農業向自動化農業的轉型。
傳統圖像識別通常利用作物的形狀、顏色等特征實現作物與背景間的分割,如Liu等[8]為減少光照與枝葉遮擋對番茄識別的影響,提出一種適用于彩色規則圖像的番茄自動檢測算法,該方法利用梯度方向直方圖描述子訓練SVM分類器,通過由粗到細的掃描方法檢測番茄,并利用非極大值抑制法(NMS)對重疊結果進行合并,識別準確率達94.41%。Kadir等[9]提出了一種從復雜背景中檢測重疊芒果果實的方法,該方法通過紋理分析確定每個重疊果實的邊界,將實際邊界圖像轉換為二值圖,利用膨脹與腐蝕消除非目標物體,對分割結果采用隨機Hough變換進行擬合,搜索芒果果實的潛在區域,成功檢測出果實。張小花等[10]通過對柑橘圖像進行顏色空間轉換,利用Lab模型中a分量,基于Hough變換法對圖像中柑橘進行計數,實現對果園柑橘產量的預估,果實識別準確率達94.01%。趙博杰[11]利用Mask特征矩陣對茶葉的嫩芽與老葉進行判別,通過改進RANSAC算法,得到所識別芽葉的三維空間坐標,實現對茶葉嫩芽的自動分割、識別與定位。然而,以上采用傳統圖像處理方法的作物識別檢測,需對目標特征進行人工選取與分析,魯棒性較差、步驟較煩瑣、優化較為困難,在識別準確率方面依然有較大提升空間。而深度學習算法對圖像特征具有極強的表達能力,能通過數據本身特點來驅動特征進行自我學習,其魯棒性更好[12]。
因此,本文在原有UNet模型基礎上改進并提出一種基于RGE—UNet模型的甘蔗蔗梢識別方法,通過改變亮度、加入椒鹽噪聲及平滑處理對所拍攝到的成熟期甘蔗圖像進行擴充。利用輕量化改進后的UNet模型對甘蔗圖像進行分割,將分割后圖像進行輪廓篩選并提取蔗梢區域的像素坐標,通過試驗與原UNet模型及R50—UNet模型作對比,分析3種模型的優缺點。
1 材料與方法
1.1 數據集來源
甘蔗圖像的采集是蔗梢視覺識別的一個重要環節,其目的是將現實存在的目標物體轉化為圖像信息,再通過信號處理轉換成PC計算機能夠接收識別的數據。采用順華利的SHL-500W相機進行圖像采集工作,鏡頭采用與其配套的8mm定焦鏡頭。試驗所用計算機為Legion Y7000筆記本,運行內存為16G,采用Intel(R) i7-10750H處理器,GTX1650顯卡,基于Windows10的64位操作系統。
試驗照片拍攝于廣西柳州鹿寨縣甘蔗農場,采集對象為田間成熟甘蔗。針對不同天氣對試驗圖像的影響,在晴天、陰天兩種情況下各采集60張圖片,拍攝工作均在14:00后進行,所獲圖像分辨率均為800像素×600像素。
1.2 數據集處理
1.2.1 數據增強
將采集到的120張甘蔗圖像采用亮度、椒鹽噪聲及平滑處理等方式進行數據擴充,擴充后的圖像樣例如圖1所示。變亮和變暗是為了模擬自然環境中光照強度的變化,椒鹽噪聲的添加是模擬拍攝過程中脈沖信號的干擾,而平滑處理則是模擬甘蔗收割機因抖動拍攝產生的模糊,最終擴充后的數據集總計600張圖片,同時將數據集按照8∶1∶1的比例隨機劃分成訓練集、驗證集與測試集,其中訓練集為480張,驗證集為60張,測試集為60張。
1.2.2 圖像標注
為實現甘蔗圖像在語義分割模型中的像素級分類,使用Labelme軟件對甘蔗莖稈區域的邊緣輪廓進行標注,在標注過程中,將圖像中所有的標注信息均保存到與原圖對應的json文件中[13]。同時使用單通道圖的語義分割標簽圖,即將手動標注的標簽圖信息,采用單通道像素值的方式保存下來,最終得到模型所需要的數據訓練集。如圖2所示,莖稈區域為青藍色,蔗梢、天空等背景為白色。
1.3 模型評價指標
語義分割模型輸出分割圖的分割精度常采用平均交并比、交并比、平均像素精度作為評價指標。此外,為評估模型運行速度,增加了模型處理視頻圖像的速度指標。
1) 交并比。交并比IoU指標是語義分割的標注度量,能精確地表現出兩個像素點集合的交集與并集的占比情況[14]。平均交并比MIoU是對每個類別的交并比進行加權平均。IoU和MIoU計算如式(1)、式(2)所示。
IoU=∑ki=0Pii∑kj=0Pij+∑kj=0Pji-Pii×100%
(1)
MIoU=1k+1∑kj=0Pii∑kj=0Pij+∑kj=0Pji-Pii×100%
(2)
式中: k——類別數;
Pii——
預測正確的像素個數,即屬于i類預測為i類;
Pji——
預測正確的像素個數,即屬于j類預測為i類;
Pij——
預測正確的像素個數,即屬于i類預測為j類。
2) 類別像素準確率。像素準確率PA表示預測正確的像素個數占總體像素個數的比例。類別平均像素準確率mPA是單個類別預測正確的像素個數占該類別所有像素個數比例[15]。
PA=∑ki=0Pii
∑ki=0∑kj=0Pij×100%
(3)
mPA=1k+1∑ki=0Pii∑ki=0∑kj=0Pij×100%
(4)
類別平均像素準確率與平均交并比廣泛應用于語義分割模型的評估之中,二者指標值均介于0~1,指標值越接近于1,說明語義分割模型的分割效果越好。
1.4 試驗平臺
試驗選用的硬件配置為Intel(R) Core(TM) i7-10750H CPU,GTX1650 GPU,CUDA 10.2。運用Python 3.8.5語言進行編程,選用Anaconda作為環境管理軟件,基于Pytorch 1.10.0框架搭建語義分割模型。
2 基于RGE—UNet的蔗梢識別模型
2.1 UNet網絡模型介紹
當所屬樣本數據集較少,傳統卷積神經網絡進行訓練時,易造成過擬合、分割效果不佳等現象。為此,選擇UNet語義分割模型對甘蔗圖像進行處理。該網絡模型能夠使用較少的數據進行端對端的訓練,運行速度快、在復雜場景下具有更好的魯棒性。UNet結構如圖3所示。
UNet網絡由編碼、跳躍連接、解碼3部分構成。編碼過程包含4次下采樣操作,在數次下采樣過程中降低輸入圖像分辨率,獲取圖像局部特征,并做分類,得到抽象語義特征。整個下采樣過程由4個模塊構成,每個模塊在進行下采樣前有兩次3×3卷積操作,每次卷積操作后使用ReLU進行激活,再通過最大池化縮小特征圖尺寸[16]。每個模塊下采樣后,特征圖的通道數量增加1倍,經上述4次操作后得到大小為1024的特征圖。解碼部分包含4次上采樣操作,在數次上采樣過程中恢復到原分辨率,采用步長為2的反卷積擴大特征圖,后續操作同特征下采樣階段。在上采樣操作開始前,將跳躍連接引入編碼與解碼之間,并將兩側對應特征圖進行合并,最后輸出分割結果。
2.2 R50—UNet網絡模型的構建
由于UNet模型存在圖像特征提取信息不足,深層網絡訓練易導致梯度消失、梯度爆炸、模型參數量太大等缺陷。對UNet的編碼器部分(主干網絡)及上采樣卷積部分進行改進,利用ResNet網絡結構替換UNet模型主干網絡部分,極大地提高深度學習模型的傳輸效率,增加網絡層次,簡化模型訓練過程。
ResNet網絡能夠有效提高深度學習模型的傳輸效率,增加網絡層次,簡化模型訓練過程,主要包含有18層、34層、50層與101層等不同層級[16]。18層與34層ResNet網絡采用Basic模塊,50層及以上ResNet網絡采用Bottleneck模塊,Bottleneck模塊由Basic模塊改進而來。通過在ResNet50網絡中添加殘差塊,能夠實現輸入和輸出的直接相加,從而緩解梯度消失和過擬合的問題,提高模型網絡的性能和泛化能力。其數學模型如式(5)所示。
y=F(x)+x
(5)
式中: x——殘差塊的輸入;
y——殘差塊的輸出;
F(x)——
殘差塊內部的卷積層和激活函數的組合。
在反向傳播過程中,殘差塊可以傳遞如式(6)所示的梯度。
對現有甘蔗圖像數據來說,50層以上的ResNet網絡過深,會產生一定程度的過擬合現象。為得到輸入圖像更深層的語義信息,方便更好地分割目標,選用具有50層的ResNet50網絡作為UNet模型的編碼部分,其結構如圖4所示。
2.3 RGE—UNet網絡模型的構建
所構建的R50—UNet網絡模型的采樣模塊與UNet編碼部分相對應,為適應UNet語義分割網絡需求,在融合ResNet50網絡模型的基礎上,去除ResNet分類網絡的全連接輸出,在模型中加入SE注意力機制,同時用Ghost模塊替換上采樣中原有的卷積模塊,將改進后的網絡模型命名為RGE—UNet模型,網絡結構如圖5所示。
SE注意力機制是一種經典有效的輕量級模塊,能夠在眾多的輸入信息中聚焦當前任務更為關鍵的信息,減少甚至過濾對任務無關信息的關注度,解決輸入信息過載的問題[17],同時提高圖像分割、圖像識別等相關任務的效率與準確性。Ghost模塊是一種模型壓縮的方法,能夠用較少的網絡參數生成比原網絡更多的特征圖,在確保模型精度的同時,減少模型參數與計算量,從而提升計算速度,降低延時。
相比于原始模型,采用ResNet50網絡作為編碼部分能夠加速UNet模型的收斂,防止訓練過程中產生的梯度爆炸、梯度消失等問題。解碼器階段保留原有的解碼器結構,采用Ghost輕量模塊進行卷積,能減少模型的參數量和浮點數計算量。同時,在模型的編碼器與跳轉連接處添加注意力機制,確保模型能夠在該位置更好地捕捉細節信息,輔助網絡處理及傳送有效特征,抑制無效特征的傳輸,自適應選擇合適的特征。每次上采樣后通過兩次Ghost卷積操作調整特征圖通道數量,確保與下采樣特征圖拼接合并操作。
2.4 基于遷移學習的模型訓練過程
由于UNet模型的網絡結構復雜,模型的訓練執行時間較長。為提高RGE—UNet模型的特征提取能力、加快模型訓練速度,對ResNet50構成的主干網絡部分進行遷移學習,同時結合ImageNet圖像分割任務中的預訓練權重對甘蔗圖像進行訓練。圖6為結合遷移學習的RGE—UNet模型的訓練過程。
2.5 蔗梢分割路徑識別
2.5.1 莖稈區域邊緣的獲取
為獲取甘蔗蔗梢區域分割路線,采用邊緣檢測排除非目標區域。選用邊緣檢測算法中的Sobel算子和Canny算子對分割后的甘蔗圖像分別進行邊緣檢測對比。Sobel算子是利用像素點上下及左右鄰點灰度的加權差[18],通過像素值發生明顯變化來提供較為準確的圖像邊緣信息,其檢測圖像如圖7(b)所示。Canny算子具有定位準確、抗干擾能力強等優點。在甘蔗圖像中,首先,該算子利用高斯濾波針對甘蔗圖像存在的噪聲進行降噪處理;其次,計算圖像的一階梯度函數,并運用非極大值抑制的思想去除非邊緣點;最后,使用雙閾值對圖像進行分割[19],并將剩余的進行連接,檢測圖像如圖7(c)所示。可以看出,采用Canny算子獲得的蔗梢分割區域邊緣輪廓效果要優于Sobel算子,因此,選擇Canny算子作為蔗梢分割區域的邊緣檢測算法。
2.5.2 蔗梢分割路徑坐標提取
1) 水平垂直投影處理。由Canny算子邊緣檢測,可得到甘蔗蔗梢分割區域的路徑輪廓,但是圖中兩側還存在一些細小輪廓,為確保后續蔗梢分割點的提取,利用垂直投影方式獲取圖像的垂直分割,并畫出y軸方向投影圖[20]。如圖8(a)所示,篩選出y軸像素較少的部分,通過CopyMakeBorder函數將圖像的邊緣即像素較少部分進行填充(該函數可以在圖像邊緣周圍添加一個像素寬度的邊框,也可以在邊緣周圍添加一個特定的像素值邊框)。如圖8(b)所示,兩側及周圍的細小輪廓已被填充,使得圖像中僅存在蔗梢分割區域的外形輪廓,最終的蔗梢分割路線如圖8(c)所示。
2) 坐標提取。通過遍歷篩選輪廓后甘蔗圖像的所有像素點來提取分割路線的所有像素點,將圖像置于二維坐標圖中,根據像素坐標原理,圖像的左上角作為二維坐標原點,圖像的高為Y軸,寬為X軸,如圖9所示。
所提取的輪廓像素點坐標為(xi,yi),輪廓像素點的數量越多,表示分割路徑精度越高,表1為分割路線中5個不同部位像素點的坐標。
3 試驗對比與結果分析
通過蔗梢分割和路徑識別試驗,驗證提出的蔗梢識別方法在甘蔗數據集中的準確性和有效性,再結合3個模型的試驗對比結果來體現RGE—UNet模型的優越性。
3.1 模型訓練
為了加快模型訓練速度,訓練主要分為兩個階段。一是凍結訓練階段,即特征提取網絡部分不參與訓練,對模型的其余部分進行訓練,此階段訓練周期相對較短,設置為50,學習率初始值設置為0.0005,由于試驗條件限制,Batch_size設置為2。二是解凍訓練階段,特征提取網絡部分參與到訓練中,由于特征提取部分參數量大,需要的訓練周期較長。因此,將訓練周期設置為200,Batch_size設置2,學習率初始值設置為0.00005,損失函數為Focal Loss函數。為縮短模型訓練時長,加快模型收斂速度,使用Adam進行算法優化。
將各模型放置在同等條件下進行訓練,并記錄其每次迭代過程中的損失值,損失曲線如圖10所示。
由圖10可知,在前50個周期內模型進行凍結訓練,此時模型損失值下降至某一值后趨于穩定。在50個周期之后進行解凍訓練,特征提取網絡加入訓練中調整網絡參數,此時損失值繼續降低最終趨于穩定。由于R50—UNet的主干網絡深度比UNet深,因此,收斂速度比UNet慢,訓練結束時間更長。而RGE—UNet采用了Ghost卷積,其收斂速度比另外兩個模型更快,訓練結束時間更短。RGE—UNet損失函數曲線最終穩定值比UNet與R50—UNet損失函數曲線穩定值小,說明該模型預測值與真實值誤差最小,訓練效果較好。
3.2 模型性能驗證
為驗證RGE—UNet模型對甘蔗圖像的分割效果,分別對UNet分割模型及采用ResNet50作為主干網絡的R50—UNet模型進行訓練和模型性能評估。將收斂后的UNet、R50—UNet及RGE—UNet分別在驗證集上測試,圖11為甘蔗圖像的分割結果。由圖11可知,相比于標準UNet模型,ResNet50作為主干網絡的R50—UNet模型在特征提取方面效果明顯更好,而RGE—UNet更加適應甘蔗莖稈的顏色及外部特征,同時加入的SE注意力機制減少了蔗梢邊緣特征的丟失,能夠捕捉到莖稈與蔗梢的細微區別。
3.3 模型識別結果分析
UNet、R50—UNet、RGE—UNet 3個模型在測試樣本上的分割表現結果如表2所示。
UNet模型的像素準確率與交并比的平均值分別為92.17%、92.85%。主干網絡替換后,與UNet相比,R50—UNet平均像素準確率提高2.61%,平均交并比提升0.77%,與RGE—UNet模型基本持平,這說明UNet模型在主干網絡替換后提升分割性能。從單張圖片分割時間與模型大小來看,R50—UNet網絡參數更多,網絡層級更深,其分割速度慢于UNet及RGE—UNet。而由于Ghost卷積模塊的替換,RGE—UNet模型的分割速度與其余兩個模型相比,分別提高13.9%、18.4%,且RGE—UNet的參數量更少,分割效果在一定程度上優于以上兩個模型,因而更符合蔗梢區域分割的實際需求。
4 結論
1) 為實現甘蔗收獲機對蔗梢的準確切割,針對蔗梢圖像分割算法準確度不高等問題,在原有UNet模型基礎上,通過優化改進提出一種基于RGE—UNet模型的蔗梢區域分割方法。
2) 闡述UNet、R50—UNet、RGE—UNet的網絡結構,并結合遷移學習對RGE—UNet模型進行訓練,將訓練完成后的模型進一步處理,通過邊緣檢測、水平垂直投影方法獲取蔗梢分割路徑,遍歷輪廓像素點并打印蔗梢路徑像素坐標。
3) 通過UNet、R50—UNet、RGE—UNet 3個模型的對比試驗可知,RGE—UNet模型在甘蔗分割數據集上的分割效果最佳,能準確分割出蔗梢區域并且平均交并比可達93.52%,平均像素準確率為94.98%,單張圖片分割時間為0.31s。與其余兩個模型相比,RGE—UNet模型的分割速度分別提高13.9%、18.4%,且RGE—UNet的參數量更少。表明該模型具有更好的識別效果,對實現甘蔗收割的自動化具有較強的現實意義。
參 考 文 獻
[1] 肖威, 陸靜平. 甘蔗機械化收獲技術現狀分析[J]. 中國農機化學報, 2022, 43(2): 50-59, 142.
Xiao Wei, Lu Jingping. Analysis of sugarcane mechanized harvesting technology [J]. Journal of Chinese Agricultural Mechanization, 2022,43 (2): 50-59, 142.
[2] 羅菊川, 區穎剛, 劉慶庭, 等. 整稈式甘蔗聯合收獲機斷蔗尾機構[J]. 農業機械學報, 2013, 44(4): 89-94, 107.
Luo Juchuan, Qu Yinggang, Liu Qingting, et al. Tail-breaking mechanism of whole stalk sugarcane combine harvester [J]. Transactions of the Chinese Society for Agricultural Machinery, 2013, 44(4): 89-94, 107.
[3] Xie L, Wang J, Cheng S, et al. Optimisation and dynamic simulation of a conveying and top breaking system for whole-stalk sugarcane harvesters [J]. Biosystems Engineering, 2020, 197: 156-169.
[4] 謝盧鑫, 王俊, 程紹明, 等. 甘蔗收獲機剝葉斷尾系統的設計與轉速優化[J]. 農業工程學報, 2016, 32(6): 50-57.
Xie Luxin, Wang Jun, Cheng Shaoming, et al. Design and speed optimization of leaf-crushing and tail-breaking system of sugarcane harvester [J]. Transactions of the Chinese Society of Agricultural Engineering, 2016, 32(6): 50-57.
[5] 沈中華, 李尚平, 麻芳蘭, 等. 小型甘蔗收獲機喂入能力仿真與試驗[J]. 農業機械學報, 2014, 45(11): 117-123.
Shen Zhonghua, Li Shangping, Ma Fanglan, et al. Simulation and experiment on feed ability of small sugarcane harvester [J]. Transactions of the Chinese Society for Agricultural Machinery, 2014, 45 (11): 117-123.
[6] 麻芳蘭, 蔣紅梅, 李尚平, 等. 整稈式甘蔗收獲機剝葉斷尾機構設計與試驗[J]. 農業機械學報, 2012, 43(6): 73-78,7.
Ma Fanglan, Jiang Hongmei, Li Shangping, et al. Design and experiment on cleaning leaves and breaking tails mechanism of whole stalk sugarcane harvester [J]. Transactions of the Chinese Society for Agricultural Machinery, 2012, 43(6): 73-78, 7.
[7] 楊濤, 李曉曉. 機器視覺技術在現代農業生產中的研究進展[J]. 中國農機化學報, 2021, 42(3): 171-181.
Yang Tao, Li Xiaoxiao. Research progress of machine vision technology in modern agricultural production [J]. Journal of Chinese Agricultural Mechanization, 2021, 42(3): 171-181.
[8] Liu G X, Mao S Y, Kim J H. A mature-tomato detection algorithm using machine learning and color analysis [J]. Sensors, 2019, 19(9): 2023.
[9] Kadir M F A, Yusri N A N, Rizon M, et al. Automatic mango detection using texture analysis and randomised hough transform [J]. Applied Mathematical Sciences, 2015, 9(129): 6427-6436.
[10] 張小花, 馬瑞峻, 吳卓葵, 等. 基于機器視覺的果園成熟柑橘快速識別及產量預估研究[J]. 廣東農業科學, 2019, 46(7): 156-161.
Zhang Xiaohua, Ma Ruijun, Wu Zhuokui, et al. Fast detection and yield estimation of ripe citrus fruit based on machine vision [J]. Guangdong Agricultural Sciences, 2019, 46(7): 156-161.
[11] 趙博杰. 基于機器視覺的茶葉嫩芽識別關鍵技術研究[D]. 鞍山:遼寧科技大學, 2020.
Zhao Bojie. Tea bud segmentation and recognition based on machine vision [D]. Anshan: University of Science and Technology Liaoning, 2020.
[12] 韓振浩, 李佳, 苑嚴偉, 等. 基于U—Net網絡的果園視覺導航路徑識別方法[J]. 農業機械學報, 2021, 52(1): 30-39.
Han Zhenhao, Li Jia, Yuan Yanwei, et al. Path recognition of orchard visual navigation based on U—Net [J]. Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(1): 30-39.
[13] 張佳彬. 基于深度學習的頭足類動物角質顎色素沉積量化方法研究[D]. 上海: 上海海洋大學, 2022.
Zhang Jiabin. A quantitative method of pigmentation in beak of cephalopods based on deep learning [D]. Shanghai: Shanghai Ocean University, 2022.
[14] 朱成宇. 基于輕量級卷積神經網絡的水稻病害識別[D]. 南寧: 廣西大學, 2022.
Zhu Chengyu. Rice disease identification based on lightweight convolutional neural network [D]. Nanning: Guangxi University, 2022.
[15] 馬冬梅, 楊彩鋒, 李鵬輝. 多尺度特征融合的圖像語義分割[J]. 西北師范大學學報(自然科學版), 2020, 56(1): 44-50.
Ma Dongmei, Yang Caifeng, Li Penghui. Image semantic segmentation based on multiscale feature fusion [J]. Journal of Northwest Normal University (Natural Science), 2020, 56 (1): 44-50.
[16] 胡明玉. 基于深度學習的蘋果樹芽體圖像識別方法研究[D]. 北京: 中國農業科學院, 2021.
Hu Mingyu. Research on apple tree bud image recognition method based on deep learning [D]. Beijing: Chinese Academy of Agricultural Sciences, 2021.
[17] 鐘志峰, 何佳偉, 侯瑞潔, 等. 改進UNet的輕量化道路圖像語義分割算法[J]. 現代電子技術, 2022, 45(19): 71-76.
Zhong Zhifeng, He Jiawei, Hou Ruijie, et al. Lightweight road image semantic segmentation algorithm based on improved UNet [J]. Modern Electronics Technique, 2022, 45 (19): 71-76.
[18] 徐旭, 陳曦. 基于FPGA的sobel邊緣檢測算法的實現[J]. 電子測試, 2022, 36(23): 63-65.
Xu Xu, Chen Xi. Implementation of sobel edge detection algorithm based on FPGA [J]. Electronic Test, 2022, 36 (23): 63-65.
[19] 王嘉豪. 基于機器視覺的鋁車身缺陷特征在線檢測技術研究[D]. 天津: 天津理工大學, 2022.
Wang Jiahao. Research on on-line defect feature detection technology of aluminum body based on machine vision [D]. Tianjin: Tianjin University of Technology, 2022.
[20] 劉博一. 基于雙目立體視覺的焊縫定位方法研究[D]. 哈爾濱: 哈爾濱工業大學, 2018.
Liu Boyi. Research on weld location method based on binocular stereo vision [D]. Harbin: Harbin Institute of Technology, 2018.