999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

長絨棉棉鈴成熟度仿生類腦分類方法研究

2024-12-31 00:00:00崔高建李曉娟
中國農機化學報 2024年10期

摘要:快速準確識別長絨棉棉鈴成熟的不同階段,對長絨棉種植的智能化、裝備化管理具有重要意義。針對現有方法在長絨棉棉鈴成熟度分類辨識易受復雜棉田背景、陰影、強光和葉片遮擋等因素影響識別率低的問題,提出將模擬生物視覺皮層的信息處理機制與HMAX模型融合的類腦分類方法,實現大田環境下棉鈴不同成熟度的快速、高效識別。首先,采用相機獲取長絨棉不同成熟階段的圖像信息,以花鈴期、裂鈴期、吐絮期、停止生長期4個生長階段為對象,構建中小樣本的棉鈴數據集;其次,模擬視網膜神經節細胞的信息處理機制以提升HMAX模型的檢測速度與精度,提出基于改進HMAX模型的類腦識別算法;最后,為探究各模型在非清晰數據集上的表現,采用高斯模糊方法將測試集轉換6次,以HMAX、HHMAX、SHMAX作為對比,評估改進HMAX模型性能。試驗結果表明,在原始數據集下,改進HMAX模型的總體準確率為95.3%,相比于HMAX、HHMAX、SHMAX模型分別高出15.1、9.2和6個百分點;在錯誤分類中,由于吐絮期和停止生長期特征相似,造成錯誤識別的概率最大;在非清晰數據集下,HMAX、HHMAX以及SHMAX退化指數分別為8.21%、7.935%和11.21%,改進HMAX模型總體退化指數為5.92%。研究結果表明:在分類精度、模糊圖像輸入等方面,改進HMAX模型能夠較好地滿足實際生產中棉鈴不同成熟階段分類識別的實際需求。

關鍵詞:棉鈴成熟度;分類識別;改進HMAX模型;圖像處理;仿生類腦

中圖分類號:S792.91" " " 文獻標識碼:A" " " 文章編號:2095?5553 (2024) 10?0177?07

Research on bionic brain?inspired classification method for maturity of

long?staple cotton bolls

Cui Gaojian, Li Xiaojuan

(School of Mechanical Engineering, Xinjiang University, Urumqi, 830000, China)

Abstract: Rapid and accurate identification of different stages of long?staple cotton boll maturity is important for intelligent and equipped management of long?staple cotton cultivation. In order to address the problem that the existing methods in long?staple cotton boll maturity classification recognition are easily affected by complex cotton field backgrounds, shadow, bright light and leaf shading, this paper proposes a brain?like classification method that integrates the information processing mechanism of simulated biological visual cortex with the HMAX model to achieve fast and efficient recognition of different boll maturity in a large field environment. Firstly, a camera is used to obtain the image information of different maturity stages of long?staple cotton, and four growth stages, namely, the boll stage, boll splitting stage, linting stage and cessation stage, are used to build a small and medium?sized boll dataset. Secondly, the information processing mechanism of retinal ganglion cells is simulated to improve the detection speed and accuracy of the HMAX model, and a brain?like recognition algorithm based on the improved HMAX model is proposed. Finally, in order to explore the performance of each model on non?clear data sets, the test set was transformed six times by using the Gaussian fuzzy method, and HMAX, HHMAX and SHMAX were used as comparisons to evaluate the performance of the improved HMAX model. The experimental results showed that the overall accuracy of the improved HMAX model on the original test set was 95.3%, which was 15.1, 9.2 and 6 percentage points higher, respectively, compared with the HMAX, HHMAX and SHMAX models. In the misclassification, the probability of 1 identification was the highest due to the similarity of the characteristics of the situation and cessation growth periods. Under the non?clear data set, the degradation indices of HMAX, HHMAX and SHMAX were 8.21%, 7.935%, and 11.21%, respectively, and the overall degradation index of the improved HMAX model was 5.92%. The results show that the improved HMAX model can better meet the practical needs of classification and recognition of cotton boll at different maturity stages in actual production in terms of classification accuracy and fuzzy image input.

Keywords: cotton boll maturity; classification and recognition; improved HMAX model; image processing; bionic brain

0 引言

長絨棉纖維品質優良,是高端紡織品、特種紡織品不可或缺的原料,具有很高的經濟價值[1]。新疆作為我國唯一的長絨棉產區,其種植面積連年下滑,原因是目前長絨棉依舊依靠人工作業進行采摘工作,嚴重制約了長絨棉產業發展的高速健康發展[2]。長絨棉智能化、裝備化采收研究進程中,復雜棉田環境下的棉花快速檢測與識別是迫切需要解決的關鍵難點問題之一。

近年來,智慧農業發展較為迅速,大量研究利用圖像信息準確判斷作物生長情況,以估算作物產量[3, 4]。棉鈴成熟度識別對于管理作業質量、促進作物管理及時決策,從而精準獲取作物的生長發育信息,應用于棉花收獲和生育期觀測具有重要的現實意義[5]。

對于農作物發育階段檢測方面的研究,Liu等[6]提出了一種在圖像中檢測棉鈴的技術,其使用YCbCr顏色空間將棉鈴從分支和土壤中分割出來,準確率為90.44%。徐建鵬等[7]以水稻生育期識別為研究對象,采用了ResNet50網絡模型與RAdam優化算法相結合的方法,成功實現了水稻生育期的分類識別,并取得了高達97.33%的正確率。Chen等[8]利用OHTA顏色空間和支持向量機(SVM)分類器分割棉鈴,準確率為92.3%。此外,Li等[9]提出了一種基于區域的語義分割算法,用于檢測田間采集圖像中的棉鈴,平均準確率為99.4%。但以上方法中的場景并不十分復雜,且吐絮后的棉鈴與背景對比明顯。Sun等[10]提出了一種結合顏色和空間特征的雙閾值區域生長算法,用于從背景中分割棉鈴,并且開發了三種基于幾何特征的算法同時估計棉鈴數量,在棉鈴分割中取得了0.98的F1得分,在棉鈴檢測和計數中取得了83%的準確率。隨著計算機視覺的進步和圖形處理器(GPU)[11]大規模使用的普及,一些研究最近提出了基于深度學習的方法來識別棉花圖像中的感興趣區域。Xu等[12]提出了一種利用卷積神經網絡檢測和計數航空圖像中新開放棉鈴花數的方法,能夠通過使用移動圖像跟蹤和計數種植盆中生長的棉鈴。但大多數技術往往需要大量圖像數據以及高額的計算成本。仿生視覺是基于生物視覺系統的研究,通過學習生物視覺系統的處理方式和機制,降低對于樣本數量的依賴,并將其應用于計算機視覺領域中。這使得仿生視覺在復雜棉田環境下的成熟度檢測中具有很大優勢,其中以分層最大池化模型(Hierarchical Max?pooling model,HMAX)為典型算法,系統中的底層處理可以通過提取紋理特征來識別棉花的形狀和輪廓;中層處理可以通過檢測顏色和形狀等特征來判斷棉花的成熟度;而高層處理可以通過學習不同成熟度棉花的圖像特征來進一步提高檢測準確率,為復雜棉田背景下長絨棉成熟度檢測的研究提供了新視角。

HMAX模型是一種受人體目標識別系統啟發的模型。該模型最初由Riesenhuber等[13]首次引入,使用視覺皮層中的復雜和簡單細胞,從而提供了一條物體識別路徑。在已有研究的基礎上,Serre等[14]也提出了一個模型,稱為標準HMAX模型。傳統的HMAX模型有兩個主要缺點:第一個問題是S2層的處理進程非常耗時,因此該模型不適用于實時檢測。第二個問題是隨機提取patch的訓練過程,這可能會產生不確定性,導致產生重復和無意義的信息。因此,提取重復的patch而未捕獲其他信息,會極大地降低識別的準確性[15]。

本文將HMAX模型與模擬生物視覺皮層的信息處理機制相結合,以解決HMAX模型的計算信息冗余問題以及提升其檢測精度,通過模擬人類視網膜中的神經節細胞響應并利用注意力的選擇性機制濾除圖像中不必要的信息,突出圖像中更重要和更有意義的部分,并在S2層引入注意力函數來提高匹配速度,最后將提取的特征輸入支持向量機進行識別,為長絨棉成熟度分類的智能化研究提供技術支持。

1 材料與方法

1.1 數據來源

長絨棉的不同成熟階段有著不同的生長管理條件,其中裂鈴期和吐絮期作為棉田管理的重要時期,直接影響棉花產量和品質的形成。本研究以棉花關鍵發育階段前后的花鈴期、裂鈴期、吐絮期、停止生長期4個成熟度的精準分類為研究目標,以棉田背景下不同成熟階段的長絨棉圖像為研究對象。

試驗所用數據采集于新疆阿克蘇地區長絨棉基地(北緯40.639 2°,東經81.044 5°),選擇了3個區域作為棉鈴數據采集目標場地,每個區域15條棉壟組成,每條長約20 m。棉花圖像數據采集時間為2022年8—10月,涵蓋從棉鈴開花到停止生長的時期。拍攝設備選取Nikon Z5型號數碼相機,拍攝距離為50~100 cm,分別選取晴天和多云的天氣條件,同時在一天中的3個不同時間段收集圖像,即8:00—9:30(早晨時期的光照強度),12:00—14:00(強光照時期),17:00—19:30(黃昏時期的稍暗光照),數據集包含了自然條件下存在的遮擋、重疊、光照等問題。在去除掉嚴重噪聲和模糊的圖像以及沒有明顯棉鈴特征的圖像后,共收集到包含816幅圖像的棉鈴數據集。

1.2 數據集制作

從原始圖像數據集剔除邊界區域圖像與非目標作物圖像,同時經過旋轉、鏡像等操作增強數據集。經過以上數據增強,構建了包括3 229幅圖像的數據集,其中,花鈴期812幅、裂鈴期809幅、吐絮期802幅、停止生長期806幅。每次隨機每類抽取80張圖像作為訓練集70張作為測試集,以這種方式訓練所建模型可以幫助克服樣本誤差問題,從而提高模型的魯棒性和泛化能力。圖1為不同成熟度棉鈴的圖像樣本。

1.3 改進HMAX分類模型

通過視覺研究中的視覺注意力,對標準HMAX模型進行改進。引入視覺皮層處理機制過濾掉不必要的信息,突出顯示更重要和有意義的提取區域,提升S2層的匹配速度。然后,將提取到的顯著性圖像輸入S1層進行濾波處理,再經由C1層最大池化操作,S2層匹配以及C2圖像標識,最后將提取到的特征輸入支持向量機(SVM)進行識別分類。

1.3.1 視覺皮層處理機制

標準HMAX模型在S2層中對圖像所有信息進行匹配,存在計算成本較高以及匹配速度過慢等問題。本研究采用顯著性檢測降低信息處理量,處理流程如圖2所示。

1) 顏色空間轉換。首先將RGB轉換到XYZ空間,再轉換為LAB(亮度、綠—紅分量和藍—黃分量)空間,變換公式如式(1)、式(2)所示。

[XYZ=2.769 81.751 71.130 214.590 70.060 100.056 35.594 3RGB] (1)

[L=116h(YYw)-16A=500h(XXw)-h(YYw)B=200h(YYw)-h(ZZw)] (2)

其中,[Xw=95.04];[Yw=100.00];[Zw=108.89];[h(q)=q3" " " " " " " " " " " " " "q≥0.008 8567.787q+16116" " "q≤0.008 856]。

2) 選擇熵值最小的通道。圖像的熵值是表示圖像的視覺復雜程度的重要指標,如果熵值較小,則可以期望圖像中至少有一個突出的對象。如果熵值較大,則圖像為結構復雜的圖像。熵值計算如式(3)所示。

[E(L)=-l=1npllogpl] (3)

式中: [pl]——直方圖計算值l的似然值;

[n]——圖像直方圖中的最大值。

3) 模擬視網膜神經節細胞過濾?;谀M神經節細胞(RGCS)在人視網膜中的響應,對上階段獲得的圖像進行濾波?;谏韺W的發現,視網膜神經節細胞在視網膜中顯示出光強度的空間差異。這些感受野的興奮和抑制子區域是對稱的圓形區域。它們的形狀可以使用高斯差分(DoG)函數建模。通過定義不同的高斯核并計算其差異,生成DoG濾波器,模擬RGCs對圖像進行濾波。

4) 組合視網膜神經節細胞響應。在本文中,熵系數被用來合并包含視網膜細胞的圖像。在計算每個節細胞的熵之后,將得到的特征圖進行線性組合

[NewImage=a=12αaRes(foveal)a+" " " " " " " " " " " " " " " " " " "b=12βaRes(peripheral)b] (4)

式中: [a]、[b] ——ON、OFF通路;

[foveal]、[peripheral]——濾波結果。

[α(β)i=λij=14λj] (5)

[λj=1E(Resj)] (6)

式中: [j]——foveal/peripheral以及ON/OFF的反應指數;

[E(Resj)]——第[j]個熵系數;

[α(β)i]——第[i]個響應的權重。

5) 顯著圖像二值化。本文通過對生成的組合圖像進行二值化和進行形態學操作,從而識別高亮的對象。定義如下

[Tha=2W×Hx=0W-1y=0H-1S(x,y)] (7)

式中: [H]、[W]——顯著性區域的高度、寬度;

[S(x,y) ]——顯著圖。

在提取原始圖像的關鍵部分和去除不重要部分后,作為HMAX模型的輸入,即HMAX模型只接受具有高亮區域和去除背景部分的處理圖像。

1.3.2 HMAX模型

HMAX模型是受人類視覺識別系統啟發的檢測模型。該模型首先在文獻[13]中提出,利用了視覺皮層中的復雜和簡單細胞。圖3為HMAX模型的描述。該模型由順序卷積層(S)和池化層(C)組成。這些層代表視覺皮層中復雜和簡單的細胞。標準HMAX模型由四級層次結構組成。S1與V1中的簡單細胞相關,C1部分在V2中對復雜的單元格進行建模。在S2層中,發生圖案之間的匹配,最后在C2層中,利用最大化操作,獲得向量形式的圖像描述。在最后的步驟中,使用從圖像獲得的向量來執行分類操作(類似于IT操作)。這4個層被認為是卷積層、采樣層、匹配層和特征層[16]。

1) S1層。該模塊應用不同大小和方向的Gabor濾波器以模擬大腦皮層中簡單細胞活動,定義函數描述為

[gδ,λ,θ(x,y)=exp(-x02+γy022δ2)cos(2πx0λ)x0=xcosθ+ysinθy0=ycosθ-xsinθ] (8)

式中: [γ]——Gabor濾波器的橫縱比;

[δ]——Gabor濾波器的有效寬度;

[θ]——Gabor濾波器的方向;

[λ]——Gabor濾波器的波長。

該模塊將輸出為將輸入圖像[I]與一組Gabor濾波器進行卷積來獲得,如式(9)所示。Gabor濾波器結果如圖4所示。

[S1m,θ=gδ,λ,θ×I] (9)

式中: m——輸出的數目。

2) C1層。C1層的功能與視皮層V1區復雜細胞的功能有關。在此層中,執行最大池化操作。這意味著選擇局部鄰域中的S1層輸出圖的最大值。由于在前一階段(即S1)使用大小為7×37×37的濾波器,這些鄰域的大小將在8×8和22×22之間。在第二階段,對每個頻帶的兩個相鄰尺度執行最大化操作。

3) S2層。在S2層也稱匹配層中,該層使用高斯方法計算歐氏距離,來集成和過濾從C1層獲得的局部空間鄰域的結果特征圖與學習階段提取的單元之間的相似性。

[S2=exp(-φC1δ,θ-Pm2)] (10)

式中: S2——單元響應;

[φ]——指數函數的銳度;

[C1δ,θ]——在特定尺度下從[C1]層獲取的圖像區塊;

[Pm]——學習階段存儲的第[m]個圖像區塊。

4) C2層。在該層中,選擇匹配層中的最大值作為每個輸入圖像特征圖的特征,通過計算該最大值,獲得提取的圖像區塊和輸入圖像之間的相似度作為C2層的輸出。

2 試驗設計

2.1 試驗流程

本試驗的算法處理平臺為高性能計算機,搭載Windows11系統,所提出的模型和對比模型的訓練和測試都是在MATLAB R2018B平臺下進行的,CPU為Intel Core i5-12400FCPU2.50 GHz和16 RAM。

棉鈴成熟度分類模型訓練步驟如下:(1)使用數據增強方式,對采集到的長絨棉棉鈴進行數據增強,模擬復雜棉田環境下不同檢測角度。(2)構建改進HMAX檢測模型,引入基于仿生視覺的視覺皮層處理機制,提取二值化的顯著性圖像,輸入分類模型進行訓練。(3)輸入測試集中的棉鈴圖像,獲得棉鈴成熟度分類模型的指標評價的檢測結果。(4)對測試圖像進行6次高斯模糊處理(高斯半徑分別為1,2,…,6),觀察不同模型對非清晰圖像的識別效果。

完成改進HMAX模型訓練測試后,為了分析標準HMAX、HHMAX[17]、SHMAX[18]三種模型的性能表現,按照步驟3和步驟4,依次訓練上述3種模型,并與本文改進的HMAX模型的結果進行對比。

2.2 高斯模糊

為了評估分類模型對于質量差異較大的圖像的適應性,采用高斯模糊的方法來降低測試集圖像的清晰度。在這個過程中,每個像素的值被計算為其周圍像素的加權平均值,其中權重由高斯核中對應位置的值決定。通過調整高斯核的大小和形狀,可以控制模糊程度和細節損失的程度,如式(11)所示。

[G(u,v)=12πσ2e-(u2+v2)(2σ2)r2=u2+v2] (11)

式中: [u]——距起始像素點的水平距離;

[v]——距起始像素點的垂直距離;

[r]——模糊半徑;

[σ]——正態分布的標準偏差。

對測試集中長絨棉棉鈴圖像進行高斯模糊處理,降低測試集圖像質量,模糊半徑r取1~6,高斯模糊處理后結果如圖5所示。

2.3 評價指標

本文使用支持向量機(SVM)對測試圖像進行分類。為了評估分類性能,本文采用了準確率(Accuracy)、精確度(Precision)、召回率(Recall)和特異度(Specificity)這四個指標。準確率表示模型正確分類的棉鈴圖像數占總圖像數的比例。準確率越高,模型的分類能力越好。精確度是指模型預測為正例的樣本中,實際為正例的樣本數占預測為正例的樣本數的比例。召回率指實際為正例的樣本中,模型預測為正例的樣本數占實際為正例的樣本數的比例。特異度指在真正不屬于某一成熟度的圖像中,被分類為非該成熟度的比例。計算如式(12)~式(15)所示。

[Accuracy=TP+TNTP+TN+FP+FN×100%] (12)

[Precision=TPTP+FP×100%] (13)

[Recall=TPTP+FN×100%] (14)

[Specificity=TNTN+FP×100%] (15)

式中: [TP]——正確預測為某一成熟度的樣本數量;

[TN]——正確預測為非某一成熟度的樣本數量;

[FP]——錯誤地預測為某一成熟度的樣本數量;

[FN]——錯誤地預測為非某一成熟度的樣本數量。

同時,為反映各模型在6個模糊集上的性能水平,本文通過總體退化指數、退化均衡度、平均退化指數以及最大退化準確率等評價指標進行模型抗干擾測試。

3 結果與分析

3.1 顯著目標提取

首先RGB轉換為LAB通道,如圖6所示,再選取熵值最低的通道,通常灰度直方圖的峰值與圖像的熵值密切相關,選取熵值最小的有利于突出物體在雜亂背景中的重要性。不同成熟度示例圖像的LAB通道的熵值,如表1所示。

再將熵值最低的通道圖像輸入DoG中模擬視網膜神經節細胞過濾,由模擬視網膜神經節細胞組合最后將顯著圖像二值化。顯著性目標提取示例如圖7所示。

3.2 模型性能對比與分析

本文對每類目標隨機選取80張圖像進行訓練,隨機選取70張圖像作為測試圖像,試驗重復10次并取平均值。表2為改進的模型以及現有模型HMAX的平均性能。改進模型在吐絮期的精確度達到96.2%;改進模型的召回率在停止生長期上表現稍差,均在91.1%以下,這表明對停止生長期的誤判較多;改進模型的特異度在花鈴期達到94.3%;改進模型的各項評價指標相較于經典HMAX模型都有較大的提升。綜上,改進HMAX模型適用于長絨棉棉鈴成熟度分類識別任務。

為了測試模型的分類精度以及識別效率,將改進模型與其他HAMX改進模型進行了對比,如表3所示。由于改進模型引入視覺注意力機制過濾到不必要的信息,突出顯示更重要和有意義的提取區域,提升S2層的匹配速度,表3中本文所使用改進模型的識別效率高于HMAX模型以及其他改進模型。

圖8為改進HMAX模型在測試集上的混淆矩陣,可以發現最佳分類成熟期為花鈴期,出現兩幅圖像的分類錯誤,吐絮期分分類效果最差,原因在于吐絮期與裂鈴期以及停止生長期界限較小,分類難度較大。

3.3 模型退化性能分析

對于進行復雜棉田背景下長絨棉棉鈴成熟度分類的檢測模型,其需要較強的抗干擾能力以降低棉田環境中的風沙、遮擋以及不良光照造成的模型性能退化。圖9為各模型在不同模糊半徑下的分類準確率,總體為隨著模糊半徑的增加,各模型的分類準確率均呈現為有所下降。由表4可知,HMAX模型的最大退化準確率最小,為72.3%,總體退化指數為8.21%。HHMAX模型的總體退化指數為7.93%,退化均衡度為3.17%。SHMAX的總體退化指數達到了11.21%,并且退化均衡度為4.31%,是退化最嚴重的模型。本文的改進HAMX模型最大退化準確率為89.1%,高出其他對比檢測模型,退化均衡度、平均退化指數以及總體退化指數均高于其他對比模型。以上結果表明,在圖像質量不佳或是存在較大噪聲時,改進HMAX模型仍能較好地學習到圖像特征,具有更好的分類性能。

4 結論

本文以復雜棉田背景下的長絨棉棉鈴為研究對象,受人類視覺系統中注意力機制的啟發,提出一種應用于智能監測系統的長絨棉成熟度分類方法,解決自然環境下長絨棉分類精度差的問題并有效降低分類模型的計算成本。

1) 通過引入視覺皮層處理機制,保留圖像中的重要信息并用于后續處理,通過此方法可以降低計算成本,同時由于突出被檢測對象,改進模型識別精度也大大提高。結果表明,改進HMAX模型總體識別率達到95.3%,相比經典HMAX、HHMAX和SHMAX模型的識別精度分別高出15.1、9.2和6個百分點,改進模型的識別速度相較于其他模型也得到顯著提升,可為智能化棉田管理提供準確分類支持。

2) 評估不同模型在不同清晰度下的性能退化程度。試驗結果表明,改進后的HMAX模型在模糊數據集上表現最佳,其最大退化準確率、退化均衡度、平均退化指數和總體退化指數分別為89.1%、3.04%、1.18%和5.92%。該模型在模糊數據集上仍能夠相對準確地完成分類任務,可有效解決分類模型在實際應用中由于圖像質量不佳而導致準確率下降的問題。

參 考 文 獻

[ 1 ] 鄭子漂, 徐海江, 林濤, 等. 新疆長絨棉育成品種演變趨勢及綜合評價[J]. 中國農業大學學報, 2022, 27(6): 55-70.

Zheng Zipiao, Xu Haijiang, Lin Tao, et al. Evolution trend and comprehensive evaluation of growing varieties of long staple cotton in Xinjiang [J]. Journal of China Agricultural University, 2022, 27(6): 55-70.

[ 2 ] 李亞楠. 基于視覺的棉花發育狀態自動檢測技術研究[D]. 武漢: 華中科技大學, 2018.

[ 3 ] 段宇飛, 孫記委, 王焱清, 等. 基于改進卷積神經網絡的油茶果殼籽分選方法[J]. 農業工程學報, 2023, 39(3): 154-161.

Duan Yufei, Sun Jiwei, Wang Yanqing, et al. Sorting camellia oleifera husk and seed using an improved convolutional neural network [J]. Transactions of the Chinese Society of Agricultural Engineering, 2023, 39(3): 154-161.

[ 4 ] 劉平, 劉立鵬, 王春穎, 等. 基于機器視覺的田間小麥開花期判定方法[J]. 農業機械學報, 2022, 53(3): 251-258.

Liu Ping, Liu Lipeng, Wang Chunying, et al. Determination method of field wheat flowering period baesd on machine vision [J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(3): 251-258.

[ 5 ] Zhang Y, Yang G, Liu Y, et al. An improved YOLO network for unopened cotton boll detection in the field [J]. Journal of Intelligent amp; Fuzzy Systems, 2022, 42(3): 2193-2206.

[ 6 ] Liu J, Lai H, Jia Z. Image segmentation of cotton based on YCbCcr color space and fisher discrimination analysis [J]. Acta Agronomica Sinica, 2011, 420(2): 274-281.

[ 7 ] 徐建鵬, 王杰, 徐祥, 等. 基于RAdam卷積神經網絡的水稻生育期圖像識別[J]. 農業工程學報, 2021, 37(8): 143-150.

Xu Jianpeng, Wang Jie, Xu Xiang, et al. Image recognition for different developmental stages of rice by RAdam deep convolutional neural networks [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(8): 143-150.

[ 8 ] Chen Q Z, Lai H C, Wang X, et al. An cotton image segmentation algorithm based on support vector machine [J]. Computer Engineering, 2013, 39(5): 266-269.

[ 9 ] Li Y, Cao Z, Lu H, et al. In?field cotton detection via region?based semantic image segmentation [J]. Computers and Electronics in Agriculture, 2016, 127: 475-486.

[10] Sun S, Li C, Paterson A H, et al. Image processing algorithms for infield single cotton boll counting and yield prediction [J]. Computers and Electronics in Agriculture, 2019, 166: 104976.

[11] Patrício D I, Rieder R. Computer vision and artificial intelligence in precision agriculture for grain crops: A systematic review [J]. Computers and Electronics in Agriculture, 2018, 153: 69-81.

[12] Xu R, Li C, Paterson A H, et al. Aerial images and convolutional neural network for cotton bloom detection [J]. Frontiers in Plant Science, 2018, 8: 2235.

[13] Riesenhuber M, Poggio T. Hierarchical models of object recognition in cortex [J]. Nature Neuroscience, 1999, 2(11): 1019-1025.

[14] Serre T, Wolf L, Bileschi S, et al. Robust object recognition with cortex?like mechanisms [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007, 29(3): 411-426.

[15] Shariatmadar Z S, Faez K. A data?driven and biologically inspired preprocessing scheme to improve visual object recognition [J]. Computational Intelligence and Neuroscience, 2021, 2021: 1-13.

[16] Ruigang F, Biao L, Yinghui G, et al. Accelerated HMAX model based on improved SIFT feature points [C]. 2015 IEEE International Conference on Grey Systems and Intelligent Services (GSIS). IEEE, 2015: 485-489.

[17] Norizadeh Cherloo M, Shiri M, Daliri M R. An enhanced HMAX model in combination with SIFT algorithm for object recognition [J]. Signal, Image and Video Processing, 2020, 14: 425-433.

[18] Sufikarimi H, Mohammadi K. Role of the secondary visual cortex in HMAX model for object recognition [J]. Cognitive Systems Research, 2020, 64: 15-28.

主站蜘蛛池模板: 国产精品9| 亚洲国产欧美自拍| 91香蕉视频下载网站| 亚洲天堂精品在线观看| 亚洲中文字幕在线精品一区| 欧美日韩精品综合在线一区| 人妻一本久道久久综合久久鬼色| 青青草欧美| 中文字幕乱妇无码AV在线| 国产精品专区第一页在线观看| 97国产精品视频自在拍| 亚洲视频三级| 在线一级毛片| 四虎成人精品| 成人在线综合| 麻豆国产精品| 人妻丰满熟妇av五码区| 国产精品xxx| 免费在线色| 日韩欧美中文在线| 亚洲视频免费播放| 精品国产免费观看| 国产在线精品香蕉麻豆| 中文字幕av无码不卡免费| 中文国产成人久久精品小说| 中文成人无码国产亚洲| 精品伊人久久久香线蕉| 亚洲av无码片一区二区三区| 免费中文字幕一级毛片| 尤物午夜福利视频| 极品尤物av美乳在线观看| www.日韩三级| 国产白浆在线| jizz亚洲高清在线观看| 69免费在线视频| 日韩精品无码免费一区二区三区| 国产97视频在线| 亚洲AV免费一区二区三区| 亚国产欧美在线人成| 草草影院国产第一页| 国产综合日韩另类一区二区| 婷婷激情亚洲| 91精品亚洲| 青青青视频免费一区二区| 激情综合网激情综合| 亚洲天堂啪啪| 日韩精品成人在线| 99精品视频在线观看免费播放| 伊人久久精品无码麻豆精品| 国产自视频| 国产极品粉嫩小泬免费看| 2021国产精品自产拍在线| 国产老女人精品免费视频| 午夜一级做a爰片久久毛片| 天堂网亚洲系列亚洲系列| 福利小视频在线播放| 欧美成人精品在线| 97se亚洲| 国产午夜人做人免费视频中文| 波多野结衣国产精品| 91精品国产一区| 久久毛片网| 国产美女无遮挡免费视频网站| 午夜性刺激在线观看免费| 在线一级毛片| 亚洲熟女偷拍| 成人精品在线观看| 黄色网页在线播放| 久久亚洲美女精品国产精品| 国产精品蜜芽在线观看| 国产无遮挡猛进猛出免费软件| 国产日韩欧美中文| 亚洲国产精品一区二区第一页免| 亚洲天堂网在线观看视频| 亚洲毛片在线看| 高清不卡毛片| 全部毛片免费看| 天天婬欲婬香婬色婬视频播放| 国产在线无码av完整版在线观看| 日韩在线永久免费播放| 欧美第一页在线| 色偷偷一区|