999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積神經網絡提取多尺度分層特征識別玉米雜草

2018-03-10 08:05:24武新慧李志偉
農業(yè)工程學報 2018年5期
關鍵詞:雜草特征

王 璨,武新慧,李志偉

0 引 言

除草是作物處于幼苗階段所必須及時進行的工作,是保證農作物高產的必要條件[1]。目前,人工除草的原始方式已被基本淘汰,進而廣泛采用大面積噴灑除草劑的化學除草方法[2],其優(yōu)點是實施成本低且適用于各類農田地形。最大的缺點在于除草劑消耗量大,在使用過程中必然影響大量非標靶生物[3],破壞農田生物環(huán)境平衡[4],殘留除草劑也會威脅人類健康。在2015年,農業(yè)部明確了“雙減”的目標來治理農業(yè)面源污染[5],即通過技術手段和管理方式減少農業(yè)中化肥和農藥的使用,實現農業(yè)的可持續(xù)發(fā)展。在此基礎上,不依賴于除草劑的智能化機械除草設備被廣泛研究[6]。其所要解決的關鍵問題在于如何實現作物和雜草的精確識別以及達到實時性要求的識別速度。因此,研究精確、快速的作物雜草識別方法具有重要意義。

當前雜草識別研究中,被廣泛采用與采納的是基于機器視覺的識別方法。以往學者研究中所采用的主要方法是根據作物和雜草在圖像中所呈現出的不同特征表達來對各類目標進行區(qū)分,所提取的圖像特征包括:顏色、紋理和形態(tài)等[7-10]。該類方法能夠基本實現作物與雜草的有效識別,但識別準確率偏低,無法達到實際應用的需要。隨著機器學習方法的發(fā)展,神經網絡和SVM(support vector machine)等具有數據學習能力的數學網絡模型被應用于雜草識別的研究中,在識別準確率方面取得了重要的突破[11-14]。主要方法是將提取到的圖像特征記錄為數據向量的形式,利用這些數據對模型進行訓練,訓練后的模型能夠對不同的特征數據進行分類,實現作物與雜草的識別。該類方法能夠達到較高的識別準確率,不足之處在于識別效果依賴于人工設計特征的好壞,而且對于圖像的預處理有一定程度的要求,因此在實際應用中識別效果并不穩(wěn)定。在后續(xù)的雜草識別研究中,主要以新型圖像特征的發(fā)掘和提取為主,基于多類圖像特征的融合與機器學習算法[15-19],達到提高識別準確率與穩(wěn)定性的目的。筆者研究團隊在該方面也進行了探索[20],采用雙目視覺技術提取圖像目標的高度特征,利用融合高度、形態(tài)和紋理特征的SVM模型識別作物與雜草,獲得了較為穩(wěn)定的高識別準確率。不足之處在于特征提取方法復雜,實時性較弱。總結他人的研究可以發(fā)現,自然且多樣化的特征表達能夠提高識別模型的準確率和穩(wěn)定性,但依然存在以下兩個主要問題。一方面,人工設計的特征提取器難以獲得最接近目標自然屬性的特征表達,所得特征的識別能力有限。另一方面,圖像的預處理效果對識別結果存在重要影響,尤其是作物與雜草交疊的分割處理,對于交疊程度較大的目標,常難以分割或在不影響其各自特征表達的情況下進行分割,造成實際識別準確率和穩(wěn)定性的降低。

為解決上述兩方面問題,本文以玉米和雜草為研究對象,提出了基于多尺度分層特征的玉米雜草識別方法。該研究依賴于深度學習算法,首先建立多尺度卷積神經網絡模型從圖像的多個尺度中提取分層特征作為依據,對圖像中各像素目標進行識別,再利用超像素方法[21]產生原圖像的過分割,由每個超像素內全部像素的平均類別確定該超像素的類別,再將相同類別的相鄰超像素合并,實現圖像中玉米和雜草目標的識別與分割。該方法將卷積神經網絡與超像素分割相結合,先識別像素目標,進而識別出玉米和雜草目標,有以下兩個特點:1)卷積神經網絡提取的多尺度分層特征表達能實現像素目標的分類識別。2)通過像素目標的類別確定每個超像素的類別,再合并相同類別的超像素,完成目標物的識別與分割,能夠有效避免目標交疊所帶來的問題,取得更穩(wěn)定的識別效果。本文對所提出的方法進行試驗研究,以期在識別準確率、穩(wěn)定性和實時性上獲得提升,為智能化機械除草的發(fā)展提供參考。

1 材料與方法

1.1 圖像采集與試驗設計

該研究以玉米及其伴生雜草作為研究對象進行識別試驗,并分析系統(tǒng)性能。圖像采集工作于2017年7月在山西農業(yè)大學試驗田中完成,采集設備為工業(yè)數字相機(MV- VDM120SC,維視圖像,中國),主要參數為:CCD傳感器,最大分辨率 1 280×960像素,幀率 30 幀/s,USB3.0接口。相機距地面60 cm,采用垂直方式采集圖像。當玉米幼苗處于2~5葉期間進行4次圖像采集,所采集的樣本圖像為幼苗期玉米及 6種常見的伴生雜草,包括馬齒莧、馬唐、藜、牛筋草、反枝莧和畫眉草。每次圖像采集均在 3種不同光線狀態(tài)下進行,代表除草時可能的環(huán)境條件。初始采集到的原圖像大小為 640×480像素,為加快建模進程、提高識別效率,將圖像大小壓縮為320× 240像素。利用這些圖像建立圖像庫,共包含圖像 550幅。樣本圖像從真實田間環(huán)境中采集,玉米及雜草生長位置復雜,大部分圖像中包含多個目標,這與實際應用情況相同。由于多尺度卷積神經網絡能夠自動從圖像的各局部提取特征,所以樣本圖像可直接用于本文方法的訓練與測試。為了更均勻地抽取訓練集與測試集,將含有玉米目標的圖像記為玉米樣本,其他圖像記為雜草樣本。得到玉米樣本圖像 260幅,各類雜草樣本圖像290幅。

對每幅樣本圖像中各像素所處位置的目標類別進行標記,獲得每幅樣本圖像的標簽矩陣,用于模型的訓練和測試。采用 5折交叉驗證法對識別模型的性能進行評估。首先將全部圖像樣本分成 5個子樣本集,每個子樣本集包含樣本圖像110幅,其中玉米樣本圖像52幅,雜草樣本圖像58幅,均從圖像庫中隨機且不重復地抽取。每個子樣本集(110幅圖像)作為測試集1次,其余4個子樣本集合并在一起(共 440幅圖像)組成訓練集。用于訓練的示例樣本圖像如圖 1所示。在試驗中對訓練集圖像進行水平翻轉處理,將訓練集樣本量擴展為原來的1倍。更多的樣本參與訓練能夠減少過擬合、加強模型的穩(wěn)定性[22-23]。試驗完成后,計算識別準確率和系統(tǒng)運行時間,求取平均值與標準差,用以衡量模型性能。

在已有相關研究中,以多特征融合建模的識別方法為主,其中融合高度與圖像特征的支持向量機模型表現優(yōu)秀[20],因此利用該方法進行對比試驗,進一步來驗證基于卷積神經網絡提取多尺度分層特征的識別方法在目標識別準確率、系統(tǒng)穩(wěn)定性和運算實時性方面的表現。

1.2 多尺度分層特征

多尺度分層特征是一種在尺度空間中具有不變性和一致性的場景級特征,允許將較大的圖像環(huán)境(可以和整個場景一樣大)應用到局部識別決策中,包含適當居中且縮放的目標及分層的自然屬性,為預測潛在的目標類別提供了良好的基礎。

1.2.1 卷積神經網絡提取特征

在視覺分析中,像素組成邊緣片段,邊緣片段組成圖案,圖案組成物體,物體組成場景[24]。卷積神經網絡(convolutional neural network,CNN)提供了一種簡單的框架來學習這樣的視覺層次特征[25-29]。

在本研究中,為了實現圖像中每一個像素目標的類別預測,本文結合CNN與多尺度方法,即將CNN網絡權值復制到尺度空間的多個尺度中。

給定一個輸入圖像I,對其進行快速局部拉普拉斯濾波[30],以增強目標圖像的細節(jié),如圖 2所示。構造該圖像的多尺度金字塔其中X1與原圖像I在同一尺度中,擁有相同的尺寸。本文所構建的多尺度金字塔為高斯金字塔,通過Burt等提出的方法[31-32]進行計算,所得每層圖像面積為上層圖像的1/4,圖像分辨率的縮小比例為2。

圖2 多尺度圖像金字塔Fig.2 Multi-scale image pyramid

經過標準化處理[33],使多尺度金字塔中每幅圖像的局部鄰域具有0均值和單位標準差。再給定CNN模型fs,設其內部參數為 θs,則卷積神經網絡由對應每個尺度圖像的CNN模型組合而成,所有模型參數跨尺度共享,即

式中θ0是模型的初始參數。

在尺度s下,對于具有L個階段的多尺度卷積神經網絡fs存在

式中WL是第L階段的權值矩陣,HL–1為第L–1階段的輸出,且有H0= Xs。中間各隱藏階段l的輸出可以表示為

式中pool函數表示池化操作,采用最大池化方法[34-35],tanh為激活函數[36],Wl和bl分別為該階段的權值矩陣和偏置參數向量。Wl和bl共同構成了CNN模型的可訓練參數 θs。

最終,將全部N個CNN模型的輸出特征圖進行上采樣,統(tǒng)一尺寸并組合在一起,以生成3維特征矩陣F。此時,F可以被視為多尺度的場景級分層圖像描述符,表示如下

其中 u是上采樣函數。本文設置 N=3,則特征提取過程如圖3所示。

圖3 多尺度分層特征提取Fig.3 Multi-scale hierarchical feature extraction

在整個尺度空間上實施完全的權值共享能夠自然迫使網絡學習具有尺度不變性的特征,同時減少網絡過擬合的可能。共同參與訓練模型fs(Xs; θs)的尺度越多,所得的特征表達效果越好。

1.2.2 利用多尺度分層特征識別像素目標

在模型中加入線性分類器對多尺度分層特征進行學習,從而對圖像中的每個像素目標產生正確的分類預測。通過訓練網絡參數 θs來達到這一目標,采用有監(jiān)督的訓練方式,主要方法是使用多類別交叉熵損失函數[37],使預測類別和實際類別間的偏差最小化。

設?ic為線性分類器對于像素 i所屬類別的標準化預測向量。為了計算損失函數,本文利用softmax函數[38-39]計算像素i屬于類別a的標準化預測概率分布,?iac

式中w是僅用于學習特征的臨時權值矩陣,在模型訓練完成后將不再使用,Fi表示像素i所在位置對應的多尺度分層特征表達向量。為了學習具有最大判別能力的特征,定義像素目標i屬于類別a的實際概率 ci,a是在目標向量上的分布,與結果的標準化預測向量相對應,當像素 i的類別為a時, ci,a= 1,其他目標類別下則為0。預測類別分布c?i,a和實際類別分布ci,a之間的多類別交叉熵E用于衡量它們之間的偏差程度

因此對于整幅圖像來說,其損失函數可以表示為

通過最小化損失函數和反向傳播算法(backpropagation,BP)來調整網絡內部參數[40-41],實現對提取特征的學習,獲得具有最大像素識別能力的多尺度分層特征表達。為了獲得更好的識別效果,在參數 θs訓練完成后,使用多層感知器進行識別。

1.3 超像素分割

多尺度卷積神經網絡能夠為圖像中的每一個像素目標進行類別預測,但從每個像素的鄰域中獨立地預測該像素目標的類別會在目標邊界處產生一定的干擾預測,無法為圖像中各目標物體提供準確的邊界劃分。

本文利用超像素方法對原圖像進行精細過分割,其中每個分割塊(即超像素)是由具有相似紋理、顏色和亮度等特征的相鄰像素點構成的不規(guī)則像素塊。這些超像素能夠組成圖像中的各目標物體,且擁有準確的原始邊界。本文通過對每個超像素區(qū)域強制分配單一的類別預測,再將相同類別的超像素進行區(qū)域合并,能夠有效識別圖像中的目標物體,同時生成準確的邊界。

在本文中,采用簡單線性迭代聚類算法(simple linear iterative clustering,SLIC)實現超像素分割[21]。該方法首先在原圖像中均勻初始化聚類中心,通過像素在 Lab顏色空間中梯度的變化調整聚類中心,計算像素與聚類中心間距離,然后設定距離度量規(guī)則,以此對像素進行局部聚類,從而生成超像素。

為獲得精細的過分割,本文設置超像素個數為200,迭代次數為 5,算法完成后誤差收斂且分割結果不再變化。利用MATLAB軟件實現該方法,獲得的超像素分割效果如圖4所示。

圖4 超像素分割效果Fig.4 Effect of superpixels segmentation

本文采用超像素方法能夠獲得包含圖像目標邊界的準確過分割,通過上文所述的方法能夠確定各超像素的類別,再將同類別的相鄰超像素合并,在識別目標物的同時產生正確的圖像分割。該方法能夠有效避免圖像中不同識別目標相互交疊所帶來的問題,減少了圖像的預處理要求。

1.4 玉米雜草識別過程

本文的識別流程如圖 5所示。通過上文所述方法進行超像素分割,產生原始圖像的一個過分割。利用提取的多尺度分層特征對圖像中的每個像素進行分類,通過計算超像素內部所有像素的平均類別分布來為每個超像素目標生成類別預測。再融合具有相同類別的相鄰超像素,以獲得最終的目標類別預測與圖像分割,實現作物和雜草的快速有效識別。

圖5 玉米雜草識別流程圖Fig.5 Flow chart of recognition of maize and weed

對于像素分類,采用多層感知器(multi-layer perceptron,MLP)[42-44]對圖像中像素的類別進行預測,本文使用的MLP是一個2層神經網絡,其輸入是所提取的多尺度分層特征矩陣F。根據上文所述方法訓練分類器MLP,獲得每個像素目標的預測類別分布然后計算每個超像素目標k內部所有像素的平均類別分布

式中S(k)是超像素k內部所包含的像素個數。利用argmax函數產生超像素k的最終類別預測如下

最后將具有相同類別的相鄰超像素區(qū)域進行合并,得到圖像的標簽矩陣,實現識別與分割。

2 結果與分析

2.1 像素目標識別結果

原始圖像在輸入到多尺度卷積神經網絡前需轉換到YUV顏色空間中,圖像的各通道分量如圖6所示。

構建上文所述的多尺度高斯金字塔 Xs。Xs中每個尺度圖像的Y、U和V通道分別獨立地進行局部z-score標準化,使其中每個15×15的局部塊具有0均值和單位標準差。因此多尺度卷積神經網絡包含 3個相同結構的CNN網絡,分別對應Xs的3個不同尺度圖像作為輸入。在本次試驗中,設置CNN網絡的結構由3個階段組成。前2個階段均由濾波器組、非線性激活函數tanh和池化操作構成,最后一個階段僅包含濾波器組。其中,濾波器組含有的卷積核大小均為7×7,池化操作采用2×2最大池化方法。以上參數設定通過網格搜索算法選取[45],此處不再詳細表述。CNN網絡第1階段的濾波器組包含16個卷積核,其中8個與輸入圖像的Y通道相連,8個與U和V通道相連,將原始圖像轉換成16維特征圖;第2階段的濾波器組包含64個卷積核,與網絡上一階段的輸出特征圖采用局部連接方式,其中每個卷積核與隨機選擇的8張?zhí)卣鲌D相連,將16維特征圖轉換成64維特征圖;第三階段的濾波器組包含 256個卷積核,其中每個卷積核與上階段隨機選擇的32張?zhí)卣鲌D相連,將64維特征圖轉換成256維特征圖。所建立的CNN網絡結構如圖7所示。

圖6 圖像的Y、U、V通道分量Fig.6 Y, U and V channels component of image

圖7 CNN網絡結構簡圖Fig.7 Structure diagram of convolutional neural network

多尺度卷積神經網絡將其內部3個上述結構的CNN網絡輸出進行上采樣并組合,生成768維特征圖F,實現原始圖像的多尺度分層特征提取。采用隨機梯度下降法對3個不同尺度的CNN網絡同時進行訓練。網絡的濾波器權值參數隨機初始化,偏置參數為全 0初始化,網絡的操作窗口大小設定為46×46。通過網格搜索算法確定最佳學習率為0.01,利用L2范數正則化避免網絡過擬合,參數為10-5。

在完成多尺度分層特征的提取后,輸入分類器MLP,實現對圖像中各像素目標所屬類別的預測。用實際情況驗證測試集識別結果得到多尺度分層特征對于像素目標類別的識別準確率,結果如表1所示。

由表 1可知,利用多尺度分層特征能夠識別圖像中各像素目標所屬的類別,且達到了較高的識別準確率,而這對于傳統(tǒng)的淺層機器學習及神經網絡方法來說是很難完成的。在本研究的 5次試驗中,對像素的最大識別準確率為95.74%,最小識別準確率為90.35%,平均識別準確率達93.41%,均保持在較高水平。這是因為多尺度分層特征包含圖像內部的形態(tài)、紋理和場景等全方位的信息,是一種高層次的抽象特征,能夠更好的表達圖像中各目標的自然屬性。此外,本文中對應不同尺度圖像的CNN網絡結構完全相同,當輸入圖像的大小隨著尺度的降低而減小時,網絡在該圖像中的局部特征提取范圍將逐漸增大。所以通過本文方法,能夠從原圖像的各個局部提取范圍由小到大的分層特征。對于原圖像中的每個像素來說,這樣的多尺度分層特征可以對它所屬的類別進行判斷,實現像素目標的精確識別。

表1 像素目標識別結果Table 1 Recognition results of target of pixel

觀察表 1中的數據可以發(fā)現,像素識別準確率的最大值與最小值間相差 5.39個百分點,差距較大。5次試驗的像素識別準確率標準差為1.95%,該值較大,識別效果不夠穩(wěn)定。這是因為本研究在前期圖像預處理過程中沒有人為對圖像中的目標進行劃分,所以對處于交疊邊界位置的像素可能出現誤判。由此可知單獨利用多尺度分層特征進行識別無法獲得目標的準確邊界。因此需將其與超像素分割相結合,能夠有效改善這一不足。

2.2 玉米雜草目標識別結果與分析

根據上文提出的算法與識別過程建立玉米與雜草識別系統(tǒng),獲得最終的目標識別結果。為了驗證該識別系統(tǒng)的實際泛化性能,采用設計好的測試集樣本對系統(tǒng)進行測試。同時,利用融合高度、形態(tài)與紋理特征的支持向量機識別方法進行對比試驗,同樣采用 5折交叉驗證法。記錄 2種方法在相同的樣本訓練后對圖像中玉米與雜草目標的識別準確率,統(tǒng)計系統(tǒng)平均識別 1幅圖像所需的時間,結果如表2所示。

表2 玉米雜草識別結果分析Table 2 Analysis of recognition results of maize and weed

由表 2可知,本文提出的基于卷積神經網絡提取多尺度分層特征識別玉米雜草的方法獲得了較高的準確率。在 5次試驗中,本文方法取得的最大目標識別準確率為99.32%,最小為98.18%,兩者相差1.14個百分點,平均目標識別準確率達98.92%。對比試驗取得的最大目標識別準確率為 99.53%,最小為 97.61%,兩者相差 1.92個百分點,平均目標識別準確率為98.36%。由此可知本文方法的最大識別準確率與最小識別準確率間的差距較小,且能達到更高的平均目標識別準確率,與之前研究[20]中提出的方法相比,提高了0.56個百分點。

本文方法的優(yōu)勢在于其識別效果的穩(wěn)定性。根據表 2中的數據可知,本文方法的目標識別準確率標準差為0.55%,小于對比方法的1.05%。說明本文方法的目標識別準確率數據具有更小的空間離散度,變化程度更小。因此具有更強的識別穩(wěn)定性,在實際泛化性能上表現更為突出。

另一項優(yōu)勢在于識別系統(tǒng)的實時性。觀察表 2中 2種方法的耗時數據可知,本文方法在每次試驗中平均識別單幅圖像所需的時間均遠小于對比方法,5次試驗的平均耗時為1.68 s,同對比方法相比減少了1.58 s,具有更強的實時性。此外本文方法的單幅圖像耗時數據擁有很小的標準差,說明系統(tǒng)耗時穩(wěn)定,運行可靠。

以上試驗結果通過Intel Core i7 6600 CPU處理器運算后獲得。由于卷積神經網絡是一種深度學習結構,因此可以利用GPU處理器實現算法的硬件加速。采用英偉達GTX 1060 GPU代替CPU對本文方法進行運算,其識別單幅圖像的耗時數據如表 2中所示。可以看出,利用GPU執(zhí)行本文提出的算法能夠有效提升識別速度。平均識別1幅圖像(320×240像素)所需的時間僅為0.72 s,能夠進一步增強實時性,實現作物與雜草的高速識別。

根據本文方法對圖像進行識別后可以得到標簽矩陣,利用矩陣中每個元素的類別標簽將圖像中相應位置的像素標記為不同的顏色,其中淺綠色代表玉米,深綠色代表雜草,棕色代表背景。從而在原圖像中生成具有不同顏色標記的各目標區(qū)域,最終獲得的玉米與雜草分割識別結果如圖 8中所示。目前雜草識別研究的難點在于,當雜草與作物距離很近或存在較大程度的葉片交疊時,要準確地識別和分割不同目標是困難的。圖8可以看出,本文方法能夠對出現上述情況的玉米和雜草目標進行有效的區(qū)分識別,同時獲得各目標的邊界分割。通過與原始圖像的對比可知,目標識別與邊界分割結果準確。

圖8 玉米與雜草圖像的識別結果Fig.8 Recognition results of maize and weed image

3 結 論

為進一步提高作物與雜草識別的準確率、穩(wěn)定性與實時性,探索具有更強實際應用能力的雜草識別新方法以推動智能化機械除草方式的發(fā)展,本研究提出了基于卷積神經網絡提取多尺度分層特征識別玉米雜草的方法。

1)利用深度學習結構建立多尺度卷積神經網絡模型,用以從原始圖像的高斯金字塔中提取多尺度分層特征作為識別依據。該模型能夠直接對圖像數據進行處理分析,不依賴于前期圖像預處理和數據轉換過程,在最大程度上獲取圖像中可用的內部信息。通過模型學習自主提取的多尺度分層特征表達,與人工設計提取的多種特征相比,更能反映圖像內部復雜的自然屬性與交互關系,包含更全面有效的識別信息。能夠實現像素級的精確識別,具有很強的空間一致性,其像素平均識別準確率達93.41%。

2)根據本文提出的基于卷積神經網絡提取多尺度分層特征識別玉米雜草的方法,能夠在識別目標區(qū)域的同時產生準確的圖像分割,有效避免目標交疊所帶來的問題,減少了圖像處理難度,加快識別進程,取得更精確和更穩(wěn)定的識別效果。試驗結果表明,該方法的平均目標識別準確率達98.92%,標準差為0.55%,具有優(yōu)秀的實際泛化性能,獲得了穩(wěn)定的高識別準確率。相比于融合高度與圖像特征的支持向量機方法,目標識別準率提高了0.56個百分點,標準差也降低,穩(wěn)定性得到了提升。

3)多尺度分層特征學習與超像素分割相結合的識別方法具有較強的實時性。試驗結果表明,該方法識別單幅圖像的平均耗時為1.68 s,相比于融合高度與圖像特征的支持向量機方法減少了1.58 s。采用GPU硬件代替CPU運算還可進一步提升本文方法的實時性,識別單幅圖像的平均耗時僅為0.72 s。

因此,本研究提出的多尺度分層特征學習與超像素分割相結合的識別方法是有效的,能夠獲得較高的識別準確率、穩(wěn)定性和實時性,為智能化機械除草提供有益的參考。不足之處在于特征提取模型所需的訓練時間較長,但這并不影響在實際測試中的識別速度,在下一步的研究工作中可通過優(yōu)化模型結構加以改進。

[1] 范德耀,姚青,楊保軍,等. 田間雜草識別與除草技術智能化研究進展[J]. 中國農業(yè)科學,2010,43(9):1823-1833.Fan Deyao, Yao Qing, Yang Baojun, et al. Progress in research on intelligentization of field weed recognition and weed control technology[J]. Scientia Agricultura Sinica, 2010,43(9): 1823-1833. (in Chinese with English abstract)

[2] 謝志堅,李海藍,徐昌旭,等. 兩種除草劑的土壤生態(tài)效應及其對后茬作物生長的影響[J]. 土壤學報,2014,51(4):880-887.Xie Zhijian, Li Hailan, Xu Changxu, et al. Effects of two kinds of herbicides on paddy soil ecology and growth of succeeding crops[J]. Acta Pedologica Sinica, 2014, 51(4):880-887. (in Chinese with English abstract)

[3] 王兆振,畢亞玲,叢聰,等. 除草劑對作物的藥害研究[J].農藥科學與管理,2013,34(5):68-73.Wang Zhaozhen, Bi Yaling, Cong Cong,et al. Studied on phytotoxicity of herbicides on crops[J]. Pesticide Science and Administration, 2013, 34(5): 68-73. (in Chinese with English abstract)

[4] 齊月,李俊生,閆冰,等. 化學除草劑對農田生態(tài)系統(tǒng)野生植物多樣性的影響[J]. 生物多樣性,2016,24(2):228-236.Qi Yue, Li Junsheng, Yan Bing, et al. Impact of herbicides on wild plant diversity in agro-ecosystems: A review[J]. Biodiversity Science, 2016, 24(2): 228-236. (in Chinese with English abstract)

[5] 楊林章,馮彥房,施衛(wèi)明,等. 我國農業(yè)面源污染治理技術研究進展[J]. 中國生態(tài)農業(yè)學報,2013,21(1):96-101.Yang Linzhang, Feng Yanfang, Shi Weiming, et al. Review of the advances and development trends in agricultural non-point source pollution control in China[J]. Chinese Journal of Eco-Agriculture, 2013, 21(1): 96-101. (in Chinese with English abstract)

[6] 陳子文,張春龍,李南,等. 智能高效株間鋤草機器人研究進展與分析[J]. 農業(yè)工程學報,2015,31(5):1-8.Chen Ziwen, Zhang Chunlong, Li Nan, et al. Study review and analysis of high performance intra-row weeding robot[J].Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE), 2015, 31(5): 1-8. (in Chinese with English abstract)

[7] Bakhshipour A, Jafari A, Nassiri S M, et al. Weed segmentation using texture features extracted from wavelet sub-images[J]. Biosystems Engineering, 2017, 157: 1-12.

[8] 張小龍,謝正春,張念生,等. 豌豆苗期田間雜草識別與變量噴灑控制系統(tǒng)[J]. 農業(yè)機械學報,2012,43(11):220-225, 73.Zhang Xiaolong, Xie Zhengchun, Zhang Niansheng, et al.Weed recognition from pea seedling images and variable spraying control system[J]. Transactions of the Chinese Society for Agricultural Machinery, 2012, 43(11): 220-225,73. (in Chinese with English abstract)

[9] 李先鋒,朱偉興,紀濱,等. 基于圖像處理和蟻群優(yōu)化的形狀特征選擇與雜草識別[J]. 農業(yè)工程學報,2010,26(10):178-182.Li Xianfeng, Zhu Weixing, Ji Bin, et al. Shape feature selection and weed recognition based on image processing and ant colony optimization[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2010, 26(10): 178-182. (in Chinese with English abstract)

[10] Zheng Y, Zhu Q, Huang M, et al. Maize and weed classification using color indices with support vector data description in outdoor fields[J]. Computers and Electronics in Agriculture, 2017, 141: 215-222.

[11] 趙鵬,韋興竹. 基于多特征融合的田間雜草分類識別[J].農業(yè)機械學報,2014,45(3):275-281.Zhao Peng, Wei Xingzhu. Weed recognition in agricultural field using multiple feature fusions[J]. Transactions of the Chinese Society for Agricultural Machinery, 2014, 45(3): 275-281. (in Chinese with English abstract)

[12] Sadgrove E J, Falzon G, Miron D, et al. Fast object detection in pastoral landscapes using a colour feature extreme learning machine[J]. Computers and Electronics in Agriculture, 2017,139: 204-212.

[13] 李慧,祁力鈞,張建華,等. 基于PCA-SVM的棉花出苗期雜草類型識別[J]. 農業(yè)機械學報,2012,43(9):184-189, 196.Li Hui, Qi Lijun, Zhang Jianhua, et al. Recognition of weed during cotton emergence based on principal component analysis and support vector machine[J]. Transactions of the Chinese Society for Agricultural Machinery, 2012, 43(9):184-189, 196. (in Chinese with English abstract)

[14] Tang J L, Wang D, Zhang Z G, et al. Weed identification based on K-means feature learning combined with convolutional neural network[J]. Computers and Electronics in Agriculture, 2017, 135: 63-70.

[15] 趙川源,何東健,喬永亮. 基于多光譜圖像和數據挖掘的多特征雜草識別方法[J]. 農業(yè)工程學報,2013,29(2):192-198.Zhao Chuanyuan, He Dongjian, Qiao Yongliang. Identification method of multi-feature weed based on multi-spectral images and data mining[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2013,29(2): 192-198. (in Chinese with English abstract)

[16] Strothmann W, Ruckelshausen A, Hertzberg J, et al. Plant classification with in-field-labeling for crop/weed discrimination using spectral features and 3D surface features from a multi-wavelength laser line profile system[J]. Computers and Electronics in Agriculture, 2017, 134: 79-93.

[17] Pérez-Ortiz M, Pe?a J M, Gutiérrez P A, et al. Selecting patterns and features for between-and within-crop-row weed mapping using UAV-imagery[J]. Expert Systems with Applications, 2016, 47: 85-94.

[18] Murugan D, Prema P. A novel angular texture pattern (ATP)extraction method for crop and weed discrimination using curvelet transformation[J]. ELCVIA: Electronic Letters on Computer Vision and Image Analysis, 2016, 15(1): 27-59.[19] Potena C, Nardi D, Pretto A. Fast and accurate crop and weed identification with summarized train sets for precision agriculture[C]//International Conference on Intelligent Autonomous Systems. Springer, Cham, 2016: 105-121.

[20] 王璨,李志偉. 利用融合高度與單目圖像特征的支持向量機模型識別雜草[J]. 農業(yè)工程學報,2016,32(15):165-174.Wang Can, Li Zhiwei. Weed recognition using SVM model with fusion height and monocular image features[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2016, 32(15): 165-174. (in Chinese with English abstract)

[21] Achanta R, Shaji A, Smith K, et al. SLIC superpixels compared to state-of-the-art superpixel methods[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2012, 34(11): 2274-2282.

[22] Simard P Y, Steinkraus D, Platt J C. Best practices for convolutional neural networks applied to visual document analysis[C]//ICDAR. 2003: 958-962.

[23] Cire?an D, Meier U, Masci J, et al. A committee of neural networks for traffic sign classification[C]//Neural Networks(IJCNN), The 2011 International Joint Conference on. IEEE,2011: 1918-1921.

[24] LeCun Y, Bengio Y, Hinton G. Deep learning[J]. Nature,2015, 521(7553): 436-444.

[25] Kavukcuoglu K, Sermanet P, Boureau Y L, et al. Learning convolutional feature hierarchies for visual recognition[C]//Advances in Neural Information Processing Systems. 2010:1090-1098.

[26] Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2014: 580-587.

[27] Krizhevsky A, Sutskever I, Hinton G E. Imagenet classification with deep convolutional neural networks[C]//Advances in Neural Information Processing Systems. 2012: 1097-1105.

[28] Tompson J, Goroshin R, Jain A, et al. Efficient object localization using convolutional networks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2015: 648-656.

[29] LeCun Y, Bengio Y. Convolutional networks for images,speech, and time series[J]. The Handbook of Brain Theory and Neural Networks, 1995, 3361(10): 1995.

[30] Paris S, Hasinoff S W, Kautz J. Local Laplacian filters:edge-aware image processing with a Laplacian pyramid[J].ACM Trans. Graph., 2011, 30(4): 68: 1-68, 12.

[31] Burt P, Adelson E. The Laplacian pyramid as a compact image code[J]. IEEE Transactions on Communications, 1983,31(4): 532-540.

[32] Burt P J. Fast filter transform for image processing[J].Computer Graphics and Image Processing, 1981, 16(1): 20-51.

[33] Pei S C, Lin C N. Image normalization for pattern recognition[J]. Image and Vision Computing, 1995, 13(10):711-723.

[34] Boureau Y L, Ponce J, LeCun Y. A theoretical analysis of feature pooling in visual recognition[C]//Proceedings of the 27th International Conference on Machine Learning (ICML-10).2010: 111-118.

[35] Szegedy C, Liu W, Jia Y, et al. Going deeper with convolutions[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2015: 1-9.

[36] LeCun Y A, Bottou L, Orr G B, et al. Efficient backprop[M]//Neural Networks: Tricks of the trade. Springer Berlin Heidelberg,2012: 9-48.

[37] De Boer P T, Kroese D P, Mannor S, et al. A tutorial on the cross-entropy method[J]. Annals of Operations Research,2005, 134(1): 19-67.

[38] Bishop C M. Pattern Recognition and Machine Learning[M].Berlin: Springer, 2006.

[39] Graves A, Mohamed A, Hinton G. Speech recognition with deep recurrent neural networks[C]//Acoustics, Speech and Signal Processing (icassp), 2013 IEEE international conference on. IEEE, 2013: 6645-6649.

[40] LeCun Y, Boser B E, Denker J S, et al. Handwritten digit recognition with a back-propagation network[C]//Advances in Neural Information Processing Systems. 1990: 396-404.

[41] LeCun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE,1998, 86(11): 2278-2324.

[42] Ruck D W, Rogers S K, Kabrisky M, et al. The multilayer perceptron as an approximation to a Bayes optimal discriminant function[J]. IEEE Transactions on Neural Networks, 1990,1(4): 296-298.

[43] Gardner M W, Dorling S R. Artificial neural networks (the multilayer perceptron): A review of applications in the atmospheric sciences[J]. Atmospheric Environment, 1998,32(14): 2627-2636.

[44] Haykin S S. Neural Networks and Learning Machines[M].Upper Saddle River: Pearson, 2009.

[45] Bergstra J, Bengio Y. Random search for hyper-parameter optimimazation[J]. Journal of Machine Learning Research,2012, 13(2):281-305

猜你喜歡
雜草特征
抓住特征巧觀察
拔雜草
科教新報(2022年22期)2022-07-02 12:34:28
洪洞:立即防除麥田雜草
新型冠狀病毒及其流行病學特征認識
如何表達“特征”
拔掉心中的雜草
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
水稻田幾種難防雜草的防治
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 亚洲欧美日韩天堂| 日韩精品欧美国产在线| 亚洲日本中文综合在线| 在线视频一区二区三区不卡| 成人亚洲国产| 在线国产毛片| 日本亚洲成高清一区二区三区| 久久精品人人做人人爽97| 国产视频欧美| 国产欧美在线视频免费| 国产成人久久综合一区| 久久精品国产电影| www亚洲天堂| 26uuu国产精品视频| 精久久久久无码区中文字幕| 精品超清无码视频在线观看| 欧美精品导航| 亚洲精品国产综合99久久夜夜嗨| 国产欧美另类| 97久久精品人人做人人爽| 99视频精品在线观看| 国产欧美日韩91| 亚洲AⅤ综合在线欧美一区| 99九九成人免费视频精品| 日韩少妇激情一区二区| 久久久无码人妻精品无码| 高清视频一区| 亚洲专区一区二区在线观看| 日韩乱码免费一区二区三区| 综合天天色| 爱做久久久久久| 99re经典视频在线| 呦女亚洲一区精品| 一本综合久久| 高潮毛片无遮挡高清视频播放| 一区二区影院| www.99在线观看| 国产精品欧美在线观看| 美女无遮挡免费网站| 欧美亚洲一二三区| 一级片一区| 2020国产在线视精品在| 亚洲天堂网2014| 欧美人在线一区二区三区| 日韩麻豆小视频| 日韩成人在线视频| 好吊色妇女免费视频免费| 欧美翘臀一区二区三区| 免费精品一区二区h| 色哟哟精品无码网站在线播放视频| 欧美第一页在线| 欧美色亚洲| 中文字幕亚洲无线码一区女同| 日韩午夜伦| 国产精品99久久久久久董美香| 亚洲第一页在线观看| 精品人妻无码中字系列| 美女内射视频WWW网站午夜| 又爽又黄又无遮挡网站| 超清人妻系列无码专区| 18黑白丝水手服自慰喷水网站| 亚洲av无码成人专区| 国产精品尤物在线| 国产精品亚洲αv天堂无码| 2021国产精品自产拍在线观看| 免费国产好深啊好涨好硬视频| 99尹人香蕉国产免费天天拍| 福利视频一区| 一级一级一片免费| 在线观看视频一区二区| 日韩资源站| 五月婷婷激情四射| 五月天在线网站| 国产精品美女免费视频大全 | 97se亚洲综合在线天天| 99久久精品免费看国产电影| 国产真实乱人视频| 成人日韩欧美| 一区二区三区在线不卡免费 | 亚洲欧美色中文字幕| 国产精品毛片一区视频播| 亚洲综合第一区|