段凌鳳,熊 雄,劉 謙,楊萬能,3,黃成龍※
(1.華中農業大學工學院,武漢 430070;2.華中科技大學武漢光電國家研究中心,武漢 430074;3.華中農業大學作物遺傳改良國家重點實驗室,武漢 430070)
高產一直是水稻育種與栽培的重要目標之一[1]。在水稻育種與栽培相關領域研究中,需要測量大量候選樣本在不同環境下的產量,為培育高產、優質、抗逆的水稻品種提供科學依據[2]。稻穗是水稻谷粒著生的器官,穗部性狀與水稻產量直接相關[3]。稻穗在水稻病蟲害檢測[4]、營養診斷[5]及生育期檢測[6]等方面也起著非常重要的作用。因此,稻穗的準確分割,是獲取水稻穗部性狀、實現水稻表型自動化測量的關鍵步驟[7]。不同品種及生育期稻穗外觀如形狀、顏色、大小、紋理、姿態等存在較大差異,稻穗邊緣嚴重不規則,穗葉顏色也很大程度混疊。田間自然環境復雜,水稻不同器官間相互遮擋,光照不均勻且不斷變化,這些因素都使得復雜大田環境下的稻穗分割非常困難。
一些學者基于像素水平的顏色特征[8-10]和紋理特征[11-12]分割果穗,處理速度快,但極易產生噪聲。通過生成候選區域,判定候選區域的類別(穗或背景),可提高分割準確度[13-15]。目前,大多數研究基于像素水平顏色特征生成候選區域[13-15],區域邊界貼合性較差,直接影響了候選區域識別及最終分割效果。Lu等融合簡單線性迭代聚類方法(simple linear iterative clustering,SLIC)和graph-based方法產生超像素,提取超像素的平均顏色,由神經網絡群體模型判別超像素類型,實現了玉米穗的分割[16]。在禾本科作物果穗識別方面,Guo等通過SVM(support vector machine)對處于抽穗期的稻穗檢測問題進行研究[17]。范夢揚等基于麥穗顏色和紋理特征,利用SVM對麥穗區域進行識別[18]。
卷積神經網絡(convolutional neural network,CNN)是近幾年來興起的一種適用于圖像分析的深度學習模型[19-20],已成功應用于農業圖像識別與分割[21-27]。在作物果穗識別與分割方面,Pound等[28]利用CNN實現了小麥特征部位如根尖、穗尖、穗基部等的識別。Xiong等[7]提出了一種基于超像素分割和CNN的稻穗分割算法-Panicle-SEG,能很好地應用于不同品種及生育期的大田稻穗分割,缺點在于算法耗時較長。
本研究提出了一種基于深度全卷積神經網絡的大田稻穗分割算法,目標在于提升稻穗分割準確度及效率,為水稻表型自動化測量提供新的工具,進一步服務于水稻育種及栽培。
本研究采用的水稻品種來源于水稻種質資源。選取稻穗外觀差異大的73個水稻品種,于2016年以小區形式種植于大田。每個小區面積為80×96 cm2,按5行4列(行距16 cm)的形式種植同一個品種的20株水稻。不同小區種植不同品種,小區與小區之間由保護行進行隔離。小區與小區之間間隔32 cm。通過尼康D40數碼相機拍攝水稻圖像,每張圖像包含一個小區。共采集73張大田水稻圖像,包含73個不同品種,各品種生育期不一致(從抽穗期至成熟期),拍攝時光照條件也不一致。隨機取其中的50張用于離線訓練大田稻穗分割算法,剩下的23張作為測試樣本(稱為2016測試圖像集),用于評估算法的分割性能。
為進一步測試網絡的泛化能力,于2017年種植水稻種質資源中除2016年73個品種以外的22個品種,并對這些品種進行高溫脅迫,以測試算法對不同生長環境水稻稻穗的分割性能。相比于2016年的水稻,這些水稻所處生育期更接近于成熟期。一些品種稻穗抽出時間不一致,因此同一張圖像中水稻不同稻穗間生育期不一致的現象更為嚴重。共采集22張圖像,同樣包含不同生育期,稱為2017測試圖像集。
本研究基于深度全卷積神經網絡分割稻穗,流程見圖1,主要包括2個步驟:1)PanicleNet離線訓練;2)基于PanicleNet在線分割水稻圖像。

圖1 基于PanicleNet的稻穗分割總體技術流程Fig.1 Overall technical flowchart for panicle segmentation based on PanicleNet
1.2.1 PanicleNet網絡結構
PanicleNet的網絡結構與SegNet[29]類似。SegNet是由Cambridge提出的用于圖像語義分割的深度全卷積神經網絡,主要由編碼網絡、解碼網絡及像素級分類器構成[29]。編碼網絡的結構與VGG-16[30]相同,其特殊之處在于解碼網絡的設計。SegNet記錄每個編碼層在最大池化時的池化索引,并利用該因子進行上采樣,從而無需學習如何上采樣。SegNet的最大優勢在于內存效率和計算效率高,且需要訓練的參數相對較少[29]。
SegNet采用對稱編解碼的結構來獲得多尺度信息,相比于FCN(fully convolutionalnetworks)[31],最大池化索引結構的引入使得SegNet計算量更小、精度更高。而相比于加入空洞卷積等結構使得精度更高的DeepLab[32]和PSPNet[33]等網絡,SegNet的網絡結構更加簡單、運算速度更快。本研究中的稻穗分割是一個二分類問題,SegNet已經能夠實現較高精度,對稱編解碼的結構使得網絡引入了多尺度的能力,非常適合處理田間細小且不規則稻穗的分割問題,因此本研究基于SegNet設計PanicleNet,SegNet最后一個卷積層的通道數11,在本文中為2(PanicleNet),分別對應于稻穗和背景。
PanicleNet的具體結構見圖2。每個卷積層的滑動步長(stride)均為1個像素,并通過邊界擴充(pad=1)保持輸入輸出維度不變。池化層均采用最大池化,池化窗口大小為2×2,滑動步長為2。上采樣層的采樣尺度(scale)均為2。PanicleNet最后一個卷積層的通道數為2,其輸出的特征圖被輸入到Softmax分類器進行逐像素的分類,最終輸出分割結果圖。

圖2 PanicleNet網絡結構示意圖Fig.2 Illustration of PanicleNet architecture
1.2.2 PanicleNet離線訓練
在本研究中,50張1971×1815像素(高×寬)的大田圖像被用于離線訓練PanicleNet。首先利用Photoshop對原始大田圖像進行人工標注,稻穗像素被標注為1,背景像素被標注為0,作為真實分割結果。

圖3 訓練樣本亮度調整擴增數據Fig.3 Data augmentation by adjusting illumination component
PanicleNet的具體訓練過程如下:
1)圖像補邊及裁剪:為將原始圖像變為可裁成整數張子圖(360×480像素)的圖像,對于每一張用于PanicleNet訓練的原始圖像及其對應的人工標注圖像,對圖像邊緣補黑,具體操作為將1971×1815像素圖像的邊緣對稱地補黑,補黑后的圖像大小為2160×1920像素。將每張圖像不重疊且無間隔地裁成24張360×480像素的圖像,作為PanicleNet的輸入圖像。50張圖像,共裁剪為50×24=1 200張子圖。
2)劃分訓練集與驗證集:將1 200張子圖按4∶1的比例隨機劃分為訓練集和驗證集。
3)數據擴增:對每一張子圖,均進行亮度調整,保持H分量和S分量不變,V分量分別增大、減小20%,用于模擬大田環境中的光照變化,提高PanicleNet的泛化能力。圖3為典型的經過數據擴增的樣本圖像。經過數據擴增后,訓練集和驗證集的樣本數分別為2 880和720張。
4)網絡離線訓練:基于Caffe平臺訓練PanicleNet。采用隨機梯度下降法(stochastic gradient descent,SGD)訓練網絡,動量因子(momentum)設置為0.9,學習速率為0.001,利用VGG-16對PanicleNet的參數進行初始化,即采用微調(fine-tuning)的方法訓練網絡。訓練集的batchsize設置為4,驗證集的batchsize設置為2。圖像中稻穗像素(類別1)和背景像素(類別0)的數目嚴重不平衡,背景像素數目遠大于前景。若不進行處理,則訓練出來的網絡會傾向于將待分割像素分成背景。PanicleNet通過在損失中加入懲罰權重的方法來實現類別平衡,具體為對大樣本類別(背景)設置較小的損失權重系數,而小樣本類別(稻穗)則設置較大的損失權重系數。計算方法見式(1)~(2)。

式中W0為背景像素的權重,W1為稻穗像素的權重,Ni0為第i張圖像中背景像素的個數,Ni1為第i張圖像中稻穗像素的個數,Ni為第i張圖像中像素的總數。
在本研究中,經過計算,背景和稻穗的權重分別為0.5873和3.3641。每訓練720個epoch,進行一次驗證,驗證迭代次數為360,即每將所有的訓練樣本訓練一次后,對所有的驗證樣本進行驗證。當誤差收斂(基本不變)時,停止訓練。最終選用的網絡迭代次數為72 000,即將所有樣本訓練了100次。
1.2.3基于PanicleNet在線分割水稻圖像
離線訓練好PanicleNet后,即可利用PanicleNet在線分割水稻圖像。
1)圖像邊緣補黑,變為可裁為整數張子圖,(360×480像素)的圖像。2)圖像裁剪為若干張子圖,并記錄子圖的位置索引,以便于后續圖像拼接恢復原始圖像(圖4)。3)基于PanicleNet對子圖進行像素級語義分割。4)將分割后的子圖按照其索引位置拼接為大圖。5)去除補黑的邊界,恢復與原始圖像大小相同的分割圖像。

圖4 圖像裁剪及子圖位置索引記錄示意圖Fig.4 Image clipping and sub-image location indexes recording
基于上述圖像分割過程,本研究利用包含不同品種、生育期及生長環境的2個測試圖像集:2016測試圖像集及2017測試圖像集對本文算法的分割性能進行評估,并與現有作物果穗分割算法Panicle-SEG[7]、HSeg[10]、i2滯后閾值法[15]及JointSeg[16]進行對比。通過Qseg、召回率、精度以及F值評價分割性能[7]。其中Qseg值反映分割結果與真實值之間的相符程度,其值在0~1之間,Qseg值越高,分割效果越好。精度反映被分割為稻穗的樣本中其真實標簽為稻穗的比例,是分割結果精確程度的一種表征。召回率反映真實標簽為稻穗的樣本被正確分割的比例,衡量了分割稻穗區域的完整性。精度和召回率通常呈負相關,精度提高,召回率通常會降低,反之亦然。F值為綜合考慮召回率和精度的平衡指標,兼顧分割的精準程度和完整性,F值越高,分割效果越好。

式中A為由分割算法分割得到的像素類別集合,包括背景(v=0)和前景(v=1),B為對應像素集的真實標簽集合,包括背景(v=0)和前景(v=1)。i,j為像素索引,m為圖像高,n為圖像寬,vi,j為第i列第j行像素的灰度值。

式中TP為真實標簽為稻穗且被分割為稻穗的像素個數,FP為真實標簽為背景但被分割為稻穗的像素個數,FN為真實標簽為稻穗但被分割為背景的像素個數。
基于2016測試圖像集對基于SegNet[29]、DeepLab[32]和PSPNet[33]的網絡對大田圖像的分割性能進行測試與對比,結果見表1。3個網絡均使用本文訓練集訓練,學習率均為0.001,動量均為0.9,當誤差基本不變時停止訓練?;赟egNet的網絡綜合分割性能略低于基于DeepLab和PSPNet的網絡,表現為Qseg值和F值略低。這說明對于稻穗分割這種二分類問題,結構相對簡單的SegNet網絡架構即可以達到較好的分割效果。
在計算效率上,在Microsoft Windows 10專業版操作系統,12核 Intel(R)core?i7-6850k cpu@3.60GHz的處理器,32GB內存及NVIDIATITAN Xp顯卡的配置下,處理一張360×480像素大小的圖像,基于SegNet、DeepLab和PSPNet的網絡耗時分別約為75、293和155 ms,基于SegNet的網絡處理速度優于另2個網絡。
綜合考慮分割性能和處理速度,本研究最終基于SegNet的網絡作為稻穗分割網絡PanicleNet。

表1 不同網絡性能比較Table 1 Performance comparison of different networks
本文算法和現有算法對測試圖像的分割性能比較結果如表2和圖5所示。

表2 基于PanicleNet的分割算法和現有算法對測試圖像的分割性能比較Table 2 Performance comparison of PanicleNet and other approaches on testing images
依據表2,本文基于PanicleNet的分割算法性能最優,對2016測試圖像集的平均分割性能為:Qseg值0.76,F值0.86,對2017測試圖像集的平均分割性能為:Qseg值0.67,F值0.80。對2017測試圖像集的分割性能略低于2016測試圖像集,主要原因在于2017測試圖像集中的水稻相比于2016年的圖像更接近完熟期,稻穗顏色更黃,而用于訓練PanicleNet的圖像中無接近完熟期的圖像。另外,兩個數據集的水稻生長環境不同,2016年的水稻為正常生長條件,而2017年則為高溫脅迫條件。Panicle-SEG算法的分割性能次之。對2016測試圖像集的平均分割性能為:Qseg值0.59,F值0.74,對2017測試圖像集的平均分割性能為:Qseg值0.55,F值0.71。PanicleNet的精度略低于Panicle-SEG,相應地,其召回率則遠高于PanicleNet,表明PanicleNet是通過分割出更多的稻穗像素,提高稻穗區域的完整性來優化分割結果,獲取更高的F值。

圖5 本文算法和其他分割算法對測試圖像的分割性能比較Fig.5 Performance comparison of our method and other methods on testing images
圖5顯示了不同分割算法對6張測試圖像的分割結 果。其中圖5a-5d為2016年采集,圖5e-5f為2017年采集。處于抽穗期稻穗直立生長,在頂視圖中稻穗面積很??;處于灌漿期稻穗彎曲生長,稻穗面積較大;處于成熟期,稻穗帶芒;圖5d稻穗,稻穗顏色與5a-5c相差較大,部分葉片顏色也為黃色;5e和5f中稻穗成熟程度不一致,有些稻穗很黃,另一些為綠色,且部分葉片已完全枯黃,總體上比5a-5d中水稻更接近完熟期。同一幅圖像中稻穗的顏色、姿態、大小、形狀及亮度等的差異也較大。本研究算法對以上情況都具有較好的分割性能。HSeg算法將很多背景分割為前景稻穗,分割精度較低。i2滯后閾值法比HSeg效果稍好,但對于穗葉顏色混疊的情況分割結果較差,其分割精度也較低。JointSeg算法是為分割玉米穗而設計的,從測試結果看,大量稻穗區域未被分割出來,算法召回率非常低。Panicle-SEG算法的分割精度很高,但對于細小稻穗的分割結果較差,Panicle-SEG分割結果中遺漏了很多小的稻穗區域,對稻穗邊緣的細小分支結構的提取也不完整。而PanicleNet對稱編碼-解碼的網絡結構大大提高了模型多尺度信息處理能力,對細小稻穗區域敏感性較好,其召回率遠高于Panicle-SEG,而精度僅略低于Panicle-SEG,最終的分割性能優于Panicle-SEG(具有更高的F值和Qseg值)。
總體上,基于深度學習的算法包括PanicleNet和Panicle-SEG在復雜大田稻穗分割這一問題上的性能優于傳統的分割算法。這主要是因為基于深度學習的分割算法直接以原始圖像作為輸入,區別于傳統的人為設計特征提取,自動學習隱含在數據中更為本質的、表達能力更強的圖像特征,達到準確分割或分類的目的。而HSeg、i2滯后閾值法及JointSeg等傳統算法在分割中都需要人工設計提取顏色特征。Hseg提取圖像的H分量進行分割[10];i2滯后閾值法提取每個像素的i2顏色分量用于分割[15];JointSeg產生候選區域后,提取每個區域的平均RGB顏色特征進行分割[16]。本研究中不同圖像甚至同一圖像中不同稻穗的顏色不一致,穗葉顏色嚴重混疊,不同品種及生育期間稻穗顏色、形狀、大小等都存在很大差異,人工很難設計出足夠有效的特征用于分割,因此分割性能較差。而同樣基于深度學習的Panicle-SEG算法的設計較為復雜,分為3個步驟:SLIC超像素分割產生候選區域、CNN判別候選區域類型以及ER優化分割結果,分割結果易受到幾個重要參數如SLIC超像素區域數目、ER超像素區域數目、ER平衡因子等的影響[7]。本文提出的PanicleNet為端對端的像素級語義分割,算法首先將圖像分塊,由PanicleNet對子圖進行像素級分割,再拼接分割子圖,無需調節參數,即可實現對任意大小圖像的分割。相比于Panicle-SEG,本文提取的算法在設計上更為簡單,分割性能更好。
綜上,PanicleNet能很好的克服稻穗邊緣嚴重不規則、不同品種、生育期及生長環境稻穗外觀差異大、穂葉顏色混疊和復雜大田環境中光照、遮擋等因素的干擾,準確地分割稻穗。
在2.1所述硬件環境下,PanicleNet處理一幅子圖(360×480像素)耗時約75 ms,處理一幅1971×1815像素的圖像耗時為原始圖像裁剪的時間、24張子圖分割的時間(約24×75 ms=1.8 s)以及24張子圖分割結果拼接的時間之和,共計耗時約2 s。而在同一臺計算機上,性能次優的Panicle-SEG算法參數設置如下:SLIC超像素區域數目20 000,ER超像素區域數目5 000,ER平衡因子0.5時,耗時CPU模式下約為80~90 s,GPU模式下約為70 s。綜上所述,本研究算法計算速度約為Panicle-SEG算法的35倍,在效率上遠遠高于Panicle-SEG算法。
本文提出了一種基于深度全卷積神經網絡的大田稻穗分割算法?;赟egNet網絡模型架構,更改最后一個卷積層的通道數,應用經過數據增廣的水稻圖像數據集,訓練了用于大田稻穗分割的深度全卷積神經網絡PanicleNet。對于一張待分割圖像,先將圖像劃分為適合PanicleNet輸入大小的子圖,然后基于PaniceNet對子圖進行語義分割,最后將子圖分割結果拼接恢復為原始圖像的分割結果。用包含不同品種、生育期和生長環境的測試圖像進行算法性能對比試驗,各算法的平均分割性能如下:
1)與訓練樣本同年度拍攝樣本PanicleNetQseg值為0.76,F值為0.86,優于Panicle-SEG的0.59和0.74,亦優于Hseg、i2滯后閾值法和JointSeg。
2)不同年度拍攝樣本PanicleNetQseg值為0.67,F值為0.80,分割效果相對Panicle-SEG(Qseg為0.55、F為 0.71)、Hseg(Qseg為 0.26、為 0.39)、i2 滯后閾值法(Qseg為0.42、F為0.58)和JointSeg(Qseg為0.05、F為 0.11)。
綜上,本研究所述算法性能遠優于4種現有作物果穗分割算法。在處理速度上,本研究算法處理一張1 971×1 815像素的圖像耗時約2 s,約為性能次優算法Panicle-SEG的35倍。
本文提出的大田稻穗分割算法對不同品種、生育期及生長環境的適應性較好,能克服復雜大田環境對圖像分割的干擾,實現對大田稻穗的準確分割,分割準確性高,處理速度快,為水稻表型測量提供新的工具,進一步服務于水稻育種及栽培。
[1]Sang T,GeS.Understanding ricedomestication and implications for cultivar improvement[J].Current Opinion in Plant Biology,2013,16(2):139-146.
[2]Peng S,Khush G,Virk P,et al.Progress in ideotype breeding to increase rice yield potential[J].Field Crops Research,2008,108(1):32-38.
[3]Ikeda M,Hirose Y,Takashi T,et al.Analysis of rice panicle traits and detection of QTLs using an image analyzing method[J].Breeding Science,2010,60(1):55-64.
[4]Zhou X G.First report of bacterial panicle blight of rice caused by Burkholderia glumae in South Africa[J].Plant Disease,2014,98(4):566-566.
[5]Zhang Y,Liu M,Dannenmann M,et al.Benefit of using biodegradable film on rice grain yield and N use efficiency in ground coverrice production system [J].Field Crops Research,2017,201:52-59.
[6]Bonil K,Kang S K,Sang W G,et al.Variation of panicle differentiation stage by leaf growth according to rice cultivars and transplanting time[J].Korean Journal of Crop Science,2013,58(4):353-361.
[7]Xiong X,Duan L,Liu L,et al.Panicle-SEG:A robust image segmentation method for rice panicles in the field based on deep learning and superpixel optimization[J].Plant Methods,2017,13(1):104.
[8]陳含,呂行軍,田鳳珍,等.基于Sobel算子邊緣檢測的麥穗圖像分割[J].農機化研究,2013(3):33-36.Chen Han,Lv Xingjun,Tian Fengzhen,et al.Wheat panicle image segmentation based on sobel operator-edge detection[J]. Journal of Agricultural Mechanization Research,2013(3):33-36.(in Chinese with English abstract)
[9]劉濤,孫成明,王力堅,等.基于圖像處理技術的大田麥穗計數[J].農業機械學報,2014,45(2):282-290.Liu Tao,Sun Chengming,Wang Lijian,et al.In-field wheatear counting based on image processing technology[J].Transactions of the Chinese Society for Agricultural Machinery,2014,45(2):282-290.(in Chinese with English abstract)
[10]Tang W,Zhang Y,Zhang D,et al.Corn tassel detection based on image processing[C]//International Workshop on Image Processing and Optical Engineering.International Society for Optics and Photonics,2012,8335:83350J-1-83350J-7.
[11]Cointault F,Guerin D,Guillemin J P,et al.In‐field Triticum aestivum ear counting using colour‐texture image analysis[J].New Zealand Journal of Crop and Horticultural Science,2008,36(2):117-130.
[12]Frédéric C,Frédéric J,Gilles R,et al.Texture,color and frequentialproxy-detection image processing for crop Characterization in a ContextofPrecision Agriculture[M]//Godwin Aflakpui.Agricultural Science,Alexandria LA:InTech,2012:49-70.
[13]趙鋒,王克儉,苑迎春,基于顏色特征和AdaBoost算法的麥穗識別的研究 [J].作物雜志,2014(1):141-144.Zhao Feng,Wang Kejian,Yuan Yingchun.Study on wheat spike identification based on color features and adaboost algorithm[J].Crops,2014(1):141-144.(in Chinese with English abstract)
[14]Zhu Y,Cao Z,Lu H,et al.In-field automatic observation of wheat heading stage using computer vision[J].Biosystems Engineering,2016,143:28-41.
[15]Duan L,Huang C,Chen G,et al.Determination of rice panicle numbers during heading by multi-angle imaging[J].The Crop Journal,2015,3(3):211-219.
[16]Lu H,Cao Z,Xiao Y,et al.Fine-grained maize tassel trait characterization with multi-view representations [J].Computers&Electronics in Agriculture,2015,118:143-158.
[17]Guo W,Fukatsu T,Ninomiya S.Automated characterization of flowering dynamics in rice using field-acquired time-series RGB images[J].Plant Methods,2015,11(1):1-15.
[18]范夢揚,馬欽,劉峻明,等.基于機器視覺的大田環境小麥麥穗計數方法[J].農業機械學報,2015,46(增刊1):234-239.Fan Mengyang,Ma Qin,Liu Junming,et al.Counting method of wheatear in field based on machine vision technology[J].Transactions of the Chinese Society for Agricultural Machinery,2015,46(Supp.1):234-239.(in Chinese with English abstract)
[19]Lecun Y,Bengio Y,Hinton G.Deep learning[J].Nature,2015,521(7553):436-444.
[20]蔣樹強,閔巍慶,王樹徽.面向智能交互的圖像識別技術綜述與展望[J].計算機研究與發展,2016,53(1):113-122.Jiang Shuqiang,Min Weiqing,Wang Shuhui.Survey and prospect of intelligent interaction-oriented image recognition techniques[J].Journal of Computer Research&Development,2016,53(1):113-122.(in Chinese with English abstract)
[21]楊國國,鮑一丹,劉子毅.基于圖像顯著性分析與卷積神經網絡的茶園害蟲定位與識別[J].農業工程學報,2017,33(6):156-162.Yang Guoguo,Bao Yidan,Liu Ziyi.Localization and recognition of pests in tea plantation based on image saliency analysis and convolutional neural network[J].Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE),2017,33(6):156-162.(in Chinese with English abstract)
[22]孫俊,譚文軍,毛罕平,等.基于改進卷積神經網絡的多種植物葉片病害識別[J].農業工程學報,2017,33(19):209-215.Sun Jun,Tan Wenjun,Mao Hanping,et al.Recognition of multiple plant leaf diseases based on improved convolutional neural network[J].Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE),2017,33(19):209-215.(in Chinese with English abstract)
[23]黃雙萍,孫超,齊龍,等.基于深度卷積神經網絡的水稻穗瘟病檢測方法[J].農業工程學報,2017,33(20):169-176.Huang Shuangping,Sun Chao,Qi Long,et al.Rice panicle blast identification method based on deep convolution neural network [J].Transactions ofthe Chinese Society of Agricultural Engineering(Transactions of the CSAE),2017,33(20):169-176.(in Chinese with English abstract)
[24]周云成,許童羽,鄭偉,等.基于深度卷積神經網絡的番茄主要器官分類識別方法[J].農業工程學報,2017,33(15):219-226 Zhou Yuncheng,Xu Tongyu,Zheng Wei,et al.Classification and recognition approaches of tomato main organs based on DCNN [J].Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE),2017,33(15):219-226.(in Chinese with English abstract).
[25]魯恒,付蕭,賀一楠,等.基于遷移學習的無人機影像耕地信息提取方法[J].農業機械學報,2015,46(12):274-279.Lu Heng,Fu Xiao,He Yinan,et al.Cultivated land information extraction from high resolution UAV images based on transfer learning[J].Transactions of the Chinese Society for Agricultural Machinery,2015,46(12):274-279.(in Chinese with English abstract)
[26]李政,李永樹,吳璽,等.基于卷積神經網絡的空心村高分影像建筑物檢測方法[J].農業機械學報,2017,48(9):160-165.Li Zheng,Li Yongshu,Wu Xi,et al.Hollow village building detection method using high resolution remote sensing image based on CNN[J].Transactions of the Chinese Society for Agricultural Machinery,2017,48(9):160-165.(in Chinese with English abstract)
[27]高震宇,王安,劉勇,等.基于卷積神經網絡的鮮茶葉智能分選系統研究[J].農業機械學報,2017,48(7):53-58.Gao Zhenyu,Wang An,Liu Yong,etal.Intelligent fresh-tea-leaves sorting system research based on convolution neural network[J].Transactions of the Chinese Society for Agricultural Machinery,2017,48(7):53-58.(in Chinese with English abstract)
[28]Pound M P,Atkinson J A,Townsend A J,et al.Deep machine learning provides state-of-the-art performance in image-based plantphenotyping [J].Gigascience,2017,6(10):1-10.
[29]Badrinarayanan V,Kendall A,Cipolla R.SegNet:A deep convolutional encoder-decoder architecture for scene segmentation[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2017,39(12):2481-2495.
[30]Simonyan K,Zisserman A.Very deep convolutional networks for large-scale image recognition[J/OL].Computer Science,2014,1409:1556.
[31]Long J,ShelhamerE,DarrellT.Fully convolutional networks for semantic segmentation[C]//IEEE Conference on Computer Vision and Pattern Recognition.IEEE Computer Society,2015:3431-3440.
[32]Chen L C,Papandreou G,Kokkinos I,et al.DeepLab:semantic image segmentation with deep convolutional nets,atrous convolution,and fully connected CRFs[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2018,40(4):834-848.
[33]Zhao H,Shi J,Qi X,etal.Pyramid scene parsing network[C]//IEEE Conference on Computer Vision and Pattern Recognition.IEEE Computer Society,2017:6230-6239.