劉帥兵,楊貴軍,周成全,4,景海濤,馮海寬,4,徐 波,楊 浩
?
基于無(wú)人機(jī)遙感影像的玉米苗期株數(shù)信息提取
劉帥兵1,2,楊貴軍2,3※,周成全2,3,4,景海濤1,馮海寬2,3,4,徐 波2,3,楊 浩3,4
(1.河南理工大學(xué)測(cè)繪與國(guó)土信息工程學(xué)院,焦作 454000; 2. 農(nóng)業(yè)部農(nóng)業(yè)遙感機(jī)理與定量遙感重點(diǎn)實(shí)驗(yàn)室, 北京農(nóng)業(yè)信息技術(shù)研究中心,北京 100097; 3. 國(guó)家農(nóng)業(yè)信息化工程技術(shù)研究中心,北京 100097; 4. 北京市農(nóng)業(yè)物聯(lián)網(wǎng)工程技術(shù)研究中心,北京 100097)
準(zhǔn)確、快速地獲取玉米苗期株數(shù)對(duì)于育種早期決策起著至關(guān)重要的作用。該文利用2017年6月于北京市小湯山鎮(zhèn)采集的無(wú)人機(jī)影像,首先對(duì)比分析RGB、HSV、YCbCr及L*A*B 4種色彩空間,變換優(yōu)選HSV顏色模型對(duì)無(wú)人機(jī)影像前景(作物)與后景(土壤背景)進(jìn)行分割,得到分類(lèi)二值圖。然后利用骨架提取算法及多次去毛刺處理等數(shù)學(xué)形態(tài)學(xué)流程提取玉米苗形態(tài),得到高精度作物形態(tài)骨架,結(jié)合影像尺度變換剔除噪聲影像,將影像分為多葉、少葉2類(lèi),經(jīng)Harris、Moravec和Fast角點(diǎn)檢測(cè)識(shí)別結(jié)果對(duì)比,Harris角點(diǎn)檢測(cè)算法可以較好地提取玉米苗期影像的株數(shù)信息。結(jié)果表明,少葉類(lèi)型識(shí)別率達(dá)到96.3%,多葉類(lèi)型識(shí)別率達(dá)到99%,總體識(shí)別率為97.8%,將目前傳統(tǒng)影像識(shí)別精度提高了約3%。同時(shí)在多個(gè)植株葉片交叉重疊覆蓋的情況下,該文的研究方法有良好的適用性。通過(guò)無(wú)人機(jī)影像提取玉米苗期作物準(zhǔn)確數(shù)目是可行的。該文采用了數(shù)學(xué)形態(tài)學(xué)的原理,通過(guò)HSV色彩空間變換得到的二值圖,從無(wú)人機(jī)影像中識(shí)別提取玉米苗期形態(tài)信息,利用影像尺度縮放變換去除噪點(diǎn),優(yōu)化骨架識(shí)別算法使得識(shí)別精度大大提高,最后采用角點(diǎn)檢測(cè)從無(wú)人機(jī)影像中直接讀取玉米材料小區(qū)內(nèi)的具體數(shù)目,該方法節(jié)省了人力物力,為田間大面積測(cè)定出苗率及最終估產(chǎn)提供了參考。
無(wú)人機(jī);作物;遙感;玉米;株數(shù);色彩空間;骨架提取;角點(diǎn)檢測(cè)
玉米的產(chǎn)量不僅受遺傳因素的影響,還受到栽培方式與生長(zhǎng)環(huán)境等因素綜合影響。研究玉米苗期出苗株數(shù)對(duì)育種早期決策,研究不同品種出苗率,以及在空缺土地及時(shí)補(bǔ)種作物,提高產(chǎn)量起著重要作用[1-2]。隨著無(wú)人機(jī)(unmanned aerial vehicles,UAV)技術(shù)的迅速發(fā)展及其在農(nóng)業(yè)科學(xué)中的應(yīng)用,使得獲取田間信息的手段變得多樣化,靈活化[3-4]。無(wú)人機(jī)影像相較于傳統(tǒng)衛(wèi)星影像,可以有效排除云朵的遮擋的影響,在陰天同樣可以采集遙感影像數(shù)據(jù)[5],按照實(shí)際需求方便地制定測(cè)量方案,改變飛行高度,得到高分辨率的影像數(shù)據(jù)[6]。此外,無(wú)人機(jī)遙感作物表型平臺(tái)可以在短時(shí)間內(nèi)得到高通量遙感影像,節(jié)省了時(shí)間、人力和經(jīng)濟(jì)成本[7-8],為農(nóng)業(yè)科學(xué)田間作物信息快速采集分析,提供了有力的支持,前景廣闊[9]。
表型組學(xué)是研究生物體表現(xiàn)型特征的學(xué)科,利用目標(biāo)群體詳細(xì)的表型信息,結(jié)合生物的基因型為功能基因組學(xué)提供堅(jiān)實(shí)的基礎(chǔ),現(xiàn)已經(jīng)用于復(fù)雜的生命系統(tǒng)研究中[10]。今年來(lái),農(nóng)業(yè)科學(xué)發(fā)展已經(jīng)對(duì)植物密度、作物產(chǎn)量和相關(guān)土壤特性等空間數(shù)據(jù)獲取分析研究提出更多需求。雖然現(xiàn)代的農(nóng)業(yè)機(jī)械化水平不斷地提高,但是傳統(tǒng)的生物量、葉面積指數(shù)(leaf area index,LAI)和產(chǎn)量等表型參數(shù)大多還停留在人工操作階段,耗時(shí)耗力,效率低且精度較低[11-14],因此需要采集高分辨率的影像,對(duì)作物表型進(jìn)行研究[15-16]。高通量作物表型平臺(tái)作為快速獲取表型信息的有效工具,從平臺(tái)上劃分可以分為溫室型和田間型。溫室型高通量平臺(tái)配置可見(jiàn)光(visible light,VIS)成像,紅外(infrared,IR)成像,近紅外(near infrared,NIR)成像和激光3D掃描儀等傳感器,獲取大量單株表型信息,但是其機(jī)動(dòng)性差、成本高等限制,難以用于植物種植密度大、生長(zhǎng)環(huán)境多變的大田生產(chǎn)條件。針對(duì)溫室型高通量平臺(tái)觀測(cè)局限性及現(xiàn)代農(nóng)業(yè)對(duì)大田觀測(cè)條件的要求,田間高通量平臺(tái)發(fā)展迅速。其主要分為農(nóng)用機(jī)械平臺(tái)(農(nóng)業(yè)機(jī)械、農(nóng)用車(chē)等)、人工移動(dòng)平臺(tái)(手推車(chē))和無(wú)人機(jī)平臺(tái)等。同時(shí)在識(shí)別方法上主要采用模式識(shí)別,機(jī)器學(xué)習(xí)等算法,對(duì)目標(biāo)地物進(jìn)行識(shí)別分類(lèi),目前大多數(shù)研究對(duì)作物識(shí)別精度停留在95%左右。Burgos-Artizzu等[17]利用拖拉機(jī)平臺(tái),采用數(shù)字視頻流的方式,在不同光照、土壤濕度和雜草生長(zhǎng)的條件下檢測(cè)植物,在錄制的視頻中,其探測(cè)系統(tǒng)對(duì)雜草的識(shí)別率為95%,對(duì)作物的識(shí)別度為80%。Shi等[18]利用人工移動(dòng)平臺(tái)搭載激光雷達(dá),從多個(gè)角度掃描秸稈根部,利用改進(jìn)的算法誤差將前期研究24%誤差的降低到14%。Shrestha等[19-20]利用數(shù)字視頻流對(duì)玉米植物進(jìn)行計(jì)數(shù),通過(guò)橢圓決策表面模型與空間分析的方法確定作物個(gè)數(shù),驗(yàn)證表明人工計(jì)數(shù)與系統(tǒng)株數(shù)有良好的相關(guān)性,其2達(dá)到0.9,對(duì)作物的識(shí)別誤差為5.4%。Gn?dinger等[21]利用無(wú)人機(jī)RGB影像采用閾值分割模式識(shí)別方式識(shí)別玉米苗,其人工計(jì)數(shù)與計(jì)算機(jī)計(jì)數(shù)相關(guān)系數(shù)2=0.89,誤差約為5%;Jin等[22]首次利用無(wú)人機(jī)影像,采用支持向量機(jī)對(duì)包含的圖像進(jìn)行估計(jì),并用粒子群優(yōu)化算法進(jìn)行訓(xùn)練優(yōu)化,識(shí)別計(jì)算作物密度狀況。對(duì)比其他高通量表型平臺(tái),基于搭載多傳感器無(wú)人機(jī)表型平臺(tái)進(jìn)行田間作物表型信息快速解析的技術(shù),效率高、成本低,適合復(fù)雜農(nóng)田環(huán)境[23-31]。現(xiàn)今大多數(shù)研究還停留在溫室[24],或在可控條件下進(jìn)行試驗(yàn),難以用于種植密度大、環(huán)境因素不可控的大田生產(chǎn)條件。因此,本文針對(duì)大田環(huán)境數(shù)據(jù)采集處理困難等缺點(diǎn),采用田間無(wú)人機(jī)遙感平臺(tái)進(jìn)行數(shù)據(jù)采集,監(jiān)測(cè)田間田間作物表型信息,有一定的實(shí)用價(jià)值。
本研究針對(duì)玉米苗期分葉較少、重疊度低等特點(diǎn),借助無(wú)人機(jī)遙感高通量作物表型平臺(tái),利用計(jì)算機(jī)視覺(jué)原理,建立一套基于數(shù)學(xué)形態(tài)學(xué)自動(dòng)化處理流程提取株數(shù)信息研究,以期為田間估產(chǎn)、農(nóng)場(chǎng)管理以及田間育種試驗(yàn)等提供參考。
試驗(yàn)田位于北京市昌平區(qū)小湯山國(guó)家精準(zhǔn)農(nóng)業(yè)示范基地。小湯山40°10′31″~40°11′18″N,116°26′10″~116°27′05″E,海拔高度約為50 m,有豐富的地?zé)豳Y源。整個(gè)試驗(yàn)區(qū)總體約800個(gè)玉米材料小區(qū),為了進(jìn)行育種分析,每個(gè)玉米材料的品種都不盡相同。每個(gè)材料小區(qū)設(shè)定為2.5 m×2.4 m,種植3行,每行栽種9到10株,設(shè)置25 cm株間距,每行間距0.6 m,排距為0.8 m。部分育種材料小區(qū)分布如圖1所示。

注:圖中紅色方框?yàn)椴煌N材料的小區(qū)分布框圖。
無(wú)人機(jī)影像試驗(yàn)數(shù)據(jù)于2017年6月8日(10:00-14:00)在北京市小湯山國(guó)家精準(zhǔn)農(nóng)業(yè)示范基地進(jìn)行采集。在無(wú)人機(jī)影像獲取時(shí),為了避免因云朵遮擋使得部分影像紋理特征信息丟失,選取太陽(yáng)光輻射強(qiáng)度穩(wěn)定,天空晴朗無(wú)云的天氣情況進(jìn)行采集。飛行高度約為40 m。采用DJ-S1 000八旋翼電動(dòng)無(wú)人機(jī),總質(zhì)量為4.4 kg,飛行載質(zhì)量為6 000~11 000 g,電池為L(zhǎng)iPo(6S、10 000~20 000 mAh、最小15C),尺寸為460 mm×511 mm× 305 mm,懸停時(shí)間為15 min左右。無(wú)人機(jī)搭載高清數(shù)碼相機(jī)航測(cè)影像儀器采用Sony Cyber-shot DSC-QX100鏡頭,質(zhì)量為179 g,尺寸62.5 mm×62.5 mm×55.5 mm像素,2 090萬(wàn)像素CMOS傳感器,拍攝影像最大分辨率為5 472×3 648,焦距10 mm(定焦拍攝),光學(xué)變焦倍數(shù)為3.6倍,采集到的數(shù)據(jù)源為*.TIF格式影像數(shù)據(jù)。在無(wú)人機(jī)拍攝影像前,在飛行區(qū)域內(nèi)布置地面黑白布,用于數(shù)碼影像DN值的標(biāo)定,降低相機(jī)的系統(tǒng)誤差。
本研究借助Agisoft PhotoScan軟件進(jìn)行無(wú)人機(jī)高清數(shù)碼影像的拼接處理。不同航帶之間設(shè)置30 cm×30 cm幾何參考板,在玉米整個(gè)生長(zhǎng)周期內(nèi)保持固定。幾何參考板中心點(diǎn)為測(cè)量的GPS控制點(diǎn),為不同航帶影像拼接時(shí)提供依據(jù),提高影像拼接精度。本研究借助Agisoft PhotoScan軟件自帶的幾何校正功能,基于幾何參考板GPS控制點(diǎn)進(jìn)行影像幾何校正,去除無(wú)人機(jī)姿態(tài)變化,大氣折射等影像。由于800個(gè)玉米育種小區(qū)的品種都不相同,采用Adobe Photoshop CC 2017將所有的地塊按照育種材料小區(qū)規(guī)劃進(jìn)行切割,整理出可行的研究區(qū)域。
1.2.1 作物識(shí)別分割研究
本研究為了檢測(cè)田間植株數(shù)量及空間分布,將獲取的RGB圖像轉(zhuǎn)換到HSV進(jìn)行顏色分析,玉米苗期影像識(shí)別及形態(tài)拾取采用Matlab 2017b軟件進(jìn)行處理。具體處理流程如圖2所示。

圖2 影像處理流程
為了減少影像噪聲及多余骨架分支對(duì)研究精度的影響,本研究引入影像尺度變換的原理,將影像進(jìn)行縮放,突出骨架主軸部分,去除大部分的噪點(diǎn)和骨架分叉。由于玉米品種的不同,同時(shí)期各材料小區(qū)內(nèi)玉米苗的長(zhǎng)勢(shì)也不盡相同。因此,根據(jù)玉米苗分葉情況,將材料小區(qū)分為2類(lèi),一類(lèi)為窄葉-葉小,二類(lèi)為寬葉-葉大。2種材料小區(qū)采用不同的影像縮放系數(shù),分類(lèi)處理。通過(guò)選取40個(gè)小區(qū),作為影像尺度研究樣本,反復(fù)分析樣本區(qū)域,最終確定影像尺度縮放系數(shù)為0.04與0.05。同時(shí)另選40個(gè)小區(qū)作為驗(yàn)證。
構(gòu)建彩色直方圖有助于判斷、校正和優(yōu)化圖像的亮度和對(duì)比度,評(píng)價(jià)圖像質(zhì)量,從影像中得到顏色通道信息,以供進(jìn)一步處理。對(duì)于RGB圖像,利用各顏色通道的直方圖來(lái)解釋圖像的亮度,利用紅色、藍(lán)色和綠色通道直方圖,采用0~255的取值范圍,其中0為黑色,255為白色,直方圖的高度演示了圖像中以像素表示的顏色值頻率。
本研究選取4種色彩空間模型,分別為RGB、HSV、YCbCr及L*A*B模型,通過(guò)對(duì)比分析,優(yōu)選HSV色彩空間作為遙感影像處理模型。RGB色彩空間模型通道可以表示為Red、Green、Blue,3個(gè)通道相互作用形成了各種顏色,各個(gè)分量的數(shù)值越小,亮度越低,數(shù)值越大,亮度越高。HSV(hue, saturation, value)是根據(jù)顏色的直觀特性由Smith創(chuàng)建的顏色空間,是顏色模型是RGB模式的一種非線性變換,因?yàn)榻咏祟?lèi)的色彩感知,因此常用到人臉識(shí)別[32]、園藝檢測(cè)[33]及去除陰影[34]等研究中。其中H表示色相,由物體反射或透射出來(lái)的顏色,在色相環(huán)上用0~360°來(lái)表示,從紅色開(kāi)始逆時(shí)針?lè)较蛴?jì)算,紅色為0,綠色為120°,藍(lán)色為240°;S表示飽和度(saturation,又稱(chēng)純度),是指顏色的強(qiáng)度,用色相中彩色成分所占的比例來(lái)表示,0為灰色,100%達(dá)到完全飽和,取值范圍為0~1.0,值越大顏色越飽和;V表示明度(value),表示顏色的明亮程度,反映顏色的相對(duì)明暗程度,取值范圍為0~255,取值為0時(shí)為黑色,255時(shí)達(dá)到最大亮度為白色。YCbCr色彩模型中,Y代表亮度分量,Cb指藍(lán)色色度分量,Cr指紅色色度分量。L*A*B*色彩模型中,L*指亮度,底端為黑色,頂端為白色。+a*代表品紅色,-a*代表綠色,+b*代表黃色,-b*代表藍(lán)色。通過(guò)不斷重復(fù)對(duì)比分析,確定影像處理閾值設(shè)定,將原始影像分為前景(作物)與后景(土壤背景),去除后景,只留下前景影像作為研究區(qū)域,將前景影像二值化得到玉米苗期形態(tài)二值圖。
1.2.2 骨架提取
通過(guò)色彩變換將影像變換到HSV色彩模型,根據(jù)作物色彩特性,通過(guò)閾值分割進(jìn)行邊緣信息提取[35]提取,最終得到作物土壤分離后的二值圖。本文采用基于勢(shì)能平衡的圖像骨架提取方法[36],在作物分割二值圖的基礎(chǔ)上進(jìn)行骨架提取研究,識(shí)別作物形態(tài)結(jié)構(gòu)。骨架化的結(jié)構(gòu)是目標(biāo)圖像的重要拓?fù)涿枋觯谟跋裉幚碇校螒B(tài)信息是非常重要的,可以從視覺(jué)上保有物體原有形狀即細(xì)化結(jié)構(gòu),便于描述目標(biāo)形態(tài)和抽取特征。本研究利用作物識(shí)別二值圖進(jìn)行骨架提取,同時(shí)加入多次去除毛刺分叉的方法,得到準(zhǔn)確度較高的玉米苗形態(tài)圖。
設(shè)原始影像中的像素點(diǎn)(,)如圖3所示(、為格網(wǎng)坐標(biāo)數(shù)值,、為像素點(diǎn)臨近格網(wǎng)坐標(biāo)數(shù)值),當(dāng)(,)=0時(shí),響應(yīng)點(diǎn)為黑點(diǎn);當(dāng)值為1時(shí),為白色背景點(diǎn)。其中(,)為

若(,)<9,且不為0,則說(shuō)明該背景像素點(diǎn)周?chē)辽倥R近了一個(gè)黑點(diǎn),此時(shí)該點(diǎn)被標(biāo)注為邊界點(diǎn)(,),所有的邊界點(diǎn)(,)的集合為。在求取像素點(diǎn)勢(shì)能時(shí),只計(jì)算以像素點(diǎn)為中心半徑為的范圍內(nèi)各邊界點(diǎn)對(duì)該點(diǎn)的影響。以窗口中間像素為中心,考察其對(duì)鄰近點(diǎn)的勢(shì)能矢量對(duì),若兩者角為鈍角,則可以認(rèn)為當(dāng)前點(diǎn)在該對(duì)稱(chēng)方向的勢(shì)能為0。若所有4對(duì)對(duì)稱(chēng)鄰近點(diǎn)在當(dāng)前點(diǎn)上形成的勢(shì)能矢量都為0,則該像素點(diǎn)為基本骨架。
1.2.3 角點(diǎn)檢測(cè)方法
本研究通過(guò)角點(diǎn)計(jì)數(shù)的方式,從材料小區(qū)中提取作物數(shù)目信息。為了驗(yàn)證本文方法的適用性,采用Harris、Moravec以及Fast 3種經(jīng)典的角點(diǎn)檢測(cè)算法,對(duì)影像株數(shù)信息進(jìn)行分析提取。從影像分析的角度來(lái)定義角點(diǎn)有2種:1)角點(diǎn)可以是2個(gè)邊緣的角點(diǎn);2)角點(diǎn)是鄰域內(nèi)具有兩個(gè)主方向的特征點(diǎn)。基于邊緣進(jìn)行角點(diǎn)提取,由于形態(tài)的不規(guī)則性導(dǎo)致角點(diǎn)拾取偏差較大,因此采用從作物二值圖提取識(shí)別的形態(tài)骨架進(jìn)行第二種角點(diǎn)檢測(cè)。Moravec等[37-38]提出了基于灰度強(qiáng)度的角點(diǎn)檢測(cè)算法,主要通過(guò)檢查圖像局部邊緣、角點(diǎn)及同質(zhì)區(qū)域的灰度值的變化來(lái)檢測(cè)角點(diǎn)。Harris角點(diǎn)檢測(cè)算法是由Harris和Stephens在Moravec算法的基礎(chǔ)上提出的一種特征點(diǎn)提取算法[39]。Fast角點(diǎn)檢測(cè)算法是由Smith等[40]提出的基于鄰域中與中心像素有相同亮度色素點(diǎn)小于閾值表明中心像素點(diǎn)是角點(diǎn)。經(jīng)過(guò)分析論證,發(fā)現(xiàn)利用Harris角點(diǎn)檢測(cè)提取影像縮放后的株數(shù)信息精度最高。因此本文利用經(jīng)典Harris角點(diǎn)檢測(cè)算法[41]進(jìn)行檢測(cè),將檢測(cè)出的角點(diǎn)數(shù)目作為材料小區(qū)內(nèi)的計(jì)算機(jī)視覺(jué)準(zhǔn)確計(jì)數(shù)數(shù)目進(jìn)行統(tǒng)計(jì),實(shí)現(xiàn)了短時(shí)間內(nèi),低成本測(cè)定材料小區(qū)作物的準(zhǔn)確株數(shù)。其基本原理是通過(guò)一個(gè)識(shí)別窗口,當(dāng)遇到窗口內(nèi)區(qū)域灰度發(fā)生較大變化是,就認(rèn)為遇到了角點(diǎn)。如果這個(gè)特定的窗口在圖像各個(gè)方向上移動(dòng)時(shí),窗口內(nèi)圖像的灰度沒(méi)有發(fā)生變化,那么窗口內(nèi)的圖像可能就是一條直線的線段。構(gòu)建數(shù)學(xué)模型,計(jì)算移動(dòng)窗口的灰度差值對(duì)于影像(,),當(dāng)在點(diǎn)(,)處平移(Δ,Δ),產(chǎn)生灰度變化(,)

式中(,)為窗口函數(shù),(+,+)為平移后的圖像灰度,(,)為圖像灰度。為了減小計(jì)算量,利用泰勒級(jí)數(shù)進(jìn)行簡(jiǎn)化公式最終得到

式中矩陣為梯度協(xié)方差矩陣,在實(shí)際應(yīng)用中為了能夠應(yīng)用更好的編程,定義焦點(diǎn)響應(yīng)函數(shù),通過(guò)判定大小來(lái)判斷像素是否為角點(diǎn)

其中det=12,trace=1+2,1和2為矩陣的特征值,為特征系數(shù)。
本研究采用了4種色彩空間變換模型對(duì)影像進(jìn)行研究分析,通過(guò)設(shè)定各個(gè)顏色通道特征閾值范圍,將影像前景與后景分離,得到材料小區(qū)內(nèi)植株作物閾值分割圖。4種色彩空間變換模型對(duì)比圖如圖3所示。

a. 原始圖像a. Original imageb. 閾值分割b. Threshold segmentation c. 骨架提取c. Skeleton extractiond. Harris角點(diǎn)檢測(cè)提取結(jié)果d. Harris corner detection extraction results
根據(jù)數(shù)學(xué)形態(tài)學(xué)原理,經(jīng)過(guò)一步步處理,最終得到Harris角點(diǎn)檢測(cè)結(jié)果如圖3d所示。本研究嘗試過(guò)腐蝕膨脹的算法對(duì)閾值影像進(jìn)行處理,但仍未得到平滑的邊緣,因此采用原始閾值分割圖像進(jìn)行后續(xù)研究處理。參照劉濤等[42],麥穗識(shí)別方式,最終將二值圖骨架的Harris角點(diǎn)個(gè)數(shù)作為田間玉米株數(shù)。4種色彩模型閾值設(shè)置范圍及處理過(guò)后影像特征結(jié)果如表1所示。
經(jīng)表1所表述的閾值,可以將玉米植株與土壤背景完全分離,并且同時(shí)進(jìn)行二值化,得到4種玉米苗形態(tài)二值圖。但是,由于各彩色通道的特性不同,因此影像處理出的結(jié)果有明顯差異。橫向?qū)Ρ?種色彩模型分析結(jié)果,其中采用HSV色彩變換模型得到的玉米形態(tài)像元數(shù)最高為156 591個(gè),同時(shí)產(chǎn)生的噪點(diǎn)(獨(dú)立點(diǎn)塊)數(shù)最少,為133個(gè)。因此說(shuō)明,在4種色彩空間變換模型中,HSV處理的效果最好,噪點(diǎn)最少,精度最高。材料小區(qū)處理過(guò)后4種色彩空間處理過(guò)后的影像如圖4所示。
表1 色彩空間閾值范圍與信息統(tǒng)計(jì)
Table 1 Threshold range and information statistics of color space

統(tǒng)計(jì)信息statistical informationRGB模型RGB modelHSV模型HSV modelL*A*B模型L*A*B modelYCbCr模型YCbCr model 通道1 Channel 1最大值Max1660.12166.905157 最小值Min1220.05237.64098 通道2 Channel 2最大值Max1340.6089.930127 最小值Min1070.0450.471108 通道3 Channel 3最大值Max1120.94827.589146 最小值Min630.33715.409137 玉米形態(tài)像元數(shù)Maize morphological pixels148 171156 591179 057149 252 獨(dú)立點(diǎn)塊Independent point block1113133206183

a. RGBb. HSV c. L*A*B*d. YCbCr
圖4 4種色彩空間變換模型閾值分割結(jié)果
Fig.4 Threshold segmentation results of 4 color space transformation models
從圖4中可以明顯看到,HSV相較于其他3種色彩空間處理結(jié)果,在保持較好形態(tài)的情況下,噪聲點(diǎn)塊最少,尤其是小石頭等田間雜物產(chǎn)生的大塊圖斑,在HSV閾值分割結(jié)果中可以準(zhǔn)確的過(guò)濾掉,同時(shí)植株邊緣提取結(jié)果更圓滑,凸起及毛刺較少。因此,本研究采用HSV色彩空間模型進(jìn)行圖像處理。
由于本研究采用樣本按照品種進(jìn)行劃分分析,因此為了驗(yàn)證方法可行性,將作物小區(qū)按照1/2小區(qū)、2/3小區(qū)、1個(gè)小區(qū)、2個(gè)小區(qū)和4個(gè)小區(qū)進(jìn)行分別計(jì)數(shù),以驗(yàn)證方法的可行性及精度。當(dāng)材料小區(qū)分割面積不同時(shí),各樣本區(qū)域真實(shí)植株數(shù)目與計(jì)算機(jī)自動(dòng)識(shí)別技術(shù)對(duì)比,各小區(qū)具有較高的識(shí)別精度。計(jì)算機(jī)識(shí)別株數(shù)與人工目視株數(shù)十分的接近。將2組數(shù)據(jù)進(jìn)行線性回歸分析,經(jīng)檢驗(yàn)其相關(guān)指數(shù)2約為0.99,證明2組數(shù)據(jù)擬合效果較高,具有較強(qiáng)的相關(guān)性,證明了本文的方法可靠。
將試驗(yàn)田按照玉米苗葉子形態(tài)大小進(jìn)行分類(lèi),利用Harris角點(diǎn)檢測(cè)識(shí)別提取40個(gè)樣本小區(qū)株數(shù)信息如圖5所示。圖中紅色框中區(qū)域代表一類(lèi)材料小區(qū)(葉窄、葉少),藍(lán)色框中區(qū)域代表二類(lèi)材料小區(qū)(葉寬、葉多),將影像尺度縮放系數(shù)分別設(shè)定在0.05和0.04,得到材料小區(qū)數(shù)目分類(lèi)計(jì)數(shù)結(jié)果。

圖5 材料小區(qū)精度統(tǒng)計(jì)
由圖5可知,絕大部分小區(qū)(32個(gè))的誤差在3個(gè)以內(nèi),各個(gè)材料小區(qū)內(nèi)的平均株數(shù)約為24株,平均誤差為2.25株,精度可靠。其中有7個(gè)小區(qū)計(jì)算機(jī)識(shí)別計(jì)數(shù)值與材料小區(qū)內(nèi)實(shí)際植株數(shù)目完全相同,達(dá)到100%。剩下的由于材料小區(qū)植株基數(shù)較小,因此很小的誤差所帶來(lái)的精度影響也是比較大的。但是絕大多數(shù)小區(qū)準(zhǔn)確率達(dá)到80%以上(小區(qū)總樣本量較少,因此浮動(dòng)較大),實(shí)現(xiàn)了從材料小區(qū)中通過(guò)計(jì)算機(jī)計(jì)數(shù)高精度識(shí)別作物準(zhǔn)確株數(shù)的目標(biāo)。
本文采用3種不同的角點(diǎn)檢測(cè)方法對(duì)作物小區(qū)作物株數(shù)進(jìn)行識(shí)別研究,在圖6中可以得到,Harris角點(diǎn)檢測(cè)的精度優(yōu)于其他2種角點(diǎn)檢測(cè)方法。從作為驗(yàn)證的10個(gè)樣本小區(qū)中可以看出,Harris角點(diǎn)檢測(cè)材料小區(qū)識(shí)別精度曲線要明顯高于其他2種方法識(shí)別精度,且小區(qū)平均精度也明顯更準(zhǔn)確。經(jīng)Harris角點(diǎn)檢測(cè)得到的材料小區(qū)株數(shù)信息平均精度為91.07%,Moravec檢測(cè)平均精度為83.28%,F(xiàn)ast角點(diǎn)檢測(cè)得到的結(jié)果為77.64%。從結(jié)果上看Harris對(duì)整體材料小區(qū)識(shí)別精度最高,其對(duì)折線轉(zhuǎn)點(diǎn)識(shí)別要更為準(zhǔn)確。

圖6 樣本小區(qū)作物株數(shù)信息識(shí)別精度
本研究從試驗(yàn)區(qū)中摘選常見(jiàn)的物種玉米苗期形態(tài)進(jìn)行分類(lèi)分析,表2為流程處理結(jié)果。

表2 流程處理結(jié)果
由表2可知,玉米苗期田間作物常見(jiàn)形態(tài)有5種,分別是雙葉單株、四葉單株、五葉單株、雙株重疊覆蓋、3株重疊覆蓋。根據(jù)本文的處理流程,表2介紹了從原始RGB影像到去土壤背景,二值化,骨架提取,角點(diǎn)檢測(cè),一步步流程處理中,單株形態(tài)變化。
從影像準(zhǔn)確度上來(lái)說(shuō),絕大部分可以從單株上進(jìn)行檢測(cè),在出現(xiàn)有幾株作物重疊覆蓋的時(shí)候,本方法依然有良好的識(shí)別適應(yīng)性。計(jì)算材料小區(qū)真實(shí)作物數(shù)目時(shí)候,利用正射影像的特性,從玉米苗開(kāi)葉之后,莖中心出現(xiàn)的黑色紋理進(jìn)行識(shí)別,得到真實(shí)值。從圖中可以看出,在單株時(shí),雖然可以檢測(cè)出角點(diǎn),但是由于影像尺度變換使得紋理改變,導(dǎo)致檢測(cè)出的角點(diǎn)所代表的中心點(diǎn)未能與目視中心重合。
圖7為不同角點(diǎn)檢測(cè)方法對(duì)結(jié)果準(zhǔn)確性的影響。由圖7可知,Moravec角點(diǎn)檢測(cè)對(duì)邊緣進(jìn)行檢測(cè)而Fast角點(diǎn)檢測(cè)主要依據(jù)識(shí)別窗口灰度差值進(jìn)行識(shí)別,因此這兩種角點(diǎn)檢測(cè)對(duì)于骨架折線圖沒(méi)有良好的適用性,精度較低。本文得到的影像識(shí)別結(jié)果,從誤差的角度上分為誤識(shí)率和漏識(shí)率兩部分。將識(shí)別提取出的玉米苗位置與無(wú)人機(jī)原始影像位置進(jìn)行目視匹配,統(tǒng)計(jì)各小區(qū)錯(cuò)分入(誤識(shí)率)與錯(cuò)分出(漏識(shí)率)的誤差情況。同時(shí)考慮到小區(qū)域向大區(qū)域匯總時(shí)誤差相互抵消問(wèn)題,在驗(yàn)證本文方法可行性時(shí),在不同影像范圍下進(jìn)行統(tǒng)計(jì)。其中Harris角點(diǎn)檢測(cè)的漏識(shí)率為1.9%,誤識(shí)率為0.3%;Moravec角點(diǎn)檢測(cè)漏識(shí)率為4.4%,錯(cuò)識(shí)率為7.9%;Fast角點(diǎn)檢測(cè)漏識(shí)率為4.9%,誤識(shí)率為9.9%。從統(tǒng)計(jì)結(jié)果上看,Harris角點(diǎn)檢測(cè)在漏識(shí)率與誤識(shí)率上面誤差較小,而Moravec與Fast角點(diǎn)檢測(cè)算法的誤差較大。在總體的識(shí)別率上,Harris角點(diǎn)檢測(cè)精度達(dá)到了97.8%,平均每個(gè)育種材料小區(qū)的處理時(shí)間為0.646 s,Moravec角點(diǎn)檢測(cè)識(shí)別率為87.4%,處理時(shí)間為0.984 9 s,而Fast角點(diǎn)檢測(cè)識(shí)別精度為85.8%,時(shí)間效率為0.3121 s。Fast角點(diǎn)檢測(cè)雖然時(shí)間效率最高,但精度最低。綜上所述,Harris角點(diǎn)檢測(cè)對(duì)于田間玉米苗期株數(shù)識(shí)別精度最高,也最為適用,因此最終采用Harris角點(diǎn)檢測(cè)對(duì)育種材料小區(qū)進(jìn)行分析。

圖7 不同角點(diǎn)檢測(cè)方法對(duì)結(jié)果準(zhǔn)確性的影響
本試驗(yàn)根據(jù)作物生長(zhǎng)情況不同,采用Harris角點(diǎn)檢測(cè)算法,將40個(gè)材料小區(qū)作為樣本反復(fù)試驗(yàn)分析,確定2類(lèi)影像尺度縮放比例系數(shù),最終確定準(zhǔn)確值。同時(shí)另選40個(gè)作物小區(qū)作為驗(yàn)證集,同樣將材料小區(qū)分為2類(lèi),一類(lèi)材料小區(qū)有26個(gè),實(shí)際作物株數(shù)為644株,計(jì)算機(jī)自動(dòng)識(shí)別提取作物數(shù)目為668株,準(zhǔn)確度為96.3%。二類(lèi)材料小區(qū)有14個(gè),材料小區(qū)作物株數(shù)為310株,計(jì)算機(jī)識(shí)別作物為307株,準(zhǔn)確度為99%。40個(gè)材料小區(qū)總體實(shí)際株數(shù)為954株,計(jì)算機(jī)識(shí)別作物為975株,總體準(zhǔn)確度可達(dá)到97.8%,誤差控制在5%以下,精度可靠。統(tǒng)計(jì)結(jié)果如表3所示。

表3 材料小區(qū)與總體計(jì)數(shù)精度統(tǒng)計(jì)表
經(jīng)精度驗(yàn)證,對(duì)比Shrestha等的方法,采用影像尺度縮放的方式,將整體精度上提升了約3%,尤其在處理多葉單株的情況時(shí),精度可以達(dá)到99%(總株數(shù)為310)。在苗期葉片重疊覆蓋的情況下,本文的研究方法有良好的適用性,依然可以得到高準(zhǔn)確度的玉米作物株數(shù)。在試驗(yàn)設(shè)計(jì)上,相較于溫室單株盆栽研究及其他無(wú)人機(jī)試驗(yàn)的飛行高度于3、5和7 m等情況,本文無(wú)人機(jī)的飛行高度為40 m,對(duì)于大面積影像玉米信息快速準(zhǔn)確提取有明顯優(yōu)勢(shì)。同時(shí),根據(jù)不同地點(diǎn),不同氣候影響等情況的出現(xiàn),結(jié)合田間實(shí)際玉米苗情,可以靈活的進(jìn)行分析處理,得到高精度的玉米株數(shù)識(shí)別統(tǒng)計(jì)結(jié)果。
從整體上看,根據(jù)出葉狀況,有2葉到6葉不等,因此從物候的角度來(lái)說(shuō)測(cè)區(qū)大部分玉米處于出苗期。本研究只針對(duì)玉米出苗期作為研究對(duì)象,分析苗期出苗情況,可以粗略測(cè)定各個(gè)材料品種之間不同的出苗率,對(duì)育種品種的甄選提供依據(jù)。同時(shí)在玉米出苗期時(shí),作物植株結(jié)構(gòu)簡(jiǎn)單,相連的玉米苗之間有較小的重疊度,避免了大面積葉片粘連,圖像無(wú)法分離的狀況。按照試驗(yàn)方案設(shè)計(jì)要求,不同玉米育種材料在相同的水肥條件下自然生長(zhǎng)。但在大田種植的條件下,無(wú)法精準(zhǔn)控制材料小區(qū)長(zhǎng)勢(shì)情況,因此存在明顯的長(zhǎng)勢(shì)差異。按照玉米苗期出苗長(zhǎng)勢(shì)情況,無(wú)人機(jī)數(shù)碼影像數(shù)據(jù)處理時(shí)按照相同影像縮放系數(shù)提取株數(shù)信息,但是處理出的結(jié)果不理想,識(shí)別率僅有90.6%。因此需要按照不同長(zhǎng)勢(shì)差異將玉米育種材料人為劃分為雙葉型與多葉型進(jìn)行分類(lèi)處理,以提高識(shí)別率。本文方法主要以玉米苗期的骨架形態(tài)信息作為切入點(diǎn)進(jìn)行提取研究,當(dāng)玉米過(guò)了苗期進(jìn)入其他生育期時(shí),葉片開(kāi)始變大,重疊現(xiàn)象加劇,很難從影像上進(jìn)行單株骨架提取,因此本研究只適用于玉米苗期圖像處理,對(duì)于玉米其他生育期未能有后續(xù)的研究。
本試驗(yàn)采用800個(gè)不同的玉米品種,在相同條件下,長(zhǎng)勢(shì)有明顯差異。同時(shí)測(cè)區(qū)地面中間部分地勢(shì)低,相較于兩邊地面土質(zhì)潮濕,中間部分的長(zhǎng)勢(shì)較好,分葉明顯葉片較大,其他區(qū)域的玉米長(zhǎng)勢(shì)較弱,因此產(chǎn)生了一部分材料不均勻的誤差。考慮其他的誤差來(lái)源,一是當(dāng)無(wú)人機(jī)按照預(yù)定設(shè)計(jì)路線飛行時(shí),在有風(fēng)情況下,攝影相機(jī)會(huì)有輕微晃動(dòng),導(dǎo)致局部影像紋理特征丟失,影像出現(xiàn)了模糊的情況。其次,試驗(yàn)田是在較理想的狀態(tài)下進(jìn)行識(shí)別的,田間雜草較少,但同時(shí)也會(huì)導(dǎo)致計(jì)數(shù)誤差的存在。此外,利用Harris角點(diǎn)檢測(cè)識(shí)別時(shí),會(huì)有單株出現(xiàn)兩個(gè)角點(diǎn)的情況出現(xiàn),產(chǎn)生計(jì)數(shù)誤差。在普通田地進(jìn)行處理時(shí),可以在前景影像與后景影像分離時(shí),考慮使用雜草識(shí)別的方式,將土壤背景與雜草一塊進(jìn)行剔除,減少對(duì)影像識(shí)別的干擾。
本文的研究方法是基于像元的方式進(jìn)行影像信息提取,嘗試基于面向?qū)ο蟮姆绞竭M(jìn)行作物獨(dú)立塊數(shù)的識(shí)別提取。但出現(xiàn)的問(wèn)題是,影像產(chǎn)生了很多噪點(diǎn)斑塊,同時(shí)對(duì)于長(zhǎng)勢(shì)較弱的植株,特征信息不明顯,容易被識(shí)別為噪聲斑塊,導(dǎo)致在進(jìn)行濾波處理時(shí)被錯(cuò)誤刪除,使得到的株數(shù)信息不準(zhǔn)確。
本研究采用了數(shù)學(xué)形態(tài)學(xué)的原理,通過(guò)閾值分割得到的二值圖,從RGB影像中直接分離出玉米苗期形態(tài)信息,利用影像尺度縮放變換,去除材料小區(qū)中大部分的噪聲點(diǎn)及骨架分叉,使得識(shí)別精度大大提高,結(jié)果證明:
1)在不同面積材料小區(qū)中,本研究計(jì)算機(jī)自動(dòng)識(shí)別株數(shù)與人工目視識(shí)別株數(shù)的相關(guān)系數(shù)2可以達(dá)到0.99,證明本研究在不同影像分辨率下的適用性。對(duì)比三種角點(diǎn)檢測(cè)的方法,得到Harris角點(diǎn)檢測(cè)精度最高,效果最好。同時(shí)在有少量重疊度的情況下,本文方法有良好適應(yīng)性。
2)從無(wú)人機(jī)影像中獲取玉米材料小區(qū)內(nèi)作物的準(zhǔn)確數(shù)目,將材料小區(qū)分為2類(lèi),各個(gè)材料小區(qū)內(nèi)的平均株數(shù)約為24株,平均誤差為2.25株,一類(lèi)材料小區(qū)識(shí)別率為96.3%,二類(lèi)識(shí)別率為99%,總體識(shí)別率為97.8%,將目前傳統(tǒng)影像識(shí)別精度提高了約3%,精度可靠。
從無(wú)人機(jī)影像中直接讀取玉米材料小區(qū)內(nèi)的具體數(shù)目,節(jié)省了人力物力,為田間大面積測(cè)定出苗率及最終估產(chǎn)提供了有力的支持.
[1] Cao Q, He M R, Dai X L, et al. Effects of interaction between densityand nitrogen on grain yield and nitrogen use ef?ciency of winter wheat[J]. Plant Nutrition and FertilizerScience, 2011, 17: 815-822.
[2] Liu P, Guo W S, Xu Y, et al. Effect of planting density ongrain yield and quality of weak-gluten and medium-gluten wheat[J]. Journal of Triticeae Crops, 2006, 26: 117-121.
[3] Floreano D, Wood R J. Science, technology and the future of small autonomous drones[J]. Nature, 2015, 521(7553): 460-466.
[4] Sankaran S, Khot L R, Espinoza C Z, et al. Low-altitude, high-resolution aerial imaging systems for row and field crop phenotyping: A review[J]. European Journal of Agronomy, 2015, 70: 112-123.
[5] Zhang C, Kovacs J M. The application of small unmanned aerial systems for precision agriculture: A review[J]. Precision Agriculture, 2012, 13(6): 693-712.
[6] Pe?a J M, Torres-Sánchez J, de Castro A I, et al. Weed mapping in early-season maize fields using object-based analysis of unmanned aerial vehicle (UAV) images[J]. Plos One, 2013, 8(10): e77151.
[7] Tripicchio P, Satler M, Dabisias G, et al. Towards smart farming and sustainable agriculture with drones[C]// International Conference on Intelligent Environments, IEEE, 2015: 140-143.
[8] Rez-Ortiz M, Jos A, Manuel, et al. Selecting patterns and features for between- and within- crop-row weed mapping using UAV-imagery[J]. Expert Systems with Applications An International Journal, 2016, 47(C): 85-94.
[9] 劉建剛,趙春江,楊貴軍,等. 無(wú)人機(jī)遙感解析田間作物表型信息研究進(jìn)展[J]. 農(nóng)業(yè)工程學(xué)報(bào),2016,32(24):98-106.
Liu Jiangang, Zhao Chunping, Yang Guijun, et al. Review of field-based phenotyping by unmanned aerial vehicle remote sensing platform[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2016, 32(24): 98-106. (in Chinese with English abstract)
[10] 楊有新,楊澤茂,吳才軍,等. 植物表型組學(xué)研究進(jìn)展[J]. 江西農(nóng)業(yè)大學(xué)學(xué)報(bào),2015,37(6):1105-1112.
Yang Youxin, Yang Zemao, Wu Caijun, et al. Advances in plant phenomics research[J]. Acta Agriculture Universitatis Jiangxiensis, 2015, 37(6): 1105-1112. (in Chinese with English abstract)
[11] Geesing D, Diacono M, Schmidhalter U. Site-specific effects of variable water supply and nitrogen fertilisation on winter wheat[J]. Journal of Plant Nutrition and Soil Science/ Zeitschrift fuer Pflanzenernaehrung und Bodenkunde, 2014, 177(4): 509-523.
[12] Fu Y, Yang G, Wang J, et al. Winter wheat biomass estimation based on spectral indices, band depth analysis and partial least squares regression using hyperspectral measurements[J]. Computers & Electronics in Agriculture, 2014, 100(2): 51-59.
[13] Pajares G. Overview and current status of remote sensing applications based on unmanned aerial vehicles (UAVs)[J]. Photogrammetric Engineering & Remote Sensing, 2015, 81(4): 281-329.
[14] Grosskinsky D K, Svensgaard J, Christensen S, et al. Plant phenomics and the need for physiological phenotyping across scales to narrow the genotype-to-phenotype knowledge gap[J]. Journal of Experimental Botany, 2015, 66(18): 5429-5440.
[15] Barabaschi D, Tondelli A, Desiderio F, et al. Next generation breeding[J]. Plant Science an International Journal of Experimental Plant Biology, 2016, 242: 3-13.
[16] Cobb J N, Declerck G, Greenberg A, et al. Next-generation phenotyping: requirements and strategies for enhancing our understanding of genotype–phenotype relationships and its relevance to crop improvement[J]. Theoretical & Applied Genetics, 2013, 126(4): 867-887.
[17] Burgos-Artizzu X P, Ribeiro A, Guijarro M, et al. Original paper: Real-time image processing for crop/weed discrimination in maize fields[J]. Computers & Electronics in Agriculture, 2011, 75(2): 337-346.
[18] Shi Y, Wang N, Taylor R K, et al. Improvement of a ground-LiDAR-based corn plant population and spacing measurement system[J]. Computers & Electronics in Agriculture, 2015, 112(C): 92-101.
[19] Shrestha D S, Steward B L. Automatic corn plant population measurement using machine vision[J]. Transactions of the Asae American Society of Agricultural Engineers, 2003, 46(2): 559-565.
[20] Shrestha D S, Steward B L. Shape and size analysis of corn plant canopies for plant population and spacing sensing[J]. Applied Engineering in Agriculture, 2005, 21(2): 295-306.
[21] Gn?dinger F, Schmidhalter U. Digital counts of maize plants by unmanned aerial vehicles (UAVs)[J]. Remote Sensing, 2017, 9(6): 544.
[22] Jin X, Liu S, Baret F, et al. Estimates of plant density of wheat crops at emergence from very low altitude UAV imagery[J]. Remote Sensing of Environment, 2017, 198(9):105-114.
[23] Gitelson A A, Vi?a A, Arkebauer T J, et al. Remote estimation of leaf area index and green leaf biomass in maize canopies[J]. Geophysical Research Letters, 2003, 30(30): 335-343.
[24] Nieuwenhuizen A T, Tang L, Hofstee J W, et al. Colour based detection of volunteer potatoes as weeds in sugar beet fields using machine vision[J]. Precision Agriculture, 2007, 8(6): 267-278.
[25] Meyer G E, Neto J C. Verification of color vegetation indices for automated crop imaging applications[J]. Computers & Electronics in Agriculture, 2008, 63(2): 282-293.
[26] Khojastehnazhand M, Omid M, Tabatabaeefar A. Determination of orange volume and surface area using image processing technique[J]. International Agrophysics, 2009, 23(3): 237-242.
[27] Montes J M, Technow F, Dhillon B S, et al. High-throughput non-destructive biomass determination during early plant development in maize under field conditions[J]. Field Crops Research, 2011, 121(2): 268-273.
[28] Araus J L, Cairns J E. Field high-throughput phenotyping: The new crop breeding frontier[J]. Trends in Plant Science, 2014, 19(1): 52-61.
[29] Kazmi W, Garcia-Ruiz F J, Nielsen J, et al. Detecting creeping thistle in sugar beet fields using vegetation indices[J]. Computers & Electronics in Agriculture, 2015, 112: 10-19.
[30] 趙春江. 農(nóng)業(yè)遙感研究與應(yīng)用進(jìn)展[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2014,45(12):277-293.
Zhao Chunjiang. The development of agricultural remote sensing research and application[J]. Journal of Agricultural Machinery, 2014, 45(12): 277-293. (in Chinese with English abstract)
[31] Brichet N, Fournier C, Turc O, et al. A robot-assisted imaging pipeline for tracking the growths of maize ear and silks in a high-throughput phenotyping platform[J]. Plant Methods, 2017, 13(1): 96-108.
[32] Shaik K B, Ganesan P, Kalist V, et al. Comparative study of skin color detection and segmentation in hsv and YCbCr color space[J]. Procedia Computer Science, 2015, 57: 41-48.
[33] Lien J J, Kanade T, Cohn J F, et al. Detection, tracking, and classification of action units in facial expression[J]. Robotics & Autonomous Systems, 2000, 31(3):131-146.
[34] Huang W, Kim K Y, Yang Y, et al. Automatic shadow removal by illuminance in HSV color space[J]. Comput. Sci. Inf. Technol, 2015, 3(3): 70-75.
[35] 張遠(yuǎn),蔣浩,朱登明,等. 基于骨架匹配的人體輪廓線提取[J]. 系統(tǒng)仿真學(xué)報(bào),2017(11):2774-2781.
Zhang Yuan, Jiang Hao, Zhu Dengming, et al. Human contour extraction based on skeleton matching[J]. Journal of System Simulation, 2017(11): 2774-2781. (in Chinese with English abstract)
[36] 宋靚. 淺述骨架提取算法及舉例[J]. 中國(guó)高新技術(shù)企業(yè),2011(13):29-31.
Song Liang. Brief introduction of Skeleton extraction algorithm and example[J]. China High Technology Enterprises, 2011(13): 29-31. (in Chinese with English abstract)
[37] Moravec H P. Towards automatic visual obstacle avoidance[C]// International Joint Conference on Artificial Intelligence. Morgan Kaufmann Publishers Inc. 1977:584.
[38] Moravec H P. Visual mapping by a robot rover[C]// International Joint Conference on Artificial Intelligence. Morgan Kaufmann Publishers Inc. 1979:598-600.
[39] 牛磊磊. 小麥條銹菌孢子的在線圖像獲取與計(jì)數(shù)方法研究[D]. 楊凌:西北農(nóng)林科技大學(xué),2017.
Niu Leilei. Online Image Acquisition and Counting of Wheat Stripe Rust Spores[D].Yangling: Northwest A&F University, 2017. (in Chinese with English abstract)
[40] Smith S M, Brady J M. SUSAN—A new approach to low level image processing[J]. International Journal of Computer Vision, 1997, 23(1):45-78.
[41] 梁艷. 角點(diǎn)檢測(cè)理論及算法研究[D]. 武漢:華中科技大學(xué),2010.
Liang Yan. Research on Primary Corner Detection Algorithm[D]. Wuhan: Huazhong University of Science and Technology, 2010. (in Chinese with English abstract)
[42] 劉濤,孫成明,王力堅(jiān),等. 基于圖像處理技術(shù)的大田麥穗計(jì)數(shù)[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2014,45(2):282-290.
Liu Tao, Sun Chengming, Wang Lijian, et al. In-field wheatear counting based on image processing technology[J]. Transactions of the Chinese Society for Agricultural Machinery, 2014, 45(2): 282-290. (in Chinese with English abstract)
Extraction of maize seedling number information based on UAV imagery
Liu Shuaibing1,2, Yang Guijun2,3※, Zhou Chengquan2,3,4, Jing Haitao1, Feng Haikuan2,3,4, Xu Bo2,3, Yang Hao3,4
(1.454000,; 2.,100097,; 3.100097,; 4.100097,)
Accurate and rapid acquisition of maize seedling number plays an important role in early decision-making of breeding. The aim of this work was to use the UAV images collected in Xiaotang mountain, Beijing in June 2017, to recognize and extract the number of maize at seedling stage by establishing a set of digital morphological process. The UAV was flying at a height of about 40 m, and the image data were collected under clear and wind-free conditions. Four color space transformation models (RGB, HSV, YCbCr and L*A*B) were compared and analyzed. The model which showed minimum noise and maintains more pixels was selected to divide image. The foreground (crop) and background (soil) were separated to obtain binary graph. Based on the image scale transformation principle, the images were divided into two types according to the number of leaves. According to the experimental design requirements, different maize breeding materials were growing naturally under the same water and fertilizer conditions. However, it was difficult to control the growth situation of the material area accurately, so there was obvious growth difference between different varieties. When the UAV digital image data were processed, the number of plants was extracted at the same scale, but the result was not ideal, and the recognition rate was only 90.6%. In order to improve the recognition rate, maize breeding materials were classified into two leaf type and multi leaf type according to different growth potential. The skeleton extraction algorithm and multiple deburring processes were utilized to extract crop shape skeleton with high accuracy. Finally, the corner detection results of Harris, Moravec and Fast were compared regarding recognition rate, the leakage recognition rate, the error recognition rate and the operation efficiency. Finally, the Harris corner detection algorithm was used to better extract the number of the maize seedling. Considering that there would be some overlapping leaves in the images, this study showed a comparison between computer identification and actual plant growth. The results showed that this method was still reliable under leaf overlapping conditions. At the same time, the possible errors were analyzed: 1) the influence of the wind during UAV flight; 2) the impact of weeds in the field; 3) the wrongful identification of a single plant as two, but the overall accuracy was still reliable. Through accuracy verification, the leaf recognition rate reached 96.3%, the multi-leaf recognition rate reached 99%, and the overall recognition rate was 97.8%, which proved that it was feasible and reliable to extract corn seedlings from UAV images. This research adopted the principle of mathematical morphology, obtained the binary image by HSV color space transform, recognized and extracted the maize seedling morphological information of UAV images, removed most of the material in the cell skeleton recognition accuracy optimization noise by using image zoom scale transform. By using image zoom scale transform, the recognition accuracy was greatly improved, directly distinguished the specific number of maize materials within the UAV image. This method saved the manpower and material resources and provided strong support for the field of large area determination of germination rate and final yield.
unmanned aerial vehicle; crops; remote sensing; maize; plant number; color space; skeleton extraction; corner detection
劉帥兵,楊貴軍,周成全,景海濤,馮海寬,徐 波,楊 浩. 基于無(wú)人機(jī)遙感影像的玉米苗期株數(shù)信息提取[J]. 農(nóng)業(yè)工程學(xué)報(bào),2018,34(22):69-77. doi:10.11975/j.issn.1002-6819.2018.22.009 http://www.tcsae.org
Liu Shuaibing, Yang Guijun, Zhou Chengquan, Jing Haitao, Feng Haikuan, Xu Bo, Yang Hao. Extraction of maize seedling number information based on UAV imagery[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2018, 34(22): 69-77. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2018.22.009 http://www.tcsae.org
2018-05-07
2018-09-05
國(guó)家重點(diǎn)研發(fā)計(jì)劃(2016YFD0300602);國(guó)家自然科學(xué)基金(61661136003,41471351);中國(guó)測(cè)繪科學(xué)研究院基本科研業(yè)務(wù)費(fèi)(7771814)
劉帥兵,助理研究員,主要從事數(shù)字圖像處理。 Email:463543329@qq.com
楊貴軍,研究員,主要從事定量遙感機(jī)理及應(yīng)用研究。Email:yanggj@nercita.org.cn
10.11975/j.issn.1002-6819.2018.22.009
TP75
A
1002-6819(2018)-22-0069-09