999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于無人機遙感的大豆倒伏識別研究

2024-12-31 00:00:00吳宇通張偉石文強李金陽亓立強
中國農機化學報 2024年9期
關鍵詞:無人機大豆

摘要:為快速識別大豆倒伏情況,準確提取大豆倒伏面積,提出基于無人機遙感技術的方法對大豆倒伏情況進行判斷。采用無人機獲取大豆鼓粒期冠層可見光(RGB)圖像及數字表面模型(DSM)圖像,提取可見光波段信息并構建過綠植被指數(EXG)圖像,將3類特征圖像進行圖像特征融合,得到DSM+RGB融合圖像,DSM+EXG+RGB融合圖像。利用最大似然法對4種特征融合圖像進行監督分類提取大豆倒伏面積,利用混淆矩陣方法驗證各圖像分類精度。結果表明,RGB圖像、DSM圖像、DSM+RGB特征融合圖像、DSM+EXG+RGB特征融合圖像提取倒伏大豆面積的整體精度分別為78.36%、65.38%、82.84%、68.41%。Kappa系數分別為0.75、0.53、0.81、0.58,DSM+RGB特征融合圖像提取大豆倒伏面積精度最高。圖像特征融合方法可用于評估大豆倒伏情況,為快速提取大豆倒伏面積提供參考。

關鍵詞:大豆;倒伏;無人機;特征融合;DSM;最大似然法

中圖分類號:S24; S127" " " 文獻標識碼:A" " " 文章編號:2095?5553 (2024) 09?0209?07

Study on soybean lodging identification based on UAV remote sensing

Wu Yutong Zhang Wei Shi Wenqiang Li Jinyang Qi Liqiang

(1. College of Engineering, Heilongjiang Bayi Agricultural University, Daqing, 163319, China;

2. Heilongjiang Province Conservation Tillage Engineering Technology Research Center, Daqing, 163319, China;

3. Key Laboratory of Soybean Mechanization Production, Ministry of Agriculture and Rural Affairs, Daqing, 163319, China)

Abstract: To quickly identify the soybean lodging conditions, accurate extraction of the soybean lodging area, a method based on Unmanned Aerial Vehicle (UAV) remote sensing technology is proposed to judge the soybean lodging situation. Red?Green?Blue (RGB) images and digital surface model Digital Surface Model, (DSM) images of soybean drums were obtained by UAV, visible light information was extracted and Excess Green (EXG) images were constructed, by using 3 types of feature images into image features, DSM + RGB fusion images and DSM + EXG + RGB fusion images were obtained. The maximum likelihood method was used to extract the soybean lodging area, and to verify the classification accuracy of each image by using the confusion matrix method. The results showed that the overall accuracy of the lodging soybean area extracted by RGB images, DSM images, DSM + RGB feature fusion images, and DSM + EXG + RGB feature fusion images were, respectively 78.36%, 65.38%, 82.84%, 68.41%. The Kappa coefficients were 0.75, 0.53, 0.81, and 0.58, respectively, with the highest accuracy in soybean lodging area extracted from DSM + RGB feature fusion images. Image feature fusion method can be used to evaluate soybean lodging and provide a reference for rapid extraction of soybean lodging area.

Keywords: soybean; lodging; UAV; characteristic fusion; digital surface model; maximum likelihood method

0 引言

大豆倒伏情況精確獲取對于大豆災害評估以及產量預測起著重要作用[1]。在鼓粒時期遭受惡劣天氣情況易發生倒伏,倒伏嚴重時會打破了原有自然形成的有序葉片空間分布,降低光合速率,增加癟粒率,百粒重下降,后期收獲時表現為底莢高度增加、增大機械損失,最終導致產量降低[2]。

目前,已有學者利用無人機遙感技術對不同作物倒伏情況進行研究并取得一定進展[3, 4]。胡琪等[5]利用無人機影像獲取小麥DSM數據對倒伏情況進行監測,識別精度88.33%,驗證了DSM數據可用于作物倒伏監測。Chu等[6]利用多光譜無人機結合田間實測作物高度,實現了對試驗地玉米整個生育時期長勢情況進行監測,定量估算玉米倒伏植株數量及倒伏率,但該方法不適合大范圍農田大豆倒伏災害評估。Murakami等[7]以低空氣球平臺搭載攝影測量系統獲取蕎麥植株高度、對其倒伏程度進行評估。Chauhan等[8]通過獲取衛星遙感數據,結合地面作物實測高度,利用偏最小二乘法對小麥倒伏情況進行判斷,并對其倒伏程度進行分類。慕濤陽等[9]利用改進DeepLabV3+模型對無人機遙感影像進行處理,對大面積水稻倒伏情況進行判斷和識別,準確率可達0.99,Kappa系數為0.98,但方法的可重復性較低。李宗南等[10]利用色彩和紋理特征對灌漿期玉米實際倒伏情況進行評估,并對灌漿期玉米倒伏區域面積進行計算,面積最大誤差6.9%,但田間的陰影面積會增加灰度色彩信息,導致模型分類時將陰影部分識別為倒伏玉米,影響分類精度。董錦繪等[11]利用最大似然法對小麥倒伏圖像進行分類,精度最高為85.04%,并對倒伏小麥面積進行計算,誤差為7.43%,此方法分類度依賴于圖像內感興趣區域劃分的準確度,局限于小范圍區域識別。張新樂等[12]對完熟期玉米多光譜影像進行分析,對倒伏玉米紋理形態特征,光譜特征等重組,得到5種特征組合,采用最大似然法監督分類,為玉米完熟期倒伏監測提供了一種切實可行方法,此種監督分類的方法對于特征融合后的倒伏圖像信息有更高精度,可用于特征融合后大豆倒伏信息提取。趙靜等[13]利用DSM、RGB、EXG特征融合方法對小麥倒伏情況進行判斷并計算倒伏面積,精度為93.75%,Kappa系數為 0.87,方法融合了小麥倒伏后的多種特征,適用于倒伏后遙感特征不明顯的大豆作物倒伏信息提取。

綜上,作物倒伏識別研究主要集中在玉米、小麥、水稻等作物上,此類作物倒伏后植株顏色、高程、紋理等特征明顯,便于提取倒伏信息[14]。大豆群體發生倒伏后,倒伏植株冠層依附在未倒伏植株上,形成高度差,可用于判斷倒伏程度;倒伏大豆冠層結構在可見光圖像中特征明顯,可用無人機可見光圖像進行識別。為準確劃分大豆倒伏情況,以大豆R6鼓粒期獲取的圖像為研究對象,以特征融合方法對大豆倒伏情況進行判斷,在進行大豆圖像特征融合時,在其DSM+EXG圖像基礎上增加可見光圖像,得到DSM+RGB+EXG融合圖像。通過分析大豆倒伏后特征差異,采用最大似然法進行監督分類提取大豆倒伏面積,進而快速準確評估大豆倒伏情況,為大豆田間倒伏監測提供方法。

1 材料與方法

1.1 試驗地概況

為驗證所提出方法能夠準確識別大豆倒伏情況,于2022年8月31日在黑龍江省黑河市嫩江縣九三大豆綜合試驗站試驗田開展試驗。2022年8月下旬九三地區出現大風、暴雨等惡劣天氣,導致試驗田大豆發生嚴重倒伏,試驗田整體遙感圖像如圖1所示,該地塊前茬為玉米,大豆種植規模和機械化程度較高,適宜實施無人機遙感作業。種植方式采用0.65 m壟上單行的種植模式,便于不同品種大豆對照。

1.2 圖像獲取及預處理

數據獲取時期為大豆R6時期,試驗中采用大疆精靈4多光譜版無人機作為圖像數據采集平臺,分辨率為5 472像素×3 684像素,相機視場角為84°,通過DJI GS Pro軟件設置無人機飛行參數,包括規劃航線、監測無人機飛行姿態、采集圖像質量,無人機續航情況等。根據試驗田面積,在保證圖像質量及重疊率的條件下將無人機飛行路線設置為“S”型。試驗航向重復率設置為80%,旁向重復率設置為80%,飛行高度設置為25 m,選取大豆倒伏較多區域為試驗區域,數據獲取過程中鏡頭與地面垂直,拍照模式設置為等時間間隔拍攝,拍攝間隔為2 s,獲取大豆冠層RGB圖像。參照大豆種質資源數據質量標準,農學倒伏程度指標,莖稈傾斜角度小于15°為1級倒伏,倒伏后植株略微傾斜,特征變化不明顯不易識別,憑借莖稈自身韌性可恢復;經過實地考察,植株傾斜角度大于15°(莖稈傾斜15°~45°之間為2級倒伏)植株冠層特征及高度會發生明顯變化,破壞作物群體結構,影響光合速率,有效結莢數減少百粒重下降,最終造成減產[15]。因此通過目視解譯將植株主莖傾斜角度大于15°視為倒伏大豆。

將采集的無人機圖像利用大疆智圖軟件進行圖像拼接,獲得試驗田RGB圖像及DSM數據,利用ArcGIS軟件實現無人機圖像的快速融合,保證底圖以及合成后圖像效果[16, 17]。

1.3 大豆倒伏信息提取

1.3.1 大豆倒伏信息提取流程

按照如圖2所示的流程,采用無人機遙感技術對大豆倒伏情況進行評估:利用無人機獲取試驗田大豆冠層圖像,拼接后使用ENVI的ROI裁剪工具進行掩膜處理,得到完整試驗田大豆圖像,提取特征圖后,使用ArcGIS鑲嵌工具進行特征融合,利用ENVI對融合后的圖像進行監督分類,計算大豆倒伏面積,利用混淆矩陣、Kappa系數對圖像融合模型進行精度評價,方法參考文獻[13]。

1.3.2 大豆倒伏圖像分割及特征提取

目前獲取作物DSM數據方法主要由無人機為載體,搭載激光雷達或RGB相機,經過對比不同作物DSM數據獲取精度分析,搭載激光雷達DSM數據數據獲取精度略高,但激光雷達儀器精密度較高,操作較為復雜,搭載RGB相機精度略低,但獲取DSM數據同時,也獲得RGB圖像,具有良好應用效果,更適用于農田遙感信息獲取,故采用無人機航拍圖像中獲取DSM圖像[18, 19]。

拼接后原始圖像內存在土壤等像元,影響分類效果,利用ENVI劃分ROI區域,保留大豆像元,利用ROI裁剪工具進行掩膜處理,剔除試驗田內土壤等像元,將DSM圖像與RGB可見光圖像位置配準后,利用同一ROI區域進行DSM圖像裁剪,得到用于提取EXG的RGB特征圖像及用于特征融合的DSM特征圖像。

過綠植被指數顏色特征多用于估算作物覆蓋度和分割圖像中作物與土壤等[20]。通過ArcGIS軟件影像分析工具,利用波段提取函數提取可見光圖像3個波段數據,并構建過綠植被指數如式(1)所示。

EXG=2G-R-B[EXG=2G-R-B (1)

式中: EXG ——過綠植被指數;

R ——可見光紅波段;

G ——可見光綠波段;

B ——可見光藍波段。

1.3.3 大豆倒伏圖像特征融合

部分作物如小麥倒伏后高度特征差異明顯,可以采用高度差參數對倒伏情況進行識別判斷[21],而對于大豆這種倒伏前后差異并不明顯作物,只利用一種特征參數進行倒伏信息提取,缺乏可靠性,需要對數據進行多次處理分析,篩選最優參數過程復雜,且最終獲得的分類參數往往存在分類效果不佳導致誤差過大等缺點;可利用多特征融合方法,將不同圖像特征進行融合,增強倒伏大豆與正常大豆之間特征變化,增大差異該方法操作過程簡單,不易受主觀因素干擾。因此采用圖像特征融合方式進行大豆倒伏信息提取。

大豆發生倒伏后,倒伏區域內植株原本冠層位置會發生變化,導致正常大豆植株與倒伏大豆冠層位置存在高度差。DSM可較好表達不同地物之間高程差異[22],提取大豆圖像DSM數據用于大豆倒伏識別,區分倒伏大豆與正常大豆。參考文獻[13]利用ArcGIS軟件,將得到的DSM圖像與RGB圖像進行融合得到DSM+RGB融合圖像,并將DSM圖像、RGB圖像、EXG指數圖像三者融合在一張圖像中,得到DSM+RGB+EXG融合圖像,如圖3所示。

為保證需要融合的圖像像素位置對應,在融合前需要對三種圖像位置進行校正。最后使用監督分類法對濾波處理后的特征融合圖像進行大豆倒伏信息提取。

1.3.4 樣本與分類器選擇

圖像分類器選用最大似然分類法(Maximum Like?hood Classification,MLC),遵循貝葉斯決策理論,假設所需分類的圖像數據符合正態分布,根據已知的特征類別,構建各特征概率分布函數,該方法依賴于特征劃分的準確度,適用于特征明顯的特征分類[23]。

采用最大似然分類法對特征融合后的4種圖像進行監督分類,統計像素數量計算試驗田大豆倒伏面積,并利用混淆矩陣進行模型分類精度驗證。進行監督分類前,先利用ENVI軟件對四種圖像進行感興趣區域(Region of Interest,ROI)劃分,每個圖像中按照地面特征、倒伏大豆與正常大豆特征,每個特征劃定200個感興趣區域,劃分時要保證感興趣區域大小相似,作為模型訓練集;在每個特征200個感興趣區域中隨機選取70個感興趣區域作為模型分類精度驗證集,驗證圖像模型分類精度。為保證分類精度,驗證集與訓練集不能出現重復區域。

1.3.5 大豆倒伏面積計算及精度評價

目前基于無人機遙感技術獲取作物倒伏面積的方法日漸成熟,主要將圖像內各類別像元數量換算為倒伏面積[24]。計算利用最大似然法分類后的4種圖像中倒伏大豆與非倒伏大豆像元數量,單個像元面積與區域內像素數量乘積即為該區域面積。計算如式(2)所示。

S=S1?nS=S1?n (2)

式中: S ——實際面積;

S1——單個像元面積;

n ——區域內像素數量。

對4種圖像進行監督分類后,使用混淆矩陣對各圖像分類結果進行精度評估。混淆矩陣通過對圖像中預測像元的結果與實際像元結果進行對比,統計模型中每一類別分類正確的像元數量及分類錯誤的像元數量,并將各類別像元占比進行統計,進而評價模型分類準確性和穩定性[25]。利用驗證集對模型分類結果進行驗證,利用制圖精度和用戶精度分析四種圖像對倒伏大豆和正常大豆分類效果,Kappa系數[26]可用來檢驗圖像中需要被分類區域與實際區域是否一致的評價性指標,可對模型分類結果進行評估。對比分析4種圖像分類結果的總體精度和Kappa系數,選取精度最高最穩定的圖像分類模型。

2 結果與分析

2.1 倒伏提取結果分析

研究實測試驗田總面積為5.352 hm2,大豆倒伏判斷使用的圖像其地面分辨率為每像素0.75 cm,圖像中倒伏大豆和正常大豆像素數量總和為9.5×109個,面積約為5.343 hm2,實測試驗田大豆倒伏面積為2.997 hm2,正常大豆面積為2.355 hm2。表1為基于4種圖像對正常大豆、倒伏大豆面積提取結果及誤差計算,通過計算不同特征分類后像素大小及像素數量,對比實測結果,基于DSM+RGB融合圖像提取大豆倒伏面積與實測值誤差最小,基于DSM圖像提取大豆倒伏面積誤差最大。

圖4為利用最大似然法對4種圖像進行監督分類提取大豆倒伏信息效果圖,結合分類圖像與分類結果,對比試驗田實際考察倒伏情況分析其誤差原因,RGB圖像、DSM+RGB融合圖像提取的倒伏信息與田間實際倒伏趨勢基本一致,DSM圖像與實際倒伏情況相差較大,而試驗田內大豆品種不一,高度不同,DSM圖像將大豆不同品種的高度差計算為倒伏高度差,進而將矮植株大豆識別為倒伏大豆,影響DSM圖像分類精度;可見光圖像分類精度較高原因是大豆倒伏后冠層結構與正常冠層結構存在差異,可用來作為判斷大豆是否倒伏的依據,增加DSM參數后,增大倒伏大豆與正常大豆的特征差異,一定程度上解決倒伏大豆與矮植株大豆難以分辨問題,DSM+RGB融合圖像識別精度在RGB圖像的基礎上進一步提高,主要誤差是添加DSM數據后將部分田埂土壤像元識別為倒伏區域。EXG指數將土壤與作物劃分后,存在將早熟品種大豆劃分土壤像元現象,融合大豆倒伏特征并不明顯,添加DSM和RGB數據后依然存在將正常矮植株大豆錯分為倒伏大豆現象導致分類準確度過低。

2.2 大豆倒伏面積提取精度驗證及分析

基于最大似然法的不同圖像大豆倒伏面積提取的精度混淆矩陣如表2所示。通過對比制圖精度,倒伏大豆面積識別精度最高的為DSM+RGB融合圖像,精度為86.47%,RGB圖像次之,精度為81.53%。DSM圖像分類精度最低,僅為60.33%。對比正常大豆分類面積用戶精度分析,最優的為RGB圖像,精度為84.65%,DSM+RGB融合圖像提取精度略低,精度為83.94%;DSM+RGB+EXG融合圖像和DSM圖像的正常大豆分類用戶精度均為60%左右,精度過低。對比正常和倒伏大豆不同精度分析,基于DSM+RGB圖像提取倒伏大豆倒伏信息精度優于RGB可見光圖像。

對比不同圖像的總體精度和Kappa系數發現,DSM圖像和DSM+RGB+EXG圖像的總體精度低,Kappa系數在0.5左右,模型不穩定。RGB圖像總體精度78.36%,Kappa系數為0.75,融合DSM數據后,DSM+RGB融合圖像的總體精度為82.84%,Kappa系數為0.81,模型分類精度得到提升,增加DSM特征后,正常大豆與倒伏的差異性增加,可提高大豆倒伏信息提取精度。

3 討論

參考小麥倒伏識別方法,利用可見光、高程信息、過綠植被指數融合方法進行大豆倒伏情況識別判斷及面積的提取,提取總體精度最高為82.84%,Kappa系數為0.81,但對比于趙靜等[13]利用該方法在小麥識別最高精度為93.75%,Kappa系數為0.87,可利用該方法進行大面積大豆倒伏信息提取,但識別精度有待提升,存在以下原因影響大豆倒伏信息提取精度。

1) 分析發現基于DSM圖像和DSM+RGB+EXG融合圖像模型提取總體精度均為60%左右,Kappa系數均在0.5左右,說明這兩種融合方法分類提取精度低,不適用于大豆倒伏分類。基于RGB圖像和DSM+RGB融合圖像倒伏面積提取精度高,說明將RGB圖像與DSM圖像特征融合后優勢互補,使倒伏大豆與非正常大豆之間特征差異可較好應用于倒伏大豆面積的提取。

2) 由于試驗田內存在不同品種,有小部分品種因生育期較短,提前到達成熟期,葉片脫落,地表裸露,未被剔除,影響分類精度。高程信息可作為大豆倒伏信息提取的特征,但大豆植株分支較多,倒伏后冠層錯綜復雜,高程特征參數表現并不如小麥倒伏后明顯,DSM+RGB融合圖像可識別倒伏但識別精度略低。

3) 使用特征融合的方法可較好的提取大豆倒伏信息,但只使用作物表型信息和形態特征無法達到較高識別精度。大豆倒伏后冠層分支結構變化較為明顯,可分析倒伏后大豆冠層光譜特征差異,獲取高精度大豆倒伏信息。

4 結論

1) 利用大豆倒伏后植株冠層和高度的變化特征,采用特征融合的方法將大豆冠層RGB圖像、DSM圖像、EXG圖像進行融合,增加正常大豆與倒伏大豆特征差異,利用ENVI進行圖像掩膜處理,利用最大似然法進行監督分類提取像素值,篩選出提取大豆倒伏面積精度最高的圖像融合方法,該方法可用于評估大田大豆倒伏情況。

2) 基于4種圖像大豆倒伏面積提取結果中,基于DSM+RGB行特征融合圖像提取大豆倒伏信息效果最佳,所測試驗田地塊面積為5.343 hm2,倒伏面積為2.517 hm2,倒伏大豆占比為47%,其總體精度為82.84%,Kappa系數為0.81,可為快速提取大豆倒伏面積提供參考。

參 考 文 獻

[ 1 ] 胡躍. 大豆莖稈相關性狀QTL定位[D]. 雅安: 四川農業大學, 2018.

[ 2 ] 董全中. 大豆倒伏相關性狀的QTL定位[D]. 哈爾濱: 東北農業大學, 2019.

[ 3 ] 趙立新, 李繁茂, 李彥, 等. 基于無人機平臺的直立作物倒伏監測研究展望[J]. 中國農機化學報, 2019, 40(11): 67-72.

Zhao Lixin, Li Fanmao, Li Yan, et al. Application prospect of crop lodging monitoring based on UAV platform [J]. Journal of Chinese Agricultural Mechanization, 2019, 40(11): 67-72.

[ 4 ] 周平, 周愷, 劉濤, 等. 水稻倒伏監測研究進展[J]. 中國農機化學報, 2019, 40(10): 162-168.

Zhou Ping, Zhou Kai, Liu Tao, et al. Progress in monitoring research on rice lodging [J]. Journal of Chinese Agricultural Mechanization, 2019, 40(10): 162-168.

[ 5 ] 胡琪, 武紅旗, 軒俊偉, 等. 基于無人機DSM的小麥倒伏信息提取[J]. 安徽農業科學, 2020, 48(16): 227-231.

Hu Qi, Wu Hongqi, Xuan Junwei, et al. Information extraction of wheat lodging based on DSM by UAV remote sensing [J]. Journal of Anhui Agricultural Sciences, 2020,48(16): 227-231.

[ 6 ] Chu T, Starek M J, Brewer M J, et al. Assessing lodging severity over an experimental maize (Zea mays L.) field using UAS images [J]. Remote Sensing, 2017, 9(9): 923.

[ 7 ] Murakami T, Yui M, Amaha K. Canopy height measurement by photogrammetric analysis of aerial images: Application to buckwheat (Fagopyrum esculentum Moench) lodging evaluation [J]. Computers and Electronics in Agriculture, 2012, 89: 70-75.

[ 8 ] Chauhan S, Darvishzadeh R, Boschetti M, et al. Discriminant analysis for lodging severity classification in wheat using RADARSAT-2 and Sentinel-1 data [J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2020, 164: 138-151.

[ 9 ] 慕濤陽, 趙偉, 胡曉宇, 等. 基于改進的DeepLabV3+模型結合無人機遙感的水稻倒伏識別方法[J]. 中國農業大學學報, 2022, 27(2): 143-154.

Mu Taoyao, Zhao Wei, Hu Xiaoyu, et al. Rice lodging recognition method based on UAV remote sensing combined with the improved DeepLabV3+ model [J]. Journal of China Agricultural University, 2022, 27(2): 143-154.

[10] 李宗南, 陳仲新, 王利民, 等. 基于小型無人機遙感的玉米倒伏面積提取[J]. 農業工程學報, 2014, 30(19): 207-213.

Li Zongnan, Chen Zhongxin, Wang Limin, et al. Area extraction of maize lodging based on remote sensing by small unmanned aerial vehicle [J]. Transactions of the Chinese Society of Agricultural Engineering, 2014, 30(19): 207-213.

[11] 董錦繪, 楊小冬, 高林, 等. 基于無人機遙感影像的冬小麥倒伏面積信息提取[J]. 黑龍江農業科學, 2016(10): 147-152.

Dong Jinhui, Yang Xiaodong, Gao Lin, et al. Information extraction of winter wheat lodging area based on UAV remote sensing image [J]. Heilongjiang Agricultural Science, 2016(10): 147-152.

[12] 張新樂, 官海翔, 劉煥軍, 等. 基于無人機多光譜影像的完熟期玉米倒伏面積提取[J]. 農業工程學報, 2019, 35(19): 98-106.

Zhang Xinle, Guan Haixiang, Liu Huanjun, et al. Extraction of maize lodging area in mature period based on UAV multispectral image [J]. Transactions of the Chinese Society of Agricultural Engineering, 2019, 35(19): 98-106.

[13] 趙靜, 潘方江, 蘭玉彬, 等. 無人機可見光遙感和特征融合的小麥倒伏面積提取[J]. 農業工程學報, 2021, 37(3): 73-80.

Zhao Jing, Pan Fangjiang, Lan Yubin, et al. Wheat lodging area extraction using UAV visible light remote sensing and feature fusion [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(3): 73-80.

[14] Ursani A A, Kpalma K, Lelong C C D, et al. Fusion of textural and spectral information for tree crop and other agricultural cover mapping with very?high resolution satellite images [J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2011, 5(1): 225-235.

[15] 周蓉. 大豆抗倒伏性評價體系的建立及主要農藝性狀QTL定位[D]. 武漢: 華中農業大學, 2009.

[16] 周春峰. 淺談基于ArcGIS軟件的基礎性地理國情監測數據生產[J]. 測繪與空間地理信息, 2021, 44(12): 109-110.

Zhou Chunfeng. Discussion of data production of fundamental geographic condition monitoring based on ArcGIS [J]. Geomatics amp; Spatial Information Technology, 2021, 44(12): 109-110.

[17] 李曉雙, 許言海, 周啟迪. 基于實景三維模型的DOM數據生產研究[J]. 測繪與空間地理信息, 2022, 45(S1): 242-244.

Li Xiaoshuang, Xu Yanhai, Zhou Qidi. Research on DOM data production based on the real scene three?dimensional models [J]. Geomatics amp; Spatial Information Technology, 2022, 45(S1): 242-244.

[18] 李超. 基于高分辨率DSM和遙感影像的建筑物提取[J]. 現代測繪, 2013, 36(3): 39-40.

[19] 梁永檢, 吳文志, 施澤升, 等. 基于無人機RGB遙感的甘蔗株高估測[J]. 作物雜志, 2023(1): 226-232.

Liang Yongjian, Wu Wenzhi, Shi Zesheng, et al. Estimation of sugarcane plant height based on UAV RGB remote sensing [J]. Crops, 2023(1): 226-232.

[20] 李金陽, 張偉, 康燁, 等. 基于無人機遙感技術的大豆苗數估算研究[J]. 中國農機化學報, 2022, 43(4): 83-89.

Li Jinyang, Zhang Wei, Kang Ye, et al. Research on soybean seedling number estimation based on UAV remote sensing technology [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(4): 83-89.

[21] 趙立成, 段玉林, 史云, 等. 基于無人機DSM的小麥倒伏識別方法[J]. 中國農業信息, 2019, 31(4): 36-42.

[22] 楊衛, 劉曉陽. 利用無人機獲取林區DSM的方法[J]. 資源信息與工程, 2019, 34(6): 66-68.

[23] 汪荃, 陳軍軍. 基于Sentinel-2時序影像的水稻種植信息提取[J]. 湖北農業科學, 2022, 61(16): 175-181.

Wang Quan, Chen Junjun. Extracting rice planting information based on Sentinel-2 time series images [J]. Hubei Agricultural Sciences, 2022, 61(16): 175-181.

[24] 李宗南, 陳仲新, 任國業, 等. 基于Worldview-2影像的玉米倒伏面積估算[J]. 農業工程學報, 2016, 32(2): 1-5.

Li Zongnan, Chen Zhongxin, Ren Guoye, et al. Estimation of maize lodging area based on Worldview-2 image [J]. Transactions of the Chinese Society of Agricultural Engineering, 2016, 32(2): 1-5.

[25] 吉海彥, 任占奇, 饒震紅. 基于高光譜成像技術的不同產地小米判別分析[J]. 光譜學與光譜分析, 2019, 39(7): 2271-2277.

Ji Haiyan, Ren Zhanqi, Rao Zhenhong. Discriminant analysis of millet from different origins based on Hyperspectral Imaging Technology [J]. Spectroscopy and Spectral Analysis, 2019, 39(7): 2271-2277.

[26] 何海清, 嚴椰麗, 凌夢云, 等. 結合三維密集點云的無人機影像大豆覆蓋度提取[J]. 農業工程學報, 2022, 38(2): 201-209.

He Haiqing, Yan Yeli, Ling Mengyun, et al. Extraction of soybean coverage from UAV images combined with 3D dense point cloud [J]. Transactions of the Chinese Society of Agricultural Engineering, 2022, 38(2): 201-209.

猜你喜歡
無人機大豆
注意防治大豆點蜂緣蝽
今日農業(2022年16期)2022-11-09 23:18:44
從大豆種植面積增長看我國糧食安全
巴西大豆播種順利
今日農業(2021年20期)2021-11-26 01:23:56
大豆的營養成分及其保健作用
今日農業(2021年14期)2021-10-14 08:35:34
用大豆“炸沉”軍艦
高職院校新開設無人機專業的探討
人間(2016年26期)2016-11-03 17:52:40
利用無人機進行航測工作的方式方法
一種適用于輸電線路跨線牽引無人機的飛行方案設計
科技視界(2016年22期)2016-10-18 14:30:27
淺析無人機技術在我國的發展前景
企業導報(2016年9期)2016-05-26 20:58:26
大豆種子
主站蜘蛛池模板: 在线观看国产精品日本不卡网| 浮力影院国产第一页| 婷婷色狠狠干| 不卡视频国产| 五月天丁香婷婷综合久久| 99热这里只有精品国产99| 国产青榴视频在线观看网站| 国产第一页第二页| 成年A级毛片| 欧美一级大片在线观看| 欧美成人二区| 欧美性猛交一区二区三区| 国产成人久久综合一区| 欧美午夜视频| 久久综合亚洲色一区二区三区| 四虎国产在线观看| 欧洲熟妇精品视频| 日韩午夜福利在线观看| 白丝美女办公室高潮喷水视频| 亚洲av日韩av制服丝袜| 欧美一级在线| 国产午夜人做人免费视频中文| 无码中字出轨中文人妻中文中| 91视频青青草| 黄色一级视频欧美| A级全黄试看30分钟小视频| 欧美日一级片| 久久人妻xunleige无码| 波多野吉衣一区二区三区av| 国产又色又刺激高潮免费看| 欧美自慰一级看片免费| 四虎在线观看视频高清无码| 国产99欧美精品久久精品久久| 亚洲无码不卡网| 国产在线拍偷自揄观看视频网站| 久久黄色毛片| 白浆视频在线观看| 欧美丝袜高跟鞋一区二区| 亚洲欧美日本国产专区一区| 国产AV无码专区亚洲精品网站| 精品国产中文一级毛片在线看| 无码专区国产精品一区| 99无码中文字幕视频| 一级成人a毛片免费播放| 亚洲第一成年免费网站| 99在线免费播放| 欧美成人二区| 久久精品人人做人人爽97| 国产91熟女高潮一区二区| 91成人精品视频| 热99re99首页精品亚洲五月天| 欧美www在线观看| 国产成在线观看免费视频| 亚洲久悠悠色悠在线播放| 久久五月天综合| 亚洲天堂久久新| 97久久人人超碰国产精品| 白丝美女办公室高潮喷水视频| 日本在线亚洲| 久久人人97超碰人人澡爱香蕉 | 国产精品专区第一页在线观看| 特级做a爰片毛片免费69| 国产精品妖精视频| 国产精品久久久久久久久久久久| 一区二区在线视频免费观看| 国产香蕉在线视频| 国产性精品| 九九热精品在线视频| 在线观看免费黄色网址| 色AV色 综合网站| 亚洲乱伦视频| 日本三级精品| 香蕉视频在线观看www| 男女精品视频| 久久久久88色偷偷| 欧美综合区自拍亚洲综合天堂| 国产美女在线免费观看| 99免费视频观看| 青青草国产在线视频| 国产剧情国内精品原创| 国产97色在线| 国产自产视频一区二区三区|