DOI:10.16232/j.cnki.1001-4179.2025.06.030
0 引言
在人類活動影響下,農田的邊界劃定、用途變更及生態狀態呈現動態變化特征,導致土地資源監管難度顯著增加。農田精準監測技術對飲用水水源地水質保護具有關鍵作用。以國家重點水利工程一南水北調中線水源地丹江口水庫為例,作為保障華北地區數億人口飲水安全的戰略水源,其水質狀況直接取決于流域生態環境質量。研究表明,庫區周邊農田的耕作模式(包括作物種植結構、化肥農藥施用強度及灌溉排水管理等)會通過面源污染途徑影響水體富營養化水平。因此,建立基于遙感與GIS技術的農田動態監測體系,對防控農業面源污染、保障“一泓清水永續北上”戰略目標的實現具有重要實踐價值。
綜合考慮經濟性和實用性等因素,當前農田監測主要依托遙感技術實現。在遙感技術發展初期,受限于影像空間分辨率不足及智能解譯算法尚未成熟,農田信息提取主要采用人工目視解譯方法。該方式要求專業人員直接判讀遙感影像,結合農學知識辨識農田邊界、種植類型及作物長勢等要素。盡管這種方法具有一定靈活性,但存在明顯局限性:一方面,解譯精度高度依賴人員專業水平,主觀性強;另一方面,人工處理效率難以滿足大范圍、高頻次監測的業務化需求。
隨著技術進步,自動化農田提取方法逐步發展成熟。這類方法主要通過對多光譜/高光譜遙感影像進行數字圖像處理,實現農田區域的智能識別與精確分割。典型技術路徑包括:基于邊緣檢測的分割方法[1-2] 基于圖像梯度的分割算法[3-4]、基于主動輪廓模型的分割技術[5]、基于多尺度紋理分析的分割方案[6。然而,傳統的形態學邊界提取方法只關注到圖像局部急劇變化的特征,如顏色、亮度等,人工設計的特征不包含高層次的物體信息,因而具有一定的局限性,其準確度難以達到應用的要求[7]
隨著遙感技術和計算機視覺領域的飛速發展,農田信息的自動化提取技術也在不斷演進。深度學習,特別是卷積神經網絡(CNN)和深度學習模型,如U-Net[8] 、MaskR-CNN[9]等,在圖像識別和分割領域取得了顯著進展。這些模型能夠自動從大量數據中學習復雜的特征表示,無需人工設計特征,即能夠捕捉到圖像中的高層次語義信息。2015年,Long等[10]引入了全卷積網絡(FCN),通過替換全連接層為卷積層,顯著提升了圖像語義分割的精度。Badrinarayanan 等[11]提出的SegNet,遵循對稱的編碼器-解碼器模式,并在解碼過程中采用反池化操作,能精確重建圖像細節。而Chen等[1]的DeepLab系列,引人了空洞空間金字塔池化(ASPP)模塊,通過多尺度特征融合與感受野擴展,進一步提升了語義分割的精準度。這些CNN主流方法在處理像素間復雜關聯時存在局限性,忽視了像素間相互作用的重要性,進而造成信息一定程度的丟失。
隨著 Transformer[13]模型的崛起,語義分割領域迎來了新的突破。Liu 等[14]提出的 Swin Transformer,通過創新的分層結構和局部注意力機制設計,不僅維持了高水平的分割精度,還顯著提升了計算效率,實現了速度與精度的良好平衡。Zheng等[15則將Transformer架構直接應用于語義分割任務,創造性地將圖像序列化處理并輸入至Transformer模型中。2021年,Xie等提出了SegFormer[16],將Transformer與輕量級多層感知機(MLP)解碼器結合在一起,進一步展示了Trans-former在語義分割任務中的潛力。
雖然已有大量研究將經典語義分割方法應用于農田分割,但現有模型的提取精度仍存在明顯不足[17] 。鑒于農田分布的特殊性和高精度識別需求,當前農田語義分割研究主要面臨兩大核心挑戰:
(1)盡管基于深度學習的農田提取方法在特征學習與自動特征提取方面具有顯著優勢,但其性能高度依賴于大規模高質量標注數據。目前,可用于模型訓練的農田標記數據集不僅數量有限,且標注質量參差不齊,這嚴重制約了深度學習模型的性能提升[18]
(2)農田具有地形復雜、時空動態變化的特點,現有算法在復雜場景下的泛化能力仍顯不足。具體而言,針對不同農業生態區、多時相(如作物生長季變化)以及多變的大氣與光照條件,現有方法對農田目標的精準分割仍存在魯棒性不足的問題[19]
針對上述挑戰,本研究基于國產高分二號(GF-2)和高分七號(GF-7)衛星遙感影像,構建了丹江口水庫周邊農田分割數據集DRFL。該數據集覆蓋湖北省丹江口市水庫周邊典型農田區域,包含4048張經過嚴格質量控制的 256×256 像素圖像。基于此數據集,本研究提出了一種新型遙感影像語義分割方法MIT-Unet,該方法使用Transformer編碼器增強Unet網絡,并具備聚合多尺度信息的能力,可以在提取局部信息的同時捕獲信息的長距離依賴。
1方法介紹
如圖1所示,模型整體由編碼器和解碼器兩部分組成。編碼器在4個階段產生不同尺度的特征,通過U-Net[8] 網絡中跳躍連接的思想被結合到解碼器對應的解碼卷積層中進行融合。MIT-Unet的編碼器包括4層混合注意力模塊(Mitblock),其采用了與 Seg-Former[16]中相同的 Transformer 編碼器(MiT)結構。而解碼器由4層卷積與注意力混合模塊組成。

與CNN結構的UNet[8]相比,MIT-Unet跳躍連接處并非簡單的通道相連,而是通過自注意力機制來進行特征融合;與 SegFormer[16]結構相比,SegFormer直接使用輕量級的MLP解碼器來聚合不同層次的特征信息,而MIT-Unet使用了多層次結構解碼器,其中每層特征尺度與編碼器對應,通過特征跳躍融合來進行層級次序解碼。MIT-Unet整體的結構設計結合了CNN與Transformer特點,能夠在提取局部信息的同時捕獲信息的長距離依賴。
對于一張 H×W×3 的輸人圖像,它首先經過編碼器的4個階段 i∈{1,2,…,4} 分別生成多尺度特征 Ei 2×2 ×C,iε{1,2,…,4},繼而通過解碼器依次生成精細的特征 D4-i+1 ,通過執行自注意力機制(self-attention)來進行特征融合。具體來說,對于解碼特征 Di+1 ,首先經過上采樣得到 Di+1up ,繼而與編碼特征 Ei 進行通道相加得到特征 Fi
對于 Fi 進行自注意力運算,首先生成注意力3個輸人:查詢
、鍵值 (K) 和值 (V) 。其計算過程為

式中: W* 為可學習參數。通過自注意力機制進行特征融合得到 FiM ,具體計算公式為

式中:Mix為自注意力計算過程; d 為 Q,K,V 的向量維度, Softmax(ξ) 為激活函數。
為了捕獲連接特征更豐富的局部信息,融合部分結合了卷積層進行進一步的特征提取。整體特征融合計算過程如公式(5)所示。
Di-1=Mix(Conv2(FiM))
式中: Conv2 為由兩個 3×3 大小的卷積組成的卷積層;Di-1 為輸人下一層解碼層的融合特征。解碼器經過上采樣及混合融合提取到的最后一層特征,最終經過一個輕量的分割頭得到分割結果,
網絡訓練的損失函數 L 由交叉熵損失 Lc (crossen-tropyloss)和骰子損失(diceloss) LD 兩部分組成。 Lc 的表達式如下所示:

式中: N 為樣本數量; yi 為第 χi 個樣本的真值;
為第 i 個樣本的預測結果。 Lp 的表達式如式(7)~(9)所示。


式中: ε 為平滑系數,實驗中取值為0.02。整體損失函數 L 表示為
L=λ1LC+λ2LD
式中: λ1,λ2 為權重系數;實驗中 λ1=1,λ2=1 。
2 數據集
2.1 數據采集
實驗以丹江口水庫管理范圍線為基準,向外延伸3km 作為數據采集范圍(圖2),采集的影像主要來源于四維地球提供的日新圖在線服務,影像類型以高分二號和高分七號為主。

丹江口水庫附近地域地勢西、北高,東、南低。西部、北部被伏牛山所環繞,形成較高的地勢。而東部則自北向南依次為山地、丘陵、壟崗、平原,南部開敞與江漢平原相連。山地主要由伏牛山等山脈組成,地勢較高且陡峭。在山地與平原之間,分布著廣闊的丘陵地帶,地勢相對平緩,但仍有明顯的起伏和坡度。而在丹江口水庫的南部,與江漢平原相連的地區為廣闊的平原地帶,地勢平坦,土壤肥沃,適宜農業種植。
實驗采集的影像涵蓋了山地、丘陵、平原等豐富的地形地貌。同時為了更全面地捕獲丹江口水庫周邊區域的影像特征,實驗分別采集了近5a不同季節的遙感高分影像。
2.2 數據集預處理
實驗使用數據集標注軟件AnyLabeling用于農田智能語義分割數據集的樣本標注,該軟件基于Python語言的PyQt框架開發。借助其中的 SAM[20] 半自動化地實現目標區域的標注,并結合人工目視經驗的微調達到對研究區域農田的高效標注。
針對數據集內的圖片大小不統一的情況,實驗將圖片統一轉換為 1 024×1 024 大小。具體來說,將圖像最大邊變換至1024大小并居中,用黑色填充不足的部分。圖3展示了調整后的樣本圖像。繼而將調整后的圖像均勻裁切為 256×256 大小的部分,以進行數據擴充。

2.3 語義分割數據集
基于高分二號和高分七號衛星遙感圖像構建的語義分割數據集DRFL如下:共包含4048張尺寸為256×256 的高質量圖像(其中訓練集3036張,測試集1012張),RGB波段的空間分辯率約為 1m ,背景區域標識為0,農田區域標識為1。數據集中平均每張農田區域占比為 17.85% ,其中占比小于 25% 的圖片為2964張,高于 25% 、低于 50% 的圖片為620張,高于50% 、低于 75% 的圖片有261張,高于 75% 的圖片有203張。每張圖像均進行標注,生成相應的掩模結果,以高清晰度的PNG格式保存。此數據集的構建,旨在全面覆蓋該區域不同地形特征、四季變換、農田分布模式及色調變化下的農田景觀,從而確保數據的廣泛代表性和深度分析價值。
DRFL數據集不僅對于提升該地區農田識別的精準度具有重要意義,還為進一步研究農田生態環境、農業資源監測以及土地利用規劃等領域提供了堅實的數據支撐和寶貴的資源基礎。圖4展示了該數據集的部分示例,其中每一行為一對樣本數據,左邊為輸入圖像,右邊為對應的標注掩膜,以紅色區塊進行標識。

3 實驗分析
3.1 實驗設置
本實驗基于Python3.8和PyTorch2.3.0開發工具完成,在 2.6GHz24 核CPU和2張TeslaV100型號GPU的服務器上進行訓練和測試,其操作系統為Cen-tOS7。模型初始化方面,首先在Imagenet-1K數據集上預訓練編碼器,并隨機初始化解碼器。實驗將所有數據集均按照 75% 與 25% 的比例劃分為訓練集和測試集。在訓練過程中,通過 0.5~1.5 的比例隨機縮放、隨機水平翻轉以及分別對數據集進行 128×128 大小隨機裁剪來進行數據增強。實驗使用AdamW優化器,初始學習率為0.0001,在訓練數據集上,所有模型以64大小的批次訓練了100個周期。此外,為了防止過擬合,采用了earlystop策略、數據增強、參數正則化等方式提高模型的泛化性。
3.2 對比方法
為了對比本文提出的語義分割模型在識別農田數據集上的效果,選擇了7個不同的模型和編碼器來進行對比評估,分別為Unet[21],DeepLabV3 + [22]FPN[20] ,PSPNet[23], PAN[24] ,Manet[25],Dcswin[26]。對比模型的編碼器結構及預訓練數據集如表1所列。

3.3 評價指標
語義分割任務通常使用4個指標來度量模型的整體精度,分別為 MIoU,Precision,Recall和F1- score。其中MIoU是平均交并比,代表數據集上所有類別IoU值的平均值,其計算公式為

式中: k 為類別數; IoUi 是計算第 i 個類別中預估結果和真實標簽之間的交集面積與并集面積之比, IoU 的計算過程如公式(12)所示。

式中: TP 為正確預測為真的像素數; FP 為假陽性像素數; FN 為假陰性的像素數。
Precision是正確預測的變化像素個數占所有預測
的變化像素個數比例,計算公式為

Recall是正確預測的變化像素個數占標注的變化像素個數比例,計算公式為

F1-score是對于分割結果的總體評估,結合了Precision和Recall進行計算,具體如下所示:

4個評價指標的取值范圍均為 0~1 ,計算結果越大則預測結果與真實標簽的重疊程度越高,即分割質量越高。
3.4 對比實驗結果
表2展示了不同語義分割模型在DRFL數據集上的定量指標結果。由表2可知,相比于其他方法,MIT-Unet在DRFL數據集上取得了最優的訓練結果,4個指標都達到了最高,體現了MIT-Unet結合CNN和Transformer的結構設計對于學習能力的提升。

在對比不同方法在DRFL測試集上的分割效果前,實驗選擇了兩種數據增強方式對測試集數據做了擴充,分別為HV和Multi,HV的增強方式包括垂直、水平翻轉,Multi的增強方式包括垂直、水平翻轉、 90° 旋轉、多尺度變換。實驗分別比較了兩種數據增強方式在測試集中農田單類別的分割精度,表3~4展示了不同方法分別以HV,Multi方式擴充的測試集上的定量結果。
表3DRFL測試集農田類別語義分割結果(HV)


從表3\~4 可知,MIT-Unet方法在IoU 和F1-score的兩個綜合性指標上達到了最優,說明MIT-Unet在農田分割任務中的性能良好。其中Dcswin方法達到了次優的效果,而Dcswin與MIT-Unet同樣采用基于Transformer架構的編碼器,表明了Transformer在特征提取過程中的信息提取優勢。
然而,對比表2和表3~4可知,使用DRFL作為單一的微調數據集在訓練和測試上存在一定的精度指標差距,并且測試模型的4個評價指標不穩定,以PSPNet和PAN為例,各指標精度起伏明顯。推測造成這一現象的原因是單一數據集引起的模型過擬合問題。
因此為了減緩數據過擬合的情況,本文隨后對數據集進行了擴充。擴充選用了公開數據集 BDCI[27],該數據集是2020年CCF舉辦的一個比賽數據集,圖片大小為 256×256 ,內部含有7種地物類別,其中農田在數據集中的占比為 51.8% 。實驗從中隨機選取5948張圖片,將類別標簽統一為1(農田)和0(背景)后擴充到DRFL的訓練集中。新的數據集命名為BD-CI_DRFL,該數據集訓練集有8985張圖片,占比90% ,測試集含有1012張圖片,占比 10% 。該數據集的訓練和測試策略與DRFL數據集保持完全一致。為了保證實驗結果的可對比性,兩個數據集的測試集樣本組成保持完全一致。
表5顯示了不同方法在BDCI_DRFL訓練集上的訓練結果,從結果上看,MIT-Unet依然取得了最優的分割效果。隨后在測試集上同樣采用HV和Multi兩種數據增強方式,對不同分割方法進行效果測試。表6展示了不同方法以HV方式擴充的BDCI_DRFL測試集上的定量結果,表7則展示了以Multi方式擴充的測試集上的定量結果。
各模型在測試集上的定量結果都有所提升,尤其是在 PAN[26] 模型上,IoU 從 68.26% 提升到 80.90% ,F1- score 從 81.15% 提升到了 89.44% ,說明了BDCI數據集的加人一定程度上有效地緩解了模型過擬合的問題,證明了BDCI_DRFL數據集的優勢。



(1)在使用Multi和HV數據增強技術后,各模型的IoU,F1-score和Recall指標顯著提升。這主要是因為Multi和HV通過組合多種數據增強技術,為模型提供了更加多樣化的訓練數據,從而增強了模型的泛化能力。然而從結果來看,各模型的Precision在數據增強后卻普遍有些下降,結合Recall和F1-score指標上升趨勢來分析,推測可能是數據增強緩解了模型的過擬合效果,促使其學習更通用的特征模式,而非僅學會記住訓練數據的細節。相比之下,HV增強雖然也帶來了性能提升,但其提升幅度相對Multi較小。這是由于HV技術僅通過垂直和水平翻轉來進行數據擴充,而Multi則結合多種擴充方式,在翻轉的同時,結合 90° 旋轉和多尺度變換來提高模型對旋轉和尺度變化的魯棒性,提供了更全面更多樣化的數據來增強模型的整體性能。
(2)在數據集上進行增強,數據在方向尺度等特征上變得更加多樣化后,不同模型架構在進行數據增強后的效果也存在顯著差異。從結果來看,基于Transformer架構的Dcswin和MIT-Unet方法較其他基于CNN的方法在指標上普遍達到了更好的效果,體現了Transformer強大的全局感知能力,此外結合了Transformer和CNN的MIT-Unet方法取得了最佳的綜合指標,說明Transformer結構有助于彌補CNN對于旋轉和多尺度的適應性,也證明了本文所提方法的有效性。
除了定量評估,實驗還從定性的角度分析了MIT-Unet模型的分割效果。圖5展示了MIT-Unet在基于Multi增強方法的BDCI_DRFL測試集上的部分可視化分割結果。展示中將分割結果與原始的圖片疊加在一起,將預測結果中的背景部分設置為透明,預測目標部分設置為紅色顯示,整體半透明式疊加在輸入圖像上。

分析圖5可知,MIT-Unet在面對不同季節、地形時都能較好地區分開草地、林地以及公路等建筑用地,精準地識別出農田部分。此外,實驗還在丹江口水庫周邊選擇了兩張不屬于BDCI_DRFL數據集的圖像,直接使用MIT-Unet進行識別分割,基于目視的方法來檢測模型對于未知域樣本的分割情況,結果如圖6所示。從分割情況可知,對于與訓練集不同的地形圖像,MIT-Unet也能夠準確地分割出農田區域,說明了本文提出方法具有一定的泛化能力。

4結論
本文提出了一種新的遙感農田語義分割方法MIT-Unet,旨在高效準確地從丹江口水庫周邊地區的遙感影像中提取農田信息,以滿足南水北調中線工程水源工程供水安全的要求。該方法通過結合CNN與
Transformer架構,深度挖掘圖像語義特征,并利用跳躍連接技術實現多尺度全局依賴信息的融合,從而克服了傳統人工目視解譯方法主觀性強、效率低的局限,提高了農田語義分割的精度。為了驗證MIT-Unet的性能,本文構建了一個新的農田語義分割數據集DRFL。實驗結果顯示,MIT-Unet在DRFL數據集上表現出色,IoU和F1-score分別達到 82.90% 和 90.65% ,優于其他對比方法。這一研究成果不僅為丹江口水庫汛期淹沒農田面積統計及災害損失評估提供了有力工具,也為其他地區農田分布監測、農業資源管理和生態環境保護等工作提供了重要的技術參考與借鑒。
鑒于本方法良好的泛化能力,研究可進一步擴展至其他地域的農田監測中,有效發揮本方法的研究和應用價值。
參考文獻:
[1]RYDBERG A,BORGEFORS G.Integrated method for boundary delineation of agricultural fields in multispectral satelite images[J]. IEEE Transactions on Geoscience and Remote Sensing,2001,39(11) :2514 -2520.
[2]LIANG Z X,WANG XB,HE T,et al.Research and implementation of instance segmentation and edge optimization algorithms[J].Journal of Graphics,2020,41(6) :939-946.
[3] BUTENUTH M,STRAUBB M,HEIPKE C.Automatic extraction of field boundaries from aerial imagery[C]//KDNet Symposium on Knowledge-Based Services for the Public Sector.2O04,3:14-25.
[4]ZHAN Z Y,AN Y J,C C W. Image threshold segmentation algorithms and comparative research[J].Information and Communication,2017 (4):86-89.
[5] GHAFFARIAN S,TURKER M.An improved cluster - based snake model forautomatic agricultural field boundary extraction from high spatial resolution imagery[J]. International Journal of Remote Sensing,2019,40(4) :1217-1247.
[6]XU L,MING D,ZHOU W,et al.Farmland extraction from high spatial resolution remote sensing images based on stratified scale pre- estimation[J]. Remote Sensing,2019,11(2) :108.
[7]YIN H,CHEN B,CHAI Y,et al. Vision-based object detection and tracking:a review.[J].Acta Automatica Sinica,2016,42(10) :1466 -1489.
[8]RONNEBERGER O,FISCHER P,BROX T. U- Net:convolutional networks for biomedical image segmentation[C]// International Conference on MedicalImage Computing and Computer - assisted Intervention.Cham:Springer,2015:234-241.
[9]HE K,GKIOXARI G,DOLLaRP,GIRSHICK R.Mask r-cnn[C]// Proceedings of the IEEE International Conference on Computer Vision,2017:2961 -2969.
[10]LONG J,SHELHAMER E,DARRELL T. Fully convolutional networks for semantic segmentation[ C] // Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2015:3431-3440.
[11]BADRINARAYANAN V, KENDALL A,CIPOLLA R. Segnet: a deep convolutional encoder-decoder architecture for image segmentation [J].IEEE Transactions on Pattern Analysis and Machine Inteligence,2017,39(12) :2481 - 2495.
[12]CHEN L C,PAPANDREOU G,KOKKINOS I,et al. Deeplab :semantic image segmentation with deep convolutional nets,atrous convolution, and fully conneted crfs[J]. IEEE Transactionson Pattern Analysis and Machine Intelligence,2017,40(4) :834 -848.
[13]VASWANI A.Attention is all you need[C]//Advances in Neural Information Processing Systems,2017.
[14]LIU Z,LIN Y,CAO Y,et al. Swin transformer: Hierarchical vision transformer using shifted windows[C]// Proceedings of the IEEE/ CVF International Conference on Computer Vision,2021:10012- 10022 .
[15]ZHENG S,LU J,ZHAO H,et al.Rethinking Semantic Segmentation from a Sequence - to - Sequence Perspective with Transformers[ C]// Computer Vision and Pattern Recognition. IEEE,2021:6877-6886.
[16]XIE E Z,WANG W H,YU Z D,et al.SegFormer:simple and eficient design for semantic segmentation with transformers.[J].arXiv:2105, 15203.
[17]陳雨情.基于深度學習語義分割模型的無人機圖像農田提取 [D].桂林:廣西師范大學,2023.
[18]黃品于.基于高分辨率遙感影像農田語義分割模型構建與優化 [D].南京:南京農業大學,2022.
[19]王艷.基于深度學習和形態學的遙感影像農田邊界提取算法研究 [D].長春:吉林大學,2023.
[20]KIRILLOV A,MINTUN E,RAVI N,et al. Segment anything[C]// Proceedings of the IEEE/CVF International Conference on Computer Vision,2023:4015-4026.
[21]RONNEBERGER O,PHILIPP F,THOMAS B. U - net: Convolutional networks for biomedical image segmentation[C]// Medical Image Computing and Computer - asssted Intervention - MICCAI 2015 :18th International Conference,Munich,Germany,2015:234-241.
[22] CHEN L C,ZHU Y,PAPANDREOU G,et al. Encoder - decoder with atrous separable convolution for semantic image segmentation[C]// Proceedings of the European Conference on Computer Vision (ECCV),2018:801 -818.
[23] ZHAO H,SHI J,QI X,et al. Pyramid scene parsing network[C]/ In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2017:2881 -2890.
[24]LI H,XIONG P,AN J,et al.Pyramid atention network for semantic segmentation[J].ArXiv,2018(1805):10180.
[25]FAN T,WANG G,LI Y,et al. Ma - net:a multi - scale attention network for liver and tumor segmentation[J]. IEEE Access,2020: 179656 - 179665.
[26]WANG L,LI R,DUAN C,et al.A novel transformer based semantic segmentation scheme for fine - resolution remote sensing images[J]. IEEE Geoscience and Remote Sensing Letters,2022:1 -5.
[27]LIU H,QIAN Q.Bi-level attention model with topic information for classification[J]. IEEE Access,2021 :125366 -125374.
(編輯:黃文晉)
Abstract:TheDanjiangkouReservoirservesasthewatersourcefortheSouth-to-NorthWater DiversionMidleRouteProject.Accuratelyandeficientlyextractingfarmlandinformationaroundthereservirisofgreatsignificanceforensuringwatersupplysecurityinthesourcearea.Traditionalfarmlandsurveymethodsprimarilyrelyonmanalvisualinterpretationofremoteensingimages,hichishighlysubjective,time-consuming,andlabor-intensive,filingtomeetthedemandforrapidandlargescalefarmland informationextraction.Toaddress this,this studyproposesaremotesensingfarmlandsemanticsegmentationmethodcalledMIT-Unet,hichextractsdeepsemanticfeaturesofimagesfrombothlocaland globalperspectivesandachieves thefusionof multi-scaleglobaldependencyinformationthroughskipconnections.Afarmlandsemanticsegmentationdataset,DRFL,is constructedtoevaluate the method'sefectivenes.Comparingtheproposed methodwith existingclasical methdssuchas Unet, DeepLabV3 + ,Manet,and Deswin,the results show that MIT-Unet achieves the best extraction performance on DRFL,with IoU and F1 - score metrics reaching 82.90% and 90.65% ,respectively. The research findings can provide technical support for farmlandareastatisticsanddisasterlossassessmentwithintheDanjiangkouReservoirconstructionarea,andserveasareferecefor farmlanddistributionmonitoring,agriculturalresourcemanagement,and ecologicalenvironment protection inotherregions.
Key words:farmland informationextraction;remotesensing images;semanticsegmentation;disasterlossasessment;Danjiangkou Reservoir