鄒強 劉茜 李娟妮
摘 要:遙感影像分類是遙感技術研究發展應用中的一個重要組成部分。基于Matlab平臺應用BP、LVQ兩種神經網絡算法對TM多光譜影像進行了分類研究,最后應用混淆矩陣對這兩種網絡算法與最大似然法的影像分類結果做了精度評價與對比分析。實驗結果表明,神經網絡分類器作為一種非參數分類器,進行影像光譜特征分類時能獲得較高的分類精度,引入對比度紋理特征后精度有更進一步的提高。兩種神經網絡算法中,LVQ網絡算法的影像分類精度比BP網絡要高。
關鍵詞:遙感影像分類 BP神經網絡 LVQ 神經網絡 Matlab 紋理特征
中圖分類號:P237 文獻標識碼:A 文章編號:1674-098X(2014)04(c)-0223-02
近幾十年來,遙感對地觀測技術的迅速發展為地表資源調查與環境監測提供了多平臺、多傳感器、多時相、多分辨率的海量影像數據,這些數據加工處理后被廣泛應用。人工神經網絡是以模擬人腦神經系統的結構與功能為基礎而建立的一個理論化數學模型,具有自學習、自組織、自適應、高度魯棒性、全局并行分布處理等良好特性。人工神經網絡分類具備較強容錯性,能實現對特征空間較復雜的劃分。
1 特征提取與選擇
遙感影像分類是模式識別技術在遙感技術領域中的一種典型應用。該文采用的影像數據為TM多光譜影像,大小為512×512,包含除熱紅外波段TM6以外的其他六個波段,空間分辨率為30 m,均已幾何校正與輻射定標。圖1是原始TM影像的4、3、2三個波段合成的假彩色影像。如何從各波段影像中選擇或者提取特征影像對后期的影像分類精度影響較大。通常既要考慮選擇的特征影像所包含的地物信息量,又要考慮影像波段間的獨立性。對此Chavez[5]等人在1982年提出了最佳指數因子(Optimum Index Factor,OIF)模型分析法。OIF計算公式如下式(1):
(1)
式中,Si表示第i波段數據的標準差。Rij是第i個波段與第j個波段間的相關系數。本文n取值為3。OIF值越大表明對應的波段組合兼顧波段的信息量與波段間的獨立性越好。
在計算并分析TM各波段數據間的相關系數與每個波段的信息含量后,基于OIF模型計算TM影像中任意三個波段的OIF值,在TM1,2,3時,OIF值31.332;TM1,2,4時,OIF值64.185;TM1,2,5時,OIF值37.264;TM1,2,7時,OIF值26.506;TM1,3,4時,OIF值65.790;TM1,3,5時,OIF值41.100;TM1,3,7時,OIF值29.328;TM1,4,5時,OIF值67.454;TM1,4,7時,OIF值64.549;TM1,5,7時,OIF值30.867;TM2,3,4時,OIF值69.391;TM2,3,5時,OIF值39.326;TM2,3,7時,OIF值28.888;TM2,4,5時,OIF值68.653;TM2,4,7時,OIF值69.144;TM2,5,7時,OIF值29.696;TM3,4,5時,OIF值70.489。綜合分析TM影像各波段數據間的相關系數與每個波段的信息含量后,考慮將TM影像的波段組合3、4、5作為其后期分類的光譜特征影像。
紋理特征是影像中普遍存在卻又難以描述的空間特征,一直為研究者所關注。GLCM分析法是實際中常用紋理信息表達與提取的最具代表性的統計分析方法之一。影像的GLCM定義為從影像位置為(x,y)、灰度為i的像素出發,統計出該像素及與此像素距離為δ、灰度為j的像素同時出現的概率。數學式表達如下式(2):
(2)
式中,i,j=0,1…L-1;L是影像的灰度級數;分別為影像中的像素坐標;為影像的行列數;δ是兩個像素間相隔的距離;θ是兩個像素連線按順時針方向與X正向軸的夾角。
Barald等[6]人的研究工作表明對遙感影像而言,對比度、相關性、熵、二階矩這四種常用的紋理度量特征統計效果較好。根據以上四種紋理度量特征對紋理的描述特性結合影像上待分地物類型紋理表現特點,選擇了對比度紋理特征,提取結果如下圖2所示。
2 人工神經網絡
人工神經網絡是根據生物神經網絡研究成果啟發構造的一種數學模型,神經元是其最基本單元,其能學習和模仿人腦的信息處理活動。
BP神經網絡是一種利用非線性可微分函數進行權值修正與調整的多層前饋人工神經網絡,也是前向網絡的核心部分,其主要特點是輸入信號正向傳遞,誤差反向傳播。
LVQ(學習向量量化)神經網絡學習算法是從Kohonen競爭算法演化而來,它由輸入層,競爭層與線性輸出層三層神經元組成。其中,輸入層與競爭層間的神經元全連接,競爭層與輸出層之間的神經元部分連接且連接權值固定為1。當用于模式分類時,其優點在于能求得全局最優且不需要對輸入向量進行歸一化與正交化。
3 實驗結果及精度評價與對比分析
結合影像的相關背景資料并對影像目視解譯,綜合分析后將TM影像上的主要地物類型分為植被、河水、海水、道路用地及居民區用地等五種。本文所用的訓練樣本與精度測試樣本通過ENVI軟件獲取。啟動ENVI,選取一定數量分布均勻,具有典型性、代表性及準確性的訓練樣本與測試樣本。對訓練樣本進行優化提純后,確定TM影像上的待分地物類型對應選擇的訓練樣本數目各為500個;然后為每類地物類型隨機產生各150個測試樣本;選擇參與分類的TM影像數據組合,將這兩類樣本均輸出保存為ASCII文本文件。
將分類影像數據及ASCII文本文件中的訓練樣本、測試樣本讀入Matlab中,分別對其進行如下式(3)的數據歸一化處理,以去除不同維度數據間的數量級差別,從而避免因輸入與輸出數據的數量級差別太大而造成網絡訓練與預測誤差較大。
(3)endprint
式中,分別是轉換前后的數據值,分別為數據集合中的最小值與最大值。
對BP網絡中的不同地物類別訓練樣本輸入向量對應的期望輸出向量采用以下一種新編碼,如某一個輸入向量xi(i為該輸入向量的類別號),則對應的期望輸出向量編碼為[0.1 0.1 …0.9…0.1]mT,其中m為影像上待分的地物類別數。
在Matlab平臺上創建BP與LVQ神經網絡,設置并不斷調整影響訓練效果的相關參數,如網絡的初始連接權值與閾值、學習算法函數、訓練算法函數、網絡傳遞函數、網絡的拓撲結構等,然后對創建的兩種網絡進行大量的訓練,分別取訓練誤差最小的網絡對各組影像數據進行分類;為直觀表示分類結果,使用顏色表矩陣為各地物類型對應的類別號賦予一種顏色,其中植被為綠色、河水為藍色、海水為青色、道路用地為黃色、居民區用地為品紅色,將分類結果輸出為索引彩色圖像。
如圖3(a)、(b)、(c)、(d)分別是基于BP網絡的兩組TM影像數據分類結果與基于LVQ網絡的兩組TM影像數據分類結果。
利用訓練好的多組BP與LVQ神經網絡對相應歸一化后的測試樣本仿真預測,最終輸出為各地物類別編碼,針對不同地物類別統計相應的真實地物類別編碼個數,輸出為混淆矩陣,再求算總體精度與Kappa系數進行精度評價;同時亦對基于光譜特征的最大似然法分類結果進行了精度計算。最大似然法:總體精度:72.9%,kappa系數0.711;BP網絡數據一總體精度76.5%,kappa系數0.743,數據二:總體精度80.7%,kappa系數0.788;LVQ網絡:數據一總體精度79.5%,kappa系數0.774,數據二總體精度85.7%,kappa系數0.836.
對圖3中TM影像數據的各組分類結果進行人眼目視觀察,可明顯看出LVQ神經網絡算法的總體分類效果都較BP網絡要好,且“椒鹽現象”比較少。從表2中的定量精度分析中可獲知,不論是總體精度還是Kappa系數,兩種神經網絡算法的都較最大似然法的影像分類精度高,其中LVQ網絡算法的分類精度最高,尤其引入紋理特征后有更明顯的提高。
4 結語
實驗結果表明,BP與LVQ神經網絡分類器從一定程度上可以克服傳統遙感影像分類方法無法解決的不確定性與模糊性,能獲得較高的影像分類精度,引入紋理特征后精度有更進一步的提高,說明這兩種神經網絡算法能有效的將光譜特征與紋理特征有機結合起來對影像進行分類,具有較強的研究價值與應用意義。
參考文獻
[1] 魏麗英,夏明,田春林.基于LVQ神經網絡的城市快速路事件自動檢測算法[J].吉林大學學報(工學版),2010(2).endprint
式中,分別是轉換前后的數據值,分別為數據集合中的最小值與最大值。
對BP網絡中的不同地物類別訓練樣本輸入向量對應的期望輸出向量采用以下一種新編碼,如某一個輸入向量xi(i為該輸入向量的類別號),則對應的期望輸出向量編碼為[0.1 0.1 …0.9…0.1]mT,其中m為影像上待分的地物類別數。
在Matlab平臺上創建BP與LVQ神經網絡,設置并不斷調整影響訓練效果的相關參數,如網絡的初始連接權值與閾值、學習算法函數、訓練算法函數、網絡傳遞函數、網絡的拓撲結構等,然后對創建的兩種網絡進行大量的訓練,分別取訓練誤差最小的網絡對各組影像數據進行分類;為直觀表示分類結果,使用顏色表矩陣為各地物類型對應的類別號賦予一種顏色,其中植被為綠色、河水為藍色、海水為青色、道路用地為黃色、居民區用地為品紅色,將分類結果輸出為索引彩色圖像。
如圖3(a)、(b)、(c)、(d)分別是基于BP網絡的兩組TM影像數據分類結果與基于LVQ網絡的兩組TM影像數據分類結果。
利用訓練好的多組BP與LVQ神經網絡對相應歸一化后的測試樣本仿真預測,最終輸出為各地物類別編碼,針對不同地物類別統計相應的真實地物類別編碼個數,輸出為混淆矩陣,再求算總體精度與Kappa系數進行精度評價;同時亦對基于光譜特征的最大似然法分類結果進行了精度計算。最大似然法:總體精度:72.9%,kappa系數0.711;BP網絡數據一總體精度76.5%,kappa系數0.743,數據二:總體精度80.7%,kappa系數0.788;LVQ網絡:數據一總體精度79.5%,kappa系數0.774,數據二總體精度85.7%,kappa系數0.836.
對圖3中TM影像數據的各組分類結果進行人眼目視觀察,可明顯看出LVQ神經網絡算法的總體分類效果都較BP網絡要好,且“椒鹽現象”比較少。從表2中的定量精度分析中可獲知,不論是總體精度還是Kappa系數,兩種神經網絡算法的都較最大似然法的影像分類精度高,其中LVQ網絡算法的分類精度最高,尤其引入紋理特征后有更明顯的提高。
4 結語
實驗結果表明,BP與LVQ神經網絡分類器從一定程度上可以克服傳統遙感影像分類方法無法解決的不確定性與模糊性,能獲得較高的影像分類精度,引入紋理特征后精度有更進一步的提高,說明這兩種神經網絡算法能有效的將光譜特征與紋理特征有機結合起來對影像進行分類,具有較強的研究價值與應用意義。
參考文獻
[1] 魏麗英,夏明,田春林.基于LVQ神經網絡的城市快速路事件自動檢測算法[J].吉林大學學報(工學版),2010(2).endprint
式中,分別是轉換前后的數據值,分別為數據集合中的最小值與最大值。
對BP網絡中的不同地物類別訓練樣本輸入向量對應的期望輸出向量采用以下一種新編碼,如某一個輸入向量xi(i為該輸入向量的類別號),則對應的期望輸出向量編碼為[0.1 0.1 …0.9…0.1]mT,其中m為影像上待分的地物類別數。
在Matlab平臺上創建BP與LVQ神經網絡,設置并不斷調整影響訓練效果的相關參數,如網絡的初始連接權值與閾值、學習算法函數、訓練算法函數、網絡傳遞函數、網絡的拓撲結構等,然后對創建的兩種網絡進行大量的訓練,分別取訓練誤差最小的網絡對各組影像數據進行分類;為直觀表示分類結果,使用顏色表矩陣為各地物類型對應的類別號賦予一種顏色,其中植被為綠色、河水為藍色、海水為青色、道路用地為黃色、居民區用地為品紅色,將分類結果輸出為索引彩色圖像。
如圖3(a)、(b)、(c)、(d)分別是基于BP網絡的兩組TM影像數據分類結果與基于LVQ網絡的兩組TM影像數據分類結果。
利用訓練好的多組BP與LVQ神經網絡對相應歸一化后的測試樣本仿真預測,最終輸出為各地物類別編碼,針對不同地物類別統計相應的真實地物類別編碼個數,輸出為混淆矩陣,再求算總體精度與Kappa系數進行精度評價;同時亦對基于光譜特征的最大似然法分類結果進行了精度計算。最大似然法:總體精度:72.9%,kappa系數0.711;BP網絡數據一總體精度76.5%,kappa系數0.743,數據二:總體精度80.7%,kappa系數0.788;LVQ網絡:數據一總體精度79.5%,kappa系數0.774,數據二總體精度85.7%,kappa系數0.836.
對圖3中TM影像數據的各組分類結果進行人眼目視觀察,可明顯看出LVQ神經網絡算法的總體分類效果都較BP網絡要好,且“椒鹽現象”比較少。從表2中的定量精度分析中可獲知,不論是總體精度還是Kappa系數,兩種神經網絡算法的都較最大似然法的影像分類精度高,其中LVQ網絡算法的分類精度最高,尤其引入紋理特征后有更明顯的提高。
4 結語
實驗結果表明,BP與LVQ神經網絡分類器從一定程度上可以克服傳統遙感影像分類方法無法解決的不確定性與模糊性,能獲得較高的影像分類精度,引入紋理特征后精度有更進一步的提高,說明這兩種神經網絡算法能有效的將光譜特征與紋理特征有機結合起來對影像進行分類,具有較強的研究價值與應用意義。
參考文獻
[1] 魏麗英,夏明,田春林.基于LVQ神經網絡的城市快速路事件自動檢測算法[J].吉林大學學報(工學版),2010(2).endprint