葉應輝
(吉林大學 地球探測科學與技術學院,長春 130026)
遙感圖像指的是用于記錄地物電磁波信息的照片或膠片,包括航空像片、衛(wèi)星相片兩種組成形式。通常情況下,經過計算機軟件處理后的遙感圖像被稱為數字圖像,大多數以攝影或拍攝的方式獲取,在經過圖像掃描儀的轉換處理后,其表現形式可由噪點信息轉化成為完整的地物景觀圖像[1]。在實施衛(wèi)星遙感圖像邊緣檢測的過程中,由于節(jié)點處信噪比指標的數值水平并不能達到實際需求標準,一部分模糊噪點會與圖像原始節(jié)點混合在一起,這就對遙感圖像的清晰程度造成了嚴重影響[2]。
近年來,如何去除噪點、增強遙感圖像的清晰度是眾多學者的研究目標,且其已經獲得一定成果。如文獻[3]針對遙感圖像去噪后易模糊的問題,提出基于方向和結構特征的遙感圖像條帶噪聲分離方法。該方法雖然能夠確定衛(wèi)星遙感圖像邊緣節(jié)點之間的關聯(lián)度水平,但卻并不能將模糊噪點與圖像原始節(jié)點分離開,故而并不能使衛(wèi)星遙感圖像的清晰度保持較高數值水平。文獻[4]提出的基于FD-RCF的高分辨率遙感影像耕地邊緣檢測方法。該方法充分利用了空洞卷積結構,構建了可應用于衛(wèi)星遙感圖像的邊緣檢測模型,再利用該模型完成遙感圖像的邊緣檢測。經實驗表明,其雖可提高檢測畫面的清晰度,但對于邊緣檢測精度的提高仍然不足。文獻[5]針對高分辨率遙感影像邊緣檢測易模糊的問題,提出了基于MSR-cut的高空間分辨率遙感影像邊緣檢測分割方法。該方法先利用分水嶺分割算法對影像進行過分割,形成多個超像素區(qū)間,然后構建評價函數得出其最優(yōu)分割尺度,對像素區(qū)域進行初步合并,得到其粗分割結果,最后結合各地物的邊界權重信息進行影像的精細分割。該方法雖然可提高邊緣檢測的分割精度,但其魯棒性不強,無法大范圍應用。
深度學習算法可對圖像數據信息的二維結構進行重新定義,還可聯(lián)合定義權值與特征指標權值,確定相鄰學習節(jié)點之間的相似性程度。相比于其他算法不但可大大減少數據運算量,還可從根本上解決數據信息樣本分布不均衡的問題。基于此,本文以深度學習算法為基礎,設計一種新型的衛(wèi)星遙感圖像邊緣檢測方法。
衛(wèi)星遙感圖像的識別以Softmax分類器設計為基礎,再聯(lián)合深度學習算法,建立完整的圖像節(jié)點數據集合,最后卷積、池化處理原則,得到準確的圖像邊緣節(jié)點識別結果。
Softmax分類器是實現深度學習算法的執(zhí)行基礎,在數據集合空間中,能夠描述出信息參量節(jié)點的排列與分布形式,且要求所有學習信息參量的取值都要滿足回歸性查詢原則[6]。
假設對于待學習衛(wèi)星遙感圖像邊緣節(jié)點訓練集{(e1,w1),(e2,w2),…,(eα,wα)}來說,e∈[1,α]、w∈[1,α]的取值條件同時成立,且指標e、指標w不會等于同一物理自然數。針對深度學習算法原理,可將假設分類函數q(e,w)表示為:
(1)
式中,β表示與指標e相關的分類系數項,δ表示與指標w相關的分類系數項。
規(guī)定χ1、χ2、…、χα表示α個不同的衛(wèi)星遙感圖像邊緣節(jié)點學習系數,且χ1≠0、χα≠1的不等式條件同時成立。聯(lián)立上述物理量,可將基于深度學習算法的衛(wèi)星遙感圖像邊緣檢測節(jié)點Softmax分類器構建表達式定義為:
(2)
其中:ε表示待學習數據項的初始分類賦值指標,t1、t2表示兩個隨機選取的待學習數據定標值,且t1≠t2的不等式條件恒成立,γα表示數據信息參量學習深度指標的最大取值結果。為使衛(wèi)星遙感圖像邊緣檢測節(jié)點得到準確的分類與處理,在建立Softmax分類器表達式時,應避免對相關參量指標進行重復取值,且關聯(lián)系數之間的物理差值水平也不宜過大。
對于衛(wèi)星遙感圖像的邊緣檢測區(qū)域而言,圖像節(jié)點數據集的建立充分體現了Softmax分類器閉環(huán)的實際應用能力。在深度學習算法的作用下,圖像節(jié)點數據集合意在將待檢測邊緣節(jié)點匯聚起來,并根據既定原則,對這些節(jié)點參量進行重新排序,直至檢測主機能夠將整幅衛(wèi)星遙感圖像完全收錄在內[7]。為使圖像節(jié)點數據集合滿足深度學習算法的構建需求,首先應確定隱含層節(jié)點所處位置,根據相鄰邊緣節(jié)點之間的權重配比關系,建立完整的圖像標簽結構;然后要按照初始節(jié)點與終止節(jié)點間隔距離,建立與衛(wèi)星遙感圖像相關的檢測點分布表達式;最后以Softmax分類器定義表達式為標準,判定當前數據集合是否滿足邊緣檢測方法的實際應用需求[8]。完整的衛(wèi)星遙感圖像節(jié)點數據訓練流程如圖1所示。

圖1 衛(wèi)星遙感圖像節(jié)點數據的訓練流程
設δ表示衛(wèi)星遙感圖像的邊緣區(qū)域定義系數,t表示檢測指令執(zhí)行時長,o1、o2表示兩個隨機選取的圖像節(jié)點定義項指標,且o1≠o2的不等式條件恒成立,r表示圖像節(jié)點數據集合中的算子定義項。在上述物理量的支持下,聯(lián)立公式(2),可將基于深度學習算法的衛(wèi)星遙感圖像節(jié)點數據集合表示為:
={r|r=δy+(t×)}
(3)
為避免衛(wèi)星遙感圖像邊緣檢測結果出現偏差,在建立圖像節(jié)點數據集合之前,需對所涉及數據信息參量進行集中訓練處理。
由于衛(wèi)星遙感圖像具有明顯特性,所以在實施檢測算法的過程中,要求節(jié)點數據集合中參量指標的統(tǒng)計特性必須保持一致,簡單來說,就是待檢測邊緣節(jié)點之間不能存在沖突。因此,圖像上所有節(jié)點的學習特征都完全相同。卷積處理則是在一致性原則基礎上制定的衛(wèi)星遙感圖像節(jié)點處理法則[9]。設ε、γ表示兩個不相關的遙感圖像節(jié)卷積處理系數,iε表示基于系數ε的節(jié)點定義權值,iγ表示基于系數γ的節(jié)點定義權值,且iε指標、iγ指標的取值同時屬于圖像節(jié)點數據集合。聯(lián)立上述物理量,可將衛(wèi)星遙感圖像邊緣檢測節(jié)點的卷積化執(zhí)行原則表示為:
(4)
池化處理原則可根據深度學習算法確定衛(wèi)星遙感圖像邊緣檢測節(jié)點的表現特征[10]。若備選節(jié)點取值完全屬于圖像節(jié)點數據集合,則可將衛(wèi)星遙感圖像邊緣檢測節(jié)點的池化執(zhí)行原則表示為:
(5)
式中,κ、ι表示兩個不相等的遙感圖像節(jié)點池化處理系數,pκ表示基于系數κ的圖像節(jié)點池化特征,pι表示基于系數ι的圖像節(jié)點池化特征,φ表示待檢測向量的池化處理定義項指標,且pκ指標、pι指標的取值也同時屬于圖像節(jié)點數據集合。出于綜合性考慮,深度學習算法的構建必須參考衛(wèi)星遙感圖像邊緣檢測節(jié)點的卷積與池化處理表達式。
本文引用SURF算法完成衛(wèi)星遙感圖像的拼接處理,先建立積分圖像,然后經過尺度空間建立、圖像邊緣特征點配準及梯度信息熵計算的處理流程實現待檢測衛(wèi)星遙感圖像的拼接與處理。
先建立積分圖像,所謂積分圖像就是對原始圖像原點到該點進行積分所得到的圖像。設P(x,y)為原始圖像原點O到點P的像素和,I(i,j)表示原始圖像對應像素點(i,j)的值,則積分圖像中點P的值可表示為:
(6)
所謂尺度空間就是一幅圖像通過一定算法那獲得空間一些列分辨率不同的圖像。通常情況下,一幅未知衛(wèi)星遙感圖像中會包含大量的邊緣節(jié)點特征內容,若不能準確預測出圖像特征節(jié)點所在的尺度空間,則會使邊緣區(qū)域內檢測節(jié)點所包含的特征參量被忽視,從而使得最終所得檢測結果并不能完全滿足實際應用需求[11]。故而對于衛(wèi)星遙感圖像來說,為使其邊緣性檢測結果能夠反映出整幅圖像內節(jié)點特征的分布形式,應根據其算法構建完整的尺度空間。本文利用SURF算法,采用不同大小的濾波器對圖像進行處理,從而得到空間圖像金字塔。采用該種方法可使得圖像的多尺度空間表現出平面圖像的空間特征,保證圖像拼接的旋轉不變性,其所采用的箱式濾波器效果近似于高斯二階偏導數,其效果如圖2所示。

圖2 箱式濾波器近似效果
采用該種方式提高傳統(tǒng)尺度空間建立計算的復雜性,縮短計算時間,保證計算數據的性能[12]。接下來,設k1表示邊緣區(qū)域內的圖像節(jié)點特征參量,k2表示其他區(qū)域內的圖像節(jié)點特征參量,且k1≠k2的不等式條件恒成立,Δφ表示單位時間內圖像特征節(jié)點檢測數量,利用上述參數對尺度空間表達式進行定義:
(7)

(8)
為減少數值運算量,默認衛(wèi)星遙感圖像邊緣區(qū)域內的待檢測特征點不會出現-覆蓋性排列的表現形式。
為增大衛(wèi)星遙感圖像的基礎分辨率水平,使待檢測特征參量在邊緣區(qū)域內呈現較為清晰的分布排列狀態(tài),在完成圖像拼接處理后,還需根據特征參量的實時分布形式,計算梯度信息熵指標的具體數值[15]。所謂梯度信息熵是指待檢測衛(wèi)星遙感圖像所反映出的節(jié)點分辨率情況,一般來說,其數值結果越大,就表示邊緣區(qū)域內待檢測節(jié)點與其他區(qū)域內普通節(jié)點之間的差異性越大,獲得實時檢測結果所需的等待時間也就越短。故而在實施衛(wèi)星遙感圖像邊緣檢測指令時,應盡可能使梯度信息熵指標達到其極大值[16]。設ν為衛(wèi)星遙感圖像梯度熵增系數的初始取值,在深度學習算法作用下,該項物理指標的最小值只能等于自然數“1”,f為衛(wèi)星遙感圖像邊緣區(qū)域內的特征點梯度值度量系數,d為深度學習算法作用強度,?、θ表示兩個隨機選取的信息熵增量標度值,且?≠θ的不等式條件恒成立。聯(lián)立上述物理量,可將衛(wèi)星遙感圖像邊緣檢測區(qū)域內的梯度信息熵指標計算表達式定義為:
(9)
出于計算簡便性考慮,在執(zhí)行衛(wèi)星遙感圖像邊緣檢測算法時,?系數、θ系數的初始取值都等于物理自然數“1”。
本次研究基于深度學習中的CV算法對衛(wèi)星遙感圖像進行邊緣檢測,其需同時求解一階微分邊緣算子、二階微分邊緣算子,然后根據合適的微分算子計算圖像的梯度幅值與雙閾值,以此完成其邊緣檢測。


(10)


(11)
二階微分邊緣算子也叫過零點算子。對于衛(wèi)星遙感圖像來說,在邊緣區(qū)域處,如果二階微分函數同時存在兩個或兩個以上的零值,才表示在該取值條件下的邊緣算子系數能夠滿足深度學習算法的處理需求[19-20]。規(guī)定衛(wèi)星遙感圖像邊緣檢測算法的二階微分函數為:
F=ζ(v1+v2+…+vn)2
(12)
其中:ζ表示基于深度學習算法的二階微分偏導系數,且系數ζ的最小取值結果也始終大于物理自然數“1”,v1、v2、…、vn表示定義編號由1-n的微分節(jié)點標記系數,n表示最大微分向量。
在公式(11)的基礎上,設bmin表示二階微分算量的最小取值結果,bmax表示二階微分算量的最大取值結果,m表示衛(wèi)星遙感圖像邊緣檢測算量定標準,ω表示基于深度學習算法的二階運算系數,τ表示二階微分偏導向量。聯(lián)立上述物理量,可將基于深度學習算法的二階微分邊緣算子計算表達式定義為:
(13)
在對衛(wèi)星遙感圖像邊緣節(jié)點進行檢測的過程中,一階微分邊緣算子、二階微分邊緣算子不可能同時取得零值結果。

(14)
只有在梯度幅值指標計算取值結果保持不變的情況下,深度學習算法才能對衛(wèi)星遙感圖像邊緣區(qū)域內的特征參量進行準確檢測。
在對衛(wèi)星遙感圖像邊緣進行檢測時,圖像特征參量的灰度變化較為明顯,因此為使檢測結果具備恒定性,應根據雙閾值表達式對所選取檢測區(qū)域進行閾值分割。雙閾值就是從極大值、極小值兩個角度,對待檢測衛(wèi)星遙感圖像的邊緣特征參量進行判別,在建立表達式條件時,則要求這兩項指標的取值結果必須滿足深度學習算法的約束條件[23-24]。設Tmax表示待檢測衛(wèi)星遙感圖像邊緣特征參量的極大性閾值參考條件,Tmin表示極小性閾值參考條件,W雙向性標記系數。聯(lián)立上述物理量,可將雙閾值表達式定義為:
(15)
在深度學習算法的支持下,考量雙閾值表達式的約束能力,從而實現對衛(wèi)星遙感圖像邊緣的精準檢測。
本次實驗在一臺操作系統(tǒng)為Windows 10的筆記本電腦中進行,其內存為4 GB。以Matlab 2016a平臺中完成模型仿真,選取三幅遙感圖像作為本文的研究樣本,如圖3所示,對其展開研究。

圖3 遙感圖像研究樣本
為充分驗證所提方法的實用性,選取文獻[3]基于方向和結構特征的檢測方法為對比方法,進行對比實驗。將選取的三幅遙感圖像在保證清晰度的情況下,對其進行復制出來,以復制后圖像作為對照組實驗對象,將原圖像作為實驗組實驗對象,分別對其進行邊緣檢測。待檢測完畢后,選取信噪比、模糊噪點個數及圖像清晰度為指標對比檢測完畢后圖像邊緣檢測質量。

(16)
對于衛(wèi)星遙感圖像來說,邊緣節(jié)點處信噪比指標的數值水平可用來描述模糊噪點對于圖像清晰度的影響能力,從而反映出所選取檢測方法的準確性水平。如上式所示,邊緣節(jié)點處信噪比指標的數值越大,模糊噪點對于圖像清晰度的影響程度越輕,即當前所選取檢測方法的準確性水平較高;反之,若邊緣節(jié)點處信噪比指標的數值較小,則表示模糊噪點對于圖像清晰度的影響程度較重,即當前所選取檢測方法的準確性水平較低。
所提方法、文獻[3]方法檢測后,先自適應劃分DN值子區(qū)間,然后以一定百分比最小局部標準差的平均值估算每一DN值子區(qū)間對應的噪聲大小,估算每一DN值子區(qū)間對應的信噪比,最后完成整幅圖像的信噪比數值計算。獲得衛(wèi)星遙感圖像邊緣節(jié)點處信噪比指標(ψ)的數值變化情況,其對比如圖4所示。

圖4 信噪比數值
分析圖4可知,隨著實驗時間的延長,兩種方法獲得的衛(wèi)星遙感圖像邊緣節(jié)點處信噪比指標均呈現出來回波動的數值變化狀態(tài)。當實驗時間等于30 min時,實驗組信噪比指標達到最大值62.7 dB,整個實驗過程中,實驗組信噪比數值的波動區(qū)間為55.1~62.7 dB,取得極小值時的實驗時間為40 min;當實驗時間等于60 min時,對照組信噪比指標達到最大值45.6 dB,整個實驗過程中,對照組信噪比數值的波動區(qū)間為38.9~45.6 dB,取得極小值時的實驗時間也為40 min;從平均值角度來看,實驗組信噪比均值始終高于對照組。


表1 模糊噪點個數值
分析表1可知,實驗組模糊噪點個數相對較少,其最大值只能達到1.32×105個,與對照組最大值2.39×105個相比,下降了1.07×105個。
聯(lián)合圖4、表1及公式(16),對實驗組、對照組衛(wèi)星遙感圖像清晰度(R)指標進行計算。具體計算結果如表2所示。

表2 衛(wèi)星遙感圖像清晰度
分析表2可知,隨著實驗的延長,實驗組、對照組衛(wèi)星遙感圖像清晰度指標R的數值變化趨勢,符合來回波動的變化規(guī)律。對于實驗組檢測方法而言,當實驗時間等于30 min時,其清晰度指標R的數值計算結果最大,達到了5.45×10-4;當實驗時間等于50 min時,其清晰度指標R的數值計算結果最小,僅為4.91×10-4;兩者之間的物理差值為0.54×10-4。對于對照組檢測方法而言,當實驗時間等于60 min時,其清晰度指標R的數值計算結果最大,達到了1.97×10-4;當實驗時間等于30 min時,其清晰度指標R的數值計算結果最小,僅為1.75×10-4;兩者之間的物理差值為0.22×10-4。整個實驗過程中,實驗組衛(wèi)星遙感圖像清晰度指標R的數值水平始終高于對照組。
綜上可知,本次實驗結論為:基于方向和結構特征的檢測方法不能較好地促進衛(wèi)星遙感圖像邊緣區(qū)域節(jié)點處信噪比指標的數值水平,且與之相關的模糊噪點個數值較大,這就導致最終所得的圖像清晰度水平較小,無法滿足實際應用需求;而基于深度學習的檢測方法能夠合力促進衛(wèi)星遙感圖像邊緣區(qū)域節(jié)點處信噪比指標的數值水平提升,且與之相關的模糊噪點個數值相對較小,滿足提升圖像清晰度的實際應用需求。
新型衛(wèi)星遙感圖像邊緣檢測方法根據深度學習理論,完善了Softmax分類器,并以此為基礎,對待測圖像的邊緣性特征節(jié)點進行卷積與池化處理,在已知尺度空間條件的前提下,該方法準確定義了特征點所處位置,并根據梯度信息熵指標的計算數值,求解一階微分邊緣算子與二階微分邊緣算子,進而得到完整的雙閾值表達式。與基于方向和結構特征的檢測方法相比,深度學習算法針對圖像邊緣節(jié)點處信噪比指標數值水平較低的問題進行了有效改進,可在避免模糊噪點對圖像清晰度產生影響的同時,實現對衛(wèi)星遙感圖像邊緣的精準檢測。