李鵬俊,李建增
(軍械工程學院 無人機工程系,河北 石家莊050050)
圖像特征提取技術被廣泛地應用于計算機視覺任務處理中,譬如:圖像拼接[1]、圖像檢索[2]、圖像配準[3]、目標識別[4]、SLAM 系統[5]等。興趣點檢測作為其中最關鍵的一步,一直是人們研究的熱點。在過去的40 多年里,人們提出了許多興趣點檢測算法,這些算法大多都集中研究圖像局部區域的不變性,包括旋轉不變性、尺度不變性和仿射不變性等。對無人機圖像進行深入研究發現,利用定位與方向系統(positioning and orientation system,POS)數據對圖像進行簡單的空間姿態校正后,可以削弱旋轉、尺度及仿射等變換,進而可以將其忽略。
無人機在戰場進行偵察作業時,往往會受到敵方的干擾,完成一次偵察任務往往需要多次飛行,導致拍攝的圖像很容易受光照、模糊和噪聲等非幾何變換的影響。同時,為使圖像能實時傳回到地面控制站進行處理,還需要對圖像進行壓縮傳輸。這些因素的存在都大大提高了興趣點檢測的難度。為此,本文利用區域重心抗干擾能力強的特性,提出了基于重心偏移量(offset of barycenter,OoB)的興趣點檢測算法。通過與幾種常用興趣點檢測算法實驗對比,結果表明:本文所提算法具有較強的魯棒性和抗干擾能力。
興趣點檢測是在圖像大量像素點中提取出具有某種特征的點集。自1977 年,Moravec 提出利用灰度方差進行興趣點檢測以來,陸續有大量的興趣點檢測算法被提出。1988年,Harris C 等人[6]在其基礎上發展出了利用自相關矩陣進行角點提取的Harris 算子,該算子提取角點速度較快,但抗干擾能力差。1994 年,文獻[7]提出的Shi-Tomasi 角點檢測算法對Harris 算法進行改進,提高了圖像仿射變換情況下的魯棒性。2006 年,Rosten E 等人[8]提出的FAST 角點檢測算法,具有很強的實時性,但對噪聲較為敏感。2008 年,Bayn H 等人[9]在SIFT 算法的基礎上提出了SURF 斑點檢測算法,該算法具有尺度不變性和較高的魯棒性,但算法需要建立多尺度空間,并不適合對無人機圖像的處理。
文獻[10]將圖像看成是一塊質量密度不均勻的薄板,那么,對應的圖像各階矩就有其相應的物理含義,如,零階矩為薄板總質量,一階矩表示薄板的重心等。受此啟示,本文提出了基于OoB 的興趣點檢測算法。
區域的矩是利用區域內所有的點計算出來的,對噪聲具有較強的魯棒性[11]。設圖像的強度函數為f(x,y),那么,可以定義圖像的p+q 階矩如式(1)

區域的重心是根據區域的零階矩和1 階矩計算出來,設區域的重心坐標為Δ=(Δx,Δy),其計算公式為

定義OoB 指的是區域的幾何中心(形心)到重心之間的距離,如圖1 所示。它的大小在一定程度能表征圖像結構的變化,偏移量越大,變化越劇烈,相應的區域信息量越豐富。興趣點檢測總是希望其所在區域信息豐富,這樣在生成特征描述符時,更具獨特性。
基于OoB 的角點檢測算法流程如下:
1)對無人機圖像進行預處理,利用POS 系統提供的姿態數據和高度信息對圖像進行空間姿態校正。

圖1 檢測示意圖Fig 1 Detection diagram
2)設置局部區域半徑,計算局部區域像素圓的0 階和1 階矩。為了計算的結果嚴格符合區域圓范圍,對0 階和1階矩進行修正。
3)根據步驟(2)計算的0 階和1 階矩計算重心坐標。
4)根據重心坐標和圓心坐標計算局部區域的OoB,形成檢測響應圖像。
5)利用非極大值抑制的方法,在5×5 的區域內進行極大值搜索,并設置閾值t,當極大值大于所設閾值時,將其作為興趣點。
6)對興趣點進行定位,直接使用區域的重心坐標作為興趣點的位置坐標。
本文給出了四項指標,對算法的性能進行對比分析,它們分別是整體復現率、單邊復現率、精確度及對應點對數。
3.1.1 復現率
復現率評價指標最早由Schmid C[12]提出,“復現率為兩幅圖像上檢測出來的一致點對數量占總觀測點數的百分比”。
1)記圖像Ii上檢測到的興趣點點集為{pointi},圖像Ij上的點集為{pointj}

2)實際上,對于圖像Ii上一點pointi來說,很難精確地在圖像Ij上檢測到pointj,使之滿足pointj=Hji·pointi。而只需滿足pointi映射到pointj的ε 領域內,即可認為它們是一對對應點對

3)復現率定義式如下

文獻[13]對以上復現率定義存在的問題與不足進行了分析,并提出了兩種精確性更好的復現率評價指標:整體復現率與單邊復現率。
整體復現率

單邊復現率

整體復現率體現了兩幅圖像的相似程度;單邊復現率評價了興趣點應對圖像變化的魯棒性。文獻[14]分析文獻[15]所用整體復現率計算方法可能導致在一些情況下計算的復現率不準確,并給出了一種新的復現率計算方法如式(10)所示

經過仔細對比,最終選用式(9)和式(10)作為復現率計算公式。
3.1.2 精確度
定義:在對應點對中,圖像Ii上的興趣點經單應變換Hji映射到圖像Ij上,與Ij上對應興趣點之間的偏差的平均水平,即

本文所用數據集如圖2 所示,這些圖像大多選自Mikolajczyk 提供的參考圖像。

圖2 數據集Fig 2 Data set
實驗對比結果如圖3 ~圖6 所示。
分析實驗結果發現:1)不論是光照變暗、模糊增大、壓縮比提高還是噪聲加強,復現率都呈減小的趨勢,相應的對應點對的位置誤差呈增大趨勢,對應點對數量呈減少的趨勢;2)不論是整體復現率,還是單邊復現率,OoB 算法的都要高一些。

圖3 光照變化Fig 3 Illumination changes

圖4 圖像模糊Fig 4 Image blur

圖5 圖像(JPEG)壓縮Fig 5 JPEG compression

圖6 圖像加噪Fig 6 Image adding noise
本文提出了一種新的無人機圖像興趣點檢測算法,該算法相比其它算法來說結構簡單且具有較強的抗干擾能力。通過實驗,對比了光照、模糊、壓縮及噪聲對各興趣點檢測算法性能的影響。結果表明:1)在光照持續變暗、模糊程度變大、壓縮比提高和噪聲增大的情況下,各個算法的復現率和一致點對數都呈減小的趨勢,而相應的誤差(即精確度)呈增大的趨勢;2)OoB 算法較其它幾種算法的復現率要高一些,特別是能體現算法魯棒性的單邊復現率;3)OoB 算法在光照變化和噪聲影響的情況下的單邊復現率趨勢曲線要比模糊和壓縮情況下的趨勢曲線變化要更加平緩,故在光照變化和噪聲影響的情況下OoB 算法的抗擾動能力更強。
本文只有在獲取POS 信息對無人機圖像進行姿態和比例校正的基礎上,OoB 算法才能獲得最佳的性能,在具有重疊區域的圖像上能更穩定地檢測出一致對應點對。
[1] Wu Yu,Yu Tao,Xie Donghai.Fast automatic stitching for images of unmanned aerial vehicle in emergency response[J].Journal of Computer-Aided Design&Computer Graphics,2013,25(3):410-416.
[2] Schmid C,Mohr R.Local grayvalue invariants for image retrieval[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1997,19(5):530-535.
[3] Wang Yuru,Huang Jianhua,Liu Jiafeng,et al.An efficient imageregistration method based on probability density and global parallax[J].Int’l J Electron Commun(AEü),2010,64(12):1148-1156.
[4] Lowe D G.Object recognition from local scale-invariant features[C]∥Proceedings of the Seventh IEEE International Conference on Computer Vision,1999.
[5] Gil A,Mozos O M,Ballesta M,et al.A comparative evaluation of interest point detectors and local descriptors for visual SLAM[J].Machine Vision and Applications,2010,21(6):905-920.
[6] Harris C,Stephens M.A combined corner and edge detector[C]∥Proceedings of the 4th Alvey Vision Conference,Manchester,UK,1988:147-151.
[7] Shi J,Tomasi C.Good features to track[C]∥Proceedings 1994 IEEE Computer Society Conference on Computer Vision and Pattern Recognition,NY,USA,1994:593-600.
[8] Rosten E,Drummond T.Machine learning for high-speed corner detection[J].Lecture Notes in Computer Science,2006,3951(1):430-443.
[9] Bay H,Ess A,Tuytelaars T,et al.Speeded-up robust features(SURF)[J].Computer Vision and Image Understanding,2008,110(3):346-359.
[10]Wei Weibo,Rui Xiaoting.Study on moment invariant method[J].Fire Control and Command Control,2007,32(11):114-117.
[11]Zhang Yujin.Image engineering[M].2nd ed.Beijing:Tsinghua University Press,2007.
[12]Schmid C,Mohr R,Bauckhage C.Comparing and evaluating interest points[C]∥Proceedings of the Sixth International Conference on Computer Vision,Bombay,India,1998:230-235.
[13]Smirnov P,Semenov P,Redkin A,et al.Toward accurate feature detectors performance evaluation[J].Lecture Notes in Computer Science,2011,6962(1):51-60.
[14]Miao Zhenwei,Jiang Xudong.Interest point detection using rank order LoG filter[J].Pattern Recognition,2013,46(11):2890-2901.
[15]Mikolajczyk K,Tuytelaars T,Schmid C,et al.A comparison of affine region detectors[J].International Journal of Computer Vision,2005,65(1/2):43-72.