劉欣,李校林,,謝燦,何鵬
(1.重慶郵電大學(xué)通信與信息工程學(xué)院,重慶400065;2.重慶信科設(shè)計有限公司,重慶400065)
圖像匹配技術(shù)是機(jī)器視覺和模式識別領(lǐng)域的一個重要分支,其應(yīng)用領(lǐng)域廣泛,如醫(yī)學(xué)、目標(biāo)識別跟蹤、圖像拼接等。目前,圖像配準(zhǔn)的方法大致分為兩類:基于特征的圖像配準(zhǔn)方法和基于灰度的圖像配準(zhǔn)方法。其中,基于特征的匹配方法由于對不同特性的圖像特征容易提取,且提取的特征點不易受到光照、旋轉(zhuǎn)變化的影響,具有較強(qiáng)的穩(wěn)定性和魯棒性,因而得到廣泛應(yīng)用。
1999年,LOWE D在總結(jié)現(xiàn)有特征算法的基礎(chǔ)上提出了尺度不變特征變換SIFT(Scale Invariant Feature Transform)算法[1],并于2004年總結(jié)完善[2]。該算法提取的穩(wěn)定特征點對旋轉(zhuǎn)、亮度變化、尺度變化保持不變性,對視角變換、仿射變換也有一定程度的穩(wěn)定性,因此在圖像配準(zhǔn)中得到了應(yīng)用,如參考文獻(xiàn)[3-4]將SIFT用于圖像配準(zhǔn)領(lǐng)域,除此以外也衍生了一系列改進(jìn)算法,如利用主成分分析的PCA-SIFT[5]。但是SIFT本身始終存在抗仿射性弱以及計算效率低的缺點。針對以上缺點,BAY H等人于2008年提出了一種加速的魯棒性特征SURF(Speeded Up Robust Feature)算法,該算法是對SIFT的一種改進(jìn)方法,其性能在各方面接近或超越了SIFT算法,在保持性能的同時,計算速度是SIFT的3倍,參考文獻(xiàn)[6]對此進(jìn)行了比較詳細(xì)的闡述。參考文獻(xiàn)[7]提出了一種基于SURF和CamShift的物體跟蹤方法,利用SURF算法找到跟蹤窗口與初始窗口的色彩相似度,最終實現(xiàn)對物體的跟蹤。
盡管上述算法在特征描述和特征匹配方面取得了較好的效果,但是,這些算法并沒有在仿射變換上得到更好的改進(jìn)。針對這個問題,Random ferns[8]算法通過對以特征點為中心的子塊進(jìn)行仿射變換,利用像素比對信息構(gòu)造快速分類器,在加快匹配速度的同時提高了對視角變化的魯棒性。2009年,Jean-Michel Morel等人提出了ASIFT算法[9],該算法具有完全仿射不變性,能夠解決SIFT和SURF在仿射性方面的缺陷,但ASIFT算法計算量復(fù)雜,難以在實時系統(tǒng)中使用。
本文通過對以上算法的深入研究和總結(jié),提出了一種基于仿射變換的SURF描述符。該算法利用透視投影模型來模擬成像過程,然后將仿射變換后的圖像利用SURF算法進(jìn)行匹配。通過3組不同類型圖像的實驗證明,本文算法比SIFT、SURF、MSER(Maximally stable extremal regions)[10]算法要好。
SURF描述符的建立主要包括特征點檢測與特征點描述兩個主要步驟。
假如給定圖像I中的一個點x(x,y),則在x處,基于尺度空間Hessian矩陣H(x,y)定義為:

SURF采用盒子濾波(Box Filter)的方法來近似代替高斯濾波。假設(shè)盒子濾波器估計值分別為Dxx、Dyy和Dxy,這樣可以得到Fast-Hessian行列式的定義:

在求得Fast-Hessian矩陣行列式的響應(yīng)圖像后,對空間3×3×3鄰域內(nèi)所有點進(jìn)行非最大值抑制,將最值作為候選的特征點,然后采用線性插值法得到特征點的準(zhǔn)確位置。
為了保證得到的特征矢量具有旋轉(zhuǎn)不變性,需要為每一個特征點分配一個主方向。統(tǒng)計以特征點為中心,以6s(s為特征點尺度)為半徑圓形區(qū)域內(nèi),利用Haar小波濾波器在x,y方向進(jìn)行響應(yīng),并使用σ=2s的高斯加權(quán)函數(shù)對Haar小波進(jìn)行高斯加權(quán),離特征點越近響應(yīng)貢獻(xiàn)越大。然后,在60°的扇形區(qū)域內(nèi)求出x和y方向上的系數(shù)之和,并構(gòu)建一個新的向量,接著遍歷整個圓形區(qū)域,選擇最長向量方向為主方向。
選定方向后,以特征點為中心,構(gòu)建一個20σ×20σ的正方形窗,并沿主方向?qū)⒎叫未胺殖?×4個子塊,計算每個子塊的dx、dy,并用高斯函數(shù)進(jìn)行加權(quán),得到每個子塊的矢量V子塊:

最后再對特征矢量進(jìn)行歸一化處理。
本文為了解決SURF仿射性能上的不足,在其基礎(chǔ)上模擬了經(jīng)度角和緯度角兩個參數(shù)。
攝像機(jī)投影模型可以用描述為:

式中,u0表示平面數(shù)字圖像;T和R表示由相機(jī)引起的平移和旋轉(zhuǎn)變換;A表示仿射投影;G表示高斯視覺模型;S表示網(wǎng)格采樣。u為最終獲取的平面圖像。
為了簡化該模型,結(jié)合相機(jī)的運(yùn)動方式與仿射變換形式,可以得到如下定理。
定理:對于任意的仿射矩陣A可以分解為:

其中,λ為縮放尺度參數(shù),λ>0;φ∈[0,π);Tt為傾斜矩陣,該矩陣第一個特征值t>1,第二個特征值t=1;R(φ)為旋轉(zhuǎn)變換矩陣。
Affine-SURF描述符的建立過程如下:
(1)仿射采樣獲取參數(shù)φ和θ
獲取參數(shù)的過程就是對待匹配圖像進(jìn)行經(jīng)度角與緯度角采樣的過程。首先,對緯度角采用等比數(shù)列采樣:以達(dá)到平衡,本文n=5;然后,對經(jīng)度角進(jìn)行等差采樣:0,b/t,...kb/t,其中b取72°,t=|1/cosθ|,k為滿足條件kb/t<180°的最后一個整數(shù)。
(2)獲取仿射變換后的圖像
將步驟(1)得到的序列參數(shù)帶入下式:

其中,I為輸入圖像,I′為仿射模擬圖。
(3)對輸出的仿射圖像進(jìn)行特征點檢測
①首先計算仿射圖像的積分圖像。積分圖像I在X=(x,y)處的定義為:

②然后利用式(2),獲得Fast-Hessian矩陣行列式,并得到響應(yīng)圖像。
③接著采用最大值抑制搜索技術(shù),在位置和尺度上對響應(yīng)圖像進(jìn)行特征點搜索。
④對得到的特征點分配方向。
(4)構(gòu)造Affine-SURF描述符
通過計算圖像的Haar小波響應(yīng),然后統(tǒng)計∑dx,∑d|x|,∑dy,∑d|y|來形成特征矢量。
經(jīng)過以上步驟就得到了具有較強(qiáng)仿射性能的Affine-SURF描述符。
得到Affine-SURF描述符后,用其進(jìn)行特征匹配。本文中,首先采用比值提純法進(jìn)行特征點粗匹配,接著采用魯棒性較強(qiáng)、可靠性好的RANSAC算法[11]進(jìn)一步提純,得到最終的匹配對。
本文在VS2010平臺上驗證該算法的性能。實驗的評價指標(biāo)為圖像在不同仿射情況下獲取的正確匹配對數(shù)目。
第一組實驗主要分析弱視角變化對算法的影響。以圖1為例,圖像Box由于相機(jī)的視角變化,存在著旋轉(zhuǎn)、弱透視形變等現(xiàn)象,圖1(c)~圖1(f)分別為SIFT、MSER、SURF和Affine-SURF算法的匹配結(jié)果,它們的匹配結(jié)果如表1所示。通過對比正確匹配對的數(shù)目可以看出,Affine-SURF有效地克服了視角變化對特征提取與描述的影響。

圖1 弱視角變化匹配魯棒性比較

表1 4種圖像匹配方法在不同類型圖像的匹配結(jié)果
第二組實驗主要用來評價不同算法在尺度變化方面的魯棒性。以圖2為例,圖像Book由于拍攝高度不同,導(dǎo)致出現(xiàn)尺度變化。從圖2(c)~圖2(f)以及表1可以看出,Affine-SURF算法有較好的匹配效果,而且比其他3種算法能夠獲取更多特征點。這說明Affine-SURF能夠在尺度變化明顯的情況下獲得更多正確的匹配點。
第三組實驗主要用來驗證算法在仿射形變較大情況下的性能。以圖3為例,圖像People由于旋轉(zhuǎn)、視角變化過大,導(dǎo)致仿射形變明顯。圖3(c)~圖3(f)分別為SIFT、MSER、SURF和Affine-SURF算法的匹配結(jié)果,結(jié)合表1可以看出,采用本文提出的Affine-SURF算法找到的正確匹配特征點最多,證明了該算法對大視角變化的仿射圖像匹配魯棒性最好。

圖3 大仿射變化匹配魯棒性比較
SIFT、SURF圖像配準(zhǔn)算法已經(jīng)被驗證對于尺度變化、旋轉(zhuǎn)、亮度變化具有較好的不變性,但是它們不具有很好的仿射性。因此,本文提出一種基于仿射變換的SURF圖像配準(zhǔn)算法。通過3組不同圖像類型的實驗結(jié)果表明,采用本文算法比SIFT、SURF、MSER算法能夠得到更多的正確匹配點,更好地提高算法的仿射魯棒性。
[1]LOWE D.Object recognition from local scale-invariant features[C].In:Proceedings of the 7th IEEE International Conference on Computer Vision,Corfu,US:IEEE,1999:1150-1157.
[2]LOWE D G.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.
[3]Zhao Wanglei,NGO C W.Flip-invariant SIFT for copy and object detection[J].Image Processing,IEEE,2013,22(3):980-991.
[4]張瑞年.聯(lián)合時空SIFT特征的同源視頻檢測[J].電子技術(shù)應(yīng)用,2012,38(3):130-133.
[5]JUAN L,GWUN O.A comparison of SIFT,PCA-SIFT and SURF[J].International Journal of Image Processing(IJIP),2009,3(4):143-152.
[6]BAY H,ESS A,TUYTELAARS T,et al.Speeded up robust features(SURF)[J].Computer Vision and Image Understanding(CVIU),2008,110(3):346-359.
[7]路寧.基于SURF和CamShift的物體跟蹤方法[J].微型機(jī)與應(yīng)用,2012,31(27):40-43.
[8]OZUYSAL M,CALONDER M,LEPETIT V,et al.Fast keypoint recognition using random ferns[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,32(3):448-461.
[9]MOREL J M,YU G S.ASIFT:a new framework for fully affine invariant image comparison[J].SIAM Journal on Image Sciences,2009,2(2):438-469.
[10]MATAS J,CHUM O,URBAN M,et al.Robust widebaseline stereo from maximally stable extremal regions[J].Image and Vision Computing,2004,22(10):761-767.
[11]FISCHLER M A,BOLLES R C.Random sample consensus:A paradigm for model fitting with applications to image analysis and automated cartography[J].Communications of the ACM,1981,24(6):381-395.