趙瑞欣,向麒文
(西華大學計算機與軟件工程學院,成都 610039)
圖像匹配技術是計算機視覺研究領域中的一個關鍵研究方向,也是許多計算機視覺理論與應用的基礎。其主要目標是尋找同一場景或不同場景的兩幅或多幅圖之間的同質區域,進而根據同質區域的映射,建立起圖像之間的空間對應關系。圖像匹配技術在航空影像自動制圖、圖像三維重建、遙感融合、目標識別、目標跟蹤、醫學圖像分析、影像理解等領域內都有著廣泛的應用。在圖像局部不變特征的研究中,需要解決三個核心問題:第一,如何提取特征點;第二如何描述特征點;第三,如何匹配特征點。其中,常見的基于角點的檢測算子Moravec檢測算子和Harris檢測算子SU?SAN檢測算子以及FAST檢測算子等;典型的基于Blob的檢測算子有Hessian檢測算子、高斯差分檢測算子、Hessian-Laplace檢測算子等;基于區域的檢測算子主要包括Harris-Affine檢測算子、ERB檢測算子、MS?ER檢測算子等。角點檢測只局限于角點,沒有好的描述無法匹配;然而基于Blob的檢測算子的描述,先統計特征周圍信息,再確定主方向,在運動目標邊緣處受到很大影響。為解決此類不足,本文提出在Harris檢測算子基礎上,對角點的角度大小和角度朝向做分析,并且通過角度朝向確定主方向,對特征點周圍有用信息做統計。
本文通過Harris角點檢測,得出角點集合Q{q1,q2,…,qn},如圖1所示:通過如下公式計算圖像梯度以及梯度方向信息。其中,A為待處理的圖像,Gx為A的x方向的偏導,Gy為y方向的一階偏導,G為其梯度幅值,θ為梯度方向。在檢測到的角點附近,通過找梯度內部點p的對稱點p1和p2如圖1(a)所示,由p1和p2的梯度方向計算角度朝向和角度大小,如圖1(d)所示,根據公式(3),把“異常”梯度方向矯正(相對本文計算角度思路為異常,實際梯度方向是正常的),若cos η為正,方向水平翻轉如圖1(c);若cos η為負,不做改變。再由公式(4)和公式(5)計算角度大小公式(4),和角度朝向公式(5)。


圖1 角度朝向計算過程

本文采用SIFT類似的描述子做描述。通過上文檢測出角點的角度大小和角點朝向。其中角度朝向作為主方向,統計角點沿角點朝向負方向的梯度信息做統計。根據SIFT算法特征描述,如圖2所示。在種子區域的梯度直方圖在0-360度之間劃分8個方向區間,每個區間為45度,即每個種子點有8個方向的梯度信息。把0-360度分為16個小的種子點,分別做統計,這樣就形成16×8=128維穩定描述子。

圖2 SIFT描述子
根據前面對SIFT類型描述子缺點分析,128維描述子雖然穩定,但是在目標邊緣處包含背景信息太多,導致目標邊緣處的特征點無法匹配的上。如圖3所示,本文中把128維向量特征減為64維,就是根據角點朝向信息,提取有用的信息進行統計,這樣既有SIFT特征向量的穩定性,又能最大保證統計信息的可靠性,從而提高匹配率。

圖3 文章描述子
為檢驗本文算法的有效性,如圖4,在室外場景的車輛行駛過程中匹配結果和SIFT算法匹配結果對比。兩幀之間的車輛,在目標車輛的車頭車尾車輪和車窗部分都有匹配信息,從而可以準確把握運動目標整體的運動矢量信息,而SIFT算法只有在車尾部分比較集中,其他地方匹配上的比較稀少。通過對比可以看出本文算法相對于SIFT算法在運動目標上匹配是有優勢的。

圖4 和SIFT算法對比
本文算法中,在運動目標匹配上對SIFT類型算法很有優勢,但是角點的角度大小和角度朝向都依賴于角點附近的梯度信息,一旦梯度信息較弱,很有可能會對本文算法產生影響,另外角點可能是幾個不同屬性的部分交叉在一起的,這里只保留其中一個,導致部分信息丟失,后續工作應該把不同屬性的點都保留下來做匹配,會進一步提高運動目標的匹配率。
[1]Loncomilla P,Ruiz-Del-Solar J,Martinez L.Object Recognition Using Local Invariant Features for Robotic Applications:A Survey[J].Pattern Recognition,2016,60:499-514.
[2]Verhagen B,Timofte R,Gool L V.Scale-Invariant Line Descriptors for Wide Baseline Matching[C].IEEE Winter Conference on Applications of Computer Vision,2014:493-500.
[3]Montazer G A,Giveki D.Content Based Image Retrieval System Using Clustered Scale Invariant Feature Transforms[J].Optik-International Journal for Light and Electron Optics,2015,126(18):1695-1699.
[4]Lenc L,Král P.Novel Matching Methods for Automatic Face Recognition Using SIFT[M].Artificial Intelligence Applications and Innovations.Berlin:Springer,2012:254-263.
[5]Chen Meng-ting,Yan Dong-mei,Wang Gang.Algorithm of High-Resolution Remote-Sensing Image Matching Based on Harris Corner and SIFT Descriptor[J].Journal of image and Graphics,2012,17(11):1453-1459.
[6]YUAN Liang.Visual Localization for Mobile Robot with Harris-SIFT,2014(6):19-24.
[7]Moravec H P.Rover Visual Obstacle Avoidance[C].International Joint Conference on Artificial Intelligence,1981:785-790.
[8]Manoranjitham R,Deepa P.Novel Interest Point Detector Using Bilateral-Harris Corner Method[C].International Conference on Advanced Computing and Communication Systems.IEEE,2017:1-4.
[9]Smith S M,Brady J M.SUSAN-A New Approach to Low Level Image Processing[C].International Journal of Computer Vision,2015:45-78.
[10]Rosten E,Drummond T.Machine Learning for High-Speed Corner Detection[J],2006,3951:430-443.