




摘 要: "針對常用的匹配點篩選算法效率低、對具有角度和尺度變化匹配圖像穩定性差等問題,提出一種基于局部聚類的改進網格運動統計特征點篩選算法。首先,通過局部區域抑制算法篩選響應強度較高且成對出現特征點作為種子點,并以種子點為聚類中心分割圖像,得到最小外接矩形作為運動網格;隨后把運動網格劃分為3×3鄰域支持估計量網格,計算運動網格在不同方向上的梯度最大值,作為運動網格的主方向;最后,把待匹配圖像鄰域支持估計量網格旋轉至目標圖像運動網格的主方向位置,借助網格運動統計算法篩選匹配。實驗表明:對具有JPEG壓縮變換、光照變化、模糊變換的匹配圖像,所提算法匹配正確率在90%以上;對具有旋轉和尺度變換圖像,所提算法匹配正確率相較運動網格統計算法提高10%左右,高達40%以上;算法耗時僅為13 min,效率較高;所提算法可穩定高效地篩選正確的匹配點。
關鍵詞: "運動網格統計算法; 局部區域抑制算法; 種子點; 局部聚類; 運動網格梯度主方向
中圖分類號: "TP391 """文獻標志碼: A
文章編號: "1001-3695(2022)02-052-0618-05
doi:10.19734/j.issn.1001-3695.2021.06.0261
Research on improved grid-based motion algorithm based on local clustering
Qiu Yunfei, Wang Yuanyuan
(School of Software Engineering, Liaoning Technology University, Huludao Liaoning 125105, China)
Abstract: "To solve the problems of low efficiency and poor stability of image matching with angle and scale changes,this paper proposed an improved mesh motion statistical feature point screening algorithm based on local clustering.Firstly,as seed points by local region suppression algorithm could screen feature points with high response intensity and paired appearance,and with seed points as the clustering center to obtain the minimum enclosing rectangle as the moving grid could segment images.Then,it divided the motion grid into 3×3 neighborhood supporting estimator grids,and it could calculate the maximum gradient value of the motion grid in eight directions as the main direction of the motion grid.Finally,it rotated the neighborhood support estimator grid of the image to be matched to the main direction of the target image motion grid,and the mesh motion statistics algorithm usually screened the matches.The experimental results show that the matching accuracy rate of the proposed algorithm is above 90% for matching images with JPEG compression transform,light change and fuzzy transform.For images with rotation and scale transformation,the matching accuracy of the proposed algorithm is about 10% higher than that of the moving grid statistic algorithm,up to more than 70%.The algorithm takes only 13 min and has high efficiency.It shows that the proposed algorithm can screen the correct matching points stably and efficiently.
Key words: "grid-based motion statistics algorithm; local region suppression algorithm; seed point; local clustering; main direction of the grid-based motion gradient
0 引言
特征匹配是許多計算機視覺的最基本輸入算法,因此圖像匹配的效率、精度和魯棒性都至關重要。完成特征匹配后,有很多錯誤匹配點需通過內點篩選算法篩選正確匹配點,故內點篩選算法至關重要。
Lowe[1]提出尺度不變算法,使用隨機采樣一致性算法篩選內點[2],該方法可有效剔除誤匹配點,但當樣本中內點數量較少時,RANSAC算法[2]迭代計算最佳參數模型效率會降低,且篩選后的內點中仍會存在大量錯誤匹配點。在RANSAC算法基礎上,眾多學者提出了PROSAC(progressive sample consensus)[3]、SCRAMSAC(spatially consistent random sample consensus )[4]、USAC universal framework for random sample consensus)[5]等方法,該類方法篩選內點效果較好,但對正確匹配較少和具有仿射性的圖像穩定性較差。Lin等人[6]提出全局運動建模的雙邊函數算法(bilateral functions for global motion modeling,BF),該方法利用雙邊函數構造分段光滑作為運動建模約束構建模型,分段平滑約束在雙邊域上篩選正確匹配點,該算法對具有寬基線圖像匹配效果較好,但耗時較長。Ma等人[7]提出向量場一致性算法,把特征點篩選問題轉換為解向量場最小能量化函數問題,迭代計算參數模型篩選正確匹配點。Lin等人[8]提出CODE算法,該方法根據運動具有平滑性,對成對特征點構建非線性全局運動模型,該算法穩定性較好,但解非線性函數耗時較長且算法效率較低。Ma等人[9]提出局部保持匹配算法(locality preserving matching,LPM),該算法根據運動具有平滑性,正確匹配點周圍有潛在大量正確匹配點構建模型,該方法篩選內點效率較高。Yi等人[10]提出PointCN深度學習方法,將特征點篩選問題轉換為離散點分類和基本矩陣回歸問題,利用PointNet結構輸入已標記內點和外點數據集,并且引入八點加權算法計算基本回歸模型。Zhang等人[11]在PointCN的基礎上提出OANet篩選匹配點的方法,該算法先提出了特征點假定對應關系,然后使用Order-Aware網絡推斷成對特征點是否正確并回歸計算匹配圖像的基本矩陣。上述兩種深度學習方法篩選內點的效果較好,但需大量樣本訓練模型,對計算機硬件要求較高且可遷移性差。Bian等人[12]提出了網格運動統計算法(grid-based motion statistics,GMS),由運動具有平滑性,正確匹配點附近的正確匹配點數應該大于錯誤匹配點附近的正確匹配點數,故GMS算法將匹配圖像劃分為20×20個網格,再把網格細分為3×3個小網格,統計小網格內特征點分布,依次篩選特征點。文獻[13~17]均使用或改進GMS算法,但均未解決GMS算法對具有旋轉變換的匹配圖像效果較差、鄰域支持估計量網格構造簡單、未引入圖像紋理信息等問題。
針對GMS算法中使用的網格劃分方式較粗糙并且不具有較好的旋轉不變性,本文提出一種基于聚類的網格運動統計算法。首先對已匹配的成對特征點作均勻化處理,得到響應較強且成對存在的匹配點作為種子點。然后以種子點為中心聚類分割圖像并找到最小外接矩形作為運動網格,再把運動網格劃分為3×3鄰域支持估計量網格并計算運動網格的主方向。最后把待匹配圖像鄰域支持估計量網格旋轉至目標圖像運動網格主方向位置,篩選匹配點。
1 傳統GMS算法
網格運動統計算法根據運動的光滑性,把匹配點的鄰域作為支持估計區域,判斷匹配點是否為正確匹配點的方法。圖1表明了正確匹配點和錯誤匹配點的支撐區域, I a為左側待匹配圖像,I b 為右側待匹配圖像。若是圖1中支撐區 a、b上存在n對匹配點x={x 1,x 2,…,x n} ,其中 x i={M i,N i} 為一對匹配點, M、N分別為區域a、b上的匹配點。根據運動的光滑性可知,正確匹配點附近具有相似的幾何關系,可假設在區域a上一特征點M i匹配到b區域中的點N i,x i為正確匹配點對,x j為錯誤匹配點對。對于圖1的區域a,用s i 表示 x i 鄰域支持估計量,則
s i=|x i|-1 ""(1)
其中:-1表示去除區域 a中原始特征點M i 。
在匹配過程中,為了計算區域 a中到b 中特征點的匹配正確率,圖2表示匹配點篩選過程的事件空間,圖2(a)表示 區域a與b 正確匹配事件,圖2(b)為區域 a與b為錯誤匹配事件。若區域a上某一特征點為f a ,事件 f b a表示為f a匹配到區域b,若不在區域b上記為事件f b a - 。若f a匹配到區域b 上的特征點為正確匹配點對,記為事件 f t a ,反之記為 f f a 。事件 Tab、Fab分別為區域a與b正確匹配和錯誤匹配,則事件f f a發生時事件f b a 發生的概率為
p(f b a|f f a)= βn N "β∈(0,1) ""(2)
其中: n為區域b 特征點個數; N 為匹配圖像 I b 特征點總數; β 為權重值。
若區域 a中某個特征點與b 上的一個特征點正確和錯誤匹配概率分別為 p t、p f ,令事件 f t a 的概率為 p(f t a)=t,則P t、P f 分別為
p t=p(f b a|Tab)=p(f t a|Tab)+p(f f a,f b a|Tab)= p(f t a)+p(f f a)p(f b a|f f a)=t+(1-t)βn/N ""(3)
p f=p(f b a|Fab)=p(f f a,fb a|Fab)=β(1-t)(n/N) ""(4)
由式(3)(4),鄰域支持估計量 s i和x i 的二項分布為
s i~ "B(n,p t) x i匹配正確
B(n,p f) x i匹配錯誤 """"(5)
為了快速區分正確和錯誤匹配點,把匹配圖像劃分為 G=g×g 個網格,如圖3所示,每一個網格為一個鄰域支持估計量,通過計算周圍相鄰網格的估計量,可加速篩選匹配點。由式(1)可得到網格區域支持估計量 s i 為
s i=∑ K k=1 |x akbk| ""(6)
其中: K 表示與匹配 x i 一起連續的不相交區域網格數目; x akbk∈x 表示在 x i 預測周圍區域對應的匹配子集 {ak,bk} ,相鄰網格區域的鄰域支持估計量 s i 二項分布為
s i~ "B(Kn,p t) x akbk匹配正確
B(Kn,p f) x akbk匹配錯誤 """"(7)
由式(7)可得到 s i 的均值和標準差為
m t=Knp,s t= Knt(1-p t) "x akbk匹配正確
m f=Knp,s f= Knt(1-p f) "x akbk匹配錯誤 """"(8)
由于運動網格劃分,使得正確匹配與錯誤匹配概率相差越來越大,即 s i 的值逐漸增大。按照計算的均值和標準差,可得到區域匹配對 {ak,bk} 的二值化為
cell-pair{i,j}∈ "F "if "s ij≤τ=m f+αs f
T "if "s ijgt;τ=m f+αs f """"(9)
其中: i、j分別表示圖像I a、I b的第i和j個網格域;pair{i,j}為匹配圖像網格域;α表示為權重;τ 是個近似值為
τ≈αa f ""(10)
將鄰域估計量 s i 大于 τ 的網格區域匹配對保留下來,可得到正確匹配點。
2 基于局部聚類的改進GMS算法
GMS算法為了加快特征點篩選速度,把匹配圖像劃分為 g×g 個網格,單個網格作為鄰域支持估計量,根據網格相鄰估計量判斷特征點是否為正確匹配點;該方法可加速區分匹配點,但網格劃分方式過于簡單,未有效地使用圖像紋理信息。GMS算法構建網格作為鄰域支持估計量,若匹配圖像具有角度變換,圖3中網格鄰域對應的排序會發生變化,導致內外點判斷錯誤。針對上述兩個問題,本文提出改進方法如下:
a)首先選擇局部響應最大且成對存在的特征點作為種子點;然后以種子點局部聚類分割圖像;最后計算分割圖像最小外接矩形作為運動網格。
b)把運動網格劃分為3×3個鄰域支持估計量網格,運動網格在八個方向上最大梯度值對應的方向作為網格的主方向,并把待匹配圖像上以中心網格為鄰域的八個鄰域支持估計量網格旋轉至目標圖像運動網格主方向位置。
2.1 基于局部聚類的網格構建
特征點匹配主要通過判斷目標圖像上與待匹配圖像的特征采樣區域相似程度,若運動是平滑的,則鄰域的像素點和特征會共同移動。運動的平滑性會導致正確匹配點附近一個范圍內擁有相似的幾何關系,而錯誤匹配點對之間往往不會有這種一致性關系。由于運動具有平滑性,鄰域的像素點和特征會共同移動,則把具有相似紋理的區域作為運動網格,可進一步提高GMS算法的魯棒性。
2.1.1 種子點提取
實驗需要檢測特征點,提取局部特征描述符,借助OpenCV庫函數中的FLANN函數完成匹配。在本節中通過局域區部抑制算法,分別對目標和待匹配圖像上已匹配特征點均勻化處理,減少匹配圖像過程中穩定性差問題,選擇局部響應最強且成對存在的特征點作為種子點。對圖像網格劃分,每個網格 G r 寬度固定為
c=ε r×r/ 2 """(11)
其中: ε r 為閾值; r 為二進制搜索抑制半徑。兩兩特征點的歐氏距離 |p i-p j| 可用特征點之間的網格數量表示。計算特征點響應,并依次排列得到集合 P ,則種子點提取的偽代碼如下:
輸入:圖像尺寸 cols×rows ;特征點集合 P 。
輸出:篩選后特征點集合 P′ 。
初始化: h=cols ;
二進制搜索抑制半徑 r=1+(cols-1)/2 ;
設置特征點網格 G w,寬度為c=ε r×r/ 2 ,ε r 為閾值,本文取0.25,預設點數 k ;
while "resultgt;k
r=1+(h-1)/2
for "p i∈P
i+ "+;
if格內特征點 p i 未被包含
保留特征點: P′=p i∪P′
end if
result + +
end for
h=r-1 ;
2.1.2 聚類的網格劃分
先選擇成對且局部響應最大的特征點作為種子點;然后分別對目標圖像和待匹配圖像局部聚類操作;最后計算最小外接矩形作為運動網格。主要過程如下:
a)以特征點為中心計算 n×n 鄰域內梯度值,并將種子點移至該區域內梯度最小處。
b)對種子點周圍 2S×2S 鄰域內的像素點分配類標。
c)對目標由RGB色彩空間轉換為Lab色彩空間。
d)計算 2S×2S 鄰域內的像素點與種子點的距離,為
d c= (l j-l i)2+(a j-a i)2+(b j-b i)2 """(12)
d s= (x j-x i)2+(y j-y i)2 """(13)
D′= ( d c m )2+( d s N s )2 """(14)
其中: d c 表示顏色距離; d s 表示歐氏距離; m 為固定常數; N s 為類內最大空間距離,定義為
N s =sqrt (N/P′) ""(15)
其中: N 為圖像像素點數; P′ 為保留特征點數量。
e)迭代計算,獲得較好的局部聚類圖像。
f)計算每個聚類分割區域的最小外接矩形作為運動網格。
2.2 構建運動網格主方向
原GMS算法構建網格后,以網格作為鄰域支持量,用相鄰鄰域支持估計量判斷該網格內特征點是否為正確匹配點。但若匹配圖像具有角度變換,會導致目標圖像與匹配圖像相鄰鄰域支持估計量對應關系發生變化,導致匹配點篩選失敗。為了使GMS算法具有較好的旋轉不變性,提出對鄰域支持估計量網格構建主方向,并把待匹配圖像的鄰域支持網格旋轉至目標圖像運動網格的主方向位置。
把2.1節構建的局部聚類運動網格分為3×3個子網格,中心子網格相鄰的八個子網格作為鄰域支持估計域網格,然后計算目標圖像和待匹配圖像運動網格在八個方向上的梯度值,梯度值最大的方向為運動網格的主方向,如圖4所示。為了使目標圖像和待匹配圖像的鄰域支持估計量網格順序一致,需把待匹配圖像的鄰域支持估計量網格旋轉至目標圖像運動網格主方向位置。若是目標圖像主方向為 θ ,待匹配圖像的主方向為 θ′,則主方向差值t 為
t=θ′-θ ""(16)
把運動網格分為9份,每一份占45°,然后對 {i 1,i 2,…,i 9} 鄰域支持估計量網格旋轉變換,每次旋轉角度為45°,如圖5所示。若把鄰域支持估計量網格 {i 1,i 2,…,i 9} 旋轉45°,可得到 {j 4,j 1,j 2,j 7,j 3,j 8,j 9,j 6} ,如圖5(2)所示。依此類推可得到其他旋轉后的網格,具體如圖5所示。若是 t =90°,則待匹配圖像網格上3×3網格點將順時針移動兩個位置,得到圖5(3)。
3 實驗
為了證明所提算法優越性,使用RANSAC、VFC、GMS、OAnet、改進GMS算法[14]與本文算法對比實驗;RANSAC 算法使用OpenCV3中的findFundamentalMat()函數,GMS算法使用OpenCV3中的matchGMS()函數,OANet算法使用PyTorch+OpenCV3庫實現。除OANet算法硬件平臺為CPU Intel i7-8700、1080ti顯卡外,其他算法硬件平臺均為CPU Intel i-8700。
3.1 匹配正確率
圖6為本文改進GMS算法與未經過內點篩選的ORB、RANSAC、VFC、GMS、改進GMS[14]、OAnet在Oxford數據集上的對比實驗,得到匹配正確率折線圖。Oxford數據集包含具有尺度和旋轉變換實驗圖像(bark、boat)、衡量匹配算法光照魯棒性的Leuven圖像、具有視角變換的wall圖像、JPEG壓縮變化的UBC圖像和具有模糊變換的bike圖像。
由圖6(a)(b)可知,本文算法在具有旋轉和尺度變換圖像相較其他五種方法魯棒性更高;隨著待匹配圖像尺度和旋轉角度的增加,對內點篩選算法的魯棒性要求逐漸增加,故上述算法的匹配正確率呈斷崖式下降;在bark組匹配圖像,VFC算法匹配正確率接近0,GMS和RNASAC算法匹配正確率均低于15%,改進GMS和OANet算法匹配正確率在20%左右;在boat組圖像中,在第四張匹配圖像上各種算法的匹配正確率急劇下降;本文算法對運動網格構建主方向,使改進后的GMS算法具有較好的旋轉不變性,故算法的匹配正確率最高。
圖6(c)為UBC圖像匹配正確率,UBC組圖像具有JPEG壓縮變換,但圖像形變較小,故RANSAC、VFC、GMS、改進GMS、OANet算法和本文算法匹配正確率相差較大,均大于90%。圖6(d)為具有光照變化圖像Leuven的匹配正確率,上述五種算法匹配正確率差別較小。圖6(e)衡量不同內點篩選算法的仿射不變性,RANSAC、VFC、GMS、改進GMS和OAnet算法在第五張圖像的匹配正確率急劇下降,RANSAC、VFC、GMS、改進GMS算法匹配正確率接近0,OANet算法匹配正確率僅為30%左右,本文算法匹配正確率高于60%。圖6(f)為bike組圖像匹配正確率折線圖,上述六種算法對具有模糊變化圖像內點篩選效果較好,匹配正確率相差較小,但本文算法仍具有些許優勢。
為了更好地對比上述六種算法,下面針對具有尺度和旋轉變換的boat數據集,第六張圖像匹配詳細數據進行比較分析。圖7為未經過內點篩選的ORB、RANSAC、VFC、GMS、改進GMS、OAnet和本文算法在boat組目標與第六張待匹配圖像配準效果圖,綠色線條連接了一對匹配點(見電子版)。boat組圖像同時具有角度和尺度變換,是Oxford數據集中匹配難度最大的一組圖像,該組圖像可很好地衡量內點篩選算法的魯棒性,表1為上述七種算法的匹配數據統計。
由圖7(a)匹配效果圖可知,未經過內點篩選的ORB算法得到匹配點數最多,但是匹配連接線雜亂無章,錯誤匹配點較多;圖7(c)匹配點數多,但錯誤匹配點較多,可表明VFC算法對具有尺度和角度變化圖像匹配效果較差;圖7(f)圖像為OANet算法匹配效果圖,連接線數量也較多,但存在清晰可見的錯誤匹配點;圖7(b)為RANSAC算法篩選后效果圖,匹配效果較好,未有明顯錯誤匹配點;圖7(e)為GMS算法內點篩選效果圖,篩選后匹配點數量較少,未有明顯錯誤匹配點;圖7(d)為改進GMS算法匹配效果圖,該算法將GMS算法與RANSAC算法結合使用,可有效提高匹配精度;圖7(g)為本文所提算法特征點篩選效果圖,篩選后特征點數量明顯超過GMS算法,也未有可見錯誤匹配點。
3.2 算法效率
通過表1可知,所提改進GMS算法相較原GMS算法匹配正確率提高22%左右,正確匹配點數和匹配點數均有很大提高,耗時增加9.4 ms。RANSAC和VFC算法均需迭代解最佳參數模型,故耗時較長;RANSAC算法僅根據最優參數模型篩選內點,易把正確匹配點誤判為外點,故匹配點數最少;VFC算法利用期望最大化算法解參數模型,保留了更多匹配點,但正確匹配率較低。改進GMS算法先借助GMS算法區分正確和錯誤匹配點,再使用RANSAC算法篩選匹配點,可有效增加內點篩選算法的準確率,但疊加兩種算法耗時較長。OANet算法通過訓練OANet深度學習模型篩選內點,該算法在不同場景下需重新訓練模型,可移植性差,對硬件要求較高,在GPU 1080ti運行該算法耗時約為1 s。綜上所述,綜合考慮匹配正確率和運行效率,本文所提改進GMS算法優于其他五種內點篩選方法。
4 結束語
本文針對于一般GMS算法為了加快特征點篩選速度,加速區分匹配點,致使原圖像紋理信息得不到充分利用等問題,提出基于局部聚類的網格運動統計正確匹配點篩選算法。該算法利用局部聚類算法構建最小外接矩形作為運動網格,把矩形網格劃分為3×3個子網格并計算運動網格主方向,將待匹配圖像的鄰域支持網格旋轉至目標圖像運動網格的主方向位置,完成特征點篩選,提高了對具有旋轉和尺度變換圖像匹配的正確率,但不可避免地降低了算法的效率。在進一步的研究中,將著重研究如何提高篩選匹配點的效率。
參考文獻:
[1] "Lowe D G.Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004, 60 (2):91-110.
[2] Fischler M A,Bolles R C.Random sample consensus:a paradigm for model fitting with applications to image analysis and automated carto-graphy[J]. Communications of the ACM, 1981, 24 (6):381-395.
[3] Chum O,Matas J.Matching with PROSAC progressive sample consensus[C]//Proc of IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2005:258-267.
[4] Sattler T,Leibe B,Kobbelt L.SCRAMSAC:improving RANSAC’s efficiency with a spatial consistency filter[C]//Proc of the 12th IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2009:125-132.
[5] Raguram R,Chum O,Pollefeys M, et al .USAC:a universal framework for random sample consensus[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2013, 35 (8):2022-2038.
[6] Lin W Y D,Cheng Mingming,Lu Jiangbo, et al .Bilateral functions for global motion modeling[C]//Proc of European Conference on Computer Vision.Cham:Springer,2014:341-356.
[7] Ma Jiayi,Zhao Ji,Tian Jinwen, et al .Robust point matching via vector field consensus[J]. IEEE Trans on Image Processing, 2014, 23 (4):1706-1721.
[8] Lin Wenyan,Wang Fan,Cheng Mingming, et al .CODE:coherence based decision boundaries for feature correspondence[J]. IEEE Trans on Pattern Recognition and Machine Intelligence ,2018, 40 (1):34-47.
[9] Ma Jiayi,Zhao Ji,Jiang Junjun, et al .Locality preserving matching[J]. International Journal of Computer Vision ,2019, 127 (5):512-531.
[10] Yi K M,Trulls E,Ono Y, et al .Learning to find good correspondences[C]//Proc of IEEE Conference on Computer Vision Pattern Recognition.2018:2666-2674.
[11] Zhang Jiahui,Sun Dawei,Luo Zixin, et al .Learning two-view correspondences and geometry using order-aware network[C]//Proc of International Conference on Computer Vision.2019:120-128.
[12] "Bian Jiawang,Lin Wenyan,Liu Yun.Grid-based motion statistics for fast,ultra-robust feature correspondence[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:197-205.
[13] 陳方杰,韓軍,王祖武,等.基于改進GMS和加權投影變換的圖像配準算法[J].激光與光電子學進展,2018, 55 (11):180-186. (Chen Fangjie,Han Jun,Wang Zuwu, et al .Image registration algorithm based on improved GMS and weighted projection transformation[J]. Laser amp; Optoelectronics Progress ,2018, 55 (11):180-186.)
[14] 朱成德,李志偉,王凱,等.基于改進網格運動統計特征的圖像匹配算法[J].計算機應用,2019, 39 (8):2396-2401. (Zhu Chengde,Li Zhiwei,Wang Kai, et al .Image matching algorithm based on improved RANSAC-GMS[J]. Journal of Computer Applications, 2019, 39 (8):2396-2401.)
[15] 羅守品,楊濤,梅艷瑩.基于改進ORB和網格運動統計的圖像匹配算法[J].傳感器與微系統,2019, 38 (7):125-127,130. (Luo Shoupin,Yang Tao,Mei Yanying.Image matching algorithm based on improved ORB and grid-base motion statistics[J]. Transducer and Microsystem Technologies ,2019, 38 (7):125-127,130.)
[16] 王曉華,方琪,王文杰.基于網格運動統計的改進快速魯棒特征圖像匹配算法[J].模式識別與人工智能,2019, 32 (12):1133-1140. (Wang Xiaohua,Fang Qi,Wang Wenjie.Image matching algorithm combining improved surf algorithm with grid-based motion statistics[J]. Pattern Recognition and Artificial Intelligence ,2019, 32 (12):1133-1140.)
[17] 丁輝,李麗宏,原鋼.融合GMS與VCS+GC-RANSAC的圖像配準算法[J].計算機應用,2020, 40 (4):1138-1143. (Ding Hui,Li Lihong,Yuan Gang.Image registration algorithm combining GMS and VCS+GC-RANSAC[J]. Journal of Computer Applications, 2020, 40 (4):1138-1143.)