李厚君



摘 要:針對基于快速傅里葉變換的眉毛識別方法(FFTER)識別速度較慢的問題,設計了一種新的基于梯度模板匹配的眉毛識別方法(GTMER).該方法識別速度更快,更能夠適合于實時應用.首先,利用圖像梯度特征,快速匹配出純眉毛模板的最相似區域;然后,通過小范圍內的精準調整,得到一個準確的匹配位置;最后,利用傅里葉頻譜距離,將待處理眉毛圖像識別出來.實驗表明:GTMER的識別速度最高比FFTER提升約38%,同時在BJUTED眉毛數據庫上的識別正確率也達到98.12%.
關鍵詞:眉毛識別;模板匹配;圖像梯度;傅里葉頻譜距離;生物特征識別
中圖分類號: TP317.4 DOI:10.16375/j.cnki.cn45-1395/t.2018.03.010
0 引言
生物特征識別作為一項有用的身份驗證技術,以其準確性、安全性和實用性得到了廣泛的認可,尤其是指紋識別、人臉識別和虹膜識別等都已經大量應用于現實生活中[1].隨著研究的不斷深入,人體的各個方面特征,如步態[2]、耳朵[3]、掌紋[4]、指關節[5]等,都已經被使用并作為一種獨立的生物特征進行研究.
在眾多的生物特征識別技術里,虹膜識別被認為是準確性和安全性較高的一種技術.但是,要在開放環境中對虹膜實現自然采集是困難的.因為虹膜處于易移動的物體(眼球、頭部)上,成像需要使用近紅外光;并且它的尺寸很小,要求近距離的采集[6].此外,一旦出現閉眼或眨眼的情況,被采集的虹膜信息的完整性將難以保證.為此,Park等[6]提出了眼周生物特征識別的概念.相比于虹膜,眼周可以通過可見光,在一個相對遠的距離下實現自然的采集,它甚至可以使用已有的人臉采集設備與人臉圖像一起被采集到.眼周識別可以在人臉鼻子及以下部分被遮擋時,替代人臉識別.Park等使用了568人的模板庫以及1 136幅測試圖像進行眼周識別實驗,正確率最高達到81.60%;但是當虹膜或眼睛被遮擋時,其平均識別正確率分別下降了3.65%和15.95%[6].可見,Park等所討論的眼周識別方法對眼睛的依賴較強,一旦被采集者閉上眼睛,它的識別正確率將明顯降低.雖然Park等預想在進一步研究中將眼睛輪廓作為一個特征加入眼周識別中,但眼睛的形狀變化是多種多樣的,這為特征提取帶來不少困難.而另一方面,將眉毛包含在眼周識別區域內時,平均識別正確率提高了10.66%[6].可見眉毛對于眼周識別的重要性.事實上,眉毛在人臉中的作用不亞于眼睛[7];而且Li等[8]已經證明了眉毛是具有強可區分性的,其在801人的數據庫中眉毛識別的正確率最高為75.66%,600人時最高達到78.50%,這與Park等討論的眼周識別正確率很接近.因此,單獨使用眉毛進行身份識別是可行和有效的.
眉毛識別作為一種獨立的生物特征識別技術,仍不被廣泛接受,相關的研究也十分有限[8-13].之前的眉毛識別方法[9-13],均是在檢測識別框架下提出的,它們的識別正確率在80%~94%之間,而且需要從采集圖像中手動圈選出眉毛區域.Li等[8]提出了一種匹配識別框架的思想,它使用快速傅里葉變換的模板匹配方法(Fast Fourier Transform,FFT),將匹配和識別有效結合在一起,實現了一種全自動的眉毛識別方法.并且在109人的公開眉毛數據庫BJUTED[14]中,取得了98.12%的高識別正確率.但是,使用FFT并不是最佳的模板匹配方法,而它較低的匹配速度也影響到眉毛識別的效率.因此,有必要使用更加高效的模板匹配方法來替代FFT.高效的模板匹配方法很多,如快速正交Haar變換模板匹配算法(Fast Orthogonal Haar Transform,FOHT)[15],它是一種全搜索等價算法,能取得與FFT一致的匹配結果,并且在多模板匹配時優勢顯著.但是,FOHT在匹配篩選過程中需要預先設定閾值,這在自動眉毛識別過程中是困難的.梯度模板匹配算法(Gradient Template Matching,GTM)[16],是另一種高效的模板匹配方法,它使用圖像梯度特征來進行匹配處理,但是其匹配結果可能會與FFT不一致,即GTM可能得不到精確的匹配結果,從而可能導致識別正確率的下降.
圖像的梯度已經被證明是一種區分性很強的特征表示方法[17-18],并且具有一定的抗噪聲和光照干擾能力[19].為此,本文仍使用梯度模板匹配方法,但是對匹配結果進行微調處理,以確保能獲得很高的識別正確率.由于在使用圖像梯度進行匹配時,對梯度值進行了過濾及量化處理,所以這種眉毛識別方法非常高效.本文將詳細討論這種基于梯度模板匹配的眉毛識別方法(GTMER).
1 梯度模板匹配方法
梯度模板匹配方法(GTM)是一種十分高效的模板匹配方法,它使用圖像梯度特征,使得匹配過程具有一定的抗光照及噪聲干擾能力.因此在模板不發生較大形變情況下,是一種理想的模板匹配方法.GTM的基本思路是:首先,將圖像表征為其梯度特征圖;然后,將圖像梯度特征圖進行過濾、量化以及拓展處理;最后,構建圖像的梯度響應圖,并最終完成模板匹配任務.注意到,由于在匹配過程中對圖像的梯度進行了過濾、量化及拓展處理,因此GTM的匹配結果可能與FFT不一致,為此它也是一種非全搜索等價算法.
1.1 圖像梯度
圖像的梯度計算方法會影響到GTM的匹配效率和準確度,因此找到一種好的梯度計算方法很有必要.另一方面,圖像的平滑操作也有利于產生更好的梯度特征,因為平滑操作能壓制、弱化或消除圖像中的細節、突變、邊緣和噪聲,從而更有利于梯度準確地表現出物體邊緣[16,20].為此,在實驗部分測試了不同尺度模板的高斯平滑和均值平滑對圖像梯度特征的影響.事實上,對于眉毛圖像而言,使用7×7大小的均值平滑模板能得到最佳的結果.高斯平滑之所以不如均值平滑,原因可能是它是一種加權模糊方法,這對采集的眉毛圖像細節模糊不足,所以產生了過多的干擾梯度特征值.
對于圖像的梯度計算,為了增強梯度特征值的魯棒性,本文考慮了圖像的各個顏色分量,并且令圖像某一點位置上的梯度等于其幅值最大的顏色梯度分量.即,對于RGB圖像P,其(i,j)點上的梯度分別表示為:
1.2 拓展梯度特征圖
對圖像梯度特征值進行過濾將有助于進一步減少噪聲干擾,并提高梯度匹配的效率.過濾的原則是:設定一個較小閾值threshold,當M(i,j) < threshold時,令Px(i,j) = 0和Py(i,j)= 0;否則保持Px(i,j)和Py(i,j)的值不變.threshold值的設定會根據不同的梯度計算方法有所不同.第3節給出了針對BJUTED眉毛數據庫不同梯度計算方法的一個最優threshold取值.
進一步地,需要對非零梯度特征值進行量化處理.首先,將非零梯度特征值的方向角度轉到0~180o的范圍空間內.圖像(i,j)位置的梯度方向角度θ可按式(4)計算,
其中,符號“[?]”表示向上取整運算;Binary(k,n)表示將整數k轉換為一個n位的二進制數,并且其第k位為1,其余位為0.例如,binary(1,3) = ‘001,binary(2,3) = ‘010,binary(3,3) =‘100.由于n是預先指定的,因此為了描述簡單,本文余下部分將把Binary(k,n)記為Bk.
為了進一步增強量化后圖像特征的抗噪能力,圖像中每個位置上的量化值q(i,j)將被重新設定為其3×3鄰域中出現次數最多的量化值,即:
[qs(i, j)=argmaxk∈{1, 2, …, n}{static(Bk, D3×3)}] , (7)
其中D3×3表示圖像(i,j)位置的3×3鄰域,即D3×3 =[i-1,i+1]×[j-1,j+1];static(Bk,D3×3)表示在鄰域D3×3內,量化值Bk出現的次數.
圖像梯度特征值的量化雖然有利于進行快速的匹配處理,但是由于經過了過濾處理,這使得圖像梯度特征值變得非常稀疏,從而增大了匹配錯誤的可能性.因此需要對量化特征值進行拓展處理,并構造出圖像的拓展梯度特征圖.
拓展梯度特征圖通過將每一點的梯度量化值向它的T×T鄰域拓展而得到.拓展的另一個目的,是可以將匹配時的逐點移動變成在x和y方向上分別以T為步長進行移動,這大大提高了匹配計算的效率.如果用Q表示圖像的拓展梯度特征圖,則Q中的每個元素都可以表示成其T×T鄰域所有的梯度量化值qs的或位運算,即:
其中,符號“?|?”表示或運算;式(8)等號的右邊則表示了圖像拓展梯度特征圖中的每個元素Q(i,j),都由其鄰域[D[i-T2, i+T2]×[j-T2, j+T2]]內的T×T個梯度量化值進行或運算后得到.
1.3 圖像梯度
圖像的梯度響應圖是為了加快圖像匹配而使用的一種技術,它將相似性計算轉換為簡單的檢索操作.由于梯度量化值的有限性——只有n個不同的梯度量化值,因此可以預先計算出每一個梯度量化值與圖像拓展梯度特征圖Q之間的相似性矩陣,這些相似性矩陣便被稱為梯度響應圖.可見,每個輸入圖像都只對應n個不同方向的梯度響應圖,利用它們可以進一步加速梯度匹配的過程.
2 基于梯度模板匹配的眉毛識別方法
匹配識別框架[8]是一種集匹配與識別為一體的生物特征識別框架,它不需要對識別目標進行定位,避免了由于定位不準確而導致的識別誤差,如圖1所示.事實上,匹配識別框架可以被分為匹配和識別兩個階段,而且這兩個階段存在一一對應關系.其中匹配階段主要使用“匹配器”匹配出模板的最佳匹配區域,然后再在識別階段利用最佳匹配區域進行判別距離的計算,從而獲得最終識別結果.
2.1 匹配器的構造
利用GTM可以設計出高效的模板匹配方法,但是GTM無法保證獲得與FFT一致的匹配結果.為此,有必要在(im,jm)的一個較小鄰域內,進一步使用歸一化相關系數(Normalized Cross-Correlation,NCC)作為相似性度量,計算出精確的匹配位置.其實際就是在一個較小的范圍內,使用FFT來定位出精確的匹配位置,即:
對于眉毛圖像識別而言,匹配位置的調整很有效果,圖2展示了GTM的匹配結果,以及對它進行微調后的結果.可以看出,微調后的匹配位置更加精確.事實上,根據實驗發現,經過調整處理后,更可以將眉毛識別的正確率提高2%左右.此外,圖2的結果是在[-2T,2T]×[-2T,2T]鄰域中調整得到的,這主要是因為在實驗中發現如果該鄰域取得較小,有些圖像得到的精確匹配位置與實際仍有偏差,這有可能是因為圖像所受光照強度變化較劇烈所引起的.因此,本文在后面的實驗中,均在[-2T,2T]×[-2T,2T]大小的鄰域內進行微調操作.
在識別階段,使用匹配相似度作為識別判定時,識別正確率較低[8],因此需要引入健壯性更好的判別距離,以提高識別正確率.本文采用了Li等提出的處理方法,即:首先,將模板及其匹配得到的精確匹配的子區域歸一化至相同的尺寸,如256×512;然后,再分別計算它們的一維頻譜距離L1_FSD;最后,根據各個模板的L1_FSD距離值,可以識別出待識別圖像的身份[8],即:
2.2 算法描述
基于梯度模板匹配的眉毛識別方法(GTMER)是匹配識別框架下構造的一種眉毛識別方法,其基本思想是:匹配階段使用GTM,且匹配結束后使用FFT進行精確匹配位置微調;而識別階段使用L1_FSD作為判別距離,并據此得出識別結果.具體算法描述如下:
Step 1 (匹配過程):
對于所有模板ti∈Gallery執行如下循環:
Step 1.1 使用GTM匹配出ti的匹配子區域si;
Step 1.2 使用FFT在si的一個較小領域中,匹配出ti的精確匹配子區域oi;
Step 2 (識別過程):
對于所有模板ti及其精確匹配子區域oi,計算它們的L1_FSD距離值.最終識別結果判別為R=argmin{L1_FSD(oi,ti)}.
雖然基于梯度匹配的眉毛識別方法在GTM的基礎上再次使用了FFT,如Step 1.2 所示,但是,由于FFT僅在si的一個較小鄰域內進行,該過程十分快速,因此,Step 1的整個計算效率并沒有下降太多.
3 實驗結果及分析
文中的實驗均在BJUTED眉毛數據庫[14]中進行.數據庫包含109個樣本的1 118幅BMP格式圖像,這些圖像均是以眉毛為中心,大小為576×768,且被分為閉眼和睜眼兩類,每類各包含圖像559幅,如圖3所示.數據庫中每個樣本均對應有這兩類圖像,且平均每類的圖像不少于5幅.從閉眼圖像中每個樣本隨機抽取一幅圖像,并手動地在圖像中圈選出其純眉毛區域以構成模板庫,記為CTG.CTG中的眉毛模板平均大小約為166×437,共109個,分別對應109個樣本.同時,構建一個更小規模的測試集,它包含109個樣本的109幅睜眼圖像,記為PS.使用CTG和PS,針對GTMER中可能存在的問題:圖像模糊、匹配位置微調和梯度計算方法的影響,分別進行了實驗分析.實驗代碼均使用C++語言進行編寫,并使用一臺配有i5-2400 CPU的微機,在Win7環境下使用VS2010進行編譯和運行.
3.1 圖像平滑操作對識別結果的影響
從1.1節的討論可以了解到,不同的圖像平滑方法直接影響到眉毛圖像的梯度計算值,從而導致最終識別正確率的變化.為了分析圖像平滑操作對識別正確率的影響,本文針對兩種常用的平滑方法:高斯平滑和均值平滑,進行了不同尺度平滑卷積核的實驗.實驗使用Schaar算子計算圖像的梯度,結果如圖4所示.
圖4中,mblur和gblur分別表示使用均值平滑和高斯平滑的方法對圖像進行處理,mblur和gblur標記后緊跟的“_5”和“_7”分別表示圖像平滑操作所使用的卷積核的大小:5×5或7×7;R和T分別表示識別正確率和平均每幅圖像的識別時間(時間單位:s);G-N則表示梯度化后平均每個眉毛模板的有效梯度值數量,它直接影響到識別效率的高低.結果顯示,對圖像使用均值平滑操作總要優于高斯平滑.在相同條件下,均值平滑處理能獲得更高的識別正確率和更快的識別速度.
另外,當使用5×5的卷積核進行圖像平滑處理時,識別正確率明顯低于使用7×7卷積核的情況,識別速度也更慢.在BJUTED眉毛數據庫中,所采集到的圖像許多都有明顯的光照強度變化,直接計算圖像梯度時,這些光照變化強烈的地方往往會產生較大的梯度值.圖像的平滑操作剛好能模糊圖像的這些變化,減少光照的影響.但是,使用5×5的卷積核對圖像的模糊程度不足,致使圖像仍保留有過多因光照強度變化而產生的細節,因此也使得圖像計算得到更多的有效梯度值,從而干擾了匹配的準確性,降低了匹配效率,如圖5所示.因此,本文余下的實驗均使用7×7的卷積核對圖像進行均值平滑處理.
3.2 梯度計算方法對識別結果的影響
圖像梯度的計算方法有很多,它們都各有特點,計算得到的梯度特征也各不同.為了確定哪種方法更適合于眉毛識別,本實驗在CTG和PS下測試了多種梯度計算方法,分別是:1-D的無中心算子(Uncentred)[-1,1]、中心算子(Centred)[-1,0,1]和3次修正算子(Cubic-corrected)[1,-8,0,8,-1],2-D的2×2對角算子(Diagonal1:[0,1;-1,0]和Diagonal2:[-1,0;0,1])、3×3的Sobel算子和Scharr算子.由于不同梯度計算方法在進行梯度篩選時,需要設定不同的閾值threshold,而threshold的選取對識別正確率和識別效率都有一定的影響.為找出最佳的閾值threshold,本實驗分別對每種梯度計算方法測試了10個不同的閾值,如表1所示.對這些梯度計算方法采取不同的閾值threshold進行的實驗結果如圖6所示.
從圖6可以看出,在選擇適當的threshold值時,除了使用Sobel算子的方法外,其余方法均能達到98.17%的識別正確率.換言之,Sobel算子計算得到的梯度匹配結果不如其他算子計算得到的梯度更準確.雖然其他梯度計算方法所得到的最高眉毛識別正確率并沒有差別,但是從圖7的結果看,簡單的計算方法在一定的threshold取值時,具有更快的識別速度,如threshold=3.2時的Uncentred算子、threshold=3.8時的Diagonal2算子和threshold=11.0時的Cubic-corrected算子,它們平均識別每幅圖像的時間為0.48 s、0.50 s和0.50 s.因此,對于眉毛識別,在多數情況下簡單而貼近于眉毛走勢的梯度算子將是更好的選擇.
3.3 BJUTED眉毛數據庫上的性能比較實驗
本實驗選擇目前在BJUTED數據庫上識別率較高的FFTER方法[8]進行比較.使用CTG首先在PS測試集上進行實驗,然后再在完整的BJUTED眉毛數據庫上進行對比實驗.實驗使用了3.2節中除了Sobel算子外的其余所有梯度算子,它們的篩選閾值threshold分別設為圖6中標記的最佳值.算法FFT均采用了OpenCV 3.0所提供的函數.
表2展示了在PS測試集上各方法的實驗結果.其中,加速比(Speedup Ratio)的計算如下:
式中,TFFTER和TGTMER分別表示FFTER和GTMER的運行時間.可見,GTMER在使用Uncentred算子計算梯度時,要比FFTER快30.43%;即使是使用Diagnonal1算子時速度最慢,但也要比FFTER快7.25%.由此可見,GTMER的運行效率要高于FFTER.
表2的實驗結果同時也顯示,FFTER的識別正確率最高,達99.08%,高于GTMER的98.17%,多識別正確了一幅圖像.進一步分析可知,GTMER之所以識別正確率低于FFTER,是因為GTMER將第105號樣本圖像識別成了第77號模板,而FFTER則能正確識別出第105號樣本圖像.如圖7所示,第105號樣本圖像的眉毛顏色較淡,而圖像中額頭區域有較強的光照變化,因此經過平滑處理后,眉毛區域保留的有效梯度值較少,而額頭區域保留的有效梯度值較多.在圖7中,降低threshold值將得到更加明顯的對比效果.雖然降低threshold值使得眉毛區域保留了更多有效梯度特征值,但它的匹配結果仍然不正確,這或許是梯度方向角量化方式所導致的結果.因為,每個梯度方向角都被量化為n位有效的二進制數,實驗中取n=8,這使得量化的范圍很有限,也進一步降低了額頭區域與眉毛區域的辨識度,最終導致錯誤的梯度匹配結果.這也是梯度匹配的一個不足.此外,通過對識別錯誤的幾個樣本的分析發現,GTMER與FFTER一樣,在圖像發生明顯的縮放時,也不能對圖像做出正確的識別.這應該是使用FFT進行匹配位置微調所導致的結果,它雖然使得識別正確率提高了,但也造成了GTMER的一些局限性.
圖8展示了BJUTED眉毛數據庫中的實驗結果.為使實驗結果更清晰,本實驗將BJUTED眉毛數據庫劃分為3部分:PCS、POS和PT.其中,PCS由除了生成CTG的圖像外,所有的閉眼圖像圖組成;POS由所有睜眼圖像組成;PT由PCS和POS的所有圖像組成.從實驗結果看,所測試的GTMER幾種梯度算子,識別速度均要快于FFTER.其中使用Diagonal2算子的最快約0.48 s,相比于FFTER的0.78 s快了38%左右.另外,在PT測試集中Diagonal2的識別正確率也最高,約為98.12%,高于FFTER的97.82%.事實上,在PT測試集中,除了Diagonal1的識別正確率約97.72%低于FFTER,及Cubic-corrected的識別正確率與FFTER一樣外,其他算子的識別正確率均要高于FFTER,分別為:Uncentred約98.02%,Scharr和Centred約97.92%.由圖8看,對于PCS測試集的實驗,除Cubic-corrected外,其他方法的識別正確率均要高于FFTER的98.44%,其中Centred的最高,約98.89%;而對于POS測試集的實驗,Diagonal2和Cubic-corrected的識別正確率最高,約97.67%,而Centred和Diagonal1的則要明顯低于FFTER的97.32%.因此,可以得到這樣的結論:GTMER是一種比FFTER更快速的眉毛識別方法,并且多數情況下能獲得比FFTER更高的識別正確率,如使用Diagonal2算子作為圖像梯度計算方法時.
4 結論
利用圖像梯度特征,本文在匹配識別框架下設計了一種快速的眉毛圖像匹配識別算法,即基于梯度模板匹配的眉毛識別方法.該方法首先利用圖像梯度,快速匹配出與純眉毛模板最相似的區域;然后,通過微調得到精確的模板匹配位置;最后,使用L1_FSD作為判別距,識別出所輸入眉毛圖像的身份.在BJUTED眉毛數據庫中的實驗表明,基于梯度模板匹配的眉毛識別方法具有更快的識別速度,以及更高的識別正確率.但是實驗也指出:基于梯度模板匹配的眉毛識別方法的不足,即圖像光照強度變化特別強烈的地方,容易被誤認為是物體的邊緣,從而獲得較多的梯度特征值,影響最終的匹配和識別正確性.要克服這一缺點,或許可以在圖像采集階段加以一定的約束,保證采集的圖像沒有特別強烈的光照變化;再或者可以通過視頻圖像進行識別認證,這都將有待于在未來的工作中加以研究.
參考文獻
[1]王鵬濤,王智文. 基于PSO-LDA的人臉識別算法[J].廣西科技大學學報,2017,28(1):85-90.
[2]HAYFRONACQUAH J B,NIXON M S,CARTER J N. Automatic gait recognition by symmetry analysis[J]. Pattern Recognition Letters,2003,24(13):2175-2183.
[3]CHEN H,BHANU B. Human ear recognition in 3D[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2007,29(4):718-737.
[4]DAI J,ZHOU J. Multifeature-based high-resolution palmprint recognition[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2011,33(5):945.
[5]KUMAR A,ZHOU Y. Human identification using Knucklecodes[C].IEEE,International Conference on Biometrics:Theory,Applications,and Systems.IEEE,2009:1-6.
[6]PARK U,JILLELA R R,ROSS A,et al. Periocular biometrics in the visible spectrum[J]. IEEE Transactions on Information Forensics & Security,2011,6(1):96-106.
[7]SINHA P,BALAS B,OSTROVSKY Y,et al. Face recognition by humans:nineteen results all computer vision researchers should know about[J].Proceedings of the IEEE,2007,94(11):1948-1962.
[8]LI Y,LI H,CAI Z. Human eyebrow recognition in the matching-recognizing framework ☆[J]. Computer Vision & Image Understanding,2013,117(2):170-181.
[9]LI Y,FU C. Eyebrow recognition:a new biometric technique[C].Iasted International Conference on Signal and Image Processing. ACTA Press,2007:506-510.
[10]LI Y,LI X. HMM Based Eyebrow Recognition[C]. International Conference on International Information Hiding and Multimedia Signal Processing.IEEE Computer Society,2007:135-138.
[11]LI Y,WANG L. Eyebrow recognition based on principal component analysis[J]. Computer Engineering & Science,2008,30(11):28-28.
[12]YANG X,XU X,LIU C. Eyebrow recognition based on sparsity preserving projections[C]. Conference Anthology,IEEE.IEEE,2014:1-4.
[13]XU X,YANG X,LI Y,et al. Eyebrow recognition using radon transform and sparsity preserving projections[C].International Conference on Automatic Control and Artificial Intelligence.IET,2013:1028-1033.
[14]LI Y,LI H. The BJUT eyebrow database[OL]. 2015. http://mpccl. bjut.edu.cn/EyebrowRecognition/BJUTEyebrowDatabase/BJUTED.html.
[15]LI Y,LI H,CAI Z. Fast orthogonal haar transform pattern matching via image square sum[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2014,36(9):1748.
[16]HINTERSTOISSER S,CAGNIART C,ILIC S,et al.Gradient response maps for real-time detection of textureless objects[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2012,34(5):876-888.
[17]LOWE D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision,2004,60(2):91-110.
[18]楊曉云,梁郁,梁鑫.基于LiDAR點云的城市地區植被提取算法研究[J].廣西科技大學學報,2015,26(3):73-77.
[19]HINTERSTOISSER S,LEPETIT V,ILIC S,et al. Dominant orientation templates for real-time detection of texture-less objects[C]. Computer Vision and Pattern Recognition.IEEE,2010:2257-2264.
[20]DALAL N,TRIGGS B. Histograms of oriented gradients for human detection[C]. IEEE Computer Society Conference on Computer Vision & Pattern Recognition. IEEE Computer Society,2005:886-893.