999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

零件的角點提取及匹配定位

2016-08-01 09:06:36高禮圳劉書桂韓振華
中國光學(xué) 2016年4期

高禮圳,劉書桂,韓振華

(天津大學(xué) 精密測試技術(shù)及儀器國家重點實驗室,天津 300072)

?

零件的角點提取及匹配定位

高禮圳,劉書桂*,韓振華

(天津大學(xué) 精密測試技術(shù)及儀器國家重點實驗室,天津 300072)

摘要:本文基于三坐標(biāo)測量機(CMM)設(shè)計了一套視覺檢測系統(tǒng),該系統(tǒng)能夠?qū)α慵嶋H空間特征信息進行比較全面地提取。針對位于CMM平臺上帶有角點的零件,利用Harris算子提取從CMM三個不同方位獲取的零件圖像的角點。對于Harris算子提取到的角點,本文提出一種八鏈碼搜索法和SUSAN區(qū)域法相結(jié)合的偽角點剔除方法,最后基于立體視覺的原理,提出“距離空間圖”匹配算法,將以上3幅圖像一一建立匹配關(guān)系。實驗中多次改變零件在CMM中姿態(tài)時,多次實驗數(shù)據(jù)表明本文的角點提取精度與真實角點間僅存在1~2像素的偏差,零件的定位誤差為1~3 mm。通過實驗驗證,角點匹配和定位的穩(wěn)定性和精度滿足要求,具有一定的抗干擾性和實用性。

關(guān)鍵詞:三坐標(biāo)測量機;Harris算子;角點匹配;立體視覺;距離空間圖

1引言

在防碰撞系統(tǒng)[1-2]中,零件位姿的判定和定位是進行智能路徑規(guī)劃和自動檢測的前提和基礎(chǔ)[3-4],而對于有角點的零件,利用角點信息在零件姿態(tài)判定中極其重要,因此角點提取和匹配定位在防碰撞系統(tǒng)中是必不可少的。

角點一般是指圖像中亮度變化劇烈的像素點或者指圖像中梯度值和梯度變化率都很高的像素點,它反映了圖像的局部特征。角點檢測是圖像處理中的一個關(guān)鍵預(yù)處理步驟,常用于圖像匹配、運動物體跟蹤以及目標(biāo)識別等方面[5]。現(xiàn)有的特征點提取方法可分為基于模板的特征點檢測、基于邊緣的特征點檢測和基于亮度變化的特征點檢測。基于模板的特征點檢測算法需要設(shè)計復(fù)雜的模板,對于復(fù)雜圖像不適用;基于邊緣的特征點檢測算法對邊緣檢測的依賴性很大;而基于亮度變化的特征點檢測方法已成為研究熱點,Harris、SUSAN和SIFT算法等都屬于該類算法[6]。

文獻[5]中提出利用雙掩膜進行非極大值抑制方法提取角點,但是掩膜設(shè)計成為一大難點。文獻[7]中利用全局和局部邊緣的曲率特性提取角點,對邊緣檢測要求很高。文獻[8]中利用多尺度Harris算法需要在多個尺度上檢測角點,但是計算量比傳統(tǒng)算法大大增加。目前用于圖像匹配的方法主要有兩大類[9]:一是基于灰度相關(guān)的匹配方法,該方法是對2幅圖像的灰度相似度進行計算估計,盡管該算法簡單,匹配準(zhǔn)確率高,但不適合于光軸之間夾角很大的多個相機間的匹配,且計算量大;另一種是基于圖像特征的方法,該方法主要有點匹配、線匹配和面匹配,由于線特征為一維特征,面特征為二維特征,其匹配算法要考慮到的方向、尺度位置等因素受噪聲、 遮擋影響較大。而點特征包含圖像中豐富的信息,其提取算法是計算機視覺中比較成熟且經(jīng)典的技術(shù),如Harris算法,SUSAN算法。角點是最常用的目標(biāo)特征之一,它們常用于圖像單尺度下的角點檢測。但是實際中由Harris提取到的角點包含很多雜亂無章且包含無用信息的偽角點,這些偽角點主要是由光照和零件上的毛刺所引起的。對于所獲得的角點,利用現(xiàn)有的匹配算法[9-12]無法直接建立匹配關(guān)系。

針對以上問題,本文提出了八鏈碼搜索法和SUSAN區(qū)域法相結(jié)合的偽角點剔除方法。該方法利用八鏈碼搜索法刪除圖像的內(nèi)部偽角點后,再利用SUSAN 區(qū)域法刪除位于輪廓上的偽角點,最后基于立體視覺原理,提出“距離空間圖”的匹配算法,對留下的角點進行匹配和定位。通過實驗證明,本文的偽角點剔除方法和匹配定位算法有較高的精度,具有一定的實用性。

2角點提取和剔除

實驗中為避免外部環(huán)境的干擾,先用位于CMM[14]3個不同方位的相機分別獲取放零件前的背景圖像,然后再獲取放零件后的零件圖像,兩圖像相減后得到去除背景后的零件圖像。對于相減后的圖像,經(jīng)預(yù)處理后采用Harris算法[15]提取圖像特征點。該方法使用圖像的一階差分來計算每個像素處的平均平方梯度矩陣M,如式(1)。通過特征值分析,如式(2),給出角點響應(yīng)。該方法原理簡單、運算量小、使用方便。實驗中發(fā)現(xiàn)可檢測性、定位性、穩(wěn)定性都滿足要求,運算速度也較快[5],但是同時也會檢測到很多偽角點。對于所獲得的角點,利用現(xiàn)有的匹配算法無法直接建立匹配關(guān)系。因此,在匹配前應(yīng)該把這種偽角點刪除,下面將通過以下兩個步驟來刪除偽角點。

(1)

(2)

式(1)中,矩陣M即為每個像素的平均平方梯度矩陣,I表示了點(x,y)處的像素亮度,*是卷積符號,W是一個3×3高斯低通濾波器。式(2)中,det(M)為矩陣M的行列式,tr(M)為矩陣的跡,k為一個經(jīng)驗值,通常被選定為0.04。R為角點響應(yīng)函數(shù)的值,設(shè)定一個合理的閾值條件threshold,當(dāng)R的值大于此閾值時,此時圖像點即為感興趣的特征點。

2.1內(nèi)部偽角點剔除

八鏈碼搜索如下圖1所示,對于由Harris算法提取的角點,首先從八鏈碼的0方向搜索連續(xù)兩個大于某閾值的像素點,該閾值可以取該角點像素值的一半。如果能搜到滿足上面條件的像素點集,那么再從八鏈碼的1方向搜索,直到八鏈碼的8個方向都能搜索到滿足條件的點集,那么這個角點屬于內(nèi)部偽角點。否則如果有一個方向不滿足搜索條件,那么停止其他方向的搜索,因為該角點一定不屬于內(nèi)部偽角點。

圖1 八鏈碼的方向圖 Fig.1 Eight-chain-code direction

2.2輪廓上偽角點剔除

SUSAN算法[16]是由牛津大學(xué)的S M Smith提出的,同樣也是一種基于灰度的特征點獲取方法。其基本原理是通過圖像中目標(biāo)與背景的對比度確定閾值,將模板中的各點與核心點(當(dāng)前點)的灰度值用相似比較函數(shù)進行比較,得到與核心點灰度相近的點的集合區(qū)域稱為核值相似區(qū)(Univalue Segment Assimilating Nucleus,USAN)。實驗通過對留下的角點利用SUSAN模板進行搜索,其在輪廓上的角點處的USAN區(qū)大于在邊緣交線上的角點處的USAN區(qū),由此,響應(yīng)圖像中的角點特征。在實際操作時,對于模板內(nèi)任一像素點R與模板中心像素N,通過給定的閾值t來判斷該像素點是否屬于USAN區(qū)域,其判別函數(shù)為:

(3)

那么以N為中心像素點模板內(nèi) USAN區(qū)域的大小為:

(4)

式中,S(N,r)表示以N為中心,r為半徑的圓形模板,表示模板中USAN區(qū)域的大小。然后,將n(N,r)與預(yù)先給定閾值G進行比較,由此剔除圖像中輪廓上的角點[17]。

3特征點匹配

本實驗中,3個相機分別位于CMM三個不同的方位,如下圖2所示,相機1位于CMM的正前方,相機2位于CMM的橫梁上,相機3位于CMM的左方,各相機與CMM之間的坐標(biāo)關(guān)系已標(biāo)定。其中零件擺放在CMM的工作平臺上,且都在3個相機的視場范圍內(nèi)。本文中設(shè)計的視覺系統(tǒng)都能夠較大限度地提取零件的三維特征信息,由于3個相機的光軸基本相互垂直,相機之間能夠互相約束景深尺寸,可以較大限度地減少視覺系統(tǒng)的定位誤差。

圖2 相機與CMM的方位圖 Fig.2 Orientation diagram of camera and CMM

圖3 對極幾何約束圖 Fig.3 Diagram of epipolar geometry

由于特征點提取不夠精確,匹配兩圖中的對應(yīng)點成為本文最大的困難。理想情況下,對于圖像點x和x′的兩條反向投影的射線,如果滿足對極幾何約束x′TFx=0,其中F為基本矩陣,那么這兩條射線共面,從而相交于一個三維點X。但是在實際中,非理想測量點x和x′反向投影的射線在三維空間中一般不共面,如下圖3(a)所示,測量點不滿足對極幾何約束[18]。對極線I′=Fx是過x的射線的像,而對極線I=FTx′是過x′的射線的像。因為射線不相交,x′不在I′上,并且x不在I上,如下圖3(b)所示。

圖4 多視圖確定空間點 Fig.4 Multiple views to determine the point

針對上述出現(xiàn)的問題,本文采用一種新的判定方法,考慮到本實驗中防碰撞系統(tǒng)實際應(yīng)用場合和系統(tǒng)所需精度等,將測量點x和x′反向投影的射線之間的異面距離不超過3 mm作為判定條件,若滿足這一條件就判定這兩點是匹配點。取兩射線公垂線的中點作為三維點X。在雙目視圖中,這種方法會出現(xiàn)多義性,因為一幅圖像中的某個點可能會對應(yīng)另一幅視圖中多個點,如圖4(a)所示。這是由重構(gòu)的多義性引起的[18],但是在三視圖中它不具有多義性。若空間一個點在3幅視圖中都有對應(yīng)點,那么兩兩視圖按上述方法確定一個三維點,這樣就可以構(gòu)成一個三角形,將三角形的重心作為三視圖中的三維點X,如圖4(b)所示。

圖5 距離空間圖 Fig.5 Diagram of distance space

從這3幅視圖中尋找出對應(yīng)的匹配點,關(guān)鍵的匹配算法是首先構(gòu)建“距離空間圖”,如圖5所示,即3幅視圖中的角點兩兩之間的反向投影射線之間的異面距離構(gòu)成的三維圖。假如視圖1、2、3中分別有n1、n2、n3個角點,那么視圖1和2之間角點構(gòu)成的距離關(guān)系有n1×n2種,同理視圖2和3之間有n2×n3種,視圖3和1之間有n3×n1種。然后從“距離空間圖”中挑選出距離不大于3 mm的情形。算法首先搜索由3個視圖確定一個空間點的情況,接著搜索由兩個視圖確定一個空間點情況。前面已經(jīng)驗證了由兩個視圖確定一個點時,會出現(xiàn)多種情形,即一對一、一對多(多對一)的兩種情形。圖中有標(biāo)記符的格子表示滿足距離不大于3 mm條件的組合。坐標(biāo)軸上的格子數(shù)表示對應(yīng)視圖上的角點數(shù)。

本文具體的匹配算法及操作如下所述:

(1)搜索由3個視圖確定一個空間點時,搜索方法是在“距離空間圖”每一個面上尋找一個標(biāo)記格,看這3個標(biāo)記格能否組合成一個閉合通路。若能找到滿足閉合通路條件的3個點,說明存在一個空間點在3個視圖中都有對應(yīng)標(biāo)記點,然后刪除這3個格子所對應(yīng)的行與列,繼續(xù)重復(fù)上述步驟,直到搜索完畢。如下圖所示,●符號所表示的是3個視圖確定一個空間點的情況。

(2)搜索由兩個視圖確定一個空間點中的一對一的情況時,只需在“距離空間圖”任意兩個面中尋找兩個標(biāo)記格,使其滿足同行或同列,并且所在的行與列中沒有其他標(biāo)記符,刪除這兩個標(biāo)記格所在的行與列,然后重復(fù)搜索,直到搜索完為止。■符號對應(yīng)的是雙視圖中的一對一的情況。

(3)最后搜索雙視圖中一對多(多對一)的情況時,搜索方法同一對一的情形類似,只不過一個面中的標(biāo)記格所在的行或列在另一面中的同行或同列中存在多個標(biāo)記格,刪除滿足條件的行與列,然后重復(fù)搜索直到搜索完畢。▲符號則是一對多(多對一)的情況。 假如一對多(多對一)的情況有N個,那么會出現(xiàn)2N種組合的解。

4實驗結(jié)果與分析

實驗所用的三坐標(biāo)測量機為海克斯康制造的Global classic SR 07.10.07。相機1、相機2和相機3的型號為MQ013MG-E2,分辨率為1 280×1 024。相機1和相機3所用鏡頭型號為VT1614-M2,焦距標(biāo)注值為16 mm,相機2所用鏡頭型號為VTS0614-M2,焦距標(biāo)注值為6 mm。本實驗在VS2010平臺上用C++語言實現(xiàn)了Harris角點提取,用本文的偽角點剔除方法剔除了內(nèi)部偽角點和輪廓上的偽角點,并且利用提出的匹配算法成功的實現(xiàn)了特征點之間的匹配。

4.1特征點提取和剔除

實驗結(jié)果如圖6所示。圖6(a)、6(b)、6(c)表示Camera 1、2、3得到的零件圖像用Harris提取100個角點的圖,圖6(d)、6(e)、6(f)表示剔除內(nèi)部偽角點后的角點圖,圖6(g)、6(h)、6(i)表示剔除輪廓上偽角點后的角點圖。從圖6中可以看到,最后各視圖中的角點定位準(zhǔn)確,盡管有些特征點由于遮擋只在一個視圖中成像而無法確定該特征點,但這不影響后續(xù)的匹配。

圖6 角點圖像 Fig.6 Corner detection image

4.2角點匹配結(jié)果

根據(jù)3節(jié)中的匹配算法,對處理后的Harris特征點進行匹配,匹配結(jié)果如圖7所示。

圖7 特征匹配結(jié)果 Fig.7 Matching result

圖7(a)、7(b)、7(c)分別是由Camera 1、2、3拍攝的圖片,從圖中可以看到,大部分特征點得到正確匹配,但由于有些特征點僅在一個視圖中成像,故無法找到這些點的匹配點。多次實驗證明,該算法的匹配率達到95%以上。

4.3角點定位

將圖7中的四組匹配點①、②、③、④所確定

的角點編號為角點1、2、3、4。表1是各相機的內(nèi)部參數(shù),(μ0ν0)為主點,f為焦距,k1為徑向畸變系數(shù)。表2是角點在各視圖中的像素坐標(biāo)(像素大小為0.005 3 mm),其中“-”表示角點在視圖中不存在。表3是各相機與CMM之間的坐標(biāo)轉(zhuǎn)換關(guān)系,α、β、γ分別代表繞X、Y、Z軸旋轉(zhuǎn),tx、ty、tz分別代表向X、Y、Z方向的平移。對于由兩個視圖確定的角點,如角點1,將Camera1和Camera3中匹配像點的反向投影射線的公垂線的中點作為三維點X。因此三維點X在CMM中的坐標(biāo)可通過Camera1和Camera3來求解。對于由3個視圖確定的角點,求解可以參考圖4(b)。表4是計算得到的角點在CMM中的坐標(biāo)與用CMM測量得到的坐標(biāo)。由表4可知,在這4個角點中,x方向最大偏差為1.72 mm,y方向最大偏差為1.88 mm,z方向最大偏差為1.36 mm。定位最大偏差為2.17 mm。

表1 相機內(nèi)部參數(shù)

表2 角點在各視圖中的像素坐標(biāo)

表3 相機與CMM之間的坐標(biāo)轉(zhuǎn)換關(guān)系

表4 定位精度檢測

造成表4中數(shù)據(jù)誤差的的主要因素有以下兩個:

(1)角點提取不準(zhǔn)確

由于光照不均勻和零件本身存在毛刺等因素導(dǎo)致提取到的角點可能與真實角點存在1~2個像素的偏差。

(2)標(biāo)定誤差

本實驗中,相機與CMM之間的關(guān)系是間接地借助光筆來標(biāo)定的,先建立光筆與CMM之間的關(guān)系,然后建立光筆與相機之間的關(guān)系,這種標(biāo)定方法精度不是特別高,這是測量數(shù)據(jù)中最主要的誤差來源。

5結(jié)論

針對Harris算法提取的角點,本文提出了一種八鏈碼搜索法和SUSAN區(qū)域法相結(jié)合的偽角點剔除方法,利用八鏈碼搜索法剔除內(nèi)部偽角點和SUSAN區(qū)域法剔除位于輪廓上的偽角點。最后在本文提出的“距離空間圖”匹配算法下成功實現(xiàn)了匹配,同時對利用角點信息來判定和定位零件的位姿誤差進行了分析。實驗數(shù)據(jù)顯示,本文提取的角點與真實角點間存在1~2個像素的偏差,且定位誤差在1~3 mm范圍內(nèi)。基本滿足實驗中防碰撞系統(tǒng)提出的誤差要求。該方法與其它角點提取和匹配算法相比具有簡單、直接、高效等特點。但是該方法只能針對具有明顯角點的零件,不適合于像球、圓柱體等具有自由曲面的零件。

參考文獻:

[1]馬一凡.防碰撞系統(tǒng)中零件識別研究[D].天津:天津大學(xué),2014.

MA Y F. Research on recognition of parts in anti-collision system[D]. Tianjin:Tianjin University,2014.(in Chinese)

[2]王懷瑜.防碰撞系統(tǒng)中體素相交檢測算法的研究[D].天津:天津大學(xué),2014.

WANG H Y. Research on an algorithm of primitive intersection detection in an anti-collision system[D]. Tianjin:Tianjin University,2014.(in Chinese)

[3]劉書桂,趙金才,李建蘋,等.智能坐標(biāo)測量系統(tǒng)中零件位姿自動識別[J].天津大學(xué)學(xué)報,2006,39(10):1241-1246.

LIU SH G,ZHAO J C,LI J P,etal.. Automatic recognition for position and orientation of parts in intelligent coordinate measuring system[J].J.TianjinUniversity,2006,39(10):1241-1246.(in Chinese)

[4]馬新輝,張國雄,王建利,等.智能三坐標(biāo)測量機中零件位置自動識別系統(tǒng)[J].儀器儀表學(xué)報,2003,24(2):165-170.

MA X H,ZHANG G X,WANG J L,etal.. Autamatic recognition for the position and orientation of parts in intelligent CMM[J].ChineseJ.ScientificInstrument,2003,24(2):165-170.(in Chinese)

[5]房超,王小鵬,牛云鵬,等.基于改進Harris算法的角點檢測[J].計算機與數(shù)字工程,2011,39(5):142-144.

FANG CH,WANG X P,NIU Y P,etal.. Corner detection based on an improved Harris algorithm[J].ComputerandDigitalEngineering,2011,39(5):142-144.(in Chinese)

[6]喬警衛(wèi),胡少興.三維重建中特征點提取與匹配算法研究[J].系統(tǒng)仿真學(xué)報,2008,20:400-403.

QIAO J W,HU SH X. Research on feature point extraction and matching in 3D reconstruction[J].J.SystemSimulation,2008,20:400-403.(in Chinese)

[7]黃鳳山,劉恩福,方憶湘,等.基于智能三坐標(biāo)測量機的零件位姿單目立體視覺識別[J].光學(xué) 精密工程,2013,21(5):1326-1332.

HUANG F SH,LIU E F,FANG Y X,etal.. Single camera stereo vision recognization for parts pose based on intelligent three coordinate measuring machine[J].Opt.PrecisionEng.,2013,21(5):1326-1332.(in Chinese)

[8]許佳佳.結(jié)合Harris與SIFT 算子的圖像快速配準(zhǔn)算法[J].中國光學(xué),2015,8(4):574-581.

XU J J. Fast image registration method based on Harris and SIFT algorithm[J].ChineseOptics,2015,8(4):574-581.(in Chinese)

[9]高晶,吳育峰,吳昆,等.基于角點檢測的圖像匹配算法[J].儀器儀表學(xué)報,2013,34(8):1717-1725.

GAO J,WU Y F,WU K,etal.. Image matching method based on corner detection[J].ChineseJ.ScientificInstrument,2013,34(8):1717-1725.(in Chinese)

[10]程德志,李言俊,余瑞星.基于改進SIFT算法的圖像匹配方法[J].計算機仿真,2011,28(7):285-289.

CHENG D Z,LI Y J,YU R X. Image matching method based on improved SIFT algorithm[J].ComputerSimulation,2011,28(7):285-289.(in Chinese)

[11]全燕鳴,黎淑梅,麥青群.基于雙目視覺的工件尺寸在機三維測量[J].光學(xué) 精密程,2013,21(4):1054 -1061.

QUAN Y M,LI S M,MAI Q Q. On-machine 3D measurement of workpiece dimensions based on binocular vision[J].Opt.PrecisionEng.,2013,21(4):1054-1061.(in Chinese)

[12]田浩南,張葉.基于邊緣及特征點匹配的立體圖像質(zhì)量評價[J].液晶與顯示,2015,30(4):666-672.

TIAN H N,ZHANG Y. Quality evaluation of stereo image based on edge and characteristic point matching[J].ChineseJ.LiquidCrystalsandDisplays,2015,30(4):666-672.(in Chinese)

[13]劉書桂,余飛,韓振華.基于OpenCasCade的虛擬三坐標(biāo)測量機碰撞檢測方法[J].納米技術(shù)與精密工程,2016.

LIU SH G,YU F,HAN ZH H. Collision detection of virtual coordinate measuring machine based on OpenCasCade[J].NanotechnologyandPrecisionEngineering,2016.(in Chinese)

[14]張國雄.三坐標(biāo)測量機[M].天津:天津大學(xué)出版社,1999.

ZHANG G X.CoordinateMeasuringMachine[M]. Tianjin:Tianjin University Press,1999.(in Chinese)

[15]HARRIS C G,STEPHENS M. A combined corner and edge detector[C]. Proceedings of the 4thA Ivey Vision Conference,Manchester,UK,1988:147-151.

[16]SMITH S M. Feature based image sequence understanding[D]. Oxford,UK:Oxford University, 1992.

[17]王付新,黃毓瑜,孟 偲,等.三維重建中特征點提取算法的研究與實現(xiàn)[J].工程圖學(xué)學(xué)報,2007,3:91-96.

WANG F X,HUANG Y Y,MENG C,etal. Research and realization of the feature point extraction algorithm in 3D reconstruction[J].J.EngineeringGraphics,2007,3:91-96(in Chinese)

[18]HARTLEY R,ZISSERMAN H.計算機視覺中的多視圖幾何[M].安徽:安徽大學(xué)出版社,2002,8:216-217,178-179.

HARTLEY R,ZISSERMAN H.MultipleViewGeometryinComputerVision[M]. Anhui:Anhui University Press, 2002,8:216-217,178-179.(in Chinese)

收稿日期:2016-04-05;

修訂日期:2016-04-26

基金項目:天津市自然科學(xué)基金重點資助項目(No.13JCZDJC34500)

文章編號2095-1531(2016)04-0397-08

中圖分類號:TH744.3

文獻標(biāo)識碼:A

doi:10.3788/CO.20160904.0397

作者簡介:

髙禮圳(1991—),男,江西吉安人,碩士研究生,主要從事圖像處理和計算機視覺方面的研究。E-mail:gaolz1002@163.com

劉書桂(1954—),男,湖南人,教授,博士,博士生導(dǎo)師,主要從事智能坐標(biāo)測量技術(shù)、自動測量與控制技術(shù)方面的研究 。E-mail:sgliu@tju.edu.cn

Corner extraction and matching location of parts

GAO Li-zhen, LIU Shu-gui*, HAN Zhen-hua

(StateKeyLaboratoryofPrecisionMeasuringTechnologyandInstruments,TianjinUniversity,Tianjin300072,China)*Correspondingauthor,E-mail:sgliu@tju.edu.cn

Abstract:In this paper, a set of visual inspection system is designed based on three coordinate measuring machine(CMM), and the new visual system can extract the actual spatial feature information of the parts. For the parts with corner which is on the platform of CMM, the Harris operator is used to extract corners in the images obtained from three different orientation of the CMM. For the corner points extracted by the Harris operator, this paper proposes a method of eliminating the false corners, which combines eight-chain-code false corner search method and SUSAN method. Finally, based on the principle of stereo vision, the “Distance spatial map” matching algorithm is put forward, and then the three images are matched one by one. Although the position and orientation of parts are changed for many times in the experiment, the experiment results show that there are 1-2 pixels difference between extracted corners and the real corner points, and the position error of parts is 1-3 mm. Through the experiment, the accuracy and stability of corner matching and positioning can meet the requirements, and with anti-interference and practicability as well as.

Key words:CMM;Harris operator;corner matching;stereo vision;distance spatial map

Supported by Key Project of Natural Science Foundation of Tianjin City(No.13JCZDJC34500)

主站蜘蛛池模板: 国产97视频在线观看| 呦女精品网站| 国产在线视频欧美亚综合| 77777亚洲午夜久久多人| 97国产精品视频人人做人人爱| 亚洲一区二区日韩欧美gif| 亚洲一区网站| 国产在线无码一区二区三区| 国产无码精品在线播放| 欧美a在线视频| 欧美另类一区| 亚洲AV永久无码精品古装片| 欧美三级日韩三级| 精品少妇人妻无码久久| 国产经典在线观看一区| 国产三区二区| 中文字幕丝袜一区二区| 制服丝袜国产精品| 国产精品不卡永久免费| av性天堂网| 伊人查蕉在线观看国产精品| 久久国产免费观看| 亚洲人免费视频| 亚洲欧洲日产国产无码AV| 国产真实乱了在线播放| 亚洲首页国产精品丝袜| 亚洲天堂久久新| 中文字幕不卡免费高清视频| 玩两个丰满老熟女久久网| 黄网站欧美内射| 亚洲人在线| 99视频只有精品| 天堂岛国av无码免费无禁网站| 58av国产精品| 亚洲成人播放| 欧美在线黄| 亚洲狼网站狼狼鲁亚洲下载| 高清亚洲欧美在线看| 国产精品视频a| 国产黄网站在线观看| 99视频在线免费| 欧美h在线观看| 国产靠逼视频| 91网红精品在线观看| 国产鲁鲁视频在线观看| 国产AV无码专区亚洲精品网站| 无码一区二区三区视频在线播放| 人妻无码中文字幕第一区| 麻豆国产精品一二三在线观看| 男人天堂亚洲天堂| 亚洲有无码中文网| 激情六月丁香婷婷| 欧美成人国产| 波多野结衣一区二区三区四区视频| 国产丝袜91| 欧美亚洲香蕉| 国产爽歪歪免费视频在线观看| 国内精品视频| 国产精品毛片在线直播完整版 | 欧洲亚洲欧美国产日本高清| 久久香蕉国产线看观| 72种姿势欧美久久久久大黄蕉| 天天色综网| 欧美激情视频一区| www.精品国产| 国产一区二区福利| 国产精品lululu在线观看| 激情无码字幕综合| 国产又粗又爽视频| 亚洲—日韩aV在线| 黄色三级毛片网站| 国产精品不卡永久免费| 国语少妇高潮| 99这里只有精品在线| 亚洲国产日韩欧美在线| 国产精品久久自在自线观看| 91香蕉国产亚洲一二三区| 日韩视频精品在线| 国产精品视频猛进猛出| 午夜一级做a爰片久久毛片| 色婷婷成人网| 国产在线欧美|