許 敏, 馬 鉞, 陳 帥, 徐首帥
(中國科學院 沈陽自動化研究所,遼寧 沈陽 110179)
基于結構光視覺的白車身覆蓋件間隙面差測量方法
許 敏, 馬 鉞, 陳 帥, 徐首帥
(中國科學院 沈陽自動化研究所,遼寧 沈陽 110179)
針對白車身表面覆蓋件間隙面差人工測量精度差、效率低等問題,提出了利用結構光視覺測量方法代替人工測量。在間隙特征點識別中,計算光紋中心線上各點的絕對差分值,搜索差分極值點并將該極值點作為特征點;在面差特征點識別中,采用基于離散曲線曲率極值點的特征點定位算法。實驗結果表明:間隙面差測量方法測量精度較高,能夠滿足整車廠對白車身間隙面差測量精度的要求。
白車身; 結構光視覺; 特征點識別; 間隙面差
白車身主要由結構件與覆蓋件組成,車身覆蓋件大多由沖壓制成,經沖壓拉伸后,覆蓋件尺寸存在誤差。在裝配時,如果覆蓋件尺寸誤差較大會導致覆蓋件之間存在較大的間隙和面差,影響整車的外觀、密封、風噪等,因此,需要對覆蓋件之間的間隙與面差進行測量[1]。傳統的人工測量方法主要是使用塞尺與面差尺,存在測量速度慢、效率低、精度低,測量結果極易受到主觀因素影響等缺點,不能滿足整車廠在線實時測量要求[2]?;诮Y構光視覺的測量方法具有測量速度快、精度高、非接觸、測量數據易于保存等優點,目前,已廣泛應用于機械加工、逆向工程、汽車制造等現代工業中[3~6]。
針對白車身覆蓋件間隙面差的測量,歐美等發達國家已經開發出商用化的激光視覺間隙面差測量設備,并廣泛應用于白車身在線測量中。國內,對間隙面差視覺檢測技術的研究還沒有形成成熟的系統理論框架,處于原理樣機研究階段。本文在分析結構光視覺測量原理的基礎上,對間隙面差特征提取方法進行了詳細研究并建立了間隙面差計算模型,為間隙面差測量設備國產化提供理論指導。
結構光三維視覺測量基于光學三角測量原理。如圖1所示,光學投射器將一定模式的結構光投射到被測物表面,再形成由被測物表面形狀調制的光紋三維圖像。該三維圖像由處于另一位置的攝像機探測,從而獲得光紋二維畸變圖像。光紋的畸變程度取決于光學投射器與攝像機之間的相對位置和物體表面形廓。當光學投射器與攝像機之間的相對位置一定時,由畸變的二維光紋圖像坐標便可重現物體表面三維形廓。

圖1 結構光三角測量原理示意
在結構光視覺測量系統中,光紋經被測物體表面的深度變化而受到調制,反映到圖像中則發生了畸變,其畸變的程度包含了被測物體表面的三維信息。要想獲得這些信息,必須從光紋圖像中提取光紋中心的圖像坐標。此外,要想完成白車身覆蓋件間隙面差的測量,還需要準確地識別出光紋中心線上的特征點。因此,光紋中心線提取與特征點識別是結構光視覺測量系統的關鍵技術。
2.1 光紋中心線提取
結構光光紋圖像處理的目標是獲取光紋圖像的中心線及中心線上的有效特征點。結構光光紋中心線的提取方法主要有:幾何中心法、極值法、高斯擬合法[7]、灰度質心法[8]、Hessian矩陣法[9]和方向模板法[10]。其中,灰度質心法將光紋各截面上的像素點灰度分布的質心作為光紋中心點,可減少幾何中心法和高斯擬合法由于灰度分布不對稱引起的誤差,且該方法計算量較小,實時性較好,因此,本文中采用灰度質心法來提取光紋中心線。
設光紋某截面上一點的坐標為(xi,yi),相應的灰度值為g(xi,yi),i=1, … ,N,N為截面內像素點的個數,則該截面上光紋中心點坐標為

(1)
式中xc,yc分別為光紋中心的橫、縱坐標。
圖2所示為結構光視覺傳感器拍攝的白車身左側兩門之間的間隙面差原始圖像,圖3所示為使用灰度質心法提取獲得的光紋中心線坐標。

圖2 結構光光紋圖像
2.2 光紋中心線特征點識別
在使用結構光視覺傳感器測量白車身表面覆蓋件間隙面差時,通常需要識別出光紋中心線上的3個特征點和1條基準直線。如圖4所示,特征點A與基準面擬合直線之間的距離即為面差,特征點B與特征點C之間的水平距離即為間隙。

圖3 灰度質心法提取的光紋中心線坐標

圖4 覆蓋件間隙面差特征點示意
2.2.1 用于間隙計算的特征點識別
用于間隙計算的特征點一般選擇兩條光紋中心線上水平距離最近的點,如圖4中的B點與C點。由于光紋中心線上存在噪聲干擾,如圖3所示,在左、右中心線的中間位置存在明顯的噪聲,因此,直接計算最近水平距離容易受噪聲干擾。本文采用基于一階絕對差分的特征點提取算法,其具體步驟如下:
1) 計算絕對差分值,計算圖3中心線中相鄰兩點之間的絕對差分,計算如式(4)所示
Δ=|g(i)-g(i-1)|,i=2,…,n
(2)
式中Δ為絕對差分;g(i)為中心線上第i個點的縱坐標;n為中心線點的個數。圖5所示為中心線各點的絕對差分值,可以發現,圖中存在明顯的極值點,而文中所需的特征點便隱藏在這些絕對差分極值點中。
2)搜索候選特征點,設置候選特征點提取閾值T,將Δ≥T的絕對差分值出現的位置保存在向量S中,S即為候選特征點集合。
3)搜索左右特征點,在集合S中搜索第一個與最后一個元素,分別記為S1和S2,則左側特征點Pleft與右側特征點Pright分別為
(3)
圖6中“*”為所提取的特征點。在獲得用于間隙計算的特征點后,只需要計算這2個特征點之間的水平距離即可確定間隙值。

圖5 中心線各點的絕對差分值

圖6 間隙特征點識別結果
2.2.2 用于面差計算的特征點識別
用于面差計算的特征點一般取直線段與圓弧段的交點,如圖4中的特征點A。直接使用直線擬合與圓擬合求交點的方法計算量大且易受噪聲干擾,本文采用基于曲率的方法。
對于離散曲線C,可視為相鄰的n個點Pi的集合,即
C={Pi(xi,yi)|i=1,2,…,n}
(4)
式中n為曲線上點數目;Pi為曲線C上的點;(xi,yi)為點Pi對應的坐標。離散曲線C上任意點Pi(xi,yi)經尺度為σ高斯平滑后的坐標為Pi(Xi,Yi),其曲率計算公式為

(5)
式中 ΔXi=(Xi+1-Xi-1)/2; ΔYi=(Yi+1-Yi-1)/2;Δ2Xi=(ΔXi+1-ΔXi-1)/2;Δ2Yi=(ΔYi+1-ΔYi-1)/2;k為Pi(Xi,Yi)點的曲率;Δ為一階差分算子;Δ2為二階差分算子。
K—余弦法[11]算法簡單,計算量小,廣泛應用于離散曲線曲率計算,計算過程如下:
設離散曲線上任一點Pi(xi,yi)和與此相距為k的兩個點Pi+k(xi+k,yi+k),Pi-k(xi-k,yi-k),定義矢量aik與bik為
(6)
則,點Pi處的曲率為

(7)
式中θik為矢量aik與bik夾角的余弦值。θik值越大,則曲線曲率變化越劇烈;反之,則曲線曲率變化越平緩。圖7為采用K—余弦法計算獲得的中心線上各點的曲率值(計算時采用了圖6中左側部分中心線)。
根據Mokhtarian F等人[12]提出的角點理論,只要搜索到曲率曲線上的極大值點,則特征點的位置就可以確定。圖7中“*”為采用上述方法提取的面差計算特征點。
還需要確定用于面差計算的基準參考線,文中選擇圖6中右側光紋曲線的擬合直線作為基準參考線。圖7中的直線為擬合獲得的基準參考線,“*”表示用于面差計算的特征點。面差即為該特征點到基準線的距離。

圖7 面差計算的特征點與基準面擬合直線
采用德國米銥公司開發的scanCONTROL2650激光視覺傳感器,含有640個測量點,掃描頻率可達300 Hz,z軸(高度)分辨率為4 μm,x軸(寬度)分辨率為0.066 mm。測量對象為華晨中華某型SUV白車身,前門與后門(B柱區域)質量特征要求為:間隙(4.0±1.0) mm,面差(0,+1 )mm。實驗平臺如圖8所示,選取車門門縫處10個測量點,分別采用人工測量與傳感器測量,測量結果如表1所示,可以發現,兩者的測量誤差能夠滿足質量特征技術要求。

圖8 間隙面差測量實驗

序號間隙間隙尺傳感器誤差 面差面差尺傳感器誤差14.604.930.330.700.830.1324.605.050.450.800.910.1134.534.970.440.750.890.1444.554.910.360.630.760.1354.504.920.420.740.860.1264.574.880.310.850.960.1174.654.770.120.790.940.1584.714.970.260.830.970.1494.825.070.250.740.900.16104.865.030.170.710.840.13
對白車身表面覆蓋件間隙面差視覺測量進行了研究,提出了基于絕對差分法的間隙特征點識別方法。在面差特征點識別過程中,采用基于K—余弦法的離散曲率計算方法并將曲率極大值點作為面差特征點。實驗測量表明:采本文測量方法測量精度較高,能夠滿足整車廠對間隙面差測量精度的要求。
[1] 李凌旻,尚 校,李 靖,等.線激光掃略的白車身裝配特征機器人在線檢測技術研究[J].測試技術學報,2014,28(3):255-263.
[2] 楊 濤,段發階,班 瑩.激光掃描車身測量傳感器靶標識別體系的研究[J].傳感器與微系統,2009,28(9):66-69.
[3] 陳海永,方灶軍,徐 德,等.基于視覺的薄鋼板焊接機器人起始點識別與定位控制[J].機器人,2013,35(1):90-97.
[4] 何 佳,劉常杰,葉聲華.用于機器人柔性坐標測量系統的視覺傳感器設計[J].傳感器與微系統,2010,29(3):68-70.
[5] 徐晉卿,陳唐龍,占 棟,等.基于機器視覺的鋼軌輪廓測量方法研究[J].傳感器與微系統,2014,33(4):27-30.
[6] 何炳蔚,林志航,楊明順,等.逆向工程中基于三目視覺自動提取并構造復雜曲面邊界技術[J].機器人,2002,24(1):66-70.
[7] 賀俊吉,張廣軍.結構光三維視覺中光條圖像處理方法研究[J].北京航空航天大學學報,2003,29(7):593-597.
[8] Sirkis J S.System response to automated grid methods[J].Optic Engineering,1990,29(12):1485-1493.
[9] Steger C.An unbiased detector of curvilinear structures[J].IEEE Trans on PAMI,1998,20(2):113-125.
[10] 胡 斌,李德華,金 剛,等.基于方向模板法的結構光條紋中心檢測方法[J].計算機工程與應用,2002(11):59-60.
[11] Rosenfeld A,Weszka J S.An improved method of angle detection on digital curves[J].IEEE Trans on Computers,1975,24(9):940-941.
[12] Mokhtarian F,Suomela R.Robust image corner detection through curvature scale space [J].IEEE Trans on PAMI,1998,20(12):1376-1381.
Measurement algorithm for gap and flush of body-in-white based on structured light vision
XU Min, MA Yue, CHEN Shuai, XU Shou-shuai
(Shenyang Institute of Automation,Chinese Academy of Sciences,Shenyang 110179,China)
Aiming at problem that manual measurement of gap and flush of body-in-white is imprecision and inefficiency,adopt structured light vision measurement method to replace manual measurement.In the recognition of feature points for the gap gauge,calculate absolute differential for each point on the centerline of the structured light stripe,then,search for differential extremal points and treat them as feature points for gap gauge.For the recognition of feature points of flush gauge,use feature points localization algorithm based on extremal curvature of discrete curve.Experimental results indicate that the proposed algorithm has a higher precision for calculating the gap and flush of body-in-white,and can satisfy the requirement of precision for car body factories.
body-in-white; structured light vision; feature point recognition; gap and flush
10.13873/J.1000—9787(2017)09—0013—04
2016—09—21
TP 391.1
A
1000—9787(2017)09—0013—04
許 敏(1982-),男,工學博士,副研究員,碩士生導師,主要從事機器視覺與圖像處理技術及應用研究工作。