胡改玲, 周翔, 楊濤, 王軍平, 張春偉, 王剛鋒, 李玉勤, 郭家玉
(1.西安交通大學(xué)機(jī)械工程學(xué)院, 710049, 西安; 2.長安大學(xué)道路施工技術(shù)與裝備教育部重點(diǎn)實(shí)驗(yàn)室, 710064, 西安)
線結(jié)構(gòu)光三維測量技術(shù)以其非接觸性、低成本、靈活性好、精度高等優(yōu)點(diǎn),廣泛應(yīng)用于汽車車身設(shè)計(jì)、牙模制造、服裝設(shè)計(jì)、變形測量等領(lǐng)域[1-3]。在測量過程中,通過解調(diào)由高度調(diào)制后的光刀圖像反求被測物體的輪廓信息,從而實(shí)現(xiàn)被測物體表面的三維重建。然而,目前投射的激光光刀的最小寬度只能達(dá)到0.1 mm,加上各種噪聲的干擾,光刀寬度遠(yuǎn)大于一個(gè)像素,且灰度分布不均勻,不能反映真實(shí)的測量信息,因此為了提高測量精度,準(zhǔn)確提取投射的光刀中心顯得非常重要[4-9]。
常用的光刀中心提取算法有極值法[10]、曲線擬合法[11-13]、灰度重心法[14]等,這些算法沿圖像行或列方向提取光刀中心,只適用于曲率變化較小、方向趨于豎直或水平的光刀,沒有考慮到光刀的投射方向與真實(shí)走向,求取的光刀中心線不光滑,誤差較大。特別是針對條紋曲率變化較大的復(fù)雜條紋的中心提取誤差較大。在此基礎(chǔ)上,越來越多的國內(nèi)外學(xué)者考慮到光刀曲率變化,對這些算法進(jìn)行了改進(jìn)。1998年,德國的Steger博士團(tuán)隊(duì)利用Hessian矩陣計(jì)算光刀圖像各像素點(diǎn)的法線方向,然后將法向截面上的像素點(diǎn)灰度值按Taylor級數(shù)展開,從而獲得光刀亞像素中心線,提取精度高[15-16]。但是,計(jì)算法線方向過程中需要進(jìn)行大模板的高斯卷積,效率較低。Lukas等提出確定條紋中心的大致位置后取其位置相鄰的像素進(jìn)行高斯擬合來求取激光條紋中心[17],但該方法僅適用于粗細(xì)均勻、直線度較好的激光光刀。賈倩倩等用光刀灰度梯度方向代替像素點(diǎn)法線方向,然后在梯度方向上結(jié)合灰度重心法提取光刀亞像素中心,提高了光刀中心提取速度[18]。李鳳嬌等對Steger算法進(jìn)行改進(jìn),根據(jù)光刀骨架點(diǎn)處的橫向光刀寬度確定高斯卷積的最優(yōu)尺度因子,用Taylor級數(shù)展開獲取光刀亞像素中心[19]。吳慶華用灰度閾值重心法得到初始中心點(diǎn),以光刀局部方向場作為法線方向計(jì)算的依據(jù),并沿光刀法線方向提取光刀亞像素中心[20]。Yin等提出一種基于自適應(yīng)卷積技術(shù)的方法修正光刀條紋的灰度畸變[21],但該方法需要對整幅圖像進(jìn)行卷積運(yùn)算,僅限于單根條紋的中心提取。
理想光刀截面光強(qiáng)分布呈高斯分布[22],如圖1a所示。在實(shí)際測量過程中,由于物體表面曲率及反射率的影響,采集的光刀條紋中心處會存在飽和光帶,沿光刀法線方向灰度分布不均勻、不對稱,如圖1b所示,這些都會影響光刀中心線的提取精度。為了解決此問題,本文提出了一種基于骨架跟蹤的光刀條紋自適應(yīng)灰度加權(quán)中心提取算法。首先,沿骨架線方向以目標(biāo)像素點(diǎn)為中心設(shè)置一個(gè)有用像素區(qū)域,然后沿骨架計(jì)算光刀法線方向,根據(jù)法線方向上飽和光帶的寬度與像素灰度分布設(shè)置加權(quán)灰度閾值,最后根據(jù)灰度加權(quán)重心法快速準(zhǔn)確地提取到光刀的亞像素中心線。通過骨架跟蹤計(jì)算與自適應(yīng)灰度加權(quán)閾值與權(quán)值的設(shè)置,提高了光刀中心線提取的精度與運(yùn)算速度。

(a)理想灰度 (b)實(shí)際灰度圖1 光刀橫向截面灰度分布
為了提高光刀條紋中心的提取精度,需要先計(jì)算光刀骨架并對其進(jìn)行剪枝處理,得到一組光滑、單向連通的光刀骨架。骨架點(diǎn)用來表征線結(jié)構(gòu)光光刀條紋的幾何特征。本文的骨架點(diǎn)由采集的光刀圖像根據(jù)數(shù)學(xué)形態(tài)學(xué)方法計(jì)算得到[23],求取骨架點(diǎn)的目的是為了后續(xù)計(jì)算亞像素光刀中心時(shí)作為算法的搜索路徑,提高光刀法線計(jì)算速度。圖2給出了一組多光刀條紋投射汽車模型的骨架計(jì)算結(jié)果。

(a)采樣原圖 (b)提取的骨架 (c)骨架在原圖的位置圖2 汽車模型多光刀骨架提取
以骨架像素點(diǎn)為初始條紋中心點(diǎn),根據(jù)投影多光刀的條紋間距及單個(gè)光刀條紋的最大寬度確定搜索計(jì)算范圍,跟蹤光刀骨架并計(jì)算光刀法線向量。
假設(shè)I(i,j)為光刀圖像像素點(diǎn)(i,j)處的灰度值,則光刀骨架法線向量計(jì)算過程如下。
(1)利用sobel算子[24]計(jì)算圖像梯度
(1)
式中:Gx和Gy分別表示光刀圖像像素點(diǎn)(i,j)在行坐標(biāo)和列坐標(biāo)方向的梯度。
(2)計(jì)算光刀骨架法線向量。在提取光刀中心線時(shí),以骨架線為初始中心線,因此只需要計(jì)算骨架線上像素點(diǎn)的法線向量。首先以骨架像素點(diǎn)(i,j)為中心,計(jì)算該點(diǎn)w×w矩形區(qū)域的方向場,計(jì)算式如下
(2)
(3)
式中:w為偶數(shù);光刀骨架像素點(diǎn)(i,j)處的方向角[25]可表示為
(4)
點(diǎn)(i,j)處的法線向量為
(5)
在提取中心線的過程中,為了保證光刀中心提取的準(zhǔn)確性,考慮到光刀曲率變化的方向性對中心的影響,不僅需要考慮骨架處某一截面內(nèi)的像素點(diǎn),還需要考慮該點(diǎn)相鄰骨架點(diǎn)法向截面的像素點(diǎn)。因此,沿骨架線法向設(shè)置一個(gè)Lh×W的窗口,以骨架線為搜索路徑,將骨架點(diǎn)(i0,j0)處的法向截面記為S,用一個(gè)窗口沿骨架線移動,如圖3所示。

圖3 骨架線上窗口設(shè)置示意圖
圖3中W為奇數(shù),表示骨架上像素點(diǎn)的法向截面數(shù)量,Lh為光條在第h個(gè)法向截面S內(nèi)的像素寬度。由于光刀兩端首尾處方向的單向性,在求取光刀兩端處的中心時(shí),所需截面數(shù)量為求取中間光刀中心時(shí)的一半。
由前面的分析可知,采集的光刀理想情況下在法向截面S內(nèi)近似為高斯曲線分布,實(shí)際采集光刀中心處存在像素點(diǎn)灰度I(i,j)=255的飽和光帶,如圖4所示,將其飽和光帶寬度記為N。除了飽和光帶之外,飽和光帶周圍還存在一部分對光刀中心影響較大的像素點(diǎn),在中心飽和區(qū)域N的基礎(chǔ)上,對稱增加N/2個(gè)像素點(diǎn),該2N個(gè)數(shù)據(jù)點(diǎn)靠近高斯分布的中心,其灰度值對光刀中心提取的影響最大。以此2N個(gè)數(shù)據(jù)點(diǎn)的最小灰度來對光刀圖像進(jìn)行灰度閾值分割,其中計(jì)算灰度閾值為
T2=min[I(i0+N,j0+N),I(i0-N,j0-N)]
(6)

圖4 實(shí)際光刀骨架法向截面灰度分割
由于靠近骨架處的像素灰度值比光刀橫截面兩端處的像素灰度值對真實(shí)光刀中心影響大,對靠近骨架處灰度值大于T2的像素點(diǎn)進(jìn)行灰度加權(quán)平方,以此來增加閾值范圍內(nèi)像素點(diǎn)對中心提取的影響權(quán)重。設(shè)定k為像素灰度值對光刀中心提取的影響因子,灰度加權(quán)重心的權(quán)值為
(7)
式中:T1為計(jì)算光刀骨架過程中圖像二值化所設(shè)置的灰度閾值。根據(jù)上述自適應(yīng)閾值分割及定義,采用自適應(yīng)灰度加權(quán)重心法求光刀中心各參數(shù)為
(8)
(9)
(10)
則目標(biāo)窗口內(nèi)光刀中心亞像素坐標(biāo)為
(11)
以上為求取的光刀中心一個(gè)亞像素坐標(biāo),根據(jù)上述介紹的算法原理,沿骨架線方向遍歷所有的骨架像素點(diǎn),可求出整個(gè)變形光刀的亞像素中心。
為了對本文光刀自適應(yīng)灰度加權(quán)亞像素中心提取算法進(jìn)行精度和效率評價(jià),在MATLAB平臺上利用雙曲線部分分枝組合法,擬合了一條類似S型的變形光刀圖像,圖像大小為350×300像素,擬合公式為
(12)
在擬合圖像的法向截面內(nèi),像素點(diǎn)灰度值滿足高斯分布。同時(shí),為了使擬合圖像更接近實(shí)際采集圖像,擬合圖像的法向截面像素點(diǎn)包含5個(gè)像素的飽和光帶,如圖5所示。

(a)擬合光刀圖形 (b)擬合光刀法向截面像素點(diǎn)分布圖5 擬合的S型光刀圖像
分別用Steger法、拋物線擬合法、 基于骨架的灰度重心法及本文提出的局部自適應(yīng)加權(quán)重心法提取光刀中心,并對提取結(jié)果局部放大,如圖6所示。從圖中可以看出,本文算法提取到的光刀中心線位于光刀中心,提取結(jié)果為亞像素坐標(biāo),效果更平滑。前面介紹了擬合光刀是由已知的雙曲線方程計(jì)算得到的,所以擬合的S型光刀中心線為已知,將提取到的光刀中心像素點(diǎn)到實(shí)際光刀中心線的距離偏差作為評價(jià)提取精度的依據(jù),對比本文算法與Steger法、拋物線擬合法、基于骨架的灰度重心法的最大偏差距離、平均偏差距離、標(biāo)準(zhǔn)偏差與提取時(shí)間,如表1所示。

(a)Steger法 (b)拋物線擬合法

(c)基于骨架的灰度重心法 (d)本文算法圖6 擬合光刀中心提取結(jié)果對比

算法Steger法拋物線擬合法基于骨架的灰度重心法本文算法最大偏差距離/像素2.90602.54562.41531.7440平均偏差距離/像素0.70010.36090.41260.2015標(biāo)準(zhǔn)偏差/像素0.33030.11800.06370.0229時(shí)間/s1.71580.33860.07540.0876
由表1可以看出,本文算法的提取時(shí)間比Steger法和拋物線擬合法短,最大偏差距離、平均偏差距離與標(biāo)準(zhǔn)偏差最小,本文提出的光刀自適應(yīng)灰度加權(quán)亞像素中心提取算法得到的光刀中心精度高,且魯棒性更好,實(shí)現(xiàn)了擬合光刀的亞像素中心提取。
實(shí)驗(yàn)投影系統(tǒng)采用型號為SONY MP-CL1的激光微振鏡,分辨率為1 920×720;攝像機(jī)系統(tǒng)采用維視圖像生產(chǎn)的工業(yè)CCD相機(jī),型號為MV-EM1200M,分辨率為1 280×960像素,像素尺寸為3.75 μm×3.75 μm,鏡頭采用焦距為8 mm的定焦鏡頭。
為了對本文算法在灰度加權(quán)過程中根據(jù)條紋特點(diǎn)進(jìn)行灰度自適應(yīng)閾值計(jì)算的效果進(jìn)行說明,本文對圖7所示的人臉石膏像進(jìn)行了測量。首先對圖像進(jìn)行二值化,再由數(shù)學(xué)形態(tài)學(xué)方法計(jì)算得到光刀骨架,然后遍歷骨架像素點(diǎn),并計(jì)算各點(diǎn)的法線向量,分別用固定灰度加權(quán)算法和本文自適應(yīng)灰度加權(quán)算法進(jìn)行中心提取,結(jié)果如圖8所示。

圖7 多光刀投射人臉石膏像
本文選取第3條光刀進(jìn)行中心提取結(jié)果的對比,為了對比本文自適應(yīng)灰度加權(quán)算法的有效性,將固定灰度加權(quán)算法中灰度分區(qū)閾值和權(quán)值分別設(shè)置為

(13)
圖8b為固定灰度加權(quán)算法過程中的灰度量化分級區(qū)域設(shè)置,中間區(qū)域?yàn)楣獾痘叶戎荡笥?00的區(qū)域,此區(qū)域?yàn)榛叶绕椒郊訖?quán);兩側(cè)區(qū)域?yàn)楣獾痘叶戎敌∮?00的區(qū)域,灰度加權(quán)為1。利用本文算法和固定灰度加權(quán)算法分別對人臉石膏像中鼻小柱和嘴唇部分的提取結(jié)果進(jìn)行了對比,結(jié)果如圖8a、8c所示。

(a)本文算法 (b) 灰度量化 (c) 灰度固定分級區(qū)域 加權(quán)圖8 人臉模型光刀中心提取結(jié)果對比
圖8a、8c分別顯示了兩種算法下第3條光刀條紋的原始圖像和中心提取結(jié)果的位置關(guān)系,圖中橢圓區(qū)域?yàn)闂l紋上側(cè)鼻小柱部分的放大圖像,矩形區(qū)域?yàn)闂l紋下側(cè)嘴唇部分的放大圖像。通過對比發(fā)現(xiàn),在鼻小柱處,由于采集圖像灰度信息較少,由固定灰度加權(quán)算法求取的光刀中心易受環(huán)境的影響,計(jì)算的光刀中心偏離了實(shí)際中心位置。由嘴唇處光刀放大后的圖像可以看出,采用本文算法提取的結(jié)果光順和光刀實(shí)際投射圖像的走向一致性較好,用固定灰度加權(quán)算法計(jì)算的光刀中心和光刀實(shí)際方向出現(xiàn)了不一致的情況,計(jì)算的光刀在箭頭所指方向處出現(xiàn)了迂回、光順性不好的情況。由圖8可以看出,本文自適應(yīng)算法和光刀投射方向完全一致,在采集圖像信息量較少的情況下,仍然可以準(zhǔn)確求解出亞像素中心坐標(biāo),抗干擾性較強(qiáng)。
為了驗(yàn)證本文所提算法的精度和效率,用激光光刀投射精密加工的金屬標(biāo)準(zhǔn)量塊表面,進(jìn)行光刀中心提取實(shí)驗(yàn)。圖9分別是用Steger法、拋物線擬合法、基于骨架的灰度重心法以及本文算法進(jìn)行光刀中心提取的結(jié)果。
真實(shí)的金屬標(biāo)準(zhǔn)量塊表面光刀中心應(yīng)該為一條直線,根據(jù)上述4種方法的提取結(jié)果擬合光刀中心直線方程,并對比不同算法提取的中心點(diǎn)到擬合直線的最大偏差、平均偏差距離和標(biāo)準(zhǔn)偏差及中心提取的時(shí)間,如表2所示。通過對比發(fā)現(xiàn),本文算法在提取光刀圖像的中心時(shí),光順性較好,提取速度比Steger法及拋物線擬合法快,比基于骨架的灰度重心法提取的光刀中心精度高,像素點(diǎn)到擬合曲線的平均距離小于0.11像素,標(biāo)準(zhǔn)偏差小于0.15像素,提取結(jié)果穩(wěn)定,魯棒性好,能得到一條光順性較好的亞像素光刀中心。由表2可以看出,本文方法精度較高,計(jì)算時(shí)間滿足在線測量要求。

表2 標(biāo)準(zhǔn)量塊表面光刀提取精度及提取時(shí)間
為了進(jìn)一步驗(yàn)證用本文算法提取光刀中心的有效性,選擇如圖10所示的汽車模型進(jìn)行了實(shí)驗(yàn)。分別用Steger法、拋物線擬合法、基于骨架的灰度重心法以及本文算法對多光刀投影汽車模型的變形條紋進(jìn)行中心提取,并選取其中一條光刀的較豎直的區(qū)域進(jìn)行剪切放大,對4種算法的提取結(jié)果進(jìn)行了圖像對比,如圖11所示。

圖10 多光刀投射汽車模型

(a) steger (b) 拋物線 (c) 基于骨架的 (d) 本文法 擬合法 灰度重心法 算法圖11 汽車模型縱向光刀中心提取結(jié)果對比
從圖11可以看出,本文算法提取到的光刀中心與Steger法相比提取精度有了明顯提高,與基于骨架的灰度重心法的提取結(jié)果區(qū)別不明顯,這主要是因?yàn)閳D片大小影響了分辨率。本文算法提取時(shí)間為69 ms,比Steger法和拋物線擬合法所用時(shí)間少,滿足在線測量的要求。圖12是本文算法提取的多光刀中心在不同放大倍率下光刀中心與原圖的關(guān)系。

(a)提取結(jié)果 (b)2倍 (c)4倍 (d)16倍圖12 不同放大倍率下的光刀中心提取結(jié)果
本文算法可以實(shí)現(xiàn)單幅圖中多光刀中心的提取,與傳統(tǒng)投射單條激光的線結(jié)構(gòu)光三維測量技術(shù)相比,多光刀法投射三維測量增加了單幅圖像的信息量,在中心提取、立體匹配、三維重建的過程中,減少了采集圖像和處理圖像的數(shù)量,縮短了計(jì)算時(shí)間,大幅提高了測量效率,滿足在線測量要求。圖13是用本文算法提取的汽車模型縱向和橫向光刀中心進(jìn)行立體匹配與三維重建后的三維點(diǎn)云圖。

(a)縱向點(diǎn)云圖 (b)橫向點(diǎn)云圖圖13 汽車模型三維測量結(jié)果
在線結(jié)構(gòu)光測量物體三維形貌條紋中心提取過程中,由于投射條紋的光條寬度遠(yuǎn)大于一個(gè)像素,且存在飽和光帶,本文提出了一種基于骨架跟蹤的光刀自適應(yīng)灰度加權(quán)亞像素中心提取法。首先沿骨架方向設(shè)置一個(gè)單光刀有用像素區(qū)域,根據(jù)骨架法線方向在該區(qū)域中的像素分布確定加權(quán)的灰度閾值,從而準(zhǔn)確地提取光刀亞像素中心,最后分別用Steger法、拋物線擬合法、灰度加權(quán)重心法以及本文算法提取了擬合的S型光刀圖像和多組真實(shí)光刀圖像的中心。由仿真實(shí)驗(yàn)得出如下結(jié)論:本文提取到的光刀中心線光順性更好,受環(huán)境的影響較小,抗干擾能力更強(qiáng),中心點(diǎn)與擬合曲線之間的平均距離小于0.3像素,標(biāo)準(zhǔn)差小于0.03像素。標(biāo)準(zhǔn)量塊實(shí)驗(yàn)表明,本文方法提取的最大偏差距離、平均偏差距離和標(biāo)準(zhǔn)偏差較其他方法最小,分別為0.390 3、0.103 7、0.141 3像素,證明了本文算法能得到一組光順性更好的亞像素光刀中心線,有更高的精度與魯棒性,計(jì)算時(shí)間為69 ms,滿足在線精確測量。
參考文獻(xiàn):
[1] 董玲, 楊洗陳, 雷劍波. 基于機(jī)器視覺的激光再造機(jī)器人離線自動編程研究 [J]. 中國激光, 2013, 40(10): 109-116.
DONG Ling, YANG Xichen, LEI Jianbo. Off-line automatic programming research of laser remanufacturing robot based on machine vision [J]. Chinese Journal of Lasers, 2013, 40(10): 109-116.
[2] CSABA G, SOMLYAI L, VMOSSY Z. Mobile robot navigation in unknown environment using structured light [C]∥IEEE International Symposium on Logistics and Industrial Informatics. Piscataway, NJ, USA: IEEE, 2011: 249-254.
[3] 吳峰. 面向工業(yè)現(xiàn)場檢測的結(jié)構(gòu)光三維輪廓測量技術(shù)研究 [D]. 北京: 清華大學(xué), 2015.
[4] MANUEL S, MOISES P, GUILLERMO G. 360-degrees profilometry using strip-light projection coupled to Fourier phase-demodulation [J]. Optical Engineering, 2016, 24(1): 168-179.
[5] ZHOU Y, LIU K, GAO J, et al. High-speed structured light scanning system and 3D gestural point cloud recognition [C]∥47th Annual Conference on Information Sciences and Systems. Piscataway, NJ, USA: IEEE, 2013: 1-6.
[6] 劉振, 李聲, 馮常. 基于互相關(guān)算法的激光條紋中心提取 [J]. 中國激光, 2013, 40(5): 197-202.
LIU Zhen, LI Sheng, FENG Chang. Laser stripe center extraction based on cross-correlation algorithm [J]. Chinese Journal of Lasers, 2013, 40(5): 1-6.
[7] 李和平, 李德華, 朱洲, 等. 基于遺傳算法的結(jié)構(gòu)光條紋中心檢測方法 [J]. 光學(xué)精密工程, 2004, 12(1): 82-87.
LI Heping, LI Dehua, ZHU Zhou, et al. Detection of structured light strip center line based on genetic algorithm [J]. Optics and Precision Engineering, 2004, 12(1): 82-87.
[8] 熊會元, 宗志堅(jiān), 陳承鶴. 線結(jié)構(gòu)光條紋中心的全分辨率精確提取 [J]. 光學(xué)精密工程, 2009, 17(5): 1057-1062.
XIONG Huiyuan, ZONG Zhijian, CHEN Chenghe. Accurately extraction full resolution centers of structured light stripe [J]. Optics and Precision Engineering, 2009, 17(5): 1057-1062.
[9] 蔡懷宇, 馮召東, 黃戰(zhàn)華. 基于主成分分析的結(jié)構(gòu)光條紋中心提取方法 [J]. 中國激光, 2015, 42(3): 270-275.
CAI Huaiyu, FENG Zhaodong, HUANG Zhanhua. Centerline extraction of structured light stripe based on principal component analysis [J]. Chinese Journal of Lasers, 2015, 42(3): 270-275.
[10] 李瑩瑩, 張志毅, 袁林. 線結(jié)構(gòu)光光條中心提取綜述 [J]. 激光與光電子學(xué)進(jìn)展, 2013, 50(10): 9-18.
LI Yingying, ZHANG Zhiyi, YUAN Lin. Survey on linear structured light stripe center extraction [J]. Laser & Optoelectronics Progress, 2013, 50(10): 9-18.
[11] 高世一, 楊凱珍. 變邊限高斯擬合提取激光條紋中心線方法的研究 [J]. 儀器儀表學(xué)報(bào), 2011, 32(5): 1132-1137.
GAO Shiyi, YANG Kaizhen. Research on central position extraction of laser strip based on varied-boundary Gaussian fitting [J]. Chinese Journal of Scientific Instrument, 2011, 32(5): 1132-1137.
[12] 劉濤, 王宗義, 于秀輝, 等. 基于自適應(yīng)窗曲線擬合的結(jié)構(gòu)光條紋中心提取 [J]. 半導(dǎo)體光電, 2010, 31(1): 151-154.
LIU Tao, WANG Zongyi, YU Xiuhui, et al. Curve fitting method based on adaptive window for center extracting of structured light stripe [J]. Semiconductor Optoelectronics, 2010, 31(1): 151-154.
[13] 孫盼慶, 楊永躍, 何亮亮. 一種改進(jìn)的高斯擬合法在光帶中心提取中的應(yīng)用 [J]. 電子設(shè)計(jì)工程, 2012, 20(13): 179-185.
SUN Panqing, YANG Yongyue, HE Liangliang. An improved Gaussian fitting method used in light-trap center acquiring [J]. Electronic Design Engineering, 2012, 20(13): 179-185.
[14] 趙博華, 王伯熊, 張金, 等. 粗糙金屬表面光條中心提取方法 [J]. 光學(xué)精密工程, 2011, 19(9): 2138-2145.
ZHAO Bohua, WANG Boxiong, ZHANG Jin, et al. Extraction of laser stripe center on rough metal surface [J]. Optics and Precision Engineering, 2011, 19(9): 2138-2145.
[15] Steger C. An unbiased detector of curvilinear structures [J]. IEEE Transactions on pattern analysis and machine intelligence, 1998, 20(2): 113-125.
[16] BAUMGARTNER A, STEGER C, MAYER H, et al. Automatic road extraction based on multi-scale, grouping, and context [J]. Photogrammetric Engineering and Remote Sensing, 1999, 65: 777-786.
[17] LUKAS J, FRIDRICH J, GOLJAN M. Detecting digital image forgeries using sensor pattern noise [J]. SPIE Proceedings, 2006, 6072: 362-372.
[18] 賈倩倩, 王伯雄, 羅秀芝. 光切法形貌測量中光條中心的亞像素提取 [J]. 光學(xué)精密工程, 2010, 18(2): 390-396.
JIA Qianqian, WANG Boxiong, LUO Xiuzhi. Extraction of central positions of light stripe in sub-pixel in 3D surface measurement based on light sectioning method [J]. Optics and Precision Engineering, 2010, 18(2): 390-396.
[19] 李鳳嬌, 李小菁, 劉震. 基于多尺度分析的激光光條中心點(diǎn)坐標(biāo)提取方法 [J]. 光學(xué)學(xué)報(bào), 2014, 34(11): 103-108.
LI Fengjiao, LI Xiaojing, LIU Zhen. A multi-scale analysis based method for extracting coordinates of laser light stripe centers [J]. Acta Optica Sinica, 2014, 34(11): 103-108.
[20] 吳慶華. 基于線結(jié)構(gòu)光掃描的三維表面缺陷在線檢測的理論與應(yīng)用研究 [D]. 武漢: 華中科技大學(xué), 2013.
[21] YIN X Q, TAO W, FENG Y Y, et al. Laser stripe extraction method in industrial environments utilizing
self-adaptive convolution technique [J]. Applied Optics, 2017, 56(10): 2653-2660.
[22] 吳劍波, 崔振, 趙宏, 等. 光刀中心自適應(yīng)閾值提取法 [J]. 半導(dǎo)體光電, 2001, 20(1): 62-64.
WU Jianbo, CUI Zhen, ZHAO Hong, et al. An adaptive threshold method for light-knife center acquisition [J]. Semiconductor Optoelectronics, 2001, 20(1): 62-64.
[23] 龍洋, 胡改玲, 蒙雁琦, 等. 快速的線結(jié)構(gòu)光條紋骨架剪枝算法 [J]. 西安交通大學(xué)學(xué)報(bào), 2017, 51(2): 60-64.
LONG Yang, HU Gailing, MENG Yanqi, et al. A fast pruning algorithm for the skeleton of linear structured light stripes [J]. Journal of Xi’an Jiaotong University, 2017, 51(2): 60-64.
[24] GONZALEZ R C, WOODS R E. Digital image processing [M]. 2nd ed. Englewood, NJ, USA: Prentice Hall, 2002: 420-43.
[25] BAZEN A M, GEREZ S H. Systematic methods for the computation of the directional fields and singular points of fingerprints [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(7): 905-919.
[本刊相關(guān)文獻(xiàn)鏈接]
陳波,張英杰,張佳瑞,等.結(jié)構(gòu)光中心提取中的條紋灰度退化調(diào)整.2018,52(2):30-36.[doi:10.7652/xjtuxb201802005]
龍洋,胡改玲,蒙雁琦,等.快速的線結(jié)構(gòu)光條紋骨架剪枝算法.2017,51(2):60-64.[doi:10.7652/xjtuxb201702010]
朱愛斌,何仁杰,吳玥璇,等.考慮變換域融合方法的刀具磨損區(qū)域三維重構(gòu).2017,51(12):76-83.[doi:10.7652/xjtuxb 201712012]
韓江濤,張英杰,李程輝,等.面向光學(xué)三維測量的非均勻條紋生成方法.2017,51(8):12-18.[doi:10.7652/xjtuxb201708 003]
蒙雁琦,胡改玲,溫琳鵬,等.區(qū)域分割的亞像素相位立體匹配算法.2017,51(10):33-38.[doi:10.7652/xjtuxb201710 006]
顏敏煒,張英杰,代愽超,等.采用激光傳感器的同軸度檢測技術(shù)研究.2017,51(10):27-32.[doi:10.7652/xjtuxb201710 005]
張西寧,張海星,吳婷婷.一種轉(zhuǎn)動容器中磁流體液表面形貌測量方法.2017,51(1):103-108.[doi:10.7652/xjtuxb201701 016]
李海濤,郭俊杰,鄧玉芬,等.數(shù)控機(jī)床幾何精度的位姿測量原理.2016,50(11):62-68.[doi:10.7652/xjtuxb201611010]