占 棟,于 龍,肖 建,陳唐龍,張冬凱
(西南交通大學 電氣工程學院,四川 成都 610031)
軌道檢測中,鋼軌輪廓測量數據是軌道側磨、垂磨、軌距等軌道幾何參數計算的基礎,其精度直接決定軌道幾何參數檢測精度,在軌道檢測中占有重要地位。近幾十年來,計算機視覺測量技術得到快速發展,分別用于左右股鋼軌輪廓測量的線結構光視覺傳感器空間分布廣、無公共視角。線結構光視覺測量技術具有測量范圍大、精度高、受環境干擾小等優點,已廣泛用于鋼軌輪廓動態測量中。采用車載方式進行鋼軌輪廓動態測量,視覺傳感器全部安裝于車輛底部,操作空間有限,造成現場標定的困難。依據現場環境,選擇合適標定靶標及科學計算方法,建立左右股鋼軌輪廓測量視覺傳感器全局標定模型,是實現鋼軌輪廓及軌道幾何參數高精度測量面臨的重要問題。
傳統單視覺傳感器標定方法,按標定靶標維數可分為三維立體靶標法[1,2]、二維平面靶標法[3-5]、一維靶標法[6-8]以及自標定法[9,10]。若簡單采用上述單視覺傳感器標定方法進行多視覺傳感器標定,則很難建立高精度的全局測量模型。目前,多視覺傳感器全局標定,主要是在單視覺傳感器標定基礎上,融入其他輔助設備,如全站儀、平面鏡、激光直線、輔助靶標等,將單視覺傳感器標定方法與輔助設備提供的外部已知參數或約束條件相結合,如距離已知參數、角度已知參數、坐標已知參數、共線約束、共面約束等,共同實現多視覺傳感器全局標定。文獻[11,12]采用Tsai內外部參數分離法,將平面靶標與全站儀結合,求取多視覺傳感器內部參數及外部參數,實現多視覺傳感器全局標定,并將其成功應用于無縫鋼管和汽車車身在線測量中。由于該方法需要使用全站儀對多組視覺傳感器外部參數進行全局優化,對現場操作空間有較高要求,鋼軌輪廓測量視覺傳感器現場安裝方式決定了其標定空間有限,因此該方法不適于鋼軌輪廓動態測量中多視覺傳感器現場全局標定。文獻[13]提出將平面鏡與無公共視角的多組視覺傳感器進行空間組合,通過鏡面效果,構造出不同視覺傳感器的虛擬公共視角,實現多視覺傳感器全局標定。該標定方法計算模型復雜,且多次鏡面轉換后,標定累計誤差會增大。面對鋼軌輪廓的高精度測量要求,該方法具有一定局限性。文獻[14-17]提出將二維靶標與一維靶標結合,雙平面靶標與激光直線結合,分別采用上述兩種不同方法,實現多視覺傳感器全局標定,但其標定結果均是在實驗室較為寬松的環境下得出的。文獻[18,19]采用線結構光視覺傳感器進行鋼軌輪廓測量,其視覺傳感器標定采用線性模型,標定精度還有提升空間。文獻[20]綜合考慮攝像機鏡頭畸變,采用非線性模型,對用于鋼軌輪廓測量的單個視覺傳感器進行高精度標定。左右股鋼軌輪廓測量視覺傳感器全局優化,采用視覺傳感器動態測量數據與現場人工靜態實測數據比較的思路,進行多次人工修正,減小測量誤差,未對左右股鋼軌輪廓測量視覺傳感器外部參數進行精確計算,左右股鋼軌輪廓測量視覺傳感器本質上處于獨立狀態。
綜上所述,采用合適的標定方法,對左右股鋼軌輪廓測量視覺傳感器進行高精度全局標定,是實現鋼軌輪廓測量的重點和難點。本文結合鋼軌輪廓動態檢測裝置研制背景,研究鋼軌輪廓視覺測量傳感器現場快速全局標定方法。同時,將所得標定方法在軌道檢測車中實際應用,切實解決鋼軌輪廓動態測量中不同視覺傳感器全局標定問題,實現軌道幾何參數高精度測量。
采用線結構光視覺傳感器進行鋼軌輪廓測量,至少需要兩組視覺傳感器,測量原理如圖1所示,線結構光視覺傳感器安裝于軌道檢測車底部。輪軌接觸區域主要發生在鋼軌踏面和軌頭內側面,用于左右股鋼軌輪廓測量的線結構光視覺傳感器由內向外保持一定角度傾斜安裝。激光平面與鋼軌截面相交后,會在鋼軌踏面、軌頭內側面及軌腰處,形成一條高亮的鋼軌激光輪廓曲線。旁側攝像機與激光平面呈一定角度,拍攝鋼軌激光輪廓圖像,并將其傳輸給前端圖像處理設備,完成鋼軌輪廓圖像中激光光條中心提取。前端圖像處理設備在獲取鋼軌激光光條坐標后,借助車載局域網絡實時傳輸給綜合處理計算機,綜合處理計算機結合里程計,實現不同視覺傳感器測量數據空間同步、鋼軌輪廓幾何參數標定換算及最后結果輸出。

圖1 鋼軌輪廓動態測量原理
由圖1可知,左右股鋼軌輪廓測量視覺傳感器空間獨立安裝,要實現軌道幾何參數高精度測量,需要對左右股鋼軌輪廓測量視覺傳感器進行高精度全局標定。采用激光攝像技術進行鋼軌輪廓測量,標定參數主要包括攝像機內部參數、外部參數和結構光平面方程系數,待標定參數見表1。A為攝像機透視變換矩陣,其中α、β分別為圖像橫向、縱向尺度因子,u0、v0為圖像主點,γ為傾斜因子。K=[k1k2p1p2s1s2]T為攝像機鏡頭畸變系數,其中,k1、k2為徑向畸變系數,p1、p2為薄棱畸變系數,s1、s2為偏心畸變系數[21,22]。A、K共同組成攝像機內部參數。R為攝像機坐標系到空間坐標系的旋轉矩陣,t為攝像機坐標系到空間坐標系的平移向量。R、t共同組成攝像機外部參數。表1中,[abcd][xyz1]T=0為結構光平面方程,[abcd]為激光平面待標定系數[23]。

表1 鋼軌輪廓測量視覺傳感器待標定參數
為實現左右股鋼軌輪廓測量視覺傳感器高精度全局標定,將二維平面靶標與點狀激光器結合,利用平面靶標角點坐標及點狀激光器發射的激光直線作為標定信息和約束條件,建立左右股鋼軌輪廓測量視覺傳感器全局測量模型。標定主要包括以下步驟。
步驟1借助每個攝像機獲取的空間中至少三個不同方向平面靶標圖像信息,利用平面標定法,求取單個攝像機內部參數。
步驟2旋轉點狀激光器,空間中至少獲取兩條相交激光直線。每條激光直線同時覆蓋左右股鋼軌輪廓測量視覺傳感器視角。在每個視覺傳感器視角范圍內自由移動平面靶標,使靶標與激光直線、激光平面同時相交,且靶標在每個視覺傳感器視角范圍內與每條激光直線相交不少于兩次。攝像機拍攝二維平面靶標同時與激光直線、激光平面相交后的圖像。
步驟3提取靶標平面與激光直線相交所得激光光斑中心圖像坐標,利用至少兩條激光直線分別在兩個攝像機坐標系中的共線約束條件,求解左右股鋼軌輪廓測量視覺傳感器外部參數。
步驟4提取靶標平面與激光平面相交后所得激光光條圖像坐標信息,并結合攝像機內部參數,求解激光光條直線在各自攝像機坐標系中的方程。通過單個激光平面內的兩條相交激光光條直線以及激光光條直線上任一點在攝像機坐標系中的坐標,求解激光平面在對應攝像機坐標系中的方程。
步驟5綜合攝像機內部參數、外部參數、激光平面方程,進行全局優化,建立左右股鋼軌輪廓測量視覺傳感器全局測量模型。


( 1 )
式中:s為比例因子;A為表1中攝像機透視變換矩陣;R為3×3旋轉矩陣;t為3×1平移向量。R、t共同組成攝像機坐標系到空間坐標系的外部參數矩陣。設R中列向量為r1、r2和r3,采用平面靶標進行標定,空間坐標系中z=0,式( 1 )可等效為
( 2 )


( 3 )
式( 3 )描述的是攝像機理想成像模型。攝像機實際成像過程中,存在一定畸變。將表1中攝像機鏡頭畸變參數矩陣K代入式( 1 )中,便可建立攝像機非線性模型。借助單個攝像機獲取空間中同一靶標在多個不同方向的圖像,采用內部參數分離法,可求得攝像機透視變換矩陣A及畸變系數矩陣K,即可對畸變圖像進行校正。下文所指的標定計算方法,均是針對畸變校正后的圖像而言。


( 4 )

( 5 )

圖2 左右股鋼軌輪廓測量視覺傳感器全局標定原理


( 6 )

( 7 )


( 8 )


( 9 )


(10)
(11)

(12)

(13)


(14)


(15)
由前文可建立左右股鋼軌輪廓測量傳感器視覺測量模型

(16)

(17)
(18)
式(18)可以表示為
(19)


(20)
結合式(16)、式(20),便可得到左右股鋼軌輪廓測量傳感器全局標定模型。
采用前文介紹的標定方法,進行鋼軌輪廓測量視覺傳感器全局標定。鋼軌輪廓測量視覺傳感器標定實物如圖3所示。鋼軌輪廓測量視覺傳感器安裝于軌頭內側斜上方400 mm左右處,左右股鋼軌輪廓測量視覺傳感器成像中心相距900 mm左右,單個視覺測量傳感器測量范圍約300 mm×450 mm。其中每個視覺傳感器由MICROVIEW公司型號為MVC1000SAM_GE60分辨率為1 280×1 024像素攝像機、KOWA公式型號為LM12NCL鏡頭以及Z_LASER線型激光器共同組成。選用棋盤格靶標和點狀激光發射器作為標定物,棋盤格標定靶標精度為0.005 mm,點狀激光器發射激光光斑直徑在標定范圍內小于5 mm。

圖3 鋼軌輪廓測量視覺傳感器標定實物
借助點狀激光器,獲取空間中兩條相交激光直線,棋盤格靶標平面在每個視覺傳感器視角范圍內與激光直線、激光平面同時相交兩次,單個視覺傳感器獲取棋盤格平面靶標在4個不同方向的圖像,左右股鋼軌輪廓測量視覺傳感器獲取的標定圖像分別如圖4、圖5所示。

圖4 左股鋼軌輪廓測量視覺傳感器標定圖像

圖5 右股鋼軌輪廓測量視覺傳感器標定圖像
采用棋盤格角點亞像素提取算法,精確定位圖像中棋盤格角點坐標[25]。圖4、圖5中角點坐標提取結果分別如圖6、圖7所示。采用激光光條中心亞像素提取算法,提取激光平面與棋盤格相交后所得激光光條中心圖像坐標[26-28],提取結果如圖8所示。同理,采用亞像素提取方法,提取激光光斑中心圖像坐標[29],激光光斑中心圖像坐標提取結果見表2。

圖6 左股鋼軌輪廓測量傳感器標定圖像角點坐標提取結果

(a)左股鋼軌激光光條圖像坐標

(b)右股鋼軌激光光條圖像坐標圖8左右股鋼軌激光光條圖像坐標

激光直線二維靶標平面π(1)ij二維靶標平面π(2)ijl1(136.1,751.4)(325.3,560.7)(702.8,523.9)(204.4,189.6)l2(564.2,213.7)(827.5,534.3)(415.6,201.8)(890.0,647.1)
借助圖6、圖7中平面靶標角點像素坐標,圖8中激光平面與靶標平面相交后所得激光光條像素坐標,以及表2中激光直線分別與靶標平面相交后所得激光光斑中心像素坐標,可實現左右股鋼軌輪廓測量視覺傳感器全局標定。標定結果見式(21)~式(23)。

(21)

(22)

(23)
應用前文的左右股鋼軌輪廓測量視覺傳感器全局測量模型,進行鋼軌輪廓動態測量。研制的軌道參數動態檢測裝置現場安裝實物如圖9(a)所示。該型號軌道檢測車檢測裝置采用轉向架構架安裝方式,有鋼軌輪廓測量、軌道幾何參數測量、振動加速度測量和線路里程定位多種功能,最高檢測速度為120 km/h。線結構光視覺傳感器發射的激光平面與鋼軌截面相交后,所得鋼軌激光光條圖像如圖9(b)所示。

(a)鋼軌輪廓測量裝置現場安裝實物

(b)鋼軌激光輪廓圖像圖9 鋼軌輪廓測量裝置及鋼軌激光輪廓圖像
左右股鋼軌輪廓測量視覺傳感器獲取的激光光條原始圖像如圖10(a)所示。采用本文標定方法,對左右股鋼軌圖像進行全局標定,標定后的鋼軌輪廓數據如圖10(b)所示。

(a)左右股鋼軌輪廓原始圖像

(b) 左右股鋼軌輪廓測量數據圖10 鋼軌輪廓圖像標定效果
限于試驗條件,現場未能獲得人工靜態條件下測量所得鋼軌輪廓數據。為驗證文中標定方法對左右股鋼軌輪廓測量傳感器進行全局標定后軌道幾何參數測量精度,提出在同一段線路中,采用不同速度進行多次測量,通過比較同一線路中軌道幾何參數在不同速度下測量結果的重復性誤差、最大偏差來驗證本文標定方法的有效性。分別以20 km/h、40 km/h、60 km/h、80 km/h的檢測速度,測量1 000 m線路內左股鋼軌總磨耗WL、右股鋼軌總磨耗WR以及軌距G。測量系統每隔0.25 m輸出一組數據。1 000 m線路每項參數有4000組數據,檢測結果如圖11所示。以20 km/h檢測速度所得數據為基準,驗證其余檢測速度下軌道幾何參數檢測數據與20 km/h速度下測量軌道幾何參數檢測數據的重復性誤差以及最大偏差。圖11的統計結果見表3。

(a)左股鋼軌磨耗測量數據

(b)右股鋼軌磨耗測量數據

(c)軌距測量數據圖11 左右股鋼軌磨耗及軌距測量數據重復性曲線

測量速度v/(km·h-1)測量參數RMS誤差eRMS/mm40磨耗WL0.19磨耗WR0.17軌距G0.2060磨耗WL0.21磨耗WR0.15軌距G0.2280磨耗WL0.23磨耗WR0.21軌距G0.22
由表3可知,同一段線路,以20 km/h檢測速度測量鋼軌磨耗及軌距數據為基準,其余速度測量左股鋼軌磨耗、右股鋼軌磨耗以及軌距參數的最大重復性誤差eRMS分別為0.23 mm、0.21 mm、0.22 mm。
(1) 針對鋼軌輪廓測量中左右股鋼軌輪廓測量視覺傳感器全局標定困難的問題,本文提出采用激光直線及平面靶標進行全局標定,并以此建立左右股鋼軌輪廓測量視覺傳感器全局測量模型。
(2) 采用平面靶標及激光直線,對軌道檢測車中左右股鋼軌輪廓測量視覺傳感器進行現場全局標定,并將上述標定方法在軌道幾何參數檢測中進行實際應用。
(3) 同一段1 000 m長線路,軌道檢測車分別以20 km/h、40 km/h、60 km/h、80 km/h速度對軌道幾何參數進行動態測量,動態重復性試驗結果表明該標定方法可行。
參考文獻:
[1]徐光祐,劉立峰,曾建超,等.一種新的基于結構光的三維視覺系統標定方法[J].計算機學報,1995,18(6):450-456.
XU Guangyou,LIU Lifeng,ZENG Jianchao,et al.A New Method of Calibration in 3D Vision System Based on Structure-light[J].Chinese Journal of Computers,1995,18(6):450-456.
[2]段發階,劉鳳梅,葉聲華.一種新型線結構光傳感器結構參數標定方法[J].儀器儀表學報,2000,21(1):108-110.
DUAN Fajie,LIU Fengmei,YE Shenghua.A New Accurate Method for the Calibration of Line Structured Light Sensor[J].Chinese Journal of Scientific Instrument,2000,21(1):108-110.
[3]TSAI R Y.A Versatile Camera Calibration Technique for High-accuracy 3D Machine Vision Metrology Using Off-the-shelf TV Cameras and Lenses[J].IEEE Journal of Robotics and Automation,1987,3(4):323-345.
[4]ZHANG Z Y.A Flexible New Technique for Camera Calibration[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2000,22(11):1 330-1 344.
[5]ZHOU F Q,ZHANG G J.Complete Calibration of a Structured Light Stripe Vision Sensor Through Planar Target of Unknown Orientations[J].Image and Vision Computing,2005,23(1):59-67.
[6]ZHANG Z Y.Camera Calibration with One-dimentional Objects[J].Lecture Notes in Computer Science,2002,2353(7):161-174.
[7]周富強,張廣軍,魏振忠,等.基于未知運動一維靶標的雙目視覺傳感器標定[J].機械工程學報,2006,42(6):92-96.
ZHOU Fuqiang,ZHANG Guangjun,WEI Zhenzhong,et al.Calibrating Binocular Vision Sensor with One-dimentional Target of Unknown Motion[J].Journal of Mechanical Engineering,2006,42(6):92-96.
[8]周富強,蔡斐華.基于一維靶標的結構光視覺傳感器標定[J].機械工程學報,2010,46(18):7-12.
ZHOU Fuqiang,CAI Feihua.Calibrating Structured-light Vision Sensor with One-dimentional Target[J].Journal of Mechanical Engineering,2010,46(18):7-12.
[9]MAYBANK S J,FAUGERAS O D.A Theory of Self-calibration of a Moving Camera[J].International Journal of Computer Vision,1992,8(2):123-151.
[10]HARTLEY R,ZISSERMAN A.Multiple View Geometry in Computer Vision[M].2nd ed.New York:Cambridge University Press,2004.
[11]LU R S,LI Y F,YU Q.On-line Measurement of the Straightness of Seamless Steel Pipes Using Machine Vision Technique[J].Sensors and Actuators A:Physical,2001,94(1-2):95-101.
[12]LU R S,LI Y F.A Global Calibration Technique for High-accuracy 3D Measurement Systems[J].Sensors and Actuators,A:Physical,2004,116(3):384-393.
[13]KUMAR R K,ILIE A,FRAHM J,et al.Simple Calibration of Non-overlapping Cameras with a Mirror[C]//IEEE Computer Society Comfertnee on Computer Vision and Pattern Recognition.Anchorage:2008.
[14]劉震,張廣軍,魏振忠.基于雙平面靶標的多視覺傳感器現場全局校準[J].機械工程學報,2009,45(7):228-232.
LIU Zhen,ZHANG Guangjun,WEI Zhenzhong.Global Calibration of Multi-sensor Vision System Based on Two Planar Targets[J].Journal of Mechanical Engineering,2009,45(7):228-232.
[15]LIU Z,ZHANG G J,WEI Z Z,et al.Novel Calibration Method for Non-overlapping Multiple Vision Sensors Based on 1D Target[J].Optics and Lasers in Engineering,2011,49(4):570-577.
[16]LIU Q Z,SUN J H,LIU Z,et al.Global Calibration Method of Multi-sensor Vision Systems Using Skew Laser Lines[J].Chinese Journal of Mechanical Engineering,2012,25(2):405-410.
[17]LIU Z,WEI X G,ZHANG G J.External Parameter Calibration of Widely Distributed Vision Sensors with Non-overlapping Fields of View[J].Optics and Lasers in Engineering,2013,51(6):643-650.
[18]ALIPPI C,CASAGRANDE E,SCOTTI F.Composite Real-time Image Processing for Railways Track Profile Measurement[J].IEEE Transactions on Instrumentation and Measurement,2000,49(3):559-564.
[19]徐科,楊朝霖,周鵬,等.基于激光線光源的鋼軌表面缺陷三維檢測方法[J].機械工程學報,2010,46(8):1-5.
XU Ke,YANG Chaolin,ZHOU Peng,et al.3D Detection Technique of Surface Defects for Steel Rails Based on Linear Lasers[J].Journal of Mechanical Engineering,2010,46(8):1-5.
[20]占棟,于龍,肖建,等.軌道檢測中激光攝像式傳感器標定方法研究[J].機械工程學報,2013,49(16):39-47.
ZHAN Dong,YU Long,XIAO Jian,et al.Calibration Approach Study for the Laser Camera Transducer of Track Inspection[J].Journal of Mechanical Engineering,2013,49(16):39-47.
[21]WENG J Y,PAUL C,MARC H.Camera Calibration with Distortion Models and Accuracy Evaluation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1992,14(10):965-980.
[22]WANG J H,SHI F H,ZHANG J,et al.A New Calibration Model and Method of Camera Lens Distortion[C]//RSJ International Conference on Intelligent Robots and Systems,IEEE.Beijing,2006:5 713-5 718.
[23]HUYNH D Q,OWENS R A,HARTMANN P E.Calibrating a Structured Light Stripe System:a Novel Approach[J].International Journal of Computer Vision,1999,33(1):73-86.
[24]ROMAN P,HORST B.Localization and Trajectory Reconstruction in Surveillance Cameras with Non-overlapping Views[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,32(4):709-721.
[25]YARON O,SIDI M.A Combined Corner and Edge Detector[C]//Proceedings of the 4th Alvey Vision Conference.1988:147-151.
[26]胡坤,周富強,張廣軍.一種快速結構光條紋中心亞像素精度提取方法[J].儀器儀表學報,2006,27(10):1 326-1 329.
HU Kun,ZHOU Fuqiang,ZHANG Guangjun.Fast Extrication Method for Sub-pixel Center of Structured Light Stripe[J].Chinese Journal of Scientific Instrument,2006,27(10):1 326-1 329.
[27]賈倩倩,王伯雄,羅秀芝.光切法形貌測量中光條中心的亞像素提取[J].光學精密工程,2010,18(2):390-396.
JIA Qianqian,WANG Boxiong,LUO Xiuzhi.Extration of Central Positions of Light Stripe in Sub-pixel in 3D Surface Measurement Based on Light Sectioning Method[J].Optics and Precision Engineering,2010,18(2):390-396.
[28]吳家勇,王平江,陳吉紅.基于梯度重心法的線結構光中心亞像素提取方法[J].中國圖象圖形學報,2009,14(7):1 354-1 360.
WU Jiayong,WANG Pingjiang,CHEN Jihong.Method of Linear Structured Light Sub-pixel Center Position Extracting Based on Gradient Barycenter[J].Journal of Image and Graphics,2009,14(7):1 354-1 360.
[29]侯成剛,楊文獻,屈梁生.一種快速檢測圓心的抗噪聲亞像素算法[J].光學學報,1998,18(4):481-485.
HOU Chenggang,YANG Wenxian,QU Liangsheng.A Robust Subpixel Algorithm for the Center of Circle Detecting[J].Acta Optica Sinica,1998,18(4):481-485.