陳月玲,趙吉賓,齊智峰,夏仁波
(中國科學院 沈陽自動化研究所, 沈陽 110016)
?
管道機器人非接觸式自動糾偏方法
陳月玲,趙吉賓,齊智峰,夏仁波
(中國科學院 沈陽自動化研究所, 沈陽110016)
摘要:針對等寬方形管道中車式機器人高精度直線行走的需求,構建了由一臺CCD相機以及兩個線結構光傳感器組成的視覺測量裝置。提出一種利用非接觸式三維測量計算車體偏離管道中心線距離和角度的方法,將車體姿態在線反饋,利用控制算法消除位姿偏差,使車體中心線與管道中心線保持高度重合性。實驗結果表明該方法克服了現有方法無法在缺乏道路信息的管道中直線行走的缺陷,具有較強的魯棒性和檢測精度,在遠距離行走中偏移距離精度小于±5mm,同時,該方法已經被應用于光傳輸管道的在線清理系統中。
關鍵詞:管道;視覺系統;三維測量;糾偏
0引言
在高功率激光裝置中,存在大量的光學元件。當裝置建造和高通量運行過程中,隨著運行時間和激光能量的增加,光管道內部氣溶膠含量迅速上升,由于微粒自由擴散,大量的塵埃堆積在光學元件表面,光學表面的污染物會引起光學表面發生損傷,因此對運行環境中光傳輸管道進行潔凈處理是降低光學元件污染和損傷的必要手段。然而光傳輸管道一旦安裝完畢就很難將其拆卸進行離線清洗,因而有必要研制一種光傳輸管道在線清潔系統,來降低光學元件污染和損傷[1]。
針對較窄的方式等寬管道,采用車式機器人攜帶在線清理裝置進入光傳輸管道進行清理工作[2-3],然而機器人在進入管道以及行走過程中不可避免地存在跑偏現象,導致光傳輸管道以及車體攜帶零部件受損,為了避免車體與管道內壁發生不必要的碰撞,將車體中心線與管道中心線保持高度重合性尤為重要。國內外許多學者對其進行了研究,提出了許多有效方法,大量方法[4-6]普遍依靠視頻探測確定周圍環境以及對道路進行識別,并將獲取的信息發送到各子單元自動控制車體直線行走,然而無法滿足在無道路信息的光傳輸管道中高精度直線行走的需求。高森等人[7]利用空間映射的背景補償法進行跟蹤任務,該方法主要應用于前景和背景相差較大的情況,對于沒有道路信息的光傳輸通道圖像檢測無法實施。Li等人[8]利用仿生鱷清潔管道中的沉積物,在運動的過程中,通過各驅動電機的相互配合控制,將動力通過直齒錐齒輪傳動機構使各關節的轉角發生變化,從而改變機器鱷的運動姿態,然而該方法的開關機制由齒狀邊緣構成,對管道容易造成二次損壞。
本文構建了一個光傳輸管道在線清潔系統,提出一種在缺乏道路信息的光傳輸管道中車式機器人進行非接觸、高精度糾偏方法,設計視覺傳感器裝置,通過三維測量得到車體偏離管道中心線的偏差信息,對管道機器小車進行動力學分析,不斷消除位姿偏差,將車體中心糾正到管道中心線上。實驗結果顯示該方法克服了現有方法無法在缺乏道路信息的等寬管道中直線行走的缺陷,具有糾偏精度高、成本低、有效避免車體攜帶部件與光傳輸管道發生不必要接觸等優點。
1光傳輸管道在線清潔系統
為了實現機器人在管道內高精度直線行走,選擇了移動方式驅動與轉向機構獨立,結構簡單,應用成熟且更有利于保證移動機器人在管道內沿管道中心線行走精度的車式移動機器人[9]。
1.1在線清潔系統
由于激光具有強度高、能量密度大、聚焦性強、方向性好的特點,當激光與物質相互作用時,能夠達到清除物體表面污染物的目的,因此車式機器人搭載激光清洗部件對光傳輸管道內部進行在線清理。光傳輸管道在線清理系統由車式管道機器人以及外置部件(包括控制軟件、電源、制冷、顯示器、吸塵等部件)組成,其中車式機器人上裝載有在線潔凈處理執行部件、視覺傳感器系統、監控攝像頭以及吸塵頭部件。潔凈處理執行部件對光傳輸管道內壁進行精細清洗,紅外監控攝像頭對管道內清洗狀況進行監視,吸塵頭部件對殘留在管道壁的顆粒物進行清理,視覺傳感器裝置對車體位置進行在線測量,實時糾偏,保證車體高精度直線行走。
1.2視覺傳感器測量系統
視覺傳感器裝置如圖1所示,主要由一臺CCD相機、兩個線結構光傳感器和圖像處理單元等部分組成。
具體工作過程為:車式機器人進入管道區域,觸發測量系統開始測量,線結構光傳感器在管道壁投射出光條以構造測量特征,CCD相機采集被測圖像,待采集完成后,圖像處理單元對采集圖像中的光條成像點坐標求取空間三維坐標,從而解算出車體偏移管道中心線的位置。

圖1 車式機器人在線清潔系統以及視覺傳感器裝置放大圖
2基于視覺傳感裝置的管道機器人糾偏方法
針對等寬方形管道中車式機器人高精度直線行走的需求,構建了由一臺CCD相機以及兩個線結構光傳感器組成的視覺測量系統,提出一種管道機器人非接觸式糾偏方法,如圖2所示。

圖2 管道機器人糾偏流程圖
2.1視覺傳感器標定
首先標定攝像機內參數,通過建立柔性靶標,令其中一個靶標作為基準柔性立體靶標坐標系,以子靶標之間位置關系不變為約束條件,將各子靶標特征點的局部坐標統一到柔性立體靶標坐標系下,建立以重投影誤差為最小的目標函數,采用非線性優化方法得到攝像機參數的最優解[10];然后利用得到的攝像機內參數分別標定兩個線結構光平面,多次移動共面靶標計算不同方向激光條紋直線的消隱點,并對其擬合直線得到光平面的消隱線,完成光平面法向的標定。根據交比不變原理計算共面靶標上標定點間的距離,并以其為約束來標定剩余參數。最后定義了優化目標函數,以已求得參數為初值進行非線性優化,得到結構光平面參數[11]。
2.2結構光光條定位
當車體進入管道后,利用相機進行圖像采集以及數字化存儲,對采集的圖像進行高斯平滑處理,減少圖像噪聲。其中,采用大小為3×3的高斯濾波器模板,高斯內核在X方向的標準偏差為1.2,高斯內核在Y方向的標準偏差為0.5。然后使用最大類間方差OSTU[12]方法進行全局自適應閾值分割,使得前景和背景類間方差最大,確定最優的灰度分割閾值,提取感興趣的前景光條紋區域。為了避免光傳輸管道中存在光照以及管道表面反光性較強等干擾,對閾值分割后的圖像進行開運算,同時提取圖像中的輪廓,去除輪廓區域面積較大和較小的區域,如圖3所示,實驗中給定的閾值為Tmax=2400,Tmin=50。

圖3 結構光光條檢測
利用灰度重心法檢測光條紋中心,將檢測到的光條紋中心點去畸變,并轉換到圖像的物理坐標系下,最后通過標定好的兩組光平面參數將其分別轉換到相機坐標系下,分別對兩組三維坐標值取平均,得到兩個穩定的光斑三維點。
2.3視覺導航控制算法
2.3.1計算小車偏移角度和偏移量
首先,利用2.2節得到的兩個穩定光斑三維點坐標值計算在相機坐標系下偏移角度和偏移量(兩個結構光傳感器放置在車體上保持高度一致,因此在相機坐標系下三維點的y值可以忽略不計):
(1)
(2)
其中,θ是小車在相機坐標系下的偏轉角度,P1x,P1z分別是圖像中右側光斑點x和z坐標值,P2x,P2z分別是圖像中左側光斑點x和z坐標值,d是相機坐標系下車體偏移量,L是車體在管道中心線基準位置處相機光心離管道壁的距離。
為了計算車體處于管道中心線基準位置處相機光心離管道壁的距離,已知管道口徑寬度為W,將車體放置在管道的中心位置處,利用相機采集圖像,檢測光條上點在相機坐標系下的三維點坐標,本文采用W=500mm的管徑,得到光心點離管道壁的距離(L=103)。因此相機光心點距離車體中軸的垂直距離為N=W/2-L=250-103=147。
實驗中以車體前端的舵機中心點為轉動控制點,因此需要將上述計算得到的偏移角度和偏移量轉換到舵機的中心點位置處,轉換關系如下:
θ2=θ1
(3)
d2=d+M·sinθ2+N·(cosθ2-1)
(4)
其中,θ2是以舵機中心點為參考點的車體偏移角度,d2是以舵機中心點為參考點的偏移量,M表示相機光心點距舵機中心點的縱向距離,由機械加工圖可知M=130mm。
2.3.2控制算法
通過視覺系統獲得當前時刻(記為i)車體的偏差信息為di,θi,通過驅動電機的反饋信息及內存的存儲信息獲得此時的速度信息與舵角信息μi,φi,然后將以上信息作為糾偏控制的輸入量,經過糾偏控制算法分析后,得出為消除該時刻的偏差,需要舵機在下一時刻轉過的角度信息,即下一時刻的目標舵角大小φi+1,最后利用公式(5)計算舵角大小對應的脈沖寬度,控制舵機以實現一次控制流程。
pwi=(((90-φi)/180)×2+0.5)×1000+50
(5)
其中,pwi是舵角大小對應的脈沖寬度,φi是舵角大小。
通過在線反饋,實時控制,使得車體在有限時間內偏移信息θ→0,d→0,實現了車體中心線和管道中心線保持高度重合的目的。
3測量系統精度驗證
為驗證本文提出方法的有效性和正確性,采用AVT公司的Manta系列相機(分辨率:2048×1088)和兩個COHERENT公司的中心波長為630nm的一字線激光器構成一個視覺傳感器系統。同時,為了保證車體在偏移時,光條仍在視野內,相機配置了Computar公司的6mm精工鏡頭,相機視野較大。本實驗使用的管道內徑為500mm×500mm,長6m,帶吸塵頭的車式機器人的寬度為400mm。所有的仿真實驗均在Windows 7操作系統下采用Visual Studio 2008軟件實現。
3.1視覺傳感器標定
采用100mm×80mm規格的圓形標定板對視覺傳感器進行標定,首先對相機進行標定,得到相機內參數矩陣Kc和畸變系數矩陣kc:
KC=

該結果的重投影誤差均值為0.134個像素,具有較高標定精度。
兩個結構光平面在相機坐標系下的光平面參數分別為:
-622.066171x-20.452303y+1.000000z+16208.148402=1;
-168.837084x-11.259266y+1.000000z-4459.496430=1。
3.2視覺控制對于車體偏移量以及偏移角度的影響
圖4顯示視覺控制對于車體偏移量以及偏移角度的影響。橫坐標表示時間Time(s),左側縱坐標表示偏移量Displacement(mm),右側縱坐標表示偏移角度Offset angle(°)。從圖4可以看出,車體的偏移量以及偏移角度隨時間收斂。

圖4 視覺控制對車體偏移量以及偏移角度的影響
3.3車式機器人快速進入管道視覺糾偏控制
圖5顯示了小車進入6m的實驗管道,當小車前進時,視覺控制糾偏示意圖。橫坐標表示時間Time(s),左側縱坐標表示偏移量Displacement(mm),右側縱坐標表示偏移角度Offset angle(°)。當車式機器人前進速度為0.06m/s時,由圖5可見,利用視覺控制在線反饋,形成閉環系統,不斷消除偏差,偏移量和偏移角度都趨于0,在行駛過程中,車體沿直線行走,行走精度高,偏移量精度為±1mm。

圖5 車體快速進入6m的視覺糾偏控制
3.4車式機器人清理過程
下圖顯示了小車進入和退出2m的實驗管道,當小車前進和后退時,視覺控制糾偏示意圖。橫坐標表示時間Time(s),左側縱坐標表示偏移量Displacement(mm),右側縱坐標表示偏移角度Offset angle(°)。小車前進速度為0.06m/s,由于小車在后退時要進行清理工作,因此后退速度為0.01m/s,且后退時每運行70mm小車停止,對管道進行一次激光清理。圖6可以看出,小車最終達到平衡穩定狀態,與小車進入管道的初始位置無關,偏移量和偏移角度都趨于0,實現了在線糾偏,糾偏精度高,避免車體攜帶部件與管道壁發生不必要的碰撞。

圖6 車式機器人在管道清洗過程中視覺導航控制
4結論
本文提出了一種管道機器人非接觸式自動糾偏方法。通過非線性優化算法標定視覺傳感器裝置,通過三角測量得到兩個光條的三維坐標值,計算車體偏移量和偏移角度,并在線反饋,利用控制算法不斷消除位姿偏差以達到車體與管道中心線保持高度重合性的目的。實驗結果顯示該方法克服了現有方法無法在缺乏道路信息的光傳輸管道中直線行走的缺陷,具有較高的魯棒性和檢測精度。
[參考文獻]
[1] 趙龍彪,秦朗,周國瑞,等. 大口徑高通量實驗平臺反射鏡在線潔凈控制技術[J]. 強激光與粒子束, 2013,25(18):3251-3219.
[2] 鐘文勝, 陶學恒, 盧金石. 油煙管道清洗機器人關鍵技術研究[J]. 組合機床與自動化加工技術, 2013 (4): 122-124.
[3] 許馮平, 王錫名, 朱新忠. 一種蠕動式管道機器人行走機理研究[J]. 組合機床與自動化加工技術, 2009 (7): 34-37.
[4] BUZZONI M, BROGGI A, CARDARELLI E. VIAC expedition toward autonomous mobility[J]. IEEE Robotics and Autonomous Magazine, 2011, 18 (3): 120-124.
[5] THRUN S, MONTEMERLO M, DAHLKAMP H. Stanley: The Robot that won the DARPA Grand Challenge [J]. Journal of Field Robotics, 2006, 23 (9): 661-692.
[6] 袁亮. 基于 Harris-SIFT 的移動機器人視覺定位[J]. 組合機床與自動化加工技術, 2014(6): 19-24.
[7] Li Z, Zheng J, Lin X. Research on Biomimetic Robot-Crocodile Used for Cleaning Industrial Pipes[C]//Advanced Research on Computer Science and Information Engineering. Springer Berlin Heidelberg, 2011: 359-365.
[8] 高森, 叢明, 劉冬, 等. 一種基于距離加權的機器人運動目標跟蹤方法[J]. 組合機床與自動化加工技術, 2014(12):65-69.
[9] 張瑞雷,李勝,陳慶偉.車式移動機器人動態編隊控制方法[J]. 機器人,2013,35(6):651-656.
[10] 孫軍華,劉震,張廣軍,等. 基于柔性立體靶標的攝像機標定[J].光學學報,2009,29(12): 3433-3439.
[11] 陳天飛, 趙吉賓, 吳翔. 基于共面靶標的線結構光傳感器標定新方法[J]. 光學學報, 2014, 35(1):112004.
[12] H. Yan. Unified formulation of a class of image thresholding techniques [J]. Pattern Recognition, 1996, 29(12): 2025-2032.
(編輯李秀敏)
Non-Contact Automatic Correction Method of Pipeline Robot
CHEN Yue-ling, ZHAO Ji-bin, QI Zhi-feng, XIA Ren-bo
(Shenyang Institute of Automation, Chinese Academy of Sciences,Shenyang 110016, China)
Abstract:Concerning the need of walk straight for the car-like robot in equally wide pipeline, the vision measurement system is build with a CCD camera and two line structured-light sensors. A method based on non-contact three-dimensional(3D) measurement is proposed to compute the position and angular deviation of the car-like robot in pipeline, then feed back to the control system. By control algorithm, the position and angular deviation are eliminated, thus the high coincidence between the center line of the pipeline and car body is gained. The experimental results demonstrate that the proposed method overcomes the deficiencies of the existing methods that cannot walk straight in lack of pipeline information, with higher robust and detection accuracy of ±5mm. Meanwhile,it has been used in on-line cleaning system of optical transmission pipeline.
Key words:pipeline; vision system; 3D measurement; rectify
中圖分類號:TH166;TG659
文獻標識碼:A
作者簡介:陳月玲(1987—),女,山西大同人,中國科學院沈陽自動化研究所助理研究員,研究方向為機器人和計算機視覺,(E-mail)chenyueling@sia.cn。
收稿日期:2015-05-28
文章編號:1001-2265(2016)03-0016-04
DOI:10.13462/j.cnki.mmtamt.2016.03.005