王 文 忠, 高 金 剛, 李 錕, 楊 利, 楊 旭
( 1.長春工程學院 工程訓練中心, 吉林 長春 130012;2.長春工程學院 機電工程學院, 吉林 長春 130012;3.吉林大學 機械科學與工程學院, 吉林 長春 130022 )
在結構化環境和重復作業任務方面,傳統的工業機器人已大量投入使用.對于完全未知的非結構化環境,機器人在完成任務(子任務)的過程中需要與周圍環境進行交互.現階段機器人的智能和自主能力仍很薄弱,這對如何實現現代機器人與人在相同的非結構化空間和環境中協同作業,實時在線完成非確定性的任務提出了新的要求.在提升作業能力、改善人機交互方面,需要突破三維環境感知、規劃和導航等單元技術[1].為使機器人在任務空間中準確定位需要解決環境地圖的識別和路徑規劃、全區域搜索遍歷和局部搜索等技術問題,學者們應用了度量法、拓撲法、遺傳算法及模糊邏輯算法等[2-5].由于具有占用存儲資源少和可實時完成路徑規劃的優點,模糊邏輯算法得到廣泛應用.對于解決在線感知能力、在線實時交互、動態未知環境中自主作業等問題[1],Johnson等利用激光距離傳感器對機器人的工作曲面進行3D識別和定位[6],Hamel等結合人機交互與激光和視覺技術實現了未知環境的感知和建模[7],Ramos等研究了利用圖像與傳感器實現物體圖像特征信息的提取[8],Kaltsoukalas等將機器視覺傳感數據和相關方法結合研究了焊接路徑規劃[9],郭玉波等[10]分析了正交雙目立體視覺獲取特征信息的檢測誤差模型.
本文提出一種研磨機器人在加工未知曲面模型的情況下,能夠自主搜索待加工區域特征的算法.
如圖1所示,整個研磨機器人系統由機器人本體、PMAC卡控制系統、數據及視覺處理工作站、視覺傳感器組成.
自主研磨機器人系統的計算機通過RS-232 接口與機器人控制器之間實現通信,工作站主要負責視覺傳感器的圖像采集和信息處理,并給PMAC卡控制系統發送機器人的運動指令;自主研磨機器人的PMAC卡控制器負責接收工作站運動命令和機器人各關節狀態信息并控制機器人各關節在加工過程中的協調運動,數據及視覺處理系統在 Windows 操作系統下用Visual C++ 2010平臺統一集成開發.

圖1 自主研磨機器人系統
為使自主研磨機器人具有對整個待加工曲面進行實時遍歷搜索的能力,本文提出一種機器人可以從未知曲面的任意位置出發,在加工過程中實時制訂搜索策略,應用模糊邏輯算法對局部未知曲面進行實時路徑規劃方法.同時通過機器人直角坐標移動平臺的光柵尺反饋信息來標記已加工區域和未加工區域的屬性,并指定搜索陷阱和逃離策略,避免系統進入死循環[2],保證機器人具有實現全區域搜索能力.
根據本文的自主研磨機器人結構,系統采用行切法軌跡規劃的走刀方式.在研磨機器人每次執行加工路徑的過程中,首先將相機A確定的待加工曲面的局部輪廓A′與相機B確定的待加工曲面的局部輪廓B′的交點作為起刀點,并沿著局部輪廓B′的方向進行該輪廓的加工;加工完該段輪廓后,沿著輪廓A′的方向移動一個切削行距,然后重復上述加工過程.機器人系統的實時局部路徑規劃主要利用相機A、B所采集待加工曲面的表面輪廓特征信息來完成.正交雙目立體視覺模型如圖2所示,自主研磨機器人共有兩個相機,相機固接于研磨工具的末端,位于與機器人的兩個互相垂直的絲杠同方向,在兩個互相垂直的絲杠方向上分別安裝有光柵尺,通過光柵尺可得到在兩個絲杠方向上的移動距離.相機A的相機坐標系和圖像坐標系為Oa-XaYaZa和O1-x1y1,相機B的相機坐標系和圖像坐標系為Ob-XbYbZb和O2-x2y2,研磨工具上線段PQ在O1-x1y1和O2-x2y2的投影為p1q1和p2q2[11-13],系統通過獲得操作臂整體部分距每個絲杠導軌兩端的實時距離,控制機器人的操作臂整體部分在Y軸與Z軸的運動,Y軸的運動范圍為0~100 mm,Z軸的運動范圍為0~200 mm[14].

圖2 正交雙目立體視覺模型
在研磨機器人加工過程中,基于光柵尺反饋的距離信息,利用數據融合得到機器人左、右、上、下方向上操作臂整體與絲杠導軌兩端之間的距離,并將其作為模糊控制器的輸入,其中左、右和上、下方向距離數值的論域分別為[0,100] mm與[0,200] mm,其模糊集合定義為{NEAR,FAR},分別代表操作臂整體與絲杠導軌兩端較近、較遠.沿著左、右方向的模糊集合定義為{LF,LN,Z,RN,RF},其中LF、LN、Z、RN、RF分別代表設定操作臂整體方位的左向較大、左向較小、中間不動、右向較小、右向較大.沿著上、下方向的模糊集合定義為{UF,UN,Z,DN,DF},其中UF、UN、Z、DN、DF分別代表設定操作臂整體方位的向上較大、向上較小、中間不動、向下較小、向下較大(規定機器人沿著Y1的正向為左,沿著Y1的負向為右,沿著Z1的正向為上,沿著Z1的負向為下[14]).
機器人在Y軸方向上的運動距離取決于相機B獲得的當前待加工曲面的局部輪廓信息的模糊推理結果,該信息通過模糊推理后作為模糊控制器的輸出,模糊集合定義為{TLF,TLN,TZ,TRN,TRF},其中TLF、TLN、TZ、TRN、TRF分別代表機器人向左移動較大、向左移動較小、中間、向右移動較小、向右移動較大.同樣在Z軸方向上的運動距離取決于相機A獲得的當前待加工曲面的局部輪廓信息的模糊推理結果,該信息通過模糊推理后作為模糊控制器的輸出,模糊集合定義為{TUF,TUN,TZ,TDN,TDF},其中TUF、TUN、TZ、TDN、TDF分別代表機器人向上移動較大、向上移動較小、中間、向下移動較小、向下移動較大.
圖3表示了Y軸與Z軸的模糊控制器輸入輸出變量所對應的隸屬度,通過經驗得到對應的輸入輸出變量之間的關系.在大量實驗結果的基礎上,利用Matlab工具箱和模糊推理算法生成模糊控制表,作為研磨機器人實時規劃運動軌跡的依據.

圖3 模糊控制隸屬度函數
基于全區域的模糊邏輯搜索策略根據機器人系統的直角坐標移動平臺在Y軸與Z軸的最大移動距離和機器人各關節光柵尺反饋的信息,在線將搜索區域劃分成多個長方形網格區域.每個長方形網格是可一次研磨搜索的最大區域,全區域加工算法由基于加工路徑規劃的連續加工策略與逃離單次網格加工死循環策略構成.
研磨機器人從當前位置開始,在連續加工每個長方形網格區域時,依次按照前述的模糊邏輯所規劃的路徑進行加工,可以完成對當前區域的加工.然后,根據對已加工完的區域獲取的當前區域邊界信息,判定新的加工方向,選擇新的待加工區域.當機器人到達一個新的未加工網格時,機器人將進行目標區域識別,若其是不符合加工條件的區域,則繼續應用模糊邏輯所規劃的路徑搜索下一個網格位置.在加工過程中,當機器人通過已加工網格區域的次數大于設定的閾值時,則判定機器人已經處于搜索陷阱,實施搜索陷阱逃離策略.
機器人的加工過程通過未加工網格位置鏈表和已加工網格位置鏈表來記錄,其算法的過程如下:

Step2判斷研磨機器人是否陷入了搜索陷阱,若記錄連續搜索位置的次數n大于等于某一設定值N,轉入Step 3,當n N= ;N≥0 (1) 式中:Se為設定的搜索網格的面積,S為整個搜索區域的面積. Step3系統查詢機器人未搜索位置鏈表中與當前位置距離最近的未搜索網格位置,并控制機器人運動到該未搜索位置,如果查詢時未搜索位置鏈表為空,則退出搜索.在機器人運動到未搜索位置時,PMAC卡控制系統將實時跟蹤和計算指定的未搜索位置與機器人當前位置之間的方位,并利用模糊控制算法實現機器人到達指定網格的最優規劃路徑.當機器人移動到未搜索網格位置時,系統將該網格節點添加到已搜索位置鏈表中,并從未搜索位置鏈表中刪除該網格節點,設定N=N/2,n=0,并將機器人的當前位置記錄為Pi,然后轉入Step 4. 計算機器人連續搜索算法中未搜索網格坐標的方法為若Z軸或Y軸與其兩端對應的極限位置之間距離大于某一設定值D,則判定可能有未搜索網格,并根據搜索網格的大小計算各個未搜索區域的坐標位置. 設在機器人當前坐標系Oo中有待搜索點P,它與Yo軸的夾角為αo,OoP長度為d,P點在當前坐標系Oo中坐標為Po=(yozoθo)T,θo為P點在當前坐標系Oo中的方位角.機器人當前坐標系原點Oo在基坐標系Ob中的坐標為Oob=(yobzobθob)T,θob為機器人當前坐標系原點Oo在基坐標系Ob中的方位角.待搜索點P在基坐標系中的坐標為Pb=(pbypbzθb)T,θb為待搜索點P在基坐標系中的方位角,由圖4得 yo=dcosαo (2) θb=θo+αo (3) 圖4 正交坐標平臺運動 每次研磨加工前,自主研磨機器人首先自動回到由直角坐標構成的移動平臺原點,即由相機A確定的待加工曲面的局部輪廓A′與相機B確定的待加工曲面的局部輪廓B′的交點,作為起刀點.然后根據相機B確定的待加工曲面的局部輪廓B′選擇沿著該輪廓向左或者向右進行加工,研磨工具頭加工到曲面邊界后,再根據相機A確定的待加工曲面的局部輪廓A′選擇向上或者向下進行走刀. 對于相機A確定的待加工曲面的局部輪廓A′與相機B確定的待加工曲面的局部輪廓B′,如果由兩者對應的輪廓特征得到的激光線出現了梯度變化大的情況,且超出了預先設定的誤差值,即判斷該處為局部輪廓A′或者局部輪廓B′邊界. 輪廓邊界判斷算法的基本步驟如下: (1)圖像預處理 目標輪廓如圖5(a)所示,利用Otsu大津閾值法[15]的最佳閾值對加工過程中采集的圖像進行預處理,并利用拋物線擬合法對激光線中心進行提取,獲得激光線的深度信息圖,即目標輪廓高度信息. (2)填充丟失的數據點與三次B樣條曲線擬合 由于提取的激光線是間斷的,如圖5(b)所示,對于這些間斷的激光線,可以應用三次均勻B樣條曲線算法對這些點進行擬合[14]. (3) 輪廓邊界判定 對于擬合后的三次B樣條曲線(圖5(c)),如出現梯度變化大的點,超出了預先設定的誤差值,即判斷該處為邊界. (a) 原始圖像 (b) 提取后的激光線 (c) 三次均勻B樣條曲線處理后激光線 圖5 局部輪廓的邊界 Fig.5 Local curve boundary 為了驗證本文自主搜索技術與基于待加工輪廓的選擇和邊界識別方法的可行性,選用了圖6所示的加工樣件,加工樣件為球面,球面的曲率半徑R=478 mm,底面為直徑為58 mm的圓. 分別獲取機器人在基坐標系的位置和加工的目標點在機器人當前坐標系的位置,通過式(2)與式(3),求取加工的目標點在基坐標系中的位置坐標. 以研磨機器人從加工樣件的中心開始加工為例,利用上述搜索方法加工曲面的實驗結果見圖7,加工軌跡分為4個區域,依次從A→B→C→D實現對整個區域的加工. 圖7 研磨機器人自主加工曲面實驗結果 本文針對正交雙目立體視覺的研磨機器人對未知待加工曲面的加工問題,提出了一種基于未知曲面的自主搜索方法.應用了基于模糊邏輯的自主搜索方法,該方法包括基于模糊邏輯的全區域覆蓋搜索算法和待加工曲面邊界確定算法.實驗過程驗證,上述算法可在任意位置開始搜索,并且具有較好的選擇走刀方向和加工區域的功能,并有效地解決了基于正交雙目立體視覺的研磨機器人的自主搜索問題,能夠很好地完成自主研磨機器人在未知曲面模型中搜索待加工區域的任務. [1] 高 峰,郭為忠. 中國機器人的發展戰略思考[J]. 機械工程學報, 2016,52(7):1-5. GAO Feng, GUO Weizhong. Thinking of the development strategy of robots in China [J].JournalofMechanicalEngineering, 2016,52(7):1-5. (in Chinese) [2] 肖 瀟,方勇純,賀 鋒,等. 未知環境下移動機器人自主搜索技術研究[J]. 機器人, 2007,29(3):224-228. XIAO Xiao, FANG Yongchun, HE Feng,etal. Autonomous search technology for mobile robots under unknown environments[J].Robot, 2007,29(3):224-228. (in Chinese) [3] 王醒策,張汝波,顧國昌. 基于勢場柵格法的機器人全局路徑規劃[J]. 哈爾濱工程大學學報, 2003,24(2):170-174. WANG Xingce, ZHANG Rubo, GU Guochang. Potential grid based global path planning for robots [J].JournalofHarbinEngineeringUniversity, 2003,24(2):170-174. (in Chinese) [4] 蔡自興,肖 正,于金霞. 動態環境中移動機器人地圖構建的研究進展[J]. 控制工程, 2007,14(3):231-235. CAI Zixing, XIAO Zheng, YU Jinxia. Advances on map building with mobile robots in dynamic environments[J].ControlEngineeringofChina, 2007,14(3):231-235. (in Chinese) [5] BISWAS J, VELOSO M. WiFi localization and navigation for autonomous indoor mobile robots [C] //2010IEEEInternationalConferenceonRoboticsandAutomation. Anchorage: IEEE, 2010:4379-4384. [6] JOHNSON A, LEGER P, HOFFMAN R,etal. 3D object modeling and recognition for telerobotic manipulation [J].JournalofEngineeringandAppliedScience, 1995,1(1):103-110. [7] HAMEL W R, KRESS R L. Elements of telerobotics necessary for waste clean up automation [C] //2001IEEEInternationalConferenceonRoboticsandAutomation. Seoul: IEEE, 2001:393-400. [8] RAMOS F, UPCROFT B, KUMAR S,etal. A Bayesian approach for place recognition [J].RoboticsandAutonomousSystems, 2012,60(4):487-497. [9] KALTSOUKALAS K, MAKRIS S, CHRYSSOLOURIS G. On generating the motion of industrial robot manipulators [J].RoboticsandComputer-IntegratedManufacturing, 2015,32:65-71. [10] 郭玉波,姚 郁. 雙目視覺測量系統結構參數優化問題研究[J]. 紅外與激光工程, 2006,35(z1):506-510. GUO Yubo, YAO Yu. Structural parameter optimization of binocular vision measuring system [J].InfraredandLaserEngineering, 2006,35(z1):506-510. (in Chinese) [11] SONG Weidong, MIAO Zhenjiang, WU Hao. Automatic calibration method based on improved camera calibration template [C] //5thIETInternationalConferenceonWireless,MobileandMultimediaNetworks,ICWMMN2013. Beijing: Institution of Engineering and Technology, 2013:301-305. [12] LI Jia, DUAN Ping, WANG Jinliang. Binocular stereo vision calibration experiment based on essential matrix [C] //Proceedingsof2015IEEEInternationalConferenceonComputerandCommunications,ICCC2015. Chengdu: IEEE, 2015:250-254. [13] 任秉銀,柴立仁,魏 坤,等. 正交雙目視覺長軸類零件裝配端位姿檢測方法[J]. 哈爾濱工業大學學報, 2017,49(1):60-65. REN Bingyin, CHAI Liren, WEI Kun,etal. A method for measuring 3D pose of assembly end of long shaft part using orthogonal binocular stereovision [J].JournalofHarbinInstituteofTechnology, 2017,49(1) :60-65. (in Chinese) [14] 王文忠. 新型自主研磨作業機器人系統的研究[D]. 長春:吉林大學, 2011. WANG Wenzhong. Research on a new robot system for autonomous grinding[D]. Changchun:Jilin University, 2011. (in Chinese) [15] 何志勇,孫立寧,黃偉國,等. 基于Otsu準則和直線截距直方圖的閾值分割[J]. 光學精密工程, 2012,20(10):2315-2323. HE Zhiyong, SUN Lining, HUANG Weiguo,etal. Thresholding segmentation algorithm based on Otsu criterion and line intercept histogram [J].OpticsandPrecisionEngineering, 2012,20(10):2315-2323. (in Chinese)


zo=dsinαo

3 研磨工具頭的軌跡規劃及待加工曲面邊界確定
3.1 研磨工具頭的軌跡規劃
3.2 待加工曲面邊界確定



4 實驗結果

5 結 語