岳曉峰 陽建峰 馬國元 曹 斌
(長春工業大學機電工程學院 長春 130012)
近年來,機器人視覺伺服控制成為了機器人領域內一大熱點[1~4]。機器人視覺伺服的概念最早是由HILL 和PARK 提出的,指利用視覺圖像系統采集并處理圖像,構造反饋信息來實現對機器人的控制,形成機器人閉環控制[5]。根據目標函數中所選擇的反饋信號可分為基于位置的視覺伺服(position based visual servoing,PBVS)、基于圖像的視覺伺服(image based visual servoing,IBVS)以及混合視覺伺服(homography based visual servoing,HBVS)[6]。機器人視覺伺服研究大都集中在通過標定攝像機模型和機器人模型來實現控制,但在某些特定環境中難以實現對視覺伺服控制系統的精確標定。國內外研究人員提出了無標定視覺伺服控制方法,無標定視覺伺服是指在攝像機和機器人的部分或全部參數未知的情況下,直接通過圖像誤差信息來設計控制規律,控制機器人運動[7]。
機器人無標定視覺伺服最重要的問題是對于復合雅克比矩陣的求解,常用的方法是采用非線性優化方法求解機器人末端執行器與目標圖像的特征之間的二次誤差函數,從而得到復合雅克比矩陣。文獻[8]基于智能算法的機器人無標定視覺伺服問題,提出了一種新的基于最小二乘支持向量回歸的機器人無標定視覺免疫控制方法;文獻[9]提出了一種基于圖像雅克比模型辨識的微裝配機器人無標定視覺伺服結構和控制算法;文獻[10]提出了一種基于自適應kalman 濾波的機器人無標定6自由度視覺定位方法;文獻[11]基于動態BFGS(Broyden-Fletcher-Goldfarb-Shanno)法,研究了一種針對運動目標進行實時跟蹤的無標定視覺伺服控制方案;文獻[12]提出一種適用于移動機械手無關節狀態反饋情況的基于人-機-機協作(HRRC)的無標定視覺伺服控制系統;文獻[13]將圖像雅可比矩陣作為系統狀態,采用kalman 濾波器對系統進行觀測,同時采用同步擾動隨機逼近算法優化濾波器參數,估計出圖像雅可比矩陣,實現機器人的無標定視覺定位;文獻[14~15]分別針對動態目標和離散情況下的機器人無標定視覺伺服系統進行仿真驗證。已有的研究多集中在傳統的逆雅可比矩陣方法的優化改進上,雅可比矩陣本質上是一種局部的和線性的求解方式,本文提出了一種基于遺傳優化的RBF 神經網絡的機器人無標定視覺伺服控制方法。利用RBF 神經網絡具有全局性和非線性最佳估計的特征,學習圖像特征變化速度和機器人關節角變化速度之間的非線性關系,擬合復合雅可比矩陣,采用遺傳算法對RBF神經網絡的參數優化,提高訓練效率,較已有的逆雅可比矩陣方法更精確。
基于圖像的視覺伺服控制系統與基于位置的視覺伺服控制系統相比,可以避免基于位置的視覺伺服控制系統中目標在三維空間中的位姿估計環節,降低計算時延,消除了基于位置的視覺伺服控制系統的缺點。基于圖像的視覺伺服控制系統因為其優越性被應用更廣泛,如圖1 所示。而要依據圖像中包含的信息來控制機器人末端執行器達到期望位姿,先需要采集圖像并對目標圖像進行特征提取,通過計算期望圖像特征與當前圖像特征之間的誤差,通過視覺控制器的映射關系,將該誤差轉換為機器人關節角的值,輸入到機器人控制器,從而產生對應的伺服命令來控制機器人末端執行器到達理想位置。

圖1 基于圖像的視覺伺服控制
基于圖像的機器人無標定視覺伺服系統通常是基于圖像雅克比矩陣的方法獲得反映圖像特征變化量與機械手位姿變化之間的對應映射關系,得到從關節空間到圖像特征空間的直接映射。
手眼無標定視覺伺服控制系統大多采用圖像雅可比矩陣的方法,圖像雅可比矩陣描述了機器人空間中的運動與圖像特征空間中的運動之間的關系,可表示為:


而機器人關節角速度q?與手爪位姿變化率r?之間有下式雅可比矩陣關系,可得:

由上可知,圖像特征變化率f?與關節角速度q?間也有圖像雅克比矩陣關系,即:

其中式(2)、式(6)是圖像雅克比矩陣的兩種表達方式,構造出機器人手眼無標定視覺伺服控制的基礎。
視覺伺服控制系統中的核心問題在于對視覺控制器的設計。本文設計了一種基于遺傳算法優化RBF神經網絡視覺控制器,通過輸入的圖像特征變化速度值以及輸出機器人關節角度變化速度值的樣本,對其學習訓練,擬合出視覺控制器的映射關系,避免了傳統的逆雅可比矩陣方法中存在的求解過程復雜、奇異性等問題。
RBF 神經網絡是一種具有全局逼近性能和最佳逼近能力的前向網絡。能夠消除BP神經網絡學習過程中收斂過分取決于初值和可能會導致的局部收斂問題,具有更快的運算速度、更強的非線性映射能力以及更好的預報效能,RBF神經網絡的訓練樣本與測試樣本均由機器人運動和攝像機圖像特征提取得出。RBF 神經網絡構型為具有三層的網絡結構,即輸入層、隱層、輸出層。設計該網絡輸入層節點為8,隱含層節點為10,輸出節點為6。本文以空間矩形為目標,選取4 個頂點作為圖像特征點,圖像空間的特征向量是8 維的。RBF 神經網絡的輸入為當前圖像特征與期望圖像特征之間的誤差:[ ]Δx1,Δy1;Δx2,Δy2;Δx3,Δy3;Δx4,Δy4,輸出為相應的機器人關節角的變化:[Δq1,Δq2,Δq3,Δq4,Δq5,Δq6]。

圖2 徑向基函數神經網絡
GA-RBF神經網絡算法的核心思想:對RBF神經網絡訓練之前,先用遺傳算法在可用群體內優化網絡權值w、高斯函數h 的中心矢量c 和基寬向量b 的初值。而后通過樣本集對遺傳優化過參數的RBF 神經網絡進行訓練。遺傳優化過的參數可以降低RBF 神經網絡實際輸出和期望輸出之間的誤差,從而提高訓練效率,避免因為這些參數初值選擇不合理造成精度下降。
遺傳優化RBF神經網絡算法流程:
第一步:對RBF神經網絡與遺傳算法參數初始化,將需要優化的RBF神經網絡參數進行編碼;
第二步:初始化種群,將二進制表示的參數轉化為實數,求每個個體的總誤差,對誤差排序,求出適應度值,得出最佳適應度值及最佳個體;
第三步:進行選擇、交叉、變異操作,得出遺傳優化的RBF神經網絡參數;
第四步:取遺傳優化的RBF 神經網絡參數,設定學習系數,對RBF 神經網絡進行訓練,擬合出圖像特征變化速度與機器人關節角變化速度間的非線性關系。
遺傳優化RBF神經網絡流程圖如圖3所示。

圖3 GA-RBF算法流程圖
根據圖1 建立仿真模型,利用遺傳優化的RBF神經網絡視覺控制器實現圖像空間到關節空間的變換,進而控制機器人的運動,對三維空間中的一個固定的正方體進行定位。機器人型號采用Puma560,它有6 個自由度,模型見圖4。整體系統包含逆雅可比矩陣求解,神經網絡學習訓練以及機器人視覺伺服控制三部分。
1)先依據圖1 所示基于圖像的視覺伺服控制圖建立傳統逆雅可比矩陣視覺控制器的圖像視覺伺服仿真系統,進而完成機器人視覺平面跟蹤。其中J+是用來計算圖像特征和關節角之間的關系。該仿真模型中的分別采用puma560 機器人正運動學模塊、針孔模型攝像機、圖像雅可比矩陣模塊、機器人雅克比矩陣模塊、增益模塊、積分變換模塊。運行仿真模型時,記錄圖像特征的誤差和相應關節角的變化作為訓練樣本。
2)圖4 所示仿真模型中的基本參數設置:目標四個點在機器人基坐標系的位置坐標為;期望的圖像特征為Puma560 的 初 始 關 節 角q0=[0 0.7854 3.1416 0 0.7854-0.7854]T。攝像機采用針孔模型,焦距f 為8mm ,圖像中心點為(512,512)。控制增益為0.25。
3)根據圖2 中RBF 神經網絡結構和圖3 建立GA-RBF 神經網絡模型。將上述仿真模型中記錄的圖像特征誤差和相應關節角的變化中400 組樣本訓練網絡,以102 組樣本測試網絡性能,與傳統的基于逆雅可比矩陣方法得出的圖像特征誤差比較。
如圖5 所示為圖像特征運動軌跡。可以看出圖 像 特 征 的 最 終 位 置 的 像 素 值 為[611 412;411 413;412 613;612 612]。

圖4 基于圖像的無標定視覺伺服控制仿真結構圖

圖5 圖像特征運動軌跡
圖6 所示為基于逆雅克比矩陣方法六自由度機器人各關節角軌跡。圖7 所示為基于逆雅克比矩陣關節速度變化。
圖8 所示為GA-RBF 中遺傳算法迭代過程,圖9所示為三種算法輸出值二范數的比較,圖10所示為GA-RBF與RBF算法輸出值誤差二范數的比較,可知GA-RBF 算法比RBF 算法具有更好的擬合逼近效果。本文提出的GA-RBF 方法可以有效避免傳統的基于逆雅可比矩陣方法中求解逆雅克比矩陣存在的問題,實現機器人無標定視覺伺服控制。

圖6 基于逆雅克比矩陣方法關節角軌跡

圖7 基于逆雅克比矩陣方法關節速度變化

圖8 GA-RBF中遺傳迭代過程

圖9 輸出值二范數

圖10 輸出值誤差二范數
在機器人無標定視覺伺服控制中,由于求解復合雅可比矩陣計算過程復雜,本文提出一種遺傳優化RBF神經網絡的視覺控制器,采用遺傳優化RBF神經網絡逼近復合雅可比矩陣的方法,從而控制六自由度機器人完成視覺跟蹤任務。仿真結果表明,所提算法相比于逆雅可比矩陣求解而言,可以保證精度以及RBF神經網絡的訓練速率,從而使系統在很短的時間內達到理想的位置,說明此方法簡單有效。