999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于時空混合圖卷積網絡的機器人定位誤差預測及補償方法

2022-05-31 06:18:44廖昭洋胡睿晗周雪峰徐智浩瞿弘毅謝海龍
電子與信息學報 2022年5期

廖昭洋 胡睿晗* 周雪峰 徐智浩 瞿弘毅 謝海龍

①(廣東省科學院智能制造研究所 廣州 510070)

②(廣東省現代控制技術重點實驗室 廣州 510070)

③(華南理工大學機械與汽車工程學院 廣州 510641)

1 引言

高質量的制造技術是推動經濟增長的重中之重,得到制造業市場的進一步關注[1]。工業機器人作為智能制造的重要載體[2],具有工作空間大、加工柔性強、可在不同場景快速進行配置等優勢。另外,相比數控機床,工業機器人自由度多,且可以通過變位機、移動平臺等進行拓展,加工靈活性極高,在大型復雜構件的制造中具有巨大的發展潛力。在滿足加工質量要求的情況下,機器人加工能達到降低成本、提高效率的效果[3]。

然而,由于機器人關節處的裝配誤差以及由齒輪間隙和變形引起的誤差,使得機器人末端刀具中心點(TCP)的實際位置與編程設定的理想位置存在偏差,嚴重影響加工質量。該偏差稱為機器人的絕對定位誤差。一般來說,工業機器人的絕對定位精度低于±1 mm[4],使得機器人的作業精度低,難以滿足高精度工藝需求,限制了機器人在高精加工、精準操作等領域的進一步應用與推廣。由于機器人結構的影響,機器人的定位精度會隨著機器人在整個工作空間的位置和姿態變化而變化[5]。通常,在機器人作業前,會標定基坐標系,并在此坐標系下進行作業,從而減少了一部分的絕對定位誤差。但是,在機器人的大型復雜構件加工等大范圍復雜任務中,機器人需要進行大幅度的位置和姿態變化,使其定位誤差的大小及方向均發生大幅度變化,致使加工精度的控制變得異常困難。

對此,國內外學者對機器人絕對定位誤差的預測和抑制進行了大量的研究工作。在機器人定位誤差辨識通常采用機器人幾何參數標定的方法,機器人的定位誤差的標定可以分為模型標定[6]和無模型標定[7]。模型標定是當前較為常用的方法,首先通過建立的機器人參數模型,如DH模型(Denavit -Hartenberg)、改進DH模型以及PoE(Product of Exponential)模型[8]等,然后根據最小位置誤差原理或最小距離誤差原理進行機器人實際幾何參數標定,從而分析實際與理論之間的誤差情況。但是,這種方法一般將機器人看作理想的連桿模型,忽略了占總誤差近20%的非幾何誤差[9],包括齒輪間隙、裝配誤差、熱效應等。文獻[10]指出,經典的基于模型的機器人定位誤差標定方法只考慮了恒定的幾何誤差,忽略了軸承系統和齒輪的不均勻性等更為復雜的非幾何誤差,導致定位誤差預測效果受到限制。因此,近年來,數據驅動的機器人誤差預測方法得到許多學者的關注。這類方法不需要建立運動學參數模型,而是將機器人系統視為一個“黑匣子”,借助外部測量工具直接測量機器人定位誤差,然后采用神經網絡等智能算法建立機器人構型與末端誤差之間的映射關系,通過這種映射關系來估算末端點的誤差進而實現補償[11]。

Nguyen等人[12,13]指出由于非幾何誤差源(如連桿撓度誤差、關節柔度誤差、齒輪齒隙等)很難或不可能準確完整地建模,因此采用人工神經網絡(ANN)對這些難以建模的誤差進行補償,并利用擴展卡爾曼濾波(EKF)算法對機器人各個關節的幾何參數進行識別。將基于模型的EKF機器人幾何誤差識別與基于神經網絡的補償技術相結合,可以有效地解決所有機器人誤差源的校正問題。王龍飛等人[14]首先通過空間網格采樣方法證明機器人絕對定位誤差沿不同坐標系方向存在一定的變化規律,然后建立基于極限學習機(ELM)算法的機器人定位誤差預測模型,用于鉆孔精度補償。Li等人[15]提出了一種基于遺傳粒子群算法優化神經網絡的機器人定位誤差預測方法,并利用預測誤差對機器人末端位置進行補償,進而提升機器人機加工精度。周煒等人[16]指出機器人末端相鄰兩點的定位精度之間存在內在關系,這種特性稱為定位誤差相似性。利用誤差相似性,文獻[17]提出一種基于深度置信網絡的工業機器人位姿誤差的預測方法,建立了機器人末端位姿坐標與位姿誤差的映射模型。通過結合離線前饋補償方法,實現機器人絕對定位精度的提升。

可見,現有研究一般是將機器人的末端位置和姿態作為輸入,建立其與定位誤差之間的映射關系,從而預測機器人末端定位誤差。但是,由于6自由度機器人在同一末端位置和姿態時,會對應多個機器人的關節位姿組合,不同關節位姿組合下的末端定位誤差存在較大區別。因此,使用機器人關節空間下的機器人構型作為輸入,更能反映機器人定位誤差的分布規律。另外,關節構型之間的時間和空間關系與末端定位誤差存在較強的相關性,若能將數據之間的相對時空關系應用于機器人定位誤差的預測中,將提高機器人定位誤差預測的準確性。再者,對于機器人切削加工的誤差預測及補償,現有的方法大多只考慮了機器人末端位置定位誤差,而忽略了機器人末端的姿態定位誤差,使得誤差補償的效果不佳。

本文提出一種新的機器人定位誤差預測及補償方法,首先通過構建時-空混合的圖卷積神經網絡,建立機器人關節空間下6維關節坐標與笛卡兒坐標系下機器人末端6維位姿誤差之間的映射關系;然后,分析機器人末端位置與姿態誤差對刀具中心點作業誤差的影響,并將機器人定位誤差補償問題轉化為帶約束下的高維尋優問題,利用遺傳算法進行誤差補償;最后,通過拉丁超立方抽樣方法獲得訓練集,構建機器人定位誤差預測網絡,并通過測試集驗證了定位誤差預測的準確性以及補償的效果。

2 基于時空混合圖卷積網絡的機器人位姿誤差預測

機器人在運動過程中,末端位姿以及構型空間下的關節坐標信息與時域和空間域相關,對于機器人位姿誤差的預測具有重要作用。其中,時域相關信息為不同抽樣點之間的運動順序關系,而空間域依賴信息為關節坐標信息之間的非歐氏距離。因此,本文提出了時空混合圖網絡,首先設計圖關系編碼模塊提取多維位姿信息的隱藏相關特征。然后,設計時空混合特征解碼模塊,其中采用圖傅里葉變換過程提取時域特征信息,采用離散傅里葉變換過程提取空間域特征信息。時空混合圖卷積網絡的網絡結構如圖1所示。

圖1 時空混合圖卷積網絡結構圖

2.1 圖關系編碼模塊

2.2 時空混合特征解碼模塊

由于出色的隱空間特征學習能力,時空混合特征解碼模塊采用了圖譜卷積操作[20]作為基本計算單元,針對圖權重信息矩陣W進行建模。在時空混合特征解碼模塊中,首先采用圖傅里葉變換過程提取圖權重信息矩陣W中的空間域特征信息。圖傅里葉變換采用正則化的圖拉普拉斯的特征向量作為基元,映射輸入圖信息到正交空間中

針對拉普拉斯矩陣進行特征值分解,L=UΛUT,其中U和Λ分 別代表對角矩陣D的特征向量和對角矩陣。在圖權重信息矩陣W中,單通道的機器人關節信息對于每個圖節點變成了線性獨立關系。

此外,在圖傅里葉變換的輸出端,設計時域特征提取Block,目的是轉化各關節序列的時序信息到頻率特征。在時域特征提取Block中,首先基于三角函數作為基底,采用離散傅里葉變換過程,提取不同時間戳內關節移動內部頻率信息;針對每一通道的關節頻率數據,在執行離散傅里葉逆變換過程重新轉化為時域信息之前,引入1D卷積層和GLU層提取頻率信息特征;值得注意的是,GLU層為門限線性層,在卷積層中引入門限機制。最后,時域特征提取Block的輸出端應用圖卷積操作,執行圖傅里葉逆變換。

最后,采用了兩個分支的全連接層網絡計算偏移估計輸出Y? 和回溯輸出X?。因此,時空混合圖卷積網絡的損失函數可以設計為回溯輸出和預測輸出的差異

3 機器人作業誤差補償

3.1 機器人位姿誤差分析

在機器人操作中,機器人的末端一般需要安裝末端執行器,進而執行各種不同的任務。在任務規劃中,一般會將工具坐標系指定在末端執行器上,其稱為工具中心點(TCP)。而機器人操作過程中的位姿誤差,即為工具坐標系沿著規劃的軌跡運動時,TCP點與期望位置及姿態的偏差值。由于工具坐標系與機器人末端坐標系的偏移關系,TCP的位置誤差會同時受到機器人末端的線位移誤差和角位移誤差的影響[21]。假設機器人末端執行器不產生額外的誤差,機器人末端位置與姿態誤差導致末端執行器產生偏差,從而導致TCP點產生偏差,如圖2所示。刀具中心點位置和姿態偏差為

圖2 機器人末端誤差與末端執行器誤差關系

可見,當機器人安裝末端執行器的長度越大時,末端位姿誤差對機器人作業的位置精度影響越大,因此,需要對機器人位置和姿態同時進行補償,以獲得更高的作業精度。

3.2 機器人定位誤差補償方法

一般誤差補償的流程包括:當前位置的誤差預測、根據誤差大小和方向進行位置補償,由于位置補償后會產生新的誤差,單次補償后往往會導致新的誤差,進而導致誤差補償效果不佳,如圖3所示。針對這樣的問題,一般需要多次迭代計算獲得滿足要求的結果。但是,在本文第2節構建的機器人位姿誤差模型中,輸入參數為機器人的關節坐標,在進行TCP位置調整時,需要經過機器人逆運動學解算,導致多次迭代時計算時間長、效率低的問題。

圖3 誤差補償與誤差相互耦合的情況

對此,本節基于機器人位姿誤差預測模型,將補償問題轉換為優化問題來解決,進而減少機器人逆運動學解算的次數,具體流程如下。首先根據理想的末端位姿,通過逆解獲得理想的機器人構型;然后,在設定范圍內進行尋優,并根據第2節的機器人位姿誤差預測模型,計算出預測機器人位姿;然后,根據預測情況,判斷當前關節坐標是否達到位姿精度要求。對此,構造優化目標函數為度信息;然后關節角度在理想值附近一定的范圍內,并滿足機器人關節限位。在本文的問題中,根據誤差值大小,尋優范圍為理想關節坐標的±5°,尋優算法采用遺傳算法,直接運用Matlab軟件中的工具箱進行。在尋優迭代的過程中,只需要執行機器人的正運動學計算,避免了頻繁逆解造成的效率下降。

4 仿真驗證與分析

4.1 實驗平臺

在本文的定位精度測試實驗中,測量對象為KUKA公司的KR210 R2700工業機器人,如圖4所示。而測量系統采用了美國精密工程公司(API)的Radian型號激光跟蹤儀以及安裝在機器人末端執行器上的3個固定靶標作為外部測量工具,還包括數據采集器、數據采集和分析軟件。3個靶標相對機器人末端坐標系的位置已經通過激光跟蹤儀提前測量。通過對3個靶標位置的測量,可以同時獲取機器人末端的位置與姿態。

圖4 機器人定位精度測量平臺

4.2 基于拉丁超立方采樣的樣本獲取

在神經網絡的訓練中,訓練樣本的獲取是保證模型預測精度最關鍵的因素之一。在本文中,誤差預測模型的輸入參數為機器人的關節角度,輸出參數為機器人的位置與姿態定位誤差。由于本文采用激光跟蹤儀對機器人定位誤差進行測量,為了保證測量精度,需要保證所有被測點始終在跟蹤儀的視野范圍內。因此,此處采用拉丁超立方抽樣(Latin Hypercube Sampling, LHS)方法[22]在笛卡兒空間中采集訓練樣本。LHS法基于分層隨機的思想,其一般步驟為:(1)設變量維度為n,將每個維度變量按其變化范圍,等分為m個子區間,并在子區間內隨機選取一個值,從而每個維度變量得到m個值;(2)將各個維度變量的m個值隨機互相組合,形成m個維度為m的向量,作為抽樣樣本。LHS法能夠保證每一個變量在其范圍內均勻全覆蓋,避免了傳統的隨機抽樣方法中數據過度聚集的問題。如圖5所示,我們選取了機器人工作空間中盡量大的立方體區域作為抽樣空間,尺寸為800 mm×1200 mm×1000 mm,而機器人末端姿態角的范圍為[–15°,15°]。通過LHS法進行6維的抽樣,抽樣數量為2000,抽樣的結果如圖6(a)和圖6(b)所示,機器人末端位置與末端姿態的組合即為抽樣點的位姿。另外,為了測量過程的高效性,抽樣點的遍歷可以看作旅行售貨商問題(TSP)。本文根據抽樣點的歐氏距離構造相似性矩陣,并通過LKH算法[23]進行求解,以減少測量過程中機器人頻繁變化造成的時間浪費。

圖5 機器人笛卡兒空間采樣范圍

圖6 笛卡兒空間內LHS抽樣結果

4.3 模型訓練及驗證

基于2000個抽樣數據樣本,其中1800個樣本用于訓練,200個樣本用作測試驗證。圖7(a)展示了時空混合圖卷積網絡訓練和驗證過程,其中藍色曲線代表時空混合圖卷積網絡的訓練過程,橙色曲線代表時空混合圖卷積網絡的驗證過程。時空混合圖卷積網絡的訓練損失值從0.9下降到0.05;空間圖卷積網絡的驗證損失值從0.38下降到0.05。最終,隨著迭代次數增加到30,訓練損失值和驗證損失損失值均收斂到接近值。由圖7可以看出,時空混合圖卷積網絡無論是在訓練集還是測試集上,均取得了顯著性的收斂信息。

圖7 時空混合圖卷積網絡和7層卷積網絡訓練過程對比

圖8(a)—圖8(f)分別表示時空混合圖卷積網絡在X軸、Y軸、Z軸、α角、β角、χ角方面,實際誤差值和補償后誤差擬合度的表現情況對比。其中藍色點代表實際誤差值,紅色直線代表將補償后誤差進行線性回歸后的可視化圖像。R2代表擬合度,作為衡量實際誤差和補償誤差的擬合程度,被廣泛使用[24,25]。由回歸平方和與總離差平方和之比值決定。從圖8可以看出,時空混合圖卷積網絡在X軸、Y軸、Z軸、α角、β角、γ角的擬合度分別達到了0.928,0.932,0.973,0.978,0.999,0.962。

圖8 時空混合圖卷積網絡的實際誤差與預測誤差值對比

另外,為了體現上述網絡的效果,構建了7層卷積網絡作為對比方法。7層卷積網絡由2層卷積層、2層池化層和3層全連接層構成。卷積層采用了1維卷積核,池化層采用了1維最大池化層。7層卷積網絡的網絡配置如表1所示。

表1 7層卷積網絡的網絡配置

其中卷積網絡的配置Conv1D (. , . , .)分別表示卷積模板數量、卷積核尺寸和激勵函數;池化層的配置Pooling1D ( . )表示池化步長;全連接層的配置Dense ( . )表示全連接層神經元數量。

首先,將時空混合圖卷積神經網絡和7層卷積神經網絡在訓練中的損失函數進行了對比,如圖7(a),圖7(b)之間的對比可見,時空圖卷積神經網絡在迭代到第10次時實現穩定收斂;而7層卷積網絡則用了20次迭代。由此看出,時空圖卷積神經網絡相比于7層卷積網絡,計算效率更高。然后,如表2所示為兩個模型在誤差預測性能中的對比。可以看出,對于測試數據,本文網絡中機器人的位姿誤差預測偏差為0.0114;而7層卷積網絡的為0.0526。可見,時空圖卷積神經網絡的預測準確率更高。

表2 7層卷積網絡的網絡配置

4.4 機器人定位誤差補償效果驗證

根據機器人位姿誤差預測模型,計算出測試點的誤差值,并進行誤差補償。補償后的機器人位姿重新輸出到機器人控制器中,并利用激光跟蹤儀對其位置和姿態的誤差進行測量,與理想位姿進行對比,即可獲得補償后的機器人位姿誤差。誤差補償后,3個軸向的線位移誤差以及基坐標系下角位移誤差如圖9所示。可以看出,機器人的位姿誤差均得到較好的抑制,總位置誤差從最大2.75 mm降低到了0.56 mm,姿態誤差從最大0.39°,降低到了0.18°,分別降低了79.6%及53.8%。試驗結果表明,本文的誤差預測及補償方法能夠有效提高機器人的位置和姿態定位精度。

圖9 補償前后機器人位姿誤差結果

5 結論

針對工業機器人定位精度低的問題,本文首先構建了基于圖關系編碼模塊和時空混合特征解碼模塊的圖卷積神經網絡,建立了機器人關節空間關節坐標與笛卡兒空間位姿坐標的映射關系,實現了機器人位姿誤差的預測;然后,在此基礎上,分析了機器人構型誤差對機器人末端執行器定位精度影響情況,進而實現機器人定位誤差補償,提高機器人定位精度;在實驗驗證中,在機器人定位精度測量系統搭建的基礎上,建立了基于拉丁超立方抽樣方法的數據采集方法。通過對機器人位置與姿態誤差預測及補償效果的驗證,證明了本文算法的有效性。

主站蜘蛛池模板: 亚洲欧美国产五月天综合| 欧美午夜一区| 亚洲免费成人网| 这里只有精品在线| 亚洲国产精品不卡在线| 亚洲成人在线网| 久热99这里只有精品视频6| 在线a视频免费观看| 永久免费精品视频| 伊人久久大线影院首页| 国产午夜人做人免费视频| 伊人婷婷色香五月综合缴缴情| 老汉色老汉首页a亚洲| 国内精品一区二区在线观看| 亚洲另类国产欧美一区二区| 丁香婷婷久久| 亚洲 欧美 日韩综合一区| 四虎成人精品| 91小视频版在线观看www| 久久精品国产999大香线焦| 免费人成视频在线观看网站| 国产成a人片在线播放| 72种姿势欧美久久久大黄蕉| 亚洲资源站av无码网址| aⅴ免费在线观看| 亚洲午夜综合网| 一级成人a做片免费| 国产在线麻豆波多野结衣| 久久久国产精品无码专区| 国产午夜精品鲁丝片| 日本精品视频| 五月婷婷精品| 一级成人a毛片免费播放| 日韩精品免费在线视频| 欧美日韩在线国产| 亚洲人成网18禁| 四虎成人免费毛片| 中文成人无码国产亚洲| 午夜日韩久久影院| 久青草免费在线视频| 色综合热无码热国产| 永久免费av网站可以直接看的 | 国产麻豆91网在线看| 青青青国产免费线在| 丁香婷婷综合激情| 久久激情影院| 波多野结衣第一页| 免费一级毛片不卡在线播放| 国产亚洲精品yxsp| 亚洲,国产,日韩,综合一区| 精品国产免费观看一区| 中文字幕亚洲综久久2021| 国产成人综合网| 欧美日本在线观看| jijzzizz老师出水喷水喷出| 欧洲亚洲欧美国产日本高清| 黄色国产在线| 久久精品免费国产大片| 香蕉综合在线视频91| 国产h视频免费观看| 亚洲欧美人成电影在线观看| 19国产精品麻豆免费观看| 国产91小视频| 亚洲丝袜第一页| 99视频在线免费| 中文无码伦av中文字幕| 亚洲女同一区二区| 国产xxxxx免费视频| 亚洲天堂网在线观看视频| 国产理论一区| 国产精品lululu在线观看| 亚洲成网站| 亚洲精品国产精品乱码不卞| 无码福利视频| 国产在线拍偷自揄拍精品| 色综合国产| 国产在线专区| 国产欧美日韩精品第二区| 日韩高清中文字幕| 国产成人免费观看在线视频| 伊人精品视频免费在线| 亚洲天堂视频网|