999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進的神經網絡算法在裝配過程中的應用

2021-04-24 11:06:02陸坤龍
科學技術創新 2021年8期
關鍵詞:測量融合信息

陸坤龍 王 一

(華北理工大學電氣工程學院,河北 唐山063200)

在裝配過程中,產品工件笨重且組裝環節繁多,加上測量定位方面的精度問題,導致機器人裝配效率和精度低下。[1-2]。應運而生的是多視覺信息融合技術應用在了機器人自動裝配流程中解決機器人裝配過程中的問題。利用多個視覺傳感器對工件進行不同方位的定位,進而引導機器人執行相關動作,在這個過程中涉及到把各個傳感器的有用信息融合到統一坐標系下的問題[3-5]。目前,一些改進的新算法實質上是主要通過各種不同的方法共同作用來實現相互加強的目的。例如,模糊神經網絡方法不僅增強了神經網絡的算法魯棒性,還填補了模糊邏輯自適應能力的缺點[6]。雖然現在可以集成許多不同類型的傳感器來進行信息綜合,彌補單個傳感器信息不足的問題,但是,融合過程卻浪費了很多系統資源。文獻[7]提出了一種改進的D-S 參數理論算法,該方法比原算法多了一個距離因子,這增強了傳感器采集數據時的穩定性。文獻[8]提出了基于任務的神經網絡多傳感器數據融合的新方法,該方法在全面比較和分析了遙控機器人執行不同任務過程中的效果后,進而優化了神經網絡算法。結合本文研究內容特點,針對設計的視覺輔助系統采用改進型自適應BP 神經網絡算法對多個視覺傳感器采集到的視覺信息進行融合,從而為機器人提供視覺信息。

1 視覺輔助結構設計

本文主要對柔性裝配系統的視覺感知部分進行了設計。視覺感知系統主要有十字結構、光視覺傳感器和雙目視覺傳感器。雙目視覺傳感器作為待裝配物的遠視場測量裝置,得到待裝配物的遠位姿信息后,引導執行機構到達合適的裝配位置,之后啟動十字結構光傳感器對待裝配物進行二次位姿測量,其測量的結果與雙目視覺傳感器測量的位姿結果相融合,得出待裝配物的精確位姿信息,進而二次引導機器人進行準確的裝配動作。

2 視覺信息融合算法

2.1 自適應BP 神經網絡信息融合算法

本文提出的自適應改進BP 神經網絡信息融合算法不僅考慮到了原始BP 神經網絡的學習性能的高低,還優化了原始算法的復雜程度以及應用性能等問題。針對傳統自適應算法的不足之處,本文的改進型BP 神經網絡新方法采用了差異化的學習率,不僅能夠動態地調整著不同節點之間的連接權重數值,還能使得收斂誤差函數所需的時間減少。在改進的BP 神經網絡中,閾值是隨著權值變化的,并且將變化的閾值引入到權值的矩陣中進行再計算,形成一個反饋閉環。自適應BP 神經網絡算法實現過程如下:

第一步,算法初始化。

在軟件里面確定好三層的神經網絡后,再開始選擇合適的參數預設值。要進行設定的參數有:學習速率,誤差精度,權重矩陣。設定好后對這些參數進行訓練學習。

第二步,正向傳播誤差的求取。

首先把準備訓練的樣本進行分組,然后按照分組順序對樣本進行訓練,并記下訓練出的正向傳播誤差。

第五步,使用新權重進行正向傳播訓練,并更新網絡誤差。

第六步,BP 網絡迭代學習完成后,記錄最終值。

2.2 基于視覺信息融合的位姿估計方法設計

本文采用的是兩個組合式視覺傳感器進行數據采集的,雙目視覺傳感器位于機械臂之外,相對機器人基座是固定的,遠距離測量范圍比較大,處于0.3m-5m 之間。十字結構光傳感器是屬于近距離測量,測量范圍處于0.1m-0.3m 之間。雙目視覺傳感器的作用是預先測量被測物位姿信息引導機器人達到待裝配位置,然后待十字結構光傳感器也測量出待裝配物信息后,結合近測量信息進行信息融合,從而對近距離測量的結果進行一個精度補償。繼續配合十字結構光傳感器對機器人進行姿態調整,直到裝配精度符合預期值。其具體的算法流程如圖1 所示。

圖1 視覺信息融合算法流程圖

3 裝配測量實驗及結果分析

實驗平臺由KUKA 機器人及控制系統、十字結構光傳感器、雙目視覺傳感器、機器人末端工具鉛筆、標準方塊、計算機和三維位移臺組成。實驗的檢測結果如表1 所示,以示教對準結果為真實值,其他方式的引導結果為測量值,并且所有坐標結果都是相對于機器基坐標系而言的。

機器人在不同的引導方式下,從表1 中可以看出雙目視覺單獨引導效果最差,因為受到實驗條件和光線影響使得圖像配準效果欠佳,得到的標準塊的位姿信息不是太精確;十字結構光傳感器單獨引導精度明顯比雙目視覺引導精度要好,因為與雙目視覺傳感器相比,除了實驗條件一樣的情況下,十字結構光傳感器能夠自身打出激光線,形成自己獨有的特征線,有效的降低了外界光線對圖像處理過程中的干擾;信息融合后的引導精度最接近于示教引導效果,這也說明了本文視覺信息融合方法的有效性。

表1 對準實驗數據

在驗證了視覺信息融合方法有效性的基礎之上,為了更好的說明其性能,再驗證其引導誤差的收斂性。本文利用位移臺對標準塊進行多次位置改變,其幾何中心也會隨之改變,每次改變標準塊姿態之后,用視覺信息融合方法對其對準性進行驗證。記錄標準塊在不同位姿下的引導次數和每次引導對準數據,本次實驗對四種不同姿態下的標準塊進行對準實驗,具體數據如圖2 所示。

把示教的數值當成0 基線數值,那么每次引導的效果都是相對于基線來說的,通過擬合曲線可以看出,隨著擬合引導次數的增加,也就是機器人調整姿態次數的增加,引導誤差越來越趨近于基線,每種姿態下的測量誤差基本都在距離基線0.41mm 處穩定下來。這說明整個系統重復運作引導性能較好,融合算法具有良好的魯棒性能。

圖2 引導誤差曲線

4 結論

本文針對機器人裝配領域一直以來存在的裝配精度不高、裝配效率慢、次品率多等問題,制定了合理的視覺測量系統方案,為機器人提供精確的實時位姿引導信息。為了使視覺信息得到充分利用和提高裝配精度,提出了一種基于自適應BP 神經網絡的視覺信息融合算法。實驗結果表明融合算法引導結果最接近于示教結果,體現了本文提出的視覺信息融合算法的準確性和魯棒性能。

猜你喜歡
測量融合信息
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
融合菜
從創新出發,與高考數列相遇、融合
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
把握四個“三” 測量變簡單
滑動摩擦力的測量和計算
滑動摩擦力的測量與計算
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
測量
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
主站蜘蛛池模板: 亚洲欧美人成电影在线观看| 东京热高清无码精品| 激情网址在线观看| 精品一区二区三区波多野结衣 | 97久久超碰极品视觉盛宴| 波多野结衣一区二区三区AV| 亚洲国产天堂久久综合226114 | 日本国产一区在线观看| 爆操波多野结衣| 国产a v无码专区亚洲av| 国产综合在线观看视频| 免费jjzz在在线播放国产| 国产在线一区二区视频| 玩两个丰满老熟女久久网| 免费AV在线播放观看18禁强制| 免费一级大毛片a一观看不卡| 黄色网站在线观看无码| 九九久久99精品| 亚洲福利视频网址| 欧美视频在线不卡| 日本a级免费| 日韩人妻无码制服丝袜视频| 爽爽影院十八禁在线观看| 人妻中文久热无码丝袜| 国产无码精品在线播放| 亚洲欧美日韩另类在线一| 国产一级小视频| 99re经典视频在线| 国产黄网站在线观看| 丁香五月亚洲综合在线 | 免费在线成人网| 青青草国产一区二区三区| 国产高清精品在线91| 亚洲综合一区国产精品| 激情综合婷婷丁香五月尤物 | 久久久久亚洲Av片无码观看| 亚洲午夜福利精品无码| 欧美 国产 人人视频| 99在线视频免费| 欧美啪啪网| 日韩大片免费观看视频播放| 天天综合色天天综合网| 在线无码av一区二区三区| 亚洲国产中文精品va在线播放| 国产毛片网站| 啪啪啪亚洲无码| 色综合a怡红院怡红院首页| 色综合手机在线| 天堂成人在线视频| 国产麻豆91网在线看| 一区二区三区四区精品视频| 国产二级毛片| 欧美成人免费午夜全| 国产精品一线天| 免费人欧美成又黄又爽的视频| 欧美日韩国产在线播放| 日本午夜精品一本在线观看| 亚洲va视频| 国产免费久久精品99re不卡| 成年看免费观看视频拍拍| 人妻无码AⅤ中文字| 久久免费观看视频| 成人综合久久综合| 2021亚洲精品不卡a| 美女扒开下面流白浆在线试听 | 国产乱肥老妇精品视频| 99视频全部免费| 午夜福利在线观看成人| 欧美日韩国产在线人成app| 熟妇丰满人妻| 99re热精品视频国产免费| 欧美97色| 日韩国产 在线| 色婷婷亚洲综合五月| 欧美成人看片一区二区三区| 丁香六月激情婷婷| 久久国产av麻豆| 日韩天堂在线观看| 999福利激情视频| 国产精品不卡永久免费| 国产粉嫩粉嫩的18在线播放91| 亚洲v日韩v欧美在线观看|