王晶航 韓江桂 張文群 孫颙琰
(海軍工程大學動力工程學院 武漢 430033)
機械臂的自主抓取大多是基于視覺的控制[1~2]。當前,對于復雜環境的非結構化,再加上被抓取模型的不確定性,使得機械臂的自主抓取難度大大提升[3]。解決這一問題的首要任務就是要解決機械臂自身的感知系統或者借助于外部設備實現機械臂的感知。微軟研制的Kinect V2 RGB-D傳感器能夠提供二維和深度圖像的信息,因此可以運用Kinect V2來進行研究[4]。當前,國內外不少學者對機械臂自主抓取進行分析研究,叢明等[5]利用機器視覺進行定位導航(SLAM)[6~7];Kriminger[8]等利用Online active learning進行自主的目標檢測[9];針對機械臂在非結構化的動態環境,Yuan,C[10]等提出了EBG-RRT算法高效地實現了路徑重規劃[11~12]。
本文借鑒了Kinect V2視覺傳感器在機器人系統中的應用,利用其能夠同時提供二維圖像及深度信息的特性,簡化了目標檢測的內容,并通過RRT-Connect算法,完成機械臂的運動軌跡規劃,從而最終實現了機械臂系統自主完成目標抓取的功能。本文在ROS環境下,將機械臂的仿真模型建立在Rviz和Gazebo環境中,最后完成Rviz和Gazebo聯合仿真的實驗,對機械臂的物體識別和抓取技術進行研究。
本文的機器人系統是由Kinect V2 RGB-D傳感器、機械臂系統及主控計算機組成[12],其中機械臂系統又包括機械臂AUBO-i5和Robotiq兩指夾爪。整個系統的模型如圖1所示。

圖1 系統模型
系統中的視覺傳感器為微軟公司研發的Kinect V2 RGB-D傳感器。Kinect V2 RGB-D傳感器主要由一個普通的RGB攝像頭、一個紅外發射器、一個紅外攝像頭以及一組麥克風陣列組成[13]。……