□ 顧 勇 □ 袁鴻斌 □ 吳小濤
1.杭州師范大學(xué) 錢江學(xué)院 杭州 310036 2.杭州師范大學(xué) 工學(xué)院 杭州 310036
伴隨著中國制造2025和工業(yè)4.0計(jì)劃的提出,機(jī)器人在全球各個(gè)產(chǎn)業(yè)中的需求逐年增加[1]。機(jī)械臂雖然已經(jīng)從最初的工業(yè)領(lǐng)域逐漸進(jìn)入人們的日常生活,但是大多只是應(yīng)用在簡單的工作環(huán)境中,或針對固定的工作任務(wù),與人類對機(jī)械臂的期望相差甚遠(yuǎn)。隨著人們對機(jī)械臂工作要求的不斷提高,傳統(tǒng)機(jī)械臂缺乏自主控制能力所帶來的弊端逐漸凸顯。因此,如何使機(jī)械臂具備足夠智能化,已經(jīng)成為當(dāng)前機(jī)械臂領(lǐng)域的主流研究之一。
機(jī)器視覺在不與外部環(huán)境接觸的情況下獲取外部信息,屬于一種認(rèn)知交互,為控制機(jī)器動作提供豐富的參照。機(jī)器視覺在機(jī)械臂中應(yīng)用,將提高操作靈活性和工作效率。通過機(jī)器視覺對工件進(jìn)行識別和定位,并進(jìn)行圖像處理,可高效、精確地定位工件,獲得工件的位置數(shù)據(jù),從而實(shí)現(xiàn)機(jī)械臂自動完成工件的抓取。
筆者搭建了一套智能拾取機(jī)械臂系統(tǒng),搭載視覺系統(tǒng)對混合場景下需要抓取的目標(biāo)進(jìn)行識別,并估計(jì)目標(biāo)在空間中的位姿,從而引導(dǎo)機(jī)械臂靠近目標(biāo),完成拾取任務(wù)。
智能拾取機(jī)械臂系統(tǒng)主要由視頻采集、圖像識別、拾取執(zhí)行三部分組成,硬件框架如圖1所示。首先將物體放置在固定位置,將攝像機(jī)采集的實(shí)時(shí)視頻信息傳輸至計(jì)算機(jī),形成數(shù)字圖像。然后利用訓(xùn)練后的目標(biāo)檢測網(wǎng)絡(luò)對圖像中包含的物體進(jìn)行分類、識別和定位。最后將信息輸入至控制柜,形成指令,從而控制機(jī)械臂運(yùn)動完成拾取。智能拾取機(jī)械臂系統(tǒng)的整體結(jié)構(gòu)模型如圖2所示。

▲圖1 智能拾取機(jī)械臂系統(tǒng)硬件框架▲圖2 智能拾取機(jī)械臂系統(tǒng)整體結(jié)構(gòu)模型
通過對比國內(nèi)外研究[2-7],發(fā)現(xiàn) YOLOv3算法網(wǎng)絡(luò)框架模型最佳,因此筆者選用YOLOv3算法網(wǎng)絡(luò)框架模型,基于Jetson Nano硬件,參考文獻(xiàn)[8]線性迭代等算法實(shí)現(xiàn)識別功能,并進(jìn)行改良。引入隨機(jī)失活算法、AdaGrad算法代替?zhèn)鹘y(tǒng)的隨機(jī)梯度下降算法,在模型的全連接層進(jìn)行批標(biāo)準(zhǔn)化處理。引入遷移學(xué)習(xí),加快模型的訓(xùn)練速度。引入混合注意力機(jī)制,提高網(wǎng)絡(luò)細(xì)化特征的能力。由此實(shí)現(xiàn)識別工件種類、分析工件姿態(tài)、提取旋轉(zhuǎn)錨框特征等功能。視覺識別系統(tǒng)界面如圖3所示。

▲圖3 視覺識別系統(tǒng)界面
針對目標(biāo)檢測,選擇YOLOv3算法,并對YOLOv3算法網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行分析。為了減小目標(biāo)檢測中的計(jì)算量,對YOLOv3算法進(jìn)行輕量化設(shè)計(jì)。使用輕量級移動網(wǎng)絡(luò)v3代替YOLOv3算法的骨干網(wǎng),并實(shí)現(xiàn)路徑聚合網(wǎng)絡(luò)的深度可分離卷積輕量化。
筆者采用YOLOv3算法,即基于深度學(xué)習(xí)的目標(biāo)識別算法,過程如下:① 攝像機(jī)采集圖像,并將其劃分為正方形網(wǎng)格;② 每個(gè)網(wǎng)格預(yù)測B個(gè)邊界框,記錄元素x、y、w、h和P×IOU,其中,P為當(dāng)前位置為目標(biāo)的概率,IOU為交并比,x、y為中心坐標(biāo),w為寬度,h為高度;③ 計(jì)算每個(gè)預(yù)測網(wǎng)格的概率P。YOLOv3算法使用卷積網(wǎng)絡(luò)提取特征,然后使用全連接層得到預(yù)測值。網(wǎng)絡(luò)結(jié)構(gòu)包含24個(gè)卷積層和兩個(gè)全連接層。
針對機(jī)械臂進(jìn)行Denavit-Hartenberg建模[9],并進(jìn)行運(yùn)動學(xué)分析,包括正運(yùn)動學(xué)方程推導(dǎo)、運(yùn)動學(xué)逆分析、雅可比矩陣求解及逆解推導(dǎo)。利用MATLAB軟件中的Robotics Toolbox建立機(jī)械臂模型,通過仿真驗(yàn)證逆矩陣的正確性。Denavit-Hartenberg模型如圖4所示。其中,機(jī)器人的三個(gè)關(guān)節(jié)都可以旋轉(zhuǎn)或平移,第一個(gè)關(guān)節(jié)指定為n-1,第二個(gè)關(guān)節(jié)指定為n,第三個(gè)關(guān)節(jié)指定為n+1。連桿n-1位于關(guān)節(jié)n-1和n之間,連桿n位于關(guān)節(jié)n和n+1之間。Denavit-Hartenberg建模需要為每個(gè)關(guān)節(jié)指定一個(gè)局部參考坐標(biāo)系。對于每個(gè)關(guān)節(jié),必須指定X軸和Z軸,而不指定Y軸。若關(guān)節(jié)為旋轉(zhuǎn)式,則Z軸按右手定則位于旋轉(zhuǎn)方向上。若關(guān)節(jié)為滑動式,則Z軸為沿直線運(yùn)動的方向,可理解為Z軸為電機(jī)輸出軸方向。X軸定義為兩個(gè)相鄰關(guān)節(jié)的Z軸之間的共垂直方向。Denavit-hartenberg模型參數(shù)見表1。

表1 Denavit-Hartenberg參數(shù)
通過完善硬件和軟件,筆者搭建了一套智能拾取機(jī)械臂系統(tǒng)樣機(jī),制作指標(biāo)如下:
(1) 單件抓取時(shí)間為15 s;
(2) 機(jī)械臂活動范圍為400 mm;
(3) 最大移動速度為0.2 m/s;
(4) 連續(xù)工作時(shí)間為2 h。
智能拾取機(jī)械臂系統(tǒng)樣機(jī)如圖5 所示。對樣機(jī)進(jìn)行調(diào)試,能夠完成規(guī)定動作,運(yùn)行情況穩(wěn)定,拾取瞬間如圖6所示。

▲圖5 智能拾取機(jī)械臂系統(tǒng)樣機(jī)▲圖6 拾取瞬間
筆者在分析目前國內(nèi)外分揀機(jī)器人的基礎(chǔ)上,搭建了一套智能拾取機(jī)械臂系統(tǒng)。根據(jù)實(shí)際應(yīng)用需求,將機(jī)器視覺技術(shù)應(yīng)用于各種工件分揀中。智能拾取機(jī)械臂系統(tǒng)樣機(jī)達(dá)到預(yù)期的設(shè)計(jì)要求,能夠自動分揀放置在地面上的工件,驗(yàn)證了控制系統(tǒng)設(shè)計(jì)的合理性。
目前,智能拾取機(jī)械臂系統(tǒng)的路徑規(guī)劃面臨許多痛點(diǎn)[10-11],從試驗(yàn)結(jié)果可以看出,改進(jìn)的軌跡規(guī)劃過程中生成的路徑也有拐點(diǎn),并且角速度和角加速度的變化也不平緩。機(jī)械臂在實(shí)際運(yùn)動過程中,可能會受到一定的沖擊。因此,未來的研究重點(diǎn)是利用相關(guān)傳感器來糾正運(yùn)動過程中關(guān)節(jié)速度不穩(wěn)定的問題。筆者已有研究針對的是簡單的拾取任務(wù),三維構(gòu)造較為簡單。對于真實(shí)生活中的復(fù)雜模型,獲取三維數(shù)據(jù)并不容易。今后重點(diǎn)需對真實(shí)生活三維構(gòu)建參數(shù)的準(zhǔn)確性進(jìn)行研究,并且分析自主拾取和拾取最佳姿勢。