999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

視覺機器人的零件識別與抓取方法研究

2024-02-29 09:24:42李榮煥吳瑞明
機械設(shè)計與制造 2024年2期
關(guān)鍵詞:深度檢測

袁 斌,王 輝,李榮煥,吳瑞明

(1.浙江科技學(xué)院機械與能源工程學(xué)院,浙江 杭州 310023;2.杭州東城電子有限公司,浙江 杭州 310016)

1 引言

目前在物流包裝運輸、工業(yè)生產(chǎn)制造、餐飲等領(lǐng)域,均出現(xiàn)了視覺機器人的應(yīng)用,機器人作為智能制造中的重要工具,因此被廣泛關(guān)注[1]。零件分揀搬運是生產(chǎn)制造中的重要環(huán)節(jié),為了提高視覺機器人抓取零件的成功率,提出一種視覺機器人的零件識別與抓取方法。

目標識別與定位是機器人抓取物體的前提,近年來,在視覺機器人抓取物體方面有許多解決方案被提出。文獻[2]提出采用卷積神經(jīng)網(wǎng)絡(luò)識別物體和單目視覺定位物體位置的方案,并且取得較理想效果,但單目視覺定位物體需要提前知道物體的深度信息[3]。文獻[4]基于雙目視覺技術(shù),采用圖像特征點對目標物體進行立體匹配,獲得深度信息,但識別物體時易受光線干擾。文獻[5]提出一種具有自動識別與抓取物體的機械手,但檢測目標時以矩形框的形式框出物體,對于L形狀的物體,很難真實反映出物體真實的中心位置。

隨著計算機計算能力的提高,基于深度學(xué)習(xí)的算法已經(jīng)普遍應(yīng)用在各個領(lǐng)域,根據(jù)上述物體識別與定位方法存在的不足,提出一種解決方法,首先利用YOLOv4-tiny算法識別物體,然后初步提取出ROI,并送入PSPnet[6]網(wǎng)絡(luò)中進一步提取ROI,最后將ROI區(qū)域中的像素進行模板匹配,并引入二次項擬合求出亞像素視差。只將感興趣的區(qū)域進行模板匹配,可以降低匹配的誤匹配率,提高匹配的效率和精度。在計算中心坐標時,將分割后的圖像做最大內(nèi)接圓,圓心為物體中心,這樣能夠真實找出物體的最佳抓取點,提高抓取的成功率。

2 設(shè)備與方法

實驗設(shè)備分為硬件、軟件,硬件主要包括:筆記本電腦(i5-9300H處理器;12 G,2 667 MHz內(nèi)存,NVIDIA GTX1650顯卡);雙目攝像頭(型號為H-3040;分辨率3 040*1 520;幀率30幀/s;鏡頭焦距2.6mm);標定板GP200-5;一臺視覺機器人。軟件主要包括:Pytorch深度學(xué)習(xí)框架;Opencv庫。

2.1 算法流程與模型

識別與定位方法的算法流程,如圖1所示。主要由目標檢測算法、圖像分割算法、模板匹配組成。

圖1 識別與定位方法的算法流程Fig.1 Algorithm Flow of Identification and Location Method

流程步驟如下:

(1)將待識別零件放入工作區(qū),并矯正雙目相機的圖像畸變和采集零件圖像信息。

(2)將左圖像送入YOLOv4-tiny網(wǎng)絡(luò)中,初步提取出物體所在的矩形ROI。

(3)將左圖像的ROI送入圖像分割網(wǎng)絡(luò)中進一步提取ROI,并將ROI區(qū)域和右圖像轉(zhuǎn)為灰度圖。

(4)左圖像的灰度ROI區(qū)域與右圖像進行初步模板匹配,并截取右圖像中ROI所對應(yīng)的區(qū)域。

(5)將右圖像中被截取的區(qū)域送入PSPnet網(wǎng)絡(luò)中進一步提取ROI。

(6)將右圖像的ROI 進行灰度化、二值化、與運算生成新的ROI。

(7)把左圖像的ROI與右圖像新的ROI進行模板匹配,并計算亞像素視差。

(8)根據(jù)雙目測距原理計算出物體深度信息。

(9)在左圖像的ROI區(qū)域計算最大內(nèi)接圓,圓心為目標物體的像素中心。

(10)根據(jù)三角形相似原理計算出目標所在位置的空間坐標。

2.2 零件目標檢測

為了提高零件識別的魯棒性,采用了深度學(xué)習(xí)方式的目標檢測算法,并對檢測精度、實時性、場合等因素加以考慮,最后選用YOLOv4-tiny 輕量級網(wǎng)絡(luò)。YOLOv4-tiny 屬于有監(jiān)督型的深度學(xué)習(xí)算法,它是通過神經(jīng)網(wǎng)絡(luò)對物體圖像進行特征提取,并按照特征對物體進行分類。監(jiān)督型的網(wǎng)絡(luò)需要采集數(shù)據(jù)集進行訓(xùn)練,在訓(xùn)練過程中會自調(diào)節(jié)到最佳的檢測精度,并得出網(wǎng)絡(luò)權(quán)重。檢測網(wǎng)絡(luò)訓(xùn)練完成后,當輸入已訓(xùn)練物體的圖像時,檢測網(wǎng)絡(luò)便可根據(jù)權(quán)重識別該物體,因此在實際應(yīng)用過程中,只需對想要識別的物體進行打標簽并訓(xùn)練即可。YOLOv4-tiny目標檢測算法的網(wǎng)絡(luò)主要由三部分組成:主干特征網(wǎng)絡(luò)(CSPDarknet53-Tiny)、加強特征提取網(wǎng)絡(luò)(FPN)、Yolo head。主干特征網(wǎng)絡(luò)由卷積塊、殘差結(jié)構(gòu)(Resblock_body)構(gòu)成。卷積塊由卷積層(Conv)、歸一化函數(shù)(Batch Norm)、激活函數(shù)(Leaky ReLU)。加強特征提取網(wǎng)絡(luò)由卷積塊、上采樣(Upsample)、堆疊塊(Concat)構(gòu)成。YOLOv4-tiny網(wǎng)絡(luò)結(jié)構(gòu),如圖2所示。

圖2 YOLOv4-tiny網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 Yolov4-tiny Network Structure

Leaky ReLU 激活函數(shù)是將ReLU 激活函數(shù)的負值區(qū)域賦予一個非零斜率,表示如下:

式中:ai—在(1,+∞)區(qū)間內(nèi)的固定值。

檢測的都是小零件,因此將先驗框進行修改,第一個Yolo head將圖片劃分為(26×26)的網(wǎng)格用來檢測小物體,預(yù)先設(shè)定好的先驗框為(23,27),(37,58),(50,50);第二個Yolo head將圖片劃分為(13×13)的網(wǎng)格用來檢測稍大物體,預(yù)先設(shè)定的先驗框為(50,50),(81,82),(135,169)。

2.3 雙目視覺定位

兩個相機捕捉同一物體時,物體在兩相機的像素平面上呈現(xiàn)的位置會存在差異,這種差異稱為視差。雙目立體視覺技術(shù)就是利用視差來計算物體的深度信息。在理想情況下,根據(jù)空間幾何關(guān)系物體的深度信息可以表示為如下式子:

式中:z—目標物體深度信息;

f—焦距;

b—兩相機的距離;

d—視差值。

在實際情況中相機安裝、鏡頭畸變等因素都會產(chǎn)生誤差,因此,在模板匹配之前需要將相機進行標定?;冎饕菑较蚧兒颓邢蚧?。畸變模型可由如下式子表示[7]:

式中:(x0,y0)—線性模型計算得出的圖像點坐標;

(x,y)—真實點坐標;

δx、δy—非線性畸變函數(shù)。

根據(jù)實際情況,建立單相機的世界坐標系與像素平面坐標系之間的轉(zhuǎn)換關(guān)系,表示如下:

式中:s—比例因子;(u,v)—目標物體在像素平面上的投影坐標;dX、dY—像元尺寸;(u0,v0)—主點坐標;f—相機焦距;R—旋轉(zhuǎn)矩陣;t—平移矩陣;(Xw,Yw,Zw)—目標物體的世界坐標。將式子(4)簡化可得:

式中:K—相機內(nèi)參矩陣。

根據(jù)式子(5),建立左右相機的數(shù)學(xué)模型,可以解出物體空間坐標,其中K、R、t通過標定可以獲得。

為了獲得相機內(nèi)、外參數(shù)和消除畸變帶來的誤差,采用張定友棋盤格標定法對相機進行標定。拍攝15張(5×5)mm間距的棋盤格,并導(dǎo)入MATLAB工具箱中進行標定。標定結(jié)果如下式子:

式中:Al—左相機內(nèi)參矩陣;Ar—右相機內(nèi)參矩陣;Bl—左相機畸變矩陣;Br—右相機畸變矩陣;R—旋轉(zhuǎn)矩陣;T—平移矩陣。

經(jīng)標定后,相機采集的圖像具有極限約束的特點[8],即左相機上的目標物體與右相機上的目標物體在同一水平線上,極限約束可以大大減少模板匹配的計算量,極限約束結(jié)果,如圖3所示。

圖3 左右相機標定后的圖像Fig.3 Images After Calibration of Left and Right Cameras

匹配算法基于區(qū)域一般可分為:全局匹配、半全局匹配、局部匹配[9]。全局匹配效果比較好,但運行速度較慢,半全局和局部匹配雖然速度較快,但容易受光線、弱紋理等因素干擾,出現(xiàn)誤匹配的概率較大。這里的匹配方法是將目標檢測后的截取框作為匹配對象,先進行粗匹配。由于目標檢測算法截取框都是以矩形的形式,截取時會引入干擾像素參與匹配,從而影響匹配精度。為了更加精準找出屬于目標物體本身的像素,需要將圖像進行分割后再進行匹配。在圖像分割領(lǐng)域中,傳統(tǒng)的分割算法容易受到環(huán)境的影響,如分水嶺算法。為了增加算法的魯棒性,這里采用基于深度學(xué)習(xí)方式的圖像分割算法。PSPnet算法采用MobilenetV2作為主干網(wǎng)絡(luò)提取特征,采用金字塔池化結(jié)構(gòu)進行加強特征提取。金字塔池化結(jié)構(gòu)是將特征層劃分為(6×6),(3×3),(2×2),(1×1)大小,然后對各自區(qū)域進行平均池化,金字塔池化結(jié)構(gòu)可以很好解決全局信息丟失的問題。PSPnet語義分割網(wǎng)絡(luò),如圖4所示。

圖4 PSPnet語義分割網(wǎng)絡(luò)示意圖Fig.4 Schematic Diagram of PSPnet Semantic Segmentation Network

相機經(jīng)過矯正后具有極限約束的特性,因此匹配時只需將ROI在同一水平線上做搜索。粗匹配是將目標檢測后的截取框送入PSPnet網(wǎng)絡(luò)中分割所得到的新ROI與右圖像進行匹配,移動步長為1像素;精匹配是將新ROI與右圖像分割后的目標框進行匹配,移動步長為1像素。匹配過程中采用差值的絕對值(Sum of Ab‐solute Differences,SAD)進行相似度評估,SAD函數(shù)[10]表示如下:

式中:CSAD(p,d)—兩圖像像素值的絕對差;Il(p)—左圖像中的待匹配區(qū)域;Ir(p-d)—右圖像中視差為d的待匹配區(qū)域。

經(jīng)過模板匹配得到的視差與相似度曲線,如圖5所示。匹配步長為1像素,因此匹配結(jié)果為像素級單位。受文獻[11]啟發(fā),為了得到亞像素級結(jié)果,首先取出相似度最高的三個坐標點,并做二次項擬合,最后將擬合出來的二次項進行最值求解,最高點坐標為(57.21,0.93),如圖5(b)所示。

圖5 視差與相似度曲線Fig.5 Disparity and Similarity Curve

為了確定目標物體的空間位置和提高抓取的成功率,首先對分割后的物體圖像進行輪廓檢測,使用OpenCV 中的cv2.find‐Countours()函數(shù),得出輪廓矩陣。然后取出最大的輪廓Qmax,將輪廓內(nèi)的坐標點與輪廓上的坐標點進行兩點距離計算。當兩點距離最短時,輪廓內(nèi)的坐標點為最大內(nèi)接圓圓心點,其式子表示如下:

式中:R—內(nèi)接圓半徑;

(xi,yi)—最大輪廓Qmax上的像素點;

(xj,yj)—輪廓內(nèi)的像素點。

最大內(nèi)接圓圓心點也是最佳抓取點(u,v),如圖6所示。

圖6 零件最佳抓取點Fig.6 The Best Grabbing Point of Parts

最后結(jié)合上述的亞像素視差值,可計算出深度信息z,并根據(jù)相似性原理計算空間坐標(Xw,Yw,Zw)。

2.4 逆運動學(xué)解算與軌跡仿真

這里采用三自由度碼垛機器人,根據(jù)基座坐標系與末端位置關(guān)系可得到如下變換式:

式中:cosθi—ci;其中θ—關(guān)節(jié)的旋轉(zhuǎn)自由度;cos(θi+θj)—ci+j;sinθi—si;sin(θi+θj)—si+j;L2、L3—一級臂長度和二級臂長度;d0—坐標原點到一級臂旋轉(zhuǎn)中心的距離。

根據(jù)式(14)可以得出,末端位置xt、yt、zt與底盤自由度θ1、一級臂自由度θ2、二級臂自由度θ3之間的關(guān)系式:

對式(15)進行求解可得到逆運動模型,如下式子表示:

根據(jù)逆運動學(xué)解算結(jié)果,利用Adams 軟件進行三次軌跡仿真,為避免抓取零件時,吸盤與零件出現(xiàn)相對滑動,因此在抓取零件時,吸盤先移動到距離零件5mm處,然后吸盤呈現(xiàn)直線下降的軌跡進行抓取,同理,抬取零件時,吸盤先直線抬取5mm。這樣可以提高抓取的穩(wěn)定性。軌跡仿真,如圖7所示。

圖7 軌跡仿真結(jié)果Fig.7 Trajectory Simulation Results

3 實驗與分析

在機器人前方搭建工作平臺,如圖8所示。首先,結(jié)合現(xiàn)有的實驗設(shè)備和需求,在平臺上擺放外接矩形為(35×35)mm、(50×50)mm、(60×35)mm的三種異形且有平面的小零件,然后用雙目相機對工作平臺上的零件進行拍攝,拍攝1000張來自于不同時間段、光線、擺放方式等情況的圖片作為數(shù)據(jù)集。訓(xùn)練時將代碼上傳到服務(wù)器進行訓(xùn)練,待訓(xùn)練完成后進行測距和抓取實驗。

圖8 機器人抓取實驗平臺Fig.8 Robot Grasping Experimental Platform

3.1 網(wǎng)絡(luò)訓(xùn)練與結(jié)果

使用labelimg和labelme軟件分別對目標檢測數(shù)據(jù)集和語義分割數(shù)據(jù)集進行手動標注,訓(xùn)練時載入預(yù)訓(xùn)練權(quán)重,預(yù)訓(xùn)練權(quán)重可以加快網(wǎng)絡(luò)模型的收斂,并設(shè)置學(xué)習(xí)率為0.001,迭代到一定的次數(shù)后再設(shè)置學(xué)習(xí)率為0.000 1。在數(shù)據(jù)集的劃分中,90%為訓(xùn)練集,10%為測試集。網(wǎng)絡(luò)的目標檢測和圖像分割效果,如圖9所示。

圖9 網(wǎng)絡(luò)檢測結(jié)果Fig.9 Network Detection Results

3.2 測距精度評估與抓取實驗

零件的深度距離是定位的關(guān)鍵所在,因此,使用YOLOv4-tiny+PSPnet算法與Opencv中的SGBM算法、BM算法進行測距對比實驗,并記錄深度距離和計算誤差率。實驗結(jié)果,如表1所示。根據(jù)表中數(shù)據(jù)可以看出,這里算法深度誤差基本在5mm內(nèi),小于等于吸盤的緩沖距離,通過計算得出平均誤差率大約為0.72%,而SGBM與BM算法的誤差率分別為1.17%、1.66%。

表1 測距試驗結(jié)果Tab.1 Ranging Test Results

實驗對三種不同零件進行抓取,首先,在上位機軟件中輸入待抓取零件的名稱和數(shù)量,然后上位機軟件與機器人控制端進行socket遠程通信,使得機器人根據(jù)設(shè)定的需求完成自主抓取,上位機軟件,如圖10所示。

圖10 機器人系統(tǒng)上位機界面Fig.10 Upper Computer Interface of Robot System

根據(jù)實驗,記錄并計算每種零件識別的平均精度(average precision,AP)和抓取率。抓取實驗結(jié)果,如表2所示。

表2 抓取實驗結(jié)果Tab.2 Grasp the Experimental Results

實驗結(jié)果表明:設(shè)計的識別與抓取方法,零件識別精度最低95.91%,成功抓取率最低為88%。

4 結(jié)論

這里的方法是采用深度學(xué)習(xí)算法識別目標物體,在物體空間定位中,首先建立雙目視覺模型進行物體定位,并引入圖像分割算法提高物體的定位精度,然后對分割后的零件圖像進行最大內(nèi)接圓的求解,得出最佳抓取點,最后使用D-H法對機器人進行逆運動學(xué)求解。通過抓取實驗驗證了,該零件抓取方案的可行性,可以滿足一般工業(yè)零件分揀搬運需求。

猜你喜歡
深度檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
深度理解一元一次方程
深度觀察
深度觀察
深度觀察
深度觀察
主站蜘蛛池模板: 久久情精品国产品免费| 日韩a级片视频| 一区二区三区国产| 亚洲中文在线视频| 成人看片欧美一区二区| 精品一区二区三区水蜜桃| 日韩午夜福利在线观看| 亚洲欧美综合在线观看| 操美女免费网站| 欧美午夜网站| 日韩少妇激情一区二区| 欧美日韩导航| 秋霞午夜国产精品成人片| 国产香蕉在线视频| 日本久久网站| 日本成人精品视频| 欧美日一级片| 在线免费观看a视频| 欧美黄网站免费观看| 国产高清在线观看| 亚洲色欲色欲www网| 好吊妞欧美视频免费| AV网站中文| 波多野结衣一区二区三区四区| 91福利片| 亚洲 欧美 中文 AⅤ在线视频| 午夜丁香婷婷| 好吊色国产欧美日韩免费观看| 久久久久久久97| 国产精品无码在线看| 精品国产成人a在线观看| 一本一道波多野结衣av黑人在线 | 亚洲午夜福利精品无码不卡 | 国产jizz| 欧美视频在线观看第一页| 香蕉eeww99国产在线观看| 成人在线天堂| 在线观看热码亚洲av每日更新| 亚洲日产2021三区在线| 欧美日韩中文国产va另类| 无码内射在线| 中文字幕人成人乱码亚洲电影| 久久国产V一级毛多内射| 潮喷在线无码白浆| 国产精品美女在线| 中国成人在线视频| 国内精品免费| 久久亚洲天堂| а∨天堂一区中文字幕| 欧美激情首页| 国产免费精彩视频| 色视频久久| 精品亚洲麻豆1区2区3区| 丰满的少妇人妻无码区| 9久久伊人精品综合| 一级爱做片免费观看久久| 国产高潮视频在线观看| 欧美午夜一区| 区国产精品搜索视频| 国产一级做美女做受视频| 9cao视频精品| 欧美国产在线看| A级毛片无码久久精品免费| 操美女免费网站| 国产97区一区二区三区无码| 欧美成人精品高清在线下载| 五月激情婷婷综合| 精品超清无码视频在线观看| 91久久夜色精品| 欧美成人免费一区在线播放| 呦女亚洲一区精品| 三级视频中文字幕| 呦女亚洲一区精品| 亚洲国产天堂久久综合| 免费国产高清精品一区在线| 亚洲成在人线av品善网好看| 91精选国产大片| 中日韩一区二区三区中文免费视频| 亚洲AV成人一区国产精品| 国产美女无遮挡免费视频| 国产三区二区| 成人国内精品久久久久影院|