999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

采摘機(jī)器人視覺系統(tǒng)的目標(biāo)識別提取研究

2020-10-28 01:35:15胡慶勝符亞云牛金星
河南科技 2020年25期
關(guān)鍵詞:深度學(xué)習(xí)

胡慶勝 符亞云 牛金星

摘 要:為了解決農(nóng)業(yè)采摘中因各種不利因素造成的采摘機(jī)器人無法準(zhǔn)確識別和提取目標(biāo)的問題,本文提出了一種基于深度學(xué)習(xí)Mask R-CNN神經(jīng)網(wǎng)絡(luò)框架的自適應(yīng)識別提取目標(biāo)的算法,應(yīng)用于采摘機(jī)器人視覺系統(tǒng)的目標(biāo)識別提取。經(jīng)過實踐檢驗可知,該算法不僅較好地解決了采摘機(jī)器人由于復(fù)雜的周圍環(huán)境對果蔬不能很好地識別提取的問題,而且在一定程度上還能對成熟和未成熟的果蔬進(jìn)行篩選。

關(guān)鍵詞:深度學(xué)習(xí);Mask R-CNN;目標(biāo)識別提取;采摘機(jī)器人

中圖分類號:TP274文獻(xiàn)標(biāo)識碼:A文章編號:1003-5168(2020)25-0005-04

Abstract: In order to solve the problem that the picking robot can't recognize and extract the target accurately due to various adverse factors in agricultural picking, this paper proposed an adaptive recognition and extraction algorithm based on deep learning Mask R-CNN neural network framework, which was applied to the target recognition and extraction of picking robot vision system. The practical test shows that the algorithm not only solves the problem that the picking robot can not recognize and extract fruits and vegetables well due to the complex surrounding environment, but also can screen the mature and immature fruits and vegetables to a certain extent.

Keywords: deep learning;Mask R-CNN;target recognition extraction;picking robot

機(jī)器視覺系統(tǒng)作為有效獲取和處理周圍場景目標(biāo)信息的重要手段,是采摘機(jī)器人能實現(xiàn)實時、準(zhǔn)確采摘目標(biāo)的首要條件。而在采摘機(jī)器人視覺系統(tǒng)中,實現(xiàn)對目標(biāo)圖像實時、準(zhǔn)確地識別和提取的關(guān)鍵技術(shù)是圖像分割技術(shù)。大部分到了成熟期待采摘的農(nóng)作物,如蘋果、橘子、草莓、番茄等,在采摘過程中可能會出現(xiàn)待采摘的目標(biāo)部分被周圍的葉片、枝干遮擋,同種目標(biāo)之間或者目標(biāo)與葉片之間顏色相近,目標(biāo)的形狀和大小各異等現(xiàn)象,這給采摘機(jī)器人視覺系統(tǒng)實時、準(zhǔn)確地識別提取目標(biāo)帶來了巨大困難。為了解決各種不利因素造成的采摘機(jī)器人無法準(zhǔn)確識別和提取目標(biāo)的問題,本文提出了一種基于深度學(xué)習(xí)Mask R-CNN神經(jīng)網(wǎng)絡(luò)框架的自適應(yīng)識別提取目標(biāo)的算法,應(yīng)用于采摘機(jī)器人視覺系統(tǒng)的目標(biāo)識別提取。

1 研究概述

1.1 研究的整體框架

采摘機(jī)器人的視覺系統(tǒng)主要包括以下三部分:攝像頭獲取場景圖像、視覺系統(tǒng)處理場景圖像、保存并返回處理結(jié)果。整個流程如圖1所示。

1.2 Mask R-CNN神經(jīng)網(wǎng)絡(luò)框架

Mask R-CNN是由He Kaiming等人[1]在2017年提出的針對單張圖像完成物體分割與識別的神經(jīng)網(wǎng)絡(luò)框架,它采用了Ross Girshick等人[2]提出的R-CNN系列網(wǎng)絡(luò)采用的Anchor技術(shù),并結(jié)合圖像金字塔網(wǎng)絡(luò)(Features Pyramid Network,F(xiàn)PN)對不同尺度物體的識別效果進(jìn)行優(yōu)化,還通過引入全卷積網(wǎng)絡(luò)(Fully Convolutional Networks,F(xiàn)CN),實現(xiàn)了精確的物體分割。Mask R-CNN神經(jīng)網(wǎng)絡(luò)框架主要包含7個部分,分別是特征提取卷積網(wǎng)絡(luò)、興趣區(qū)域?qū)R層(ROIAlign Layer)、區(qū)域提議網(wǎng)絡(luò)(Region Proposal Network,RPN)、Mask分支(Mask Branch)、全連接層(Fully Connected Layers)、邊界框預(yù)測和類別預(yù)測[3],其整體實現(xiàn)流程如圖2所示。

1.3 制作和訓(xùn)練數(shù)據(jù)集

本研究主要對采摘機(jī)器人在采摘橘子和草莓的過程中其視覺系統(tǒng)獲取到的圖像進(jìn)行搜集,其中橘子圖像145張,草莓圖像152張。選取橘子圖像120張和草莓圖像130張作為訓(xùn)練集,剩余的圖像作為驗證集。使用VGG圖像標(biāo)注器對這些圖像中的目標(biāo)進(jìn)行標(biāo)注,標(biāo)注完成后,導(dǎo)出一個含標(biāo)注坐標(biāo)點信息的JSON文件,到此就制作好了一個完整的數(shù)據(jù)集。

為了減小訓(xùn)練集的規(guī)模,使用遷移學(xué)習(xí)的方法來訓(xùn)練一個新的模型數(shù)據(jù)集。本研究是在COCO數(shù)據(jù)集的基礎(chǔ)上,使用遷移學(xué)習(xí),對制作好的數(shù)據(jù)集進(jìn)行訓(xùn)練[4]。本文訓(xùn)練數(shù)據(jù)集使用的筆記本電腦參數(shù)為:CPU為Intel Core i7-8300K,GPU 為GeForce GTX 1080,16 G內(nèi)存,安裝系統(tǒng)為Windows 10。此外,設(shè)置訓(xùn)練的學(xué)習(xí)率為0.001,訓(xùn)練次數(shù)為60次,訓(xùn)練步數(shù)為100步,訓(xùn)練中損失函數(shù)變化如圖3所示。

1.4 目標(biāo)識別提取實驗

為了確定訓(xùn)練生成的模型數(shù)據(jù)集能較好地對圖像中的橘子和草莓進(jìn)行識別提取,需要在電腦上將訓(xùn)練生成的橘子和草莓圖像模型數(shù)據(jù)集加載到Mask R-CNN神經(jīng)網(wǎng)絡(luò)框架中,進(jìn)行初步的驗證實驗。首先通過Mask R-CNN神經(jīng)網(wǎng)絡(luò)框架加載訓(xùn)練生成的.h5類型的數(shù)據(jù)集文件,然后對剩余的25張橘子圖像和22張草莓圖像進(jìn)行測試實驗,最后觀察每一張圖像中橘子和草莓的識別提取效果。經(jīng)過實驗觀察,訓(xùn)練的數(shù)據(jù)集能夠較好地識別提取出測試中每一張圖片中的橘子和草莓。

2 實驗結(jié)果與對比分析

2.1 實驗結(jié)果

將訓(xùn)練好的數(shù)據(jù)集和Mask R-CNN神經(jīng)網(wǎng)絡(luò)框架移植到采摘機(jī)器人的視覺系統(tǒng)中,對訓(xùn)練的數(shù)據(jù)集進(jìn)行實驗和驗證。收集了60次實驗過程中,采摘機(jī)器人機(jī)械臂以不同的速度從起始點A運(yùn)動到目標(biāo)抓取點B時,機(jī)械臂上攝像機(jī)傳回的圖像序列的目標(biāo)識別和提取結(jié)果。對實驗結(jié)果進(jìn)行分析可知,隨著采摘機(jī)器人機(jī)械臂運(yùn)動速度的加快,識別提取率有所下降。當(dāng)采摘機(jī)器人的機(jī)械臂以1 cm/s的速度緩慢移動時,視覺系統(tǒng)對攝像頭上傳過來的場景圖像序列中橘子的識別提取率約為98.1%、草莓的識別提取率約為98.4%;當(dāng)采摘機(jī)器人的機(jī)械臂以2 cm/s的速度移動時,對橘子的識別提取率約為96.1%、草莓的識別提取率約為96.8%;當(dāng)采摘機(jī)器人的機(jī)械臂以3 cm/s的速度移動時,對橘子的識別提取率約為93.1%、草莓的識別提取率約為93.4%,具體實驗結(jié)果分析如表1所示。

另外,通過對實驗結(jié)果中草莓識別圖片的分析,發(fā)現(xiàn)該神經(jīng)網(wǎng)絡(luò)對成熟與未成熟的草莓有一定的篩選作用,而對于橘子的識別則沒有顯示出該作用。圖片場景圖與識別后的圖如圖4所示。

2.2 對比實驗分析

為了驗證Mask R-CNN神經(jīng)網(wǎng)絡(luò)框架相比于之前的神經(jīng)網(wǎng)絡(luò)框架應(yīng)用于采摘機(jī)器人視覺系統(tǒng)上的識別提取率及識別的實時性是否更優(yōu)異,本研究做了Mask R-CNN神經(jīng)網(wǎng)絡(luò)框架與Faster R-CNN神經(jīng)網(wǎng)絡(luò)框架的對比實驗。以采摘草莓的過程為研究對象,分別用兩種神經(jīng)網(wǎng)絡(luò)框架訓(xùn)練出數(shù)據(jù)集,然后將訓(xùn)練好的數(shù)據(jù)集和神經(jīng)網(wǎng)絡(luò)框架導(dǎo)入采摘機(jī)器人的視覺系統(tǒng)上進(jìn)行驗證實驗。讓采摘機(jī)器人的機(jī)械臂仍然以不同的速度從起始點A運(yùn)動到目標(biāo)抓取點B,搜集采摘過程中圖片的識別數(shù)據(jù)進(jìn)行分析,并對不同采摘過程中,Mask R-CNN與Faster R-CNN處理的圖片數(shù)據(jù)進(jìn)行分析。通過分析可知,當(dāng)速度增加時,Mask R-CNN的識別率比Faster R-CNN的識別率下降得更加明顯,但Faster R-CNN識別率比Mask R-CNN低;Faster R-CNN不像Mask R-CNN一樣對草莓的成熟與未成熟有一定的篩選作用。對比實驗結(jié)果如表2所示。

目標(biāo) 實驗采摘次數(shù) 場景圖片數(shù)/張 目標(biāo)識別圖片數(shù)/張 完成采摘次數(shù) 識別提取率/% Mask R-CNN 1 草莓 10 315 310 10 98.4 2 10 248 240 10 96.8 3 10 198 185 10 93.4 Faster R-CNN 1 草莓 10 315 284 10 90.2 2 10 248 222 10 89.5 3 10 198 176 9 88.9 ]

得出上述結(jié)果的原因主要是Mask R-CNN神經(jīng)網(wǎng)絡(luò)框架中添加了Mask分支層,可以實現(xiàn)像素級別的分類,所以比Faster R-CNN的目標(biāo)識別率更高;但同時,也降低了Mask R-CNN的目標(biāo)識別處理速度,因此,隨著采摘機(jī)器人機(jī)械臂速度的增加,Mask R-CNN的識別率下降得更快。圖5為Mask R-CNN與Faster R-CNN識別的對比圖。

3 結(jié)論

本研究將深度學(xué)習(xí)Mask R-CNN神經(jīng)網(wǎng)絡(luò)框架應(yīng)用于采摘機(jī)器人的視覺系統(tǒng)上,以實現(xiàn)自適應(yīng)識別提取目標(biāo),解決采摘機(jī)器人由于復(fù)雜的周圍環(huán)境對果蔬不能很好地識別提取的問題。實驗結(jié)果表明,基于深度學(xué)習(xí)Mask R-CNN神經(jīng)網(wǎng)絡(luò)框架的自適應(yīng)識別提取目標(biāo)的算法能較好地解決復(fù)雜環(huán)境中目標(biāo)的識別提取問題;當(dāng)采摘機(jī)器人機(jī)械臂緩慢運(yùn)動時,對橘子和草莓的識別提取率約為98.1%和98.4%,但隨著運(yùn)動速度的增加會有所下降;比Faster R-CNN對橘子和草莓的識別提取率更高;對草莓識別提取時,對成熟與未成熟的草莓具有一定的篩選作用。

本研究還存在著些許不足有待以后解決和研究。例如,本文在訓(xùn)練數(shù)據(jù)集上使用了遷移學(xué)習(xí)的方法,訓(xùn)練的數(shù)據(jù)集較少,使得訓(xùn)練出來的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的環(huán)境場景較少,目標(biāo)識別的種類也較少,會在一定程度上降低采摘機(jī)器人的識別提取率;本研究只針對橘子和草莓的采摘過程進(jìn)行了實驗和研究,并未對其他果蔬的識別提取進(jìn)行實驗研究,因此在今后的研究中還需要加入對其他種類果蔬的實驗和研究,建立一個專門應(yīng)用于采摘機(jī)器人的訓(xùn)練數(shù)據(jù)集,使其能應(yīng)用于對各種果蔬的采摘。

參考文獻(xiàn):

[1] He K,Gkioxari G,Dollar P,et al. Mask R-CNN[C]// 2017 IEEE International Conference on Computer Vision (ICCV). IEEE Computer Society,2017.

[2]Girshick R,Donahue J,Darrelland T,et al. Rich feature hierarchies for object detection and semantic segmentation[C]// 2014 IEEE Conference on Computer Vision and Pattern Recognition. IEEE,2014.

[3] Girshick R . Fast R-CNN[C]// 2015 IEEE International Conference on Computer Vision (ICCV). IEEE,2016.

[4]彭秋辰,宋亦旭.基于MaskR-CNN的物體識別和定位[J].清華大學(xué)學(xué)報(自然科學(xué)版),2019(2):53-59.

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開放實驗平臺構(gòu)建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學(xué)習(xí)的三級階梯
有體驗的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 精品国产香蕉在线播出| 欧美亚洲日韩不卡在线在线观看| 免费人成网站在线观看欧美| 久久激情影院| 欧美a在线| 丁香婷婷久久| 亚洲精品人成网线在线| 亚洲日本一本dvd高清| 最新精品国偷自产在线| 91视频首页| 久久www视频| 国产真实乱人视频| 国产成人综合在线观看| 亚洲丝袜第一页| 日本久久久久久免费网络| 国产日韩精品欧美一区灰| 国产精品免费电影| 国产精品v欧美| 91精品视频播放| 欧美亚洲第一页| 亚洲成网777777国产精品| 精品国产成人高清在线| 欧美在线三级| 999国内精品视频免费| 国产人免费人成免费视频| 国产成人高清亚洲一区久久| 国产资源站| 国产九九精品视频| 欧美日韩综合网| jizz在线免费播放| a天堂视频| 国产精品精品视频| 国产XXXX做受性欧美88| 四虎国产精品永久一区| 婷婷丁香色| 久爱午夜精品免费视频| 喷潮白浆直流在线播放| 伊人久久综在合线亚洲2019| 午夜激情福利视频| 在线观看无码a∨| 天堂在线亚洲| 亚洲AⅤ永久无码精品毛片| 欧美一级黄片一区2区| 日韩欧美中文字幕在线韩免费| 国产亚洲视频在线观看| 久久无码av三级| 欧美不卡在线视频| 精品少妇人妻无码久久| 国产亚洲精品自在久久不卡 | 国产成人久视频免费| 国产色爱av资源综合区| 99国产精品一区二区| 亚洲人成日本在线观看| a级高清毛片| 99久久国产综合精品女同| 国产在线自揄拍揄视频网站| a亚洲视频| 国产成人综合欧美精品久久| 在线亚洲精品福利网址导航| 亚洲欧洲日韩久久狠狠爱| 亚洲欧美成人在线视频| 久久99这里精品8国产| 色亚洲成人| 四虎亚洲精品| 久久久久亚洲精品成人网| 丝袜无码一区二区三区| 操国产美女| 久久久精品无码一二三区| 在线观看亚洲精品福利片| 精品91自产拍在线| 午夜视频www| 国产99欧美精品久久精品久久| 国产精品视频第一专区| 日韩欧美国产精品| 国产精品无码制服丝袜| 毛片网站在线看| 91小视频在线观看| 成人在线综合| 亚洲天堂2014| 在线看片中文字幕| 久久精品无码国产一区二区三区| 国产精欧美一区二区三区|