999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

機器人無序分揀技術研究

2022-04-25 07:18:10翟敬梅黃樂
包裝工程 2022年8期
關鍵詞:檢測

翟敬梅,黃樂

(華南理工大學 機械與汽車工程學院, 廣州 510641)

隨著科學技術的發展和工業技術的進步,現代社會的生產模式逐漸由傳統的以人類勞動力為主導轉變為以智能機器人為主導。目前機器人分揀已經廣泛應用于生產制造、零件裝配、搬運碼垛與智能物流等領域中,尤其在電商物流行業,機器人分揀技術存在非常廣闊的市場。2020 年中國社會物流總額達300.1萬億元,總收入為10.5 萬億元。物流倉儲中貨物依靠人工完成這些重復性高、強度大的任務不僅生產效率低下,而且給勞動人員身心帶來危害。許多大型物流企業引進機器人、物聯網技術并研究智能分揀技術。亞馬遜等大型電商公司舉辦了機器人無序分揀大賽,尋求機器人代替人工分揀的解決方案。圖1 分別展示了2015 年—2017 年無序分揀挑戰大賽獲得冠軍的團隊。第一屆來自德國柏林工業大學的RBO 團隊在硬件上采用Barrett 機械臂、XR4000 移動平臺和深度相機組成移動分揀平臺,在軟件上基于直方圖反向投影法實現目標識別算法[1];第二屆的Delft 團隊在視覺算法上引入了先進的目標檢測算法 Faster RCNN 對目標邊界框提取,大大提高目標檢測識別效率,并在安川SIA20F 機械臂末端安裝具有旋轉自由度的吸盤進行抓取[2-4];第三屆的MIT 隊伍在機械結構和視覺算法上均做了較大改進,機器人末端執行器采用多功能二指夾爪,由平行性夾爪和定制吸盤組成,視覺方案采用FCN 全卷積神經網絡輸出4 個不同方向的置信度評分作為抓取依據,在手眼操作上表現得更為協調[5-6]。

圖1 亞馬遜無序分揀大賽Fig.1 Amazon Picking Challenge

機器人分揀應用場景主要有3 種:結構化、半結構化和非結構化,非結構化環境下的目標分揀稱為無序分揀。在非結構化環境下,物料擺放的位置通常是無序且雜亂的,復雜的分揀場景對于機器人實現自動化極具挑戰性,因此無序分揀問題也稱為機器人操作中的“圣杯問題”。基本的無序分揀系統框架見圖2。由硬件平臺和軟件平臺2 部分組成,硬件平臺包含機器人、相機、計算機等設備,軟件平臺包含目標識別、位姿估計、抓取規劃等算法。為了實現機器人的無序分揀任務,機器人首先需要感知物體的位置和方向,常用的視覺傳感器有RGB 相機和深度相機,其中深度相機能夠提取場景中的深度信息,在無序分揀平臺中更為使用廣泛。機器人的無序分揀過程大致分為目標識別、位姿估計、抓取規劃3 個部分。目標檢測是檢測圖像中某一類目標的實例,當場景中存在多類目標需要分揀時,需判斷抓取目標的類別。目前基于視覺的目標檢測與識別技術逐漸趨于完善,由于目標之間堆疊、遮擋和背景雜亂等環境因素,均可能影響目標檢測和識別的準確度。大多數生產流水線上的目標分揀場景較為簡單,只需確定分揀對象在二維平面下的位姿即可抓取,而對無序雜亂的目標而言,實施分揀變得更加困難,確定目標在三維空間下的位姿是機器人抓取成功的關鍵,也是無序分揀區別于普通情況下機器人分揀的重要體現。視具體分揀場景,根據分揀目標的位姿進行機器人抓取的過程中,機器人與料框及其他目標之間均有可能發生干涉和碰撞,因此合理的抓取規劃有利于避免一些異常情況的發生,提高無序分揀的成功率。

圖2 無序分揀系統框架圖[7]Fig.2 Unordered picking system framework diagram[7]

機器人視覺在無序分揀技術中發揮著更加重要的作用,國外的一些公司也在逐漸將自主研發的視覺系統嵌入機器人中,實現無序分揀過程的自動化。日本的FANUC 公司推出了iRVision 視覺系統以識別和定位零件,并將其緊密耦合在機器人控制器中,以確保視覺伺服過程中的手眼協調[8]。德國的ISRA VISION公司也推出了Shape Scan 3D 系統與IntelliPICK3D 系統,該視覺傳感器系統對復雜零部件采用CAD 文件讀取,可以不受零件的角度限制,同時集成多種監測手段,對比較細小或者表面比較骯臟的零部件都可以識別,加快了生產線的運轉,實現更高的生產節拍[9]。國內的一些企業一直致力于無序分揀系統的研發,各種人機協作機器人的出現也為此帶來契機,利用協作機器人代替人類,提高了企業的勞動力水平,同時提高自身競爭力。愛爾森智能科技有限公司(Alsontech)是國內首家自主研發機器人3D 視覺引導系統的公司。針對散亂無序工件的分揀,該系統通過3D 快速成像技術對工件表面輪廓數據進行掃描,獲取工件點云數據,輔以機器人路徑規劃和防碰撞技術,計算出當前工件的實時坐標,并發送指令給機器人實現自動分揀[10];阿丘科技(Aqrose)基于團隊核心的3D 視覺技術和機器學習,通過對目標物體的識別和定位,實現工業機器人對復雜分揀環境處理能力,自動完成識別分揀的相關任務[11]。無序分揀技術是未來智能機器人研究的一個重要方向,在現代化社會生產中逐步實現機器換人的大趨勢下,具有廣闊的應用前景和巨大的經濟價值。

1 散亂目標的檢測與識別

目標的檢測識別是機器人抓取領域中常見的技術手段,快速準確地對目標進行識別,對機器人無序分揀速度和精度的提高起到重要作用。然而在目標散亂堆疊的環境下,除了環境因素的干擾外,還需考慮目標之間遮擋帶來的特征檢測難題,目標檢測識別的成功率將直接影響后續抓取的成功率。目前目標的檢測與識別方法總體可以歸納為以下幾類:基于模板匹配的方法、基于特征匹配的方法、基于霍夫森林的方法和基于深度學習的方法,見圖3。

基于模板匹配的方法是從已有的數據中制作模板,通過測量待匹配圖像與模板之間的相似性來確定目標所屬類別。此類方法由于不需預先訓練,魯棒性強,常用于散亂堆疊目標的識別中。文獻[12]制作了兩個抓取位置檢測的模板去掃描相機捕獲的圖像,利用差分進化算法高效搜索目標函數最大的抓取位置,快速實現散亂螺栓的識別。但該算法要求目標與模板具有相同的尺寸、方向和圖像,并且根據模板在搜索目標的過程中只能進行平行移動,若原圖像中目標發生旋轉或大小變化,則算法容易失效。針對模板搜索過程中的大小和方向局限性問題,文獻[13]通過以參數化的方式構造了模板,基于灰度匹配識別待抓取的鉚釘,這種方式可以擴展到多尺寸鉚釘類型的識別。雖然基于模板匹配的方法具有簡單快速的特性,但還存在著對光照、亮度等環境因素敏感等問題需要解決。

基于特征匹配的方法是通過尋找兩幅圖像之間的特征對應關系進行目標識別定位,這類特征通常為手工設計的描述符。二維圖像檢測中典型的特征描述符有 SIFT (Scale Invariant Feature Transform)[14]、SURF (Speeded Up Robust Feature)[15]、ORB (Oriented FAST and Rotated BRIEF)[16]等,除此之外還有一些學者針對特定場景中的目標識別而設計一些描述符,其基本原則為外觀相似的特征應該有相似的描述子。SIFT 描述子在圖像的不變特征提取方面具有一定的優勢,常用于盒子書本等堆疊物體的識別中。文獻[17]提取目標圖像的SIFT 特征點并將其按極大特征值點與極小特征值點進行分類,根據SIFT 特征點子區域方向直方圖計算的角度信息限制匹配范圍進行識別。當目標在待識別圖像中發生局部遮擋、旋轉、尺度變化或者弱光照等情況下,該算法仍能完成目標的快速識別。但SIFT 描述子還存在著實時性不高、特征點較少、對邊緣模糊的目標無法準確提取特征點等不足。為了改進SIFT 描述子的一些缺陷,文獻[18]采用改進的自適應閾值的Canny 邊緣提取算子提取目標的邊緣信息,采用SURF 特征與FREAK(Fast Retina Keypoint)特征結合的方式對目標進行描述,加快模型的建立,縮短目標識別的時間。

優化后的特征點描述方法在匹配速度和魯棒性方面都有改善,但構造出足夠多的特征點需要圖像具備豐富的紋理,否則構建的特征區別性不大,容易造成誤匹配,甚至完全失效。對工業上用于分揀的目標,大多為弱紋理或者無紋理的物體,此類物體常通過檢測目標點云的三維特征描述子進行識別。常用的三維特征描述子可分為局部特征描述子和全局特征描述子,局部特征包括PFH (Point Feature Histogram)[19]、FPFH (Fast Point Feature Histograms)[20]、SHOT (Signature of Histogram of Orientation)[21]和Spin image 等,全局特征描述子包括VFH (Viewpoint Feature Histogram)[22]、OUR-CVFH (Oriented, Unique and Repeatable Clustered Viewpoint Feature Histogram)[23]和ESF (Ensemble of Shape Functions)[24]等,根據2 組點云之間的特征描述子進行匹配,以此作為識別的重要依據。文獻[25]和文獻[26]分別提取 Spin image 描述符和SHOT 特征進行匹配識別。文獻[27]設計了一個高度描述性、魯棒性和計算效率高的局部形狀描述符來建立模型點云和場景點云之間的對應關系,利用關鍵點的局部參考幀進行聚類的方法來選擇正確的對應點。此外,堆疊目標整體提取三維特征描述子耗時過長,因此有學者提出先將散亂堆疊的目標點云進行分割,對分離的目標提取三維特征再進行匹配識別,可以有效提高識別的效率。為了防止對散亂目標點云產生過分割或欠分割,文獻[28]采用超體聚類的過分割方法將點云數據分割成許多小塊,在超體聚類的基礎上再聚類生成各個目標點云,結合VFH 特征和FPFH 特征對點云對象進行識別。三維特征描述子相對于二維特征描述子在雜亂的環境中有更強大的魯棒性,并且除了用于目標識別外,還可以估計目標的位置和方向,更有利于物體的抓取操作。

基于霍夫森林的方法是通過構建隨機森林從圖像上提取圖像塊,在構建的隨機森林中的每個決策樹上進行判斷處理并在霍夫空間進行投票,根據投票結果實現目標識別。針對雜亂和遮擋的場景中模型的多個實例識別,文獻[29]利用三維特征檢測和描述來計算三維模型與當前場景之間的一組對應關系,將每個特征點與其相對于模型質心的位置相關聯,使其在三維霍夫空間內可以同時對所有特征進行投票識別。為了可以處理更加稀疏的點云對象識別,文獻[30]提出了一種基于面向方向的點對特征創建全局模型描述的方法,并使用快速投票方案對模型進行局部匹配,在簡化的二維搜索空間中利用有效的投票方案進行局部識別,具備更好的識別性能。為了提高霍夫投票識別性能,文獻[31]利用給定三維場景的局部特征生成一組參考點集合,參考點集合由幾個參考點組成,每個參考點用綠色或紅色表示,其中紅色的參考點用于驗證假設,綠色參考點用于霍夫投票,通過將六維的投票空間分解為幾個三維空間實現更加有效的三維目標識別。

基于近些年來深度學習的方法發展迅速,由于深度神經網絡的強特征提取能力,此類方法在復雜堆疊場景下目標的檢測識別具有明顯的優勢,大致可以分為兩階段(two-stage)和一階段(one-stage)兩大類。two-stage 方法首先生成一系列樣本的候選區域,利用卷積神經網絡對候選區域分類進行識別,包括 RCNN[32]、Faster R-CNN[3]和Mask R-CNN[33]等方法。為了解決深度學習訓練需要大量人工標注數據集的問題,文獻[34]采用物體和背景的各種組合生成圖像增強數據集的技術并自動標注,采用Faster R-CNN在生成的數據集上進行訓練,識別出各個堆疊散亂的目標。Faster R-CNN 識別出的目標采用矩形包圍框的形式表示目標的邊界框,但矩形包圍框的精度較低,在需要機器人精密操作的場合下并不適用,因此文獻[35]和文獻[36]采用了實例分割網絡Mask R-CNN 確定分揀箱中目標的種類和形狀,實例分割的方式可以精確到物體的邊緣信息,但識別過程更為耗時。

One-stage 方法不用產生候選框,直接將目標邊框定位的問題轉化為回歸問題處理,識別速度比twostage 方法更快,適用于散亂目標實時檢測識別場景,包含YOLO[37]、SSD[38]和RetinaNet[39]等方法。文獻[40]為實現工業機器人對復雜工件的自動分揀,采用邊界像素檢測算法和深度神經網絡識別訓練算法對目標進行精確定位與圖像分割,利用CNN 模型識別檢測目標,能夠快速準確地識別與定位復雜目標物體。針對散亂目標中小對象的檢測識別,文獻[41]基于改進的YOLO-V3 算法,對網絡結構和多尺度檢測進行了改進,并引入了空心卷積的思想,利用殘差密集塊替代原算法中的殘差密集塊,增強網絡對工件特征信息的提取,提高對小對象的檢測能力。文獻[42]基于SSD 檢測算法設計了堆疊目標檢測定位模塊,通過優化目標函數和修改網絡結構,解決小面積堆疊的目標識別問題,在不損失檢測速度的前提下,保證了目標的準確識別定位。

2 分揀目標的空間姿態估計

目標的空間6D 位姿估計可以幫助機器人感知要抓握抓取的物體的位置和方向。目標的6D 位姿是指相機坐標系下目標的3D 位置和3D 姿態,或者說確定物體坐標系相對于相機坐標系的平移和旋轉變換關系[43]。位姿估計方法大致可以分為四種,分別是基于CAD 模型、基于模板、基于投票與基于回歸的方法,見圖4。

圖4 目標的空間姿態估計方法Fig.4 Spatial pose estimation methods of objects

基于CAD 模型的方法主要針對具有標準CAD模型的目標,通過尋找輸入點云和已有模型之間的3D 特征描述符的對應關系進行位姿估計。文獻[44]通過虛擬相機采集工件三維點云數據作為CAD 模型數據庫,從模型數據的點云計算出所有的點對特征描述符構建全局模型描述,利用特征匹配對場景目標進行位姿估計。堆疊目標整體點云與模型匹配獲取位姿過于耗時,為了更有針對地對單個目標進行位姿估計,文獻[45]基于Mask R-CNN 算法檢測并分離圖像中的不同對象,同時為每個對象生成高質量的分割掩膜,利用結構光系統的三維三角剖分計算出每個對象的三維點云,基于ICP(Iterative Closest Point)算法對模型和目標點云配準得到位姿信息。結合目標點云信息里的其他屬性進行位姿估計可以進一步提高位姿估計的精度,文獻[46]在匹配策略上引入物體的輪廓、正態分布和曲率等幾何屬性進行性能優化,利用數據庫中的目標和真實場景進行比較調度,生成姿態聚類,用于對不同形狀物體的位姿估計。根據現有的CAD 模型通常可以獲取較好的位姿估計性能,但在沒有專業的掃描設備或者目標不易建模的情況下,很難構建出精細的三維模型,還需通過其他方式進行位姿估計。

基于模板的方法是從標記好6D 位姿的模板中,選擇最相似的模板,將其作為當前物體的6D 位姿。針對無紋理目標的位姿估計,文獻[47-49]提出了一種基于模板匹配的物體位姿估計方法LineMod,通過計算輸入RGB 圖像的梯度信息并結合深度圖的法向特征作為模板匹配的依據,能夠在實時情況下實現兩千個模板的匹配,解決了在復雜背景下無紋理物體的實時位姿估計問題。但LineMod 算法的特征提取只在輸入圖像的強邊緣進行,僅使用LineMod 模板匹配可能導致匹配失敗,特別是對具有類似局部輪廓的對象。因此,文獻[50]在基于位姿模板的基礎上,利用ICP 的點云配準方法對模型點云與場景點云進行優化,以提高LineMod 位姿檢測的結果。為了提高機器人在非結構化環境中的感知能力,文獻[51]基于SSD 神經網絡框架實現初始檢測目標并生成感興趣區域,應用LineMod 模板匹配來提供候選模板,通過設計的聚類算法對計算出來的模板進行分組,去除相似結果后采用ICP 算法估計目標的位姿,可以同時檢測多個目標并估計其位姿。

基于投票的方法每個像素或者每個3D 點通過投票,貢獻于最終的6D 位姿估計。為了獲取精確的目標位姿估計,文獻[52]將參數最小化的遺傳算法與霍夫投票相結合,使用多視角數據融合,進行配準獲取三維位姿。針對三維點云數據的不連續性,文獻[53]在物體表面上的點與法線組成的幾何特征基礎上,引入了邊緣抑制損失函數用于約束物體的三維形狀,同時在投票框架中加入了邊緣信息這一緊湊特征進行估計,獲取更好的位姿估計性能。在復雜環境中目標存在遮擋和截斷的情況下,文獻[54]在二維圖像的每個像素上都預測一個指向關鍵點的單位向量,使用RANSAC 對關鍵點的位置進行投票,實現了利用物體在圖像中可見部分的局部信息來檢測關鍵點的目的,最后對2D 關鍵點進行PnP 求解和優化得到目標的位姿。為了提高場景中多個物體同時進行位姿估計的能力,文獻[55]對提前定義好的關鍵點、每個點的分類、中心點偏移進行預測,應用聚類算法區分具有相同語義標簽的不同實例,根據相同實例上的點投票并聚類出該物體的3D 關鍵點,使用最小二乘法估算出目標的6D 位姿參數。

基于回歸的方法通過直接從輸入圖像映射到參數表示的位姿信息,是一種端到端的學習方法。文獻[56]首次提出了一種用于直接6D 目標位姿估計的卷積神經網絡PoseCNN,目標的三維平移是通過定位圖像中心和預測到相機的距離來估計的,三維旋轉是通過回歸到四元數表示來計算的,并且引入ShapeMatchLoss 函數,使PoseCNN 能夠處理對稱對象。為了將6D 姿態問題轉化為2D 圖像中坐標點檢測問題,文獻[57]提出了一種用于6D 目標位姿估計的端到端深度網絡YOLO-6D+,利用目標檢測框架預測目標的2D 坐標點,然后使用PNP 算法估計6D 位姿,這樣做可能導致原本在2D 圖像上較小的檢測誤差,映射到3D 空間中會變大,但此思路仍然值得借鑒。針對高度混亂場景中的目標位姿估計,文獻[58]使用一個異構網絡去分別處理輸入RGB-D 圖像中的顏色和深度信息,以一種稠密的像素級融合方式將RGB 數據的特征和點云的特征以一種更合適的方式進行了整合,通過端到端的網絡訓練出位姿估計模型。為了處理給定類別中不同的和從未見過的物體實例的位姿估計,文獻[59]引入標準化物體坐標空間NOCS (Normalized Object Coordinate Space)將同一個類別中的所有物體實例使用一個共享的標準模型來表示,通過訓練神經網絡來推斷觀察的像素與共享標準模型的對應關系和其他信息,將預測圖像與深度圖相結合,共同估計雜亂場景中多個物體的6D 位姿和尺寸。基于回歸的方法需要大量地標注位姿的訓練數據,對數據集中不存在的目標泛化性能較差。

3 無序分揀中的抓取決策

目標的檢測識別和位姿估計過程為機器人的無序分揀提供了視覺上的保障,但在抓取和放置目標的過程中還需考慮機械臂的運動規劃,用以規避障礙物和優化分揀時間來提高分揀過程的安全性與效率。文獻[60]基于RRT 算法構建一個可達和無碰撞配置樹,結合尋找可行的抓取、求解逆運動學和搜索無碰撞軌跡,生成潛在抓握位置,并計算接近該位置的動作,使機械臂達到抓取姿態。但是RRT 是概率完備且不是最優的,對環境類型不敏感,當機器人操作空間中包含大量障礙物或狹窄通道約束時,算法的收斂速度慢,效率會大幅下降。為了提高規劃速度,文獻[61]采用人工勢場法引導隨機樹向目標方向生長,減少RRT 算法在路徑搜索過程中的盲目性。這種雙向的RRT 技術具有良好的搜索特性,比原始RRT 算法的搜索速度、搜索效率都有顯著的提高,且被廣泛應用。

隨著現有機器人抓取技術應用場景的不斷擴展,如何在無目標精確模型的情況下實現機器人抓取行為的通用性和在與環境交互中提高機器人的自適應學習抓取姿態的能力,對機器人無序分揀的抓取規劃具有重要的現實意義。基于深度強化學習的算法為機械臂開辟了新的發展方向,深度強化學習兼具深度學習的神經網絡圖像處理能力,并具備強化學習的策略自主學習能力,由于深度強化學習的控制過程不依賴于精確的環境模型,而強調在與環境的交互中獲取反映真實目標達成度的反饋信號,有利于提高機器人抓取過程中的自適應控制能力。文獻[62]提出了一種基于強化學習的改進DDPG(Deep Deterministic Policy Gradient)算法對煤矸石進行分揀,根據相應傳感器返回的煤矸石位置及機械臂狀態進行決策,并向相應運動控制器輸出一組關節角狀態控制量,根據煤矸石位置及關節角狀態控制量控制機械臂運動,比傳統DDPG 算法更快收斂于探索過程中所遇最大獎勵值,策略泛化性更好。文獻[63]采用非策略強化學習框架來學習抓取策略,使用雙深度Q 學習框架和GraspQNetwork 用于學習抓取的概率,提高抓取成功率。但深度強化學習的方法存在探索效率低,訓練時間長等問題,嘗試將前面建立的目標檢測和位姿估計算法與強化學習算法進行融合,對機械臂的探索范圍和接近目標后的抓取位姿進行限制,提高訓練過程中的探索效率和最終抓取的成功率,從而提高訓練的效率。

此外,復雜場景下多目標的抓取規劃還需考慮到最優抓取策略的問題,保證機器人抓取過程中不會發生干涉和碰撞。目前主要的策略是將散亂堆疊的目標分開,根據各個目標的位姿關系設定評價指標評估各個目標的可操作性,以此確定各個目標的抓取順序。文獻[64]構建分割后物體三維點云的抓取空間和物體空間,通過分析實際抓取空間和物體空間的關系得到目標的抓取可操作性,根據抓取評價函數計算所有抓取方案下的目標可操作性評價值,以高評價值對應的抓取方案作為機器人對場景中多目標物的最佳抓取策略。該方法有效解決了場景中存在障礙物的多目標物抓取規劃問題,并提高機器人對多目標場景的處理效率。文獻[65]通過精細分割散亂堆疊目標的點云數據,基于位置密度函數確定上層目標的抓取得分,根據得分高低從上至下分揀目標。文獻[66]基于深度強化學習建立抓取作業的馬爾可夫決策過程,通過深度Q 網絡完成圖像信息與機械臂抓取動作之間的映射,根據Q 值的大小確定機械臂的最佳抓取位置,使機械臂能夠自主完成抓取作業。由于使用了放射性區域回報獎勵和經驗優先級采樣方式的應用,使機械臂優先抓取放射性區域內具有高放射性活度的物塊,同時增加了機械臂抓取無序緊密擺放物體時的效率。

在一些更加復雜的情況下,目標之間緊密連接甚至需要抓取的目標被其他障礙物遮擋,此時可以采用聯合的推動與抓取策略在復雜環境中對目標物體進行抓取。文獻[67]將大規模分布式優化與一個新型擬合深度Q 學習算法相結合,從之前收集的數據完全離線訓練出一個模型,再將該模型部署到真正的機器人上進行微調,機器人根據最近的觀察不斷更新其抓取策略。該抓取策略能夠應對一組緊密貼合目標的分開和抓取情況,并且能夠泛化到不同種類的物體抓取上,即使這些物體并沒有在訓練時遇到過。文獻[68]實現了在機器人操作中抓取原本不可見的目標物體,通過深度Q 學習將視覺觀察和目標信息映射到推動和抓取的預期未來獎勵中,將原問題劃分為推尋和抓取2 個子任務。基于貝葉斯理論的策略考慮了過去的行動經驗,執行推尋目標;一旦找到目標,基于分類器的策略配合面向目標的推送抓取,進而實現對原本不可見目標的有效抓取。為了更好學習有效的推送和抓取策略,文獻[69]將推送策略和抓取策略分別視為一個生成器和一個判別器,在抓取判別器的監督下對推送策略進行訓練,從而使推送獎勵更加密集,以更少的運動次數實現了最優的任務完成率和目標抓取成功率。為了更好發揮推動和抓取之間的協同作用,文獻[70]引入離散度指標描述物體在環境中的分布情況,根據目標的動作價值和分散程度設計協調機制,運用不同動作之間的協同作用,使抓握更加有效,大大提高機器人在目標密集雜亂環境下的抓取成功率,并且具有推廣到新場景的能力。

4 結語

機器人的無序分揀廣泛應用于家庭服務、工業制造和物流倉儲等領域,近年來許多學者對此展開了研究,但由于場景的復雜性與目標的多樣性,使這項技術目前仍處于初步發展階段。而且大多數機器人分揀系統的分揀對象是單類目標物體或者相互分離的多類目標物體,對于非結構化場景中存在堆疊或遮擋的多類目標物體尚未有良好的解決方案。此外現有的抓取技術對已知物體的抓取效果較好,但很難將現有的抓取能力擴展到新的物體上。因此,機器人無序分揀系統應當考慮對新對象具有較強的泛化能力,更好地處理復雜環境中的對象,提高系統的魯棒性。

未來機器人無序分揀技術的發展方向包括視覺感知、位姿估計和抓取決策幾個方面。利用深度學習的方法訓練更多的數據對象來增強機器人的視覺感知能力,同時解決不同物體相互作用所產生的數據不完整性問題,克服物體形狀和紋理上的一些局限性。普遍來說目標的位姿估計依賴于標準的CAD 模型,在未知模型的情況下,通過融合實例分割和目標檢測等手段從二維圖像或三維點云數據中獲取位姿,同時提高同類物體的位姿估計能力,但是由于物體對稱性帶來的位姿估計難題還需進一步解決。結合視覺感知和位姿估計的結果對復雜環境下堆疊目標的抓取順序、抓取路徑進行決策,保證無序分揀過程中機械臂做到無碰撞無干涉地抓取,發揮深度強化學習在自適應學習抓取姿態中的優勢,使機器人無序分揀技術更加智能和高效。

猜你喜歡
檢測
QC 檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
“有理數的乘除法”檢測題
“有理數”檢測題
“角”檢測題
“幾何圖形”檢測題
主站蜘蛛池模板: 97se亚洲综合在线天天 | 国产99热| 都市激情亚洲综合久久| yjizz视频最新网站在线| 欧美激情二区三区| 亚洲成网777777国产精品| 国产男女免费视频| 麻豆国产精品一二三在线观看| 亚洲成人网在线观看| 毛片免费观看视频| 三级毛片在线播放| 日韩精品亚洲一区中文字幕| 久久综合结合久久狠狠狠97色| 国产自视频| 成人免费午夜视频| 国内精品久久人妻无码大片高| 久久精品一卡日本电影| 国产精品视频白浆免费视频| 国产精品欧美亚洲韩国日本不卡| 亚洲婷婷在线视频| 亚洲天堂精品在线观看| 亚洲VA中文字幕| 2021天堂在线亚洲精品专区| 人人91人人澡人人妻人人爽| 亚洲一区网站| 亚洲精品色AV无码看| 性69交片免费看| 精品91视频| 国产区在线观看视频| 欧美中文一区| 狠狠亚洲婷婷综合色香| 欧美日韩资源| 免费在线观看av| 日韩精品一区二区深田咏美| 999精品色在线观看| 久久国产乱子伦视频无卡顿| 欧美综合区自拍亚洲综合天堂| 99re这里只有国产中文精品国产精品| 免费看久久精品99| 国产亚洲精| 午夜毛片免费看| 久久久波多野结衣av一区二区| 一区二区三区国产精品视频| 国产欧美日韩另类| 狠狠色噜噜狠狠狠狠色综合久| 91青青草视频在线观看的| 熟女日韩精品2区| 亚洲成a人在线播放www| 国产18在线播放| 国产精品人人做人人爽人人添| 亚洲欧洲自拍拍偷午夜色| 少妇精品网站| 欧美激情第一区| 中国国产一级毛片| 无码一区18禁| 欧美午夜视频| 伊人色综合久久天天| 国产美女免费| 五月丁香伊人啪啪手机免费观看| 亚洲国产成人无码AV在线影院L| 亚洲Aⅴ无码专区在线观看q| 免费观看成人久久网免费观看| 国产网友愉拍精品| 免费又黄又爽又猛大片午夜| 欧美成人午夜在线全部免费| 国产精品夜夜嗨视频免费视频| 亚洲精品在线观看91| 中文字幕亚洲综久久2021| 亚洲日本中文字幕乱码中文| 国产成人精品免费av| 国产电话自拍伊人| 欧美一级特黄aaaaaa在线看片| 国产无码网站在线观看| 国产精品99在线观看| 88av在线| 素人激情视频福利| 欧美国产另类| 婷婷开心中文字幕| 久久永久精品免费视频| 欧美国产日韩在线播放| 久久性视频| 美女视频黄频a免费高清不卡|