鄒 遇 熊禾根 陶 永③* 任 帆 陳超勇 江 山
(*武漢科技大學冶金裝備及其控制教育部重點實驗室 武漢 430081)(**武漢科技大學機械傳動與制造工程湖北省重點實驗室 武漢 430081)(***北京航空航天大學機械工程及自動化學院 北京 100191)(****北京航空航天大學生物醫學工程高精尖創新中心 北京 100191)
近幾十年來,機器人技術得到了快速的發展,機器人已經在各行各業中得到了廣泛應用[1]。機器人最主要的工作之一是進行搬運裝配工作,而完成這些工作的前提是需要機器人對物體進行很好的識別和抓取。隨著計算機技術和傳感器技術的發展,機器視覺成為人工智能重要的研究領域,其中基于視覺的機器人抓取是當前機器視覺領域的一個研究熱點。
目前,機器人通過視覺完成對物體的識別和跟蹤已經有很多的研究成果,但傳統的視覺檢測識別技術都是基于2維圖像,2維圖像在成像的過程中會丟失物體大量的信息。隨著Kinect等廉價深度傳感器的普及,物體3維數據獲取的成本也越來越低,大量研究者開始利用深度傳感器獲取物體的3維點云,基于物體3維點云深度信息來實現抓取工作[2]。Hugh等人[3]針對未知抓取對象堆疊的情況下,提出了一種滿足機器人手與物體接觸約束的最優抓取方法,計算如何從幾乎無限多的抓取可能中選擇最合適的抓取位置。Marcus等人[4]使用卷積神經網絡(convolutional neural metwork,CNN)來訓練抓握部分的點云,不需要手動標記,但它在很大程度上依賴于點云的重建,這種方法不靈活且需要額外的成本?!?br>