祝毅鳴,劉 鑫
(1.鄭州西亞斯學院,河南新鄭 451150;2.中南大學商學院,湖南長沙 410083)
目前全自主機器人[1]多使用多視覺傳感器,以此加強機器人的智能性。視覺是全自主機器人獲取和感知周圍環境的方式之一,全自主機器人的核心由內部傳感器和外部傳感器構成,內部傳感器[2]可直接獲取機器人自身的數據,外部傳感器可獲取周圍環境以及研究對象的相關信息。自主機器人的重要研究目的是控制機器人的導航系統,在傳感器的幫助下,獲取相關數據,實現由出發點到終點的自主運動[3]。
文獻[4]首先建立全自主機器人的運動模型,并利用卡爾曼濾波算法以及GPS技術定位出全自主機器人的位置,通過開放軟件設置機器人行駛路徑,根據機器人的偏航角等控制全自動機器人的導航,實現全自主機器人導航控制。
文獻[5]首先通過單目視覺獲取機器人相關數據特征,并對特征實施分割,其次在深度卷積神經網絡的幫助下細化特征,得到機器人全局姿態優化,實現全自主機器人導航控制。
文獻[6]利用深度視覺完成機器人導航數據的特征提取與匹配,其次在八叉樹的幫助下規劃導航地圖,最后構建最近點模型,以此預測出機器人最優位姿,實現全自主機器人導航控制。以上三種方法在控制機器人導航過程未對目標對象定位,無法獲取目標路徑,導致機器人只能隨機尋找路徑到達目標地點,延長了導航控制時間,存在導航控制效果差和目標對象跟蹤精度低的問題。……