




摘" 要:本文模仿“黃金車輪蜘蛛”的獨特運動特性,設計具備六足行走與球狀滾動轉換功能的仿生機器人。本文使用SolidWorks設計機器人外形,利用Raspberry Pi 完成運動控制,以 LX-224舵機驅動機器人腿部,并結合視覺算法優化機器人的結構,使機器人的傳動方式更合理、高效,提高了機器人的穩定性、精度以及運動性能。試驗結果表明,本文設計的機器人成功模擬了蜘蛛的行走姿態,具備視覺功能以及球狀特性,能夠進行物體識別和滾動變形。本文研究為機器人設計和生物模仿提供了新方法,能夠應用于復雜地形中。
關鍵詞:仿生;結構設計;機器視覺;六足機器人;變形
中圖分類號:TP 316 " 文獻標志碼:A
仿生學是一門融合生命科學與機械、材料和信息等工程技術的交叉學科,其研究和模擬生物的結構、功能、行為及其調控機制,為工程設計與系統構造提供創新思路。在機械仿生領域,大自然中的生物,尤其是昆蟲和節肢動物為工程師提供了源源不斷的靈感。
2015年以來,國內外多所高校和科研機構設計了各類多足仿生機器人。姜樹海等[1]開發了六足仿生甲蟲機器人,橢圓形機體兩側各有3條腿,設計并利用關節電機驅動直行以及轉彎步態;王立權等[2]設計的仿生蟹機器人有6條三自由度爬行腿和2條劃槳式肢體,腿槳復合驅動拓寬了其運動形式;劉仲成[3]設計了仿生螳螂機器人,研究其在非結構化地形上的高機動性和操作能力,機器人具有四足與六足2種形態,其中2條前腿具備抓取功能,能夠執行雙臂操作。國內外學者在多足爬行機器人的結構設計、步態分析以及運動控制方面取得明顯進展。例如,黃麟等[4]研究弓背蟻的傳統步態,為六足機器人步態規劃提供了參考。本文在結構設計和仿生對象選擇方面進行創新,機器人開發前景廣闊。
1 設計方案
1.1 運動結構設計
機器人結構包括腿部和主板2個部分(如圖1所示)。
本文根據蜘蛛腿部形態設計了機器人的2種腿型(如圖2所示),一種是長型腿,另一種是短型腿。機器人配有4條長型腿,2條短型腿,每條腿各串聯3個LX-224舵機對關節進行控制。機器人變形成球體后,長型腿為其翻滾提供條件,短型腿幫助其翻滾用力。為了完成翻滾運動,需要兩者驅動關節配合,共同發揮作用。在腿部結構設計過程中,本文改變了各部件的比例,更還原蜘蛛“趴伏”的姿態。腿部關節之間采用精密的金屬軸承進行連接,減少摩擦損耗,提高轉動效率。在關節處設計減震墊,以吸收在運動過程中的沖擊力,保護舵機免受損害。本文設計采用流線型的鏤空圖案,不僅減輕質量,而且提高了翻滾效率。在腿與底座的連接處增加電機,以提高腿部的自由度。
為了對電機運動進行精準控制,本文采用PID控制算法,控制系統集成了傳感器反饋機制,實時監控腿部位置,控制移動速度,保證動作的準確性和穩定性。本文采用路徑規劃算法調整機器人腿部長度、形狀和電機輸出效率等參數,設計合理的翻滾軌跡。為了使機器人在翻滾過程中保持重心穩定,須調整腿部姿態和電機輸出功率,防止翻滾失控或者側翻。
本文精確控制這些“輪子”的半徑變化,對前進方向進行即時調整,提高了機器人的運動能力與適應性。
1.2 視覺算法設計
本文選擇分辨率高、噪點低的攝像頭和GP2Y0A21紅外距離傳感器來采集圖像信息。采用卡爾曼濾波算法融合多個傳感器的數據,可以更準確地構建周圍環境的三維模型,為路徑規劃、物體跟蹤和避障提供可靠依據。根據仿生蜘蛛需要識別的特定物體收集并標注有針對性的數據集,對YOLOv3進行微調和訓練,提升識別精度和泛化能力。
為解決仿生蜘蛛計算資源有限的問題,本文利用ShuffleNet輕量級網絡結構對YOLOv3進行壓縮并加速,能夠縮小模型尺寸,降低計算復雜度,提高實時性。
YOLOv3檢測包括2個步驟。1)檢測對象位置。YOLOv3 輸入圖像至多層卷積網絡,逐層提取圖像中的特征信息。YOLOv3在不同尺度執行特征圖的下采樣和上采樣操作,對小物體和大物體進行多尺度檢測。每一層經過卷積操作和池化處理后,生成多個特征圖,從中提取物體位置的候選區域。2)對檢測對象進行分類。YOLOv3在定位候選區域的基礎上使用卷積層提取高層語義特征,將不同的特征圖進行拼接并進一步分類,以識別檢測對象的類別。采用分類和邊框回歸的多任務學習方式確定物體的類別,并利用邊界框回歸精確定位物體的位置。使用殘差單元來加深網絡結構,解決梯度消失問題。在檢測過程中利用特征拼接技術融合不同尺度的特征,提高檢測精度和魯棒性。
經過以上步驟,YOLOv3能夠在準確識別圖像分類的基礎上精確定位物體的位置并標注邊框。對YOLOv3進行優化配置,提高六足機器人的圖像識別效率和準確性,滿足在復雜環境中的實時檢測需求。
2 理論計算
2.1 機器人步態
2.1.1 機器人步態選擇
在機器人的步態方面,本文選擇比較平穩的六足直行步態,如圖3所示。
當t=T/3時,3、6號腿為擺動相的終止位姿,2、5號腿為擺動相的中點位姿,1、4號腿為支撐相的終止位姿。當t=2T/3時,1、4號腿為擺動相的終止位姿,3、6號腿為支撐相的中點位姿,2、5號腿為支撐相的終止位姿。六足步態共有3種位姿方式。方式一進行一次有序循環交替變換,形成了六足步態的動作。方式二在運動的過程中最多有6只腳與地面接觸,是承載能力最強的狀態。方式三在機器人腿擺動的過程中有4條腿支撐地面,是支撐腿最少的狀態。支撐腿的數目隨運動發生變化,導致機器人重心波動[5]。
2.1.2 機器人運動學正解
為了描述六足機器人的運動學模型,本文利用旋轉矩陣和平移矩陣對坐標系進行轉換,位姿矩陣An如公式(1)所示。
(1)
式中:Rot(Z,θn)為圍繞Z軸旋轉的旋轉矩陣,旋轉角度為θn,描述了關節n的旋轉情況;Trans(an,0,dn)為平移矩陣,描述沿X軸和Z軸的平移;Rot(X,αn)為圍繞X軸旋轉的旋轉矩陣;αn為旋轉角度,描述了相鄰連桿之間的扭轉角;an為沿X軸方向相鄰連桿之間的距離;dn為沿Z軸方向相鄰連桿之間的平移量。
采用D-H法建立連桿模型,D-H參數見表1。
將表1中數據代入公式(1),得到從第一個關節至第二個關節的變換過程,如公式(2)所示。
(2)
式中:A1為從第一個關節至第二個關節的變換矩陣;L1為連桿一的長度;θ1為連桿一的夾角。
從第二個關節至第三個關節的變換過程如公式(3)所示。
(3)
式中:A2為從第二個關節至第三個關節的變換矩陣;L2為連桿二的長度;θ2為連桿二的夾角。
從第三個關節至末端的變換過程如公式(4)所示。
(4)
式中:A3為從第三個關節至末端的變換矩陣;L3為連桿三的長度;θ3為連桿三夾角。將機器人末端點的局部坐標變換到全局坐標,得到機器人運動方程,如公式(5)所示。式中:nx、ny、nz、ox、oy、oz、ax、ay和az描述了機器人足端點坐標系的旋轉分量,其作用是將局部坐標轉換為全局坐標;px、py和pz描述了機器人足端點在全局坐標系中的位置,即足端點的坐標。
利用連桿參數計算機器人腳端落足點坐標,如公式(6)所示。
(6)
2.1.3 機器人運動學逆解
在已知六足機器人的腳端位置x、y和z的情況下,利用逆運動學計算各關節的旋轉角度。由于存在無解或多解的情況,因此需要進一步分析計算條件。
將公式(6)前兩行變換相除,得到公式(7)。
(7)
根據公式(7)得到第一關節的旋轉角度,如公式(8)所示。
(8)
同理計算得到θ2,θ3,如公式(9)、公式(10)所示。
(9)
(10)
經過以上步驟計算θ1、θ2和θ3,能夠確定機器人腿部在末端落足點的運動學逆解。這個過程對六足仿生機器人的姿態控制具有重要意義,當已知腳端位置時能夠精確確定每個關節的旋轉角度。
2.2 研究成果
研究人員完成了多個核心環節的開發與設計工作,包括SolidWorks設計與建模、OpenCV視覺功能開發、零部件材料選擇、電機選型以及傳感器配置,保證系統功能齊全、高效。
在形體設計方面,本文完全DIY設計機器人,包括所有關鍵部件,例如關節、足部和外殼等。研究人員利用SolidWorks進行設計與建模,完成了整體的裝配工作,保證機器人結構合理、穩固,運動性能高。
在視覺系統方面,本文使用OpenCV庫,并采用Python編寫了專用的視覺處理算法。實時處理攝像頭采集的數據,使機器人能夠識別物品、進行檢測并鎖定追蹤目標,YOLOv3 算法效果如圖4所示。
本文對視覺識別程序進行了多次優化,包括選擇更合適的濾波器,調整閾值參數以及優化算法流程,以提高識別的精準性和實時性。本文在仿真環境中調試了機器人的運動表現,完成了更逼真的動畫演示。
本文設計的沙漠黃金車輪蜘蛛仿生進行了對應的仿真試驗,試驗結果表明可以實現基本行走功能、視覺(尋找物體)功能和變形翻滾功能,未來會進一步優化吐絲功能。仿生機器人可以適應不同的地形條件,并且視覺功能出色,因此用途非常廣泛,例如可以應用于垃圾檢索和環保領域。
3 結語
本文對黃金車輪蜘蛛進行仿生研究,設計并制作了一款模仿黃金車輪蜘蛛的六足機器人。對機器人進行運動仿真,利用樹莓派控制總線舵機實現機器人的基本行走和變形翻滾功能,并加入視覺模塊以拓展更多功能。機器人可以適應多種地形,承擔多個領域的任務,具有一定實用性。
參考文獻
[1]姜樹海.仿生甲蟲六足機器人結構設計與步態分析[J].南京林業大學學報 (自然科學版),2012(36):115-120.
[2]王立權.兩棲仿生機器蟹模型建立與步行足協調控制技術研究[D].哈爾濱:哈爾濱工程大學,2003.
[3]劉仲成.仿生螳螂六足機器人設計與調試[J].黑龍江科技信息,2018(13):142-143.
[4]黃麟,韓寶玲,羅慶生,等.仿生六足機器人步態規劃策略試驗研究[J].華中科技大學學報:自然科學版,2007(12):4.
[5]郭建,梁永杰,張曉佳,等.基于步態規劃的六足機器人運動學分析與計算[J].機床與液壓,2023,51(5):66-73.