摘要:本文介紹了一種基于深度學習的人臉識別算法進行人臉檢測達到智能跟隨的六足機器人。該機器人系統包括人臉捕捉單元、主控制單元和行為運動控制單元。所述人臉捕捉單元是利用攝像機獲取人臉圖像或視頻并傳輸給機器人主控制單元。而主控制單元運用改進的VGGNet人臉識別算法進行人臉檢測,再根據檢測結果發出信號到行為運動控制單元完成智能跟隨,通過驅動直流電機實現六足機器人的運動。
關鍵詞:人臉識別;VGGNet;目標跟隨;六足機器人
中圖分類號:TN919.5文獻標識碼:A
機器人時代即將到來,而跟隨性機器人將成為該產業發展的下一個大趨勢。智能跟隨機器人應具有目標識別和自主導航的功能,服務于特定的目標對象,幫助人們完成任務。目前跟隨機器人的跟隨方式有基于圖像處理、基于激光傳感器等的跟隨技術。
圖像處理方式對目標的跟蹤容易丟掉信息;如果采用基于激光傳感器的跟隨技術對目標人物的采集方法較為單一,易受環境中相似物體干擾。
本文設計實現了一種基于人臉追蹤進行智能跟隨的六足機器人。該機器人使用目前效果較好的改進的VGGNet算法進行目標檢測,檢測出圖像中目標人臉后,觸發跟蹤器,對顯著運動目標進行高速、精確的跟蹤。
1 基于深度學習的人臉識別算法
1.1 改進的VGGNet算法
VGG是谷歌公司參與Imagenet競賽的一個模型,對于圖像分類的效果很好。本文采用改進的VGGNet對目標人臉進行特征提取,旨在獲取更精確的人臉圖像特征,它對特征提取的方法明顯優于傳統局部特征提取算法。改進的VGGNet網絡結構是在池化方式中用均值下采樣層代替單元模塊5的最大池化層。該方法既不會較大影響網絡性能,還可以提取更精確的人臉圖像特征,用該方法,單元模塊5需保存的數據計算量僅為之前的1/25,從而達到節省存儲空間的效果。對卷積核數目而言,該方法將單元模塊5中卷積核數目500更改到700,旨在獲取更詳細的人臉圖像特征信息,但也縮短了網絡的訓練時間,并且增多了網絡參數,對計算機硬件內存的要求進一步提高。最后是針對全連接層,該算法使用VGGNet神經網絡提取人臉圖像的特征,然后用PCA對獲取的人臉圖像特征降低維度,進而用SVM分類器完成對人臉圖像的識別。VGGNet網絡結構中保留了全連接層1和2,去掉全連接層3,目的是更充分的保留人臉圖像特征信息。
1.2 算法識別效果
用已改進的VGGNet深度卷積神經網絡對FLW人臉數據庫中的人臉圖像提取特征,經實驗驗證使用PCA降低維度后的識別效果如下表所示:
根據上表看出,將得到的深度特征不降維進行分類識別的情況下,識別率為95.2%;而將深度特征進行PCA降維進行分類識別,識別率會根據降低的不同維度發生變化,但效果均高于不將維的效果,當維數在到800左右時,算法識別效率最好,達到95.70%。因此本文將采用上述效果最好的算法。
2 機器人控制系統設計
2.1 機器人控制系統總體框架
六足機器人采用仿生學設計,仿真原型是六足昆蟲,因為其獨特的機械結構,擁有很好的自調節能力,對復雜環境有較強的應變能力。相較于輪式機器人,履帶式機器人等地面運動機器人,六足機器人對于復雜地形適應性更強,穩定性更高,移動更靈活。該六足機器人總體思路為stm32處理器接受來自VGGNet算法提供的信息并在處理后生成控制命令發送至32路舵機控制板生成PWM波控制六足機器人底盤各個舵機的運動,從而實現目標跟隨運動。
2.2 六足機器人的步態控制
六足機器人的步態是多種多樣的,三腳架步態是六足機器人的典型步態。圖2中,機器人在水平和垂直方向上運動時,B,D,F腳為擺動腳,向水平或垂直方向擺動,A,C,E腳保持原有位置不動,只發揮支撐作用。由于機器人重心較低,移動時Z軸方向幾乎沒有抖動,不需要協調,所以該方案得到廣泛的應用。
2.3 機器人跟隨實現
在六足機器人根據VGGNet識別到的目標人臉調整自己的位置并進行跟隨。該機器人能夠自動跟隨的基本原因是系統根據視覺目標算法獲取了自身與目標人臉位置坐標,目標人臉的位置移動時,機器人自身也會跟隨移動與目標保持固定的距離。例如目標人臉坐標是(300,300),攝像頭圖像中心坐標是(200,200)此時的目標人臉在攝像頭右上方,向控制板發出調整位置的信息,機器人立刻向右運動同時攝像頭仰角變大,正對目標人臉后,目標形心將鎖定于圖像中心區域(190210,190210),隨后調整與目人臉的距離,根據目標人臉鎖定框面積值,控制機器人前進或后退,這個過程中機器人一直保持著正對人臉。對于靜止或運動的目標人臉,機器人都可以用該方式穩定跟隨。
3 實驗結果分析
基于深度學習的人臉識別跟隨六足機器人。采用改進的VGGNet人臉識別算法完成對視頻中的人臉進行識別,融入機器視覺算法和自動控制系統的六足機器人對目標人臉進行自動跟隨。在行為運動控制單元采用的嵌入式
處理器可以高效控制六足機器人前進后退和轉向等。實驗結果如圖2。
通過調整目標人臉與機器人之間的距離,六足機器人會自動完成前進后退和轉向等指令理控制機身完成目標跟隨。
4 結語
本文提出了一種基于深度學習的人臉識別跟隨六足機器人,機器人的攝像頭通過融合改進的VGGNet人臉識別算法完成對人臉的識別與檢測,再利用先進的機器視覺的跟蹤算法長期、穩定并精確地跟隨并鎖定目標。再根據電腦端運行的機器視覺目標算法獲取自身與目標人臉位置坐標關系,從而調整機身位置,達成高效控制六足機器人轉向。為后續研究提供了基礎,對于智能機器人的發展具有深遠應用研究價值。
參考文獻:
[1]易詩,張磊,謝子瓊,張健.基于機器視覺的目標跟隨六足機器人[J].重慶郵電大學學報(自然科學版),2017(4).
[2]馬良慧.基于深度學習的人臉識別算法研究[D].
[3]楊巨成,劉娜,房珊珊.基于深度學習的人臉識別方法研究綜述[J].天津科技大學學報,2016(6).
[4]童林.基于視頻的人臉識別與跟蹤算法研究[J].計算機與現代化,2013(2):14.
Reference:
[1]Yi Shi,Zhang Lei,Xie ZiQiong,Zhang Jian.Target following hexapod robot based on machine vision[J].Journal of chongqing university of posts and telecommunications(natural science edition),2017(4).
[2]Ma LiangHui.Research on face recognition algorithm based on deep learning[D].
[3]Yang JuCheng,Liu Na,Fang ShanShan.Research review of face recognition methods based on deep learning[J].Journal of tianjin university of science and technology,2016(6).
[4]Tong Lin.Research on face recognition and tracking algorithm based on video[J].Computer & modernization,2013(2):14.
基金項目:國家大學生創新創業項目,基于深度學習的人臉識別跟隨機器人,項目編號:201810616033負責人:張洋溢;成都理工大學學生課外科技立項項目,基于深度學習的人臉識別跟隨機器人,項目編號:2018KJY0200 負責人:張洋溢
作者簡介:張洋溢(1998),男,四川成都人,成都理工大學本科生,主要從事電子信息科學與技術專業。