999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于人體姿態信息的無人機人機交互實現*

2018-06-05 01:44:52伊國興
傳感器與微系統 2018年6期
關鍵詞:前景分類信息

楊 喆, 伊國興

0 引 言

為了使無人機(unmanned aerial vehicle,UAV)具有更廣泛的用途,如何讓無人機更加智能化成為了擴大無人機應用的關鍵。瑞士蘇黎世聯邦工業大學[1]設計的無人機使用計算機視覺實現了對未知地區的探索。香港科技大學的沈劭劼等人[2]通過激光測距儀與微軟Kinect傳感器對室內地圖進行了重建,并在無人機上搭載嵌入式計算機實現自主飛行。隨著計算機硬件技術的不斷發展,人工智能技術也在近幾年內取得了突破[3~5]。如果將最新的人工智能技術應用的無人機行業中,將能夠大幅提高無人機的智能水平。

目前來看,無人機較為復雜的控制方式阻礙了消費級無人機的推廣。本文提出了使用人體姿態信息完成與無人機的交互任務,并在機載嵌入式計算設備上完成了部署,達到了20幀/s的處理速度。通過使用該方法,用戶可以拋開傳統的依賴遙控器的人機交互方式,大幅提高了無人機使用的便捷性和自主智能程度。

1 人機交互流程

人機交互實現的核心是完成對人體姿態信息的檢測與分類。傳統的圖像信息檢測方法[6,7]運行速度慢,難以實現實時性。近年來,基于深度學習的檢測算法[8]如Fast-RCNN等使用耗時較長的Selective Search算法[9]為分類器生成候選框(region proposals),如果能夠找到一種生成候選框的替代辦法,就能夠將檢測問題轉化為分類問題,而分類問題的訓練樣本制作要簡單得多。由于人體姿態信息通常為前景目標,本文采用前景信息生成候選窗口。

為了解決無人機回傳圖像存在抖動而難以進行背景建模的問題,使用模板匹配的方法對無人機的抖動進行了補償。對補償后的圖像,使用改進的視覺背景提取(visual background extraction,ViBe)方法進行前景信息提取,并通過聚類的方法生成了可能存在人體姿態信息的候選框。串聯了兩個神經網絡分類器完成人體姿態信息的分類任務。分別用于判斷目標是否為人和對姿態信息的種類進行分類。無人機根據姿態信息的分類結果做出響應,完成人機交互任務。整個系統的工作流程如圖1所示。

圖1 人機交互基本流程

2 人體姿態信息提取

2.1 無人機回傳圖像的穩定

多旋翼無人機在飛行懸停過程中受到氣流的不穩定和控制回路的時延影響,機體會產生一定程度的震動和漂移,造成拍攝畫面的不穩定,影響到后續算法對目標的檢測與跟蹤工作。無人機本身通過添加防震墊圈,為相機配備云臺等手段從物理上減弱了震動。本文通過算法補償無人機的震動與漂移。

通過實驗與觀察發現,無人機在懸停時圖像中存在的變化主要體現在水平與豎直方向上的平移變化。在整幅圖像中,實際位置會發生變化的前景目標只占一小部分,而占大部分區域的背景在穩定的圖像中的位置應當維持不變。同時,由于無人機懸停時的漂移變化是小運動,因此,可以保證圖像中間部分在下一幀當中依然出現。因此,只要將占圖像大部分區域的背景匹配對齊,即可消除圖像的水平與豎直方向上的平移變化。使用模板匹配法可以很好地解決這一問題。

對新采集的一幀圖像,在圖像上滑動與模板圖像相同大小的窗口并計算二者的差異,可以獲得在該位置上模板與圖像的相似度。衡量相似度的標準為

(1)

式中R為模板在圖像各個位置上的相似度,該值越小表明越相似;T為模板的像素值;I為圖像原圖的像素值。

對整個圖像都進行遍歷移動計算后,可以獲得一個偏移相似度矩陣。求取該矩陣中的最小值,最小值所在的下標即為無人機震動造成的圖像的偏移量。

2.2 使用前景信息生成候選框

人體姿態信息通常屬于前景信息。為了獲取前景信息,首先需要完成背景建模工作,主要解決無人機震動和光照影響。ViBe是一種像素級的背景建模、前景檢測算法,具有較高的運行速度。通過對該算法進行改進,完成了對無人機懸停時拍攝的圖像的背景建模。

首先對讀入的圖像進行穩定算法處理,消除無人機震動帶來的圖像抖動。采集前30幀圖像建立背景模型。對每個像素點都建立長度為30的樣本庫,保存前30幀的樣本信息。對后續的圖像,逐個像素點與樣本庫比對并計算距離L

(2)

式中L代表在讀入圖像像素點與樣本庫的距離,該值越大,表明該點越可能為前景;Ti為樣本庫中的第i個樣本的像素值;I為輸入圖像在(x,y)處的像素值;1{·}為示性函數,當中括號中的條件為真時取1,否則,取0;θ為判斷樣本庫與當前像素是否相似的閾值,根據實驗取經驗值20。

若計算L<10,將該點視作背景;否則,歸為前景。為了適應戶外光照的變化,對ViBe方法的背景模型更新策略進行了改進。當該點歸為背景時,使用該點的像素值替換樣本庫中在時間上最老舊的樣本,加速陳舊信息的消除,以適應光照變化。計算完成后可以獲得一幅與輸入圖像大小相同的二值圖像,其中前景像素點值為1,背景像素點值為0。對該圖像進行聚類處理,可以生成可能含有目標的候選窗口。本文使用非極大值抑制消除位置重疊的候選窗口。

3 人體姿態信息分類

3.1 目標類別分類器設計

對獲得的所有候選框提取出框內的圖像信息并進行分類,為了保證目標完整的出現在框內,對候選框的長寬放大1.2倍,再將框內圖像送入分類器分類。

由于該分類器僅考慮解決二分類問題,選擇使用AlexNet網絡訓練人體目標分類器。

1)輸入層與數據預處理

本文主要研究對站立人體的分類,因此,使用輸入尺寸為128×64的紅綠藍三原色(RGB)彩色圖像能夠較好地保留人體的特征又不會占用過多的空間。

由于采集的圖像的高度與寬度不定,使用雙線性插值將圖像縮放到與輸入層相同的大小。為了保留圖像的邊緣特征,不對縮放后的圖像進行濾波處理。受到光照,拍攝條件等因素的影響,不同的圖像數據間還可能存在偏差,因此,對縮放后的圖像進行去均值處理。計算所有樣本的圖像的各個通道中每個像素點的均值,每個輸入樣本均減去該均值。

2)卷積層與池化層提取特征

卷積層的計算公式為

(3)

式中l為卷積神經網絡的層數;k為卷積核;M為卷積核在上一層的感受野;b為卷積核的偏置。AlexNet網絡含5個卷積層。其中第一個卷積層卷積核大小為11×11,第二個卷積層為5×5,后面三個卷積層卷積核大小均為3×3。

采用池化操作可以降低特征維數,并使網絡具備平移不變性,抵抗數據的平移。池化層通常接在卷積層之后,將N×N區域的特征聚合到一個特征中。本文采用最大值池化。

3)全連接層與輸出層

卷積神經網絡在最后一層池化層后連接了多層全連接層用于完成特征序列到分類類別的映射,最后一層使用Softmax分類層輸出各類別的概率。

3.2 人體姿態分類器設計

定義4種容易擺出并且區別較大的姿態,如圖2(a)所示。為了保證無人機使用的安全性,需要設計姿態作為無人機對人體姿態信息的響應開關。將圖2(a)從左到右4個姿態對應的無人機指令設計為:開啟無人機對人體姿態信息的響應;關閉無人機對人體姿態的信息的響應;向右飛行,向左飛行。

圖2 人體姿態數據集

為了獲得較好的分類效果,除了要獲取人體所在區域信息之外,還需要盡可能準確地預測出人體的輪廓,去除周邊背景等因素的干擾。由于之前的目標檢測過程中已經進行了背景建模,本文采用前景信息獲取的方法剔除背景因素的干擾,既能夠提高分類效果,也能夠減少計算開銷,提取后的姿態信息如圖2(b)所示。

經過實驗測試,發現使用2層的全連接神經網絡進行訓練即可夠獲得很高的分類準確率,并且相較于復雜的卷積神經網絡,該方法的計算開銷與運行時間亦顯著降低。

4 實驗與驗證

4.1 無人機實驗平臺搭建

使用飛越Tarot 650四旋翼無人機機架和Pixhack開源飛控為主體搭建了一架無人機,并在無人機上搭載了Gopro相機,雙軸云臺和Odroid XU4嵌入式計算機。Odroid-XU4使用2.0 GHz基于ARM架構的處理器作為運算單元,擁有2 GB內存空間和64 GB存儲空間,具有強大的計算能力,較低的功耗和小巧的封裝尺寸,十分適合作為機載嵌入式計算設備。

該無人機的相關參數指標:最大飛行速度為54 km/h,最大飛行高度為1 000 m,最大數據傳輸距離為2 km,姿態測量精度為1°,水平方向定位精度為1 m,垂直方向定位精度為1.5 m,最大起飛重量為4 kg,空載重量為2.9 kg,續航為空載20 min,滿載12 min,對角電機軸距為650 mm。相關參數基本滿足實驗需求。

4.2 圖像穩定處理

對獲取到的圖像進行去抖動穩定處理。圖3(a)所示為無人機上拍攝到未經穩定算法處理時臨近2幀差分的結果,圖3(b)為經過穩定算法處理后臨近2幀差分的結果。可以明顯發現:在圖3(a)中由于無人機的震動導致了畫面后方的欄桿在相鄰兩幀間出現了明顯的位移,而圖3(b)中兩幀的欄桿基本已經重合,證明了算法實現了對無人機的震動對圖像造成影響的補償。

圖3 圖像穩定算法效果

4.3 前景信息提取與候選框生成

在無人機懸停并且成功對背景進行重構的情況下,可以利用前景信息完成目標檢測任務。圖4(a)為無人機拍攝到的一幀原始圖像,圖4(b)為使用改進的ViBe法提取到的前景信息。為了實現多目標檢測,圖像劃分為8×6個區塊,對每個區塊統計可能含有前景目標的概率。圖4(c)為對4(b)進行概率統計后的結果,圖中可能含有前景目標的區塊用黑色標識。圖4(d)為對圖4(c)的可能區域進行聚類操作并使用非極大值抑制剔除重復框后得到的結果,可見該方法能夠較好地完成目標檢測任務。

圖4 候選框生成

4.4 目標種類分類器

為了簡化問題并提高穩定性,僅對站立的人進行分類,而行人的特征與本文要求一致,因此,使用INIRIA INRIAPerson行人數據集作為訓練樣本進行訓練。INRIAPerson數據集的訓練集中包含614張含有行人的正樣本圖片和1 218張不含行人的負樣本圖片,圖片中人體大部分為站立姿勢且大于100個像素。

圖5為目標種類分類器的訓練過程。在經過2 000批次的迭代訓練后,網絡在INIRAPerson數據集上分類準確率達到97.6 %。整個訓練過程中損失函數變化如圖5(a)所示,分類準確率變化如圖5(b)所示,發現,經過1 500次迭代后,網絡已經趨于穩定。

4.5 人體姿態分類器

對圖3的每一種姿勢,均采集了1 200張圖像,不同的圖像間手張開的角度和拍攝角度均有一定的不同,并采集了2 000張其他不同的姿勢作為背景樣本。將1 200張圖像其中1 000張作為訓練集,另200張作為測試集,送入一2層的全連接神經網絡進行訓練,在訓練前對所用樣本均進行了去均值處理。經過每批次100張圖片輸入,共400次迭代后,分類器的分類正確率達到了99.7 %,整個訓練過程中分類準確率與損失函數變化分別如圖5(c)和圖5(d)所示。

圖5 分類器訓練結果

4.6 算法運行效率分析

為了驗證本文方法在嵌入式計算機上的實時性,對整個系統各個環節的運算耗時進行了統計,并與當下流行的用于檢測任務的Faster R-CNN進行了對比。對本文各算法部分在Odroid-XU4上處理一張大小為640×480的RGB圖像所花費的時間統計,圖像穩定為16.7 ms,前景信息提取為23.6 ms,目標種類分類器為12.2 ms,人體姿態分類器為2.4 ms,單張圖片耗時總計為54.9 ms。

整個系統在Odroid-XU4上可以達到約20/s幀的處理速率。而Faster RCNN檢測算法由于在機載嵌入式計算機上缺乏GPU計算資源,處理一張圖片平均需要花費19 s,處理速率十分低下。通過對比可見,相比目前的卷積神經網絡檢測算法如Faster RCNN等本方法在運算速度上有很大優勢,具有實際應用價值。

5 結 論

設計了一種采用人體姿態信息完成無人機人機交互的方法。整個系統能夠在機載嵌入式計算機上實現實時性,大幅提高了無人機的自主智能程度。

參考文獻:

[1] Fraundorfer F,Heng L,Honegger D,et al.Vision-based autonomous mapping and exploration using a quadrotor MAV[C]∥IEEE/RSJ International Conference on Intelligent Robots and Systems,IEEE,2012:4557-4564.

[2] Shen S,Michael N,Kumar V.Autonomous indoor 3D exploration with a micro-aerial vehicle[C]∥IEEE International Conference on Robotics and Automation,IEEE,2012:9-15.

[3] Krizhevsky A,Sutskever I,Hinton G E.ImageNet classification with deep convolutional neural networks[C]∥International Conference on Neural Information Processing Systems,Curran Associates Inc,2012:1097-1105.

[4] Everingham M,Gool L V,Williams C K I,et al.The pascal visual object classes (VOC) challenge[J].International Journal of Computer Vision,2010,88(2):303-338.

[5] 田淵棟.阿法狗圍棋系統的簡要分析[J].自動化學報,2016(5):671-675.

[6] Forsyth D.Object detection with discriminatively trained part-based models[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2010,32(9):1627-1645.

[7] Dalal N,Triggs B.Histograms of oriented gradients for human detection[C]∥IEEE Computer Society Conference on Computer Vision and Pattern Recognition,CVPR 2005,IEEE,2005:886-893.

[8] Girshick R,Donahue J,Darrell T,et al.Rich feature hierarchies for accurate object detection and semantic segmentation[C]∥Computer Vision and Pattern Recognition,IEEE,2014:580-587.

[9] Uijlings J R R,Sande K E,Gevers T,et al.Selective search for object recognition[J].International Journal of Computer Vision,2013,104(2):154-171.

猜你喜歡
前景分類信息
分類算一算
我國旅游房地產開發前景的探討
法德軸心的重啟及前景
離岸央票:需求與前景
中國外匯(2019年11期)2019-08-27 02:06:32
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
量子糾纏的來歷及應用前景
太空探索(2016年10期)2016-07-10 12:07:01
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
主站蜘蛛池模板: 美女毛片在线| 少妇精品久久久一区二区三区| 日本免费福利视频| 91福利片| 亚洲91精品视频| 免费无码又爽又刺激高| 欧美午夜视频在线| 国产亚洲成AⅤ人片在线观看| 51国产偷自视频区视频手机观看| 精品免费在线视频| av尤物免费在线观看| 欧洲欧美人成免费全部视频| 亚洲日韩日本中文在线| 中文字幕在线看| 91综合色区亚洲熟妇p| 国产人前露出系列视频| 免费av一区二区三区在线| 国产特级毛片aaaaaa| 亚洲精品欧美日本中文字幕| 97精品伊人久久大香线蕉| 国产精品免费福利久久播放| www亚洲天堂| 国产在线高清一级毛片| 免费一级α片在线观看| 91探花国产综合在线精品| 亚洲无限乱码一二三四区| 国内精品手机在线观看视频| 欧美日本视频在线观看| 国产又色又爽又黄| 中文字幕中文字字幕码一二区| 日韩欧美综合在线制服| 欧美午夜在线播放| 中美日韩在线网免费毛片视频| 欧美在线导航| 欧美午夜精品| 亚洲中文字幕在线一区播放| 欧日韩在线不卡视频| 国产高清自拍视频| 国产a网站| 欧美 国产 人人视频| 国产自无码视频在线观看| 色综合天天娱乐综合网| 国产91av在线| 永久免费无码成人网站| 54pao国产成人免费视频| 亚洲成年人片| 国产精品久久久久久久久| 波多野结衣在线se| 欧美精品在线免费| 国产欧美视频在线| 99视频在线观看免费| 国产AV毛片| 婷婷六月激情综合一区| 日韩A∨精品日韩精品无码| 在线毛片免费| 亚洲五月激情网| 亚洲无码电影| 日本一本在线视频| 欧美亚洲激情| 久久这里只有精品2| 免费观看三级毛片| 欧美日韩资源| 国产成a人片在线播放| 亚洲成A人V欧美综合| 99爱在线| 毛片视频网址| 亚洲精品桃花岛av在线| 成年av福利永久免费观看| 久久91精品牛牛| www.99在线观看| 日本亚洲欧美在线| 免费国产小视频在线观看| 久久亚洲高清国产| 亚洲第一国产综合| 全部毛片免费看| 97久久超碰极品视觉盛宴| 亚洲bt欧美bt精品| 亚洲 欧美 偷自乱 图片| 欧美日韩国产在线观看一区二区三区| 99热国产在线精品99| 午夜国产精品视频黄 | 国产精品一线天|