999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于局部二值特征和BP神經網絡的頭部姿態估計*

2019-01-15 08:15:32陸清正葉慶衛陸志華
傳感器與微系統 2019年2期
關鍵詞:特征模型

陸清正, 周 宇, 葉慶衛, 陸志華

(寧波大學 信息科學與工程學院,浙江 寧波 315211)

0 引 言

頭部姿態估計[1~4](head pose estimation,HPE)通常是指在圖像或者視頻中判斷人體頭部在三維空間中的朝向問題,即在一個空間坐標系內識別頭部的姿態參數,一般通過垂直轉動仰俯角(pitch)、水平轉動的偏航角(yaw)、左右轉動的旋轉角(roll)三個方向的自由度來描述。由于人臉姿態的差異,光照條件,背景變化以及可能存在的遮擋問題等各種因素的影響,頭部姿態估計仍然面臨著很大挑戰。

基于模型的方法和基于外觀的方法是頭部姿態估計常用的兩類方法。利用基于模型的方法,Wang J G等人[5]使用6個關鍵特征點(2個外眼角,2個內眼角和2個嘴角)來估計姿態,假設2個眼角和嘴角大致在同一平面上。當模板集很大時,一些基于模型的方法的效率則會無法保證。Lanitis A等人[6]使用主動形狀模型(active shape model,ASM)提取臉部特征,并采用貪婪搜索來匹配特征點。Sung J等人[7]提出將人臉形狀初始化為圓柱模型,并結合主動外觀模型(active appearance model,AAM)的方法。這類算法的主要優點是實現簡單、速度較快并易于理解,但算法的精度很大程度上依賴于特征提取的準確度如人臉特征點的定位準確度。在人臉存在較大偏轉或嚴重遮擋的情況下,模型特征提取的準確度無法保證,可能會給最終頭部姿態的估計造成很大的誤差。

利用基于外觀的方法,Balasubramanian V N等人[8]提出了有偏集的流形嵌入框架,在確定低維嵌入之前,利用人臉圖像的姿態角信息計算特征空間中每個點的偏置鄰域。Huang D等人[9]提出了一種從稀疏非均勻采樣訓練集中學習局部線性模型的有監督局部子空間的學習方法。基于外觀的方法不需要獲得人臉關鍵點位置,在頭部旋轉角度較大時也能實現準確估計。但其性能在很大程度上受到人臉圖像的特征提取以及訓練學習方式的影響[10]。

本文在前人工作的基礎上,首先通過回歸局部二值特征(local binary features,LBF)[11]訓練隨機森林獲得人臉關鍵點的位置坐標,然后將人臉關鍵點位置坐標特征輸入反向傳播(back propagation,BP)神經網絡進行分類器的訓練,最終實現頭部姿態的估計,降低了特征提取的復雜度,避免了大量樣本的訓練過程,同時保證了在頭部偏轉角度較大情況下的識別率。

1 基于LBF的人臉特征點提取模型

本文采用LBF提取算法來獲取人臉的68個關鍵特征點位置(圖1),包括眼睛、鼻子、嘴、眉毛和人臉邊緣輪廓點等。

圖1 人臉68個關鍵特征點位置

基于LBF提取算法采用形狀回歸的方法通過不斷級聯預測人臉形狀S。對于初始形狀S0,通過逐級預測形狀增量ΔS,逐漸更新S,在第t級中,預測得到的形狀增量ΔSt為

ΔSt=WtΦt(I,St-1)

(1)

式中I為輸入圖像,St-1為前一級得到的人臉形狀,Φt為特征映射函數,Wt為線性回歸矩陣。Φt由I和St-1決定,則t級的人臉形狀為

St=St-1+ΔSt

(2)

對于每個單獨的特征點獨立學習局部特征映射函數,進而提取LBF,然后聯合所有的局部特征獲得Φt,最后通過線性回歸學習得到Wt,實現人臉特征點的準確定位。

1.1 生成LBF

(3)

1.2 全局線性回歸特征提取模型

將全部特征點的LBF串連得到全局特征映射函數Φt,通過優化以下目標函數最小化學習全局線性回歸矩陣Wt

(4)

全局線性回歸能夠完成全局形狀約束,從而降低因模糊或遮擋引起的局部誤差。算法采用先局部、再整體的思想,對于輸入圖像I,先通過訓練好的隨機森林實現LBF的提取,從而得到特征映射函數Φt,再利用全局線性回歸矩陣Wt回歸得到中間形狀,并不斷迭代獲得魯棒的人臉68個關鍵點提取模型。

2 基于BP神經網絡的頭部姿態估計算法

BP神經網絡[14]中的每個神經元作為一個單獨的感知器單元,每個單元的輸出值是根據上一層所有單元的輸出值、當前單元與上一層所有單元的權值和當前單元的閾值通過激活函數運算得出的。

假設一個典型的3層BP神經網絡的輸入層、隱含層和輸出層的神經元數目分別是N,L,M。X=[x0,x1,…,xN-1]為輸入層的輸入向量,H=[h0,h1,…,hL-1]為隱含層輸出向量,Y=[y0,y1,…,yM-1]為輸出層的實際輸出向量,D=[d0,d1,…,dM-1]為輸出層的目標輸出向量。輸入層神經元i和隱含層神經元j之間的權值為wij,而隱含層神經元和輸出層神經元之間的權值為wjk,隱含層神經元和輸出層神經元的閾值分別為φj和φk,則隱含層和輸出層各神經元的輸出為

(5)

由于不同頭部姿態的人臉偏轉角度不同,造成人臉特征點位置坐標存在差異,關鍵特征點間的相對位置特征也會發生變化,同一姿態下的人臉特征點間的相對位置具有相似的距離分布特征,不同姿態下的人臉特征點間的距離分布特征不盡相同。算法結合基于LBF的人臉關鍵特征點提取模型,利用BP神經網絡能夠實現任何復雜非線性映射的分類能力的特點,將人臉68個關鍵特征點的位置坐標特征作為BP神經網絡的輸入向量,在不同頭部姿態的目標輸出結果與輸入向量間建立映射關系,算法的具體訓練過程如下:

1)選定訓練集。使用標準人臉數據集訓練人臉特征點提取模型,用訓練好的特征提取模型獲得標準頭部姿態數據集的人臉68個特征點位置坐標集合,作為BP神經網絡的輸入訓練集。

2)創建并初始化BP神經網絡。創建含有1層輸入層、2層隱含層和1層輸出層的BP神經網絡,用接近于0的隨機值設置各層權值wij,wjk和閾值φj和φk,并設置迭代次數η、期望誤差ε和學習率α。

3)將訓練集的人臉68個關鍵特征點位置作為輸入向量X傳入BP神經網絡網絡輸入層,并根據頭部姿態類別設定預期目標輸出向量D。利用式(5)計算隱含層輸出H,和輸出層的實際輸出向量Y。

4)將實際輸出向量Y中的yk與目標輸出向量D中的dk進行比較,計算出各個網絡層的誤差項,根據誤差項更新各個網絡層的權值和閾值。

5)按更新后的權值與閾值重新計算網絡層輸出向量,判斷輸出均方誤差

(6)

判斷E是否小于期望誤差ε或是否達到迭代次數η:若是,則停止訓練,保存參數,退出;否則,返回步驟(3)繼續迭代。

3 實驗與結果分析

3.1 實驗設置

本文實驗部分在計算機開源視覺庫OpenCV上進行。在人臉特征點提取模型訓練階段,使用LFPW數據集[15]和HELEN數據集[16]的訓練集共同組成的數據集,共2 811張人臉圖像訓練隨機森林,生成基于LBF的人臉特征點提取模型,準確提取標準頭部姿態數據集的人臉68個關鍵特征點位置坐標集合,作為BP神經網絡的輸入訓練集。

圖2 人臉68個關鍵特征點定位效果

在頭部姿態估計階段,使用CAS-PEAL-R1等數據集[17]進行BP神經網絡的訓練。在該數據集中,將頭部姿態在yaw方向上分為0°,±15°,±30°,±45°共7個姿態,如圖3所示。選取編號從401~600共200個被試者的1 400張人臉圖像作為實驗數據集,進行三折交叉驗證實驗,即將1 400張人臉圖像分為3個子集,采用其中一個子集作為測試集,剩下的兩個子集作為訓練集。對訓練集中的每一張人臉圖像使用已經得到的基于LBF的人臉特征點提取模型獲取人臉68個關鍵特征點坐標,作為BP神經網絡的一個輸入向量,并設定對應的目標輸出向量。BP神經網絡的迭代次數設定為10 000次,期望誤差值設定為0.000 1,學習率為0.001。

圖3 CAS-PEAL-R1數據集中yaw方向頭部姿態

3.2 實驗結果與對比

3.2.1 CAS-PEAL-R1數據集上的實驗結果

為了方便驗證所提出算法的效果,選取使用相同實驗數據集的文獻方法進行對比。文獻[18]使用基于局部Gabor二值模式(local Gabor binary pattern,LGBP)的多視圖人臉,然后將LBF編碼成緊湊的特征直方圖,訓練支持向量機(support vector machine,SVM)分類器來估計頭部姿態;文獻[19]采用基于Gabor特征的隨機森林作為分類技術,利用線性判別分析(linear discriminant analysis,LDA)作節點分類,提高隨機森林中單棵回歸樹的判別能力,實現頭部姿態估計。在訓練樣本數為934,測試樣本數為466條件下,文獻[18,19]和本文方法的識別率分別為97.14 %,97.23 %,98.57 %,在相同的頭部姿態實驗數據集下,本文方法的頭部姿態估計準確率更高,取得了更好的效果。

3.2.2 Pointing’04數據集上的實驗結果

為進一步驗證算法的有效性,使用Pointing’04數據集[20]進行相同的實驗。該數據集由15個被試者的兩組不同情況的圖像組成,每組包含不同光照、膚色差異以及是否佩戴眼鏡等的圖像,如圖4所示。選取yaw方向為0°,±15°,±30°,±45°,pitch方向為0°,±15°,±30°的1 050張人臉圖像,共7個不同yaw方向的偏轉角度作為分類標簽,不同pitch方向角度但相同yaw方向角度屬于同一類姿態,進行三折交叉驗證實驗。BP神經網絡參數采用同上的設置,使用平均絕對誤差(mean absolute error,MAE)對算法性能進行評估比較。

圖4 Poingting’04數據集中yaw方向頭部姿態

實驗結果為:文獻[21]提出了一種利用區域對稱性來估計頭部姿態的方法,基于Gabor濾波器和協方差描述符的有效組合(CovGa),平均絕對誤差為6.24°;文獻[22]基于Fisher核圖像框架分類方法,對于圖像的每個像素計算9維局部描述符,并由局部描述符的Fisher矢量(VoD)編碼生成圖像的全局表示,取得了較好的頭部姿態估計效果,平均絕對誤差為4.59°;文獻[23]基于方向梯度直方圖(histogram of oriented gradients,HOG)特征提出一種多元標簽分布(multiple label distribution,MLD)的方法,平均絕對誤差為4.24°。本文方法MAE為3.90°,與其他最新的方法相比,頭部姿態估計的平均絕對誤差更低,在光照變化及遮擋的情況下具有較高的魯棒性。

4 結 論

本文基于LBF的人臉特征點定位方法不需要復雜的人臉形狀等表觀建模以及訓練過程,使用隨機森林回歸模型在局部區域學習稀疏的二值化特征,大大減少了運算開銷,解決了人臉特征點定位準確率不足的問題,在人臉偏轉角度較大的情況下也能實現關鍵特征點的精確定位。同時結合BP神經網絡,較現有的深度學習算法如卷積神經網絡(convolutional neural network,CNN)[24]等具有結構簡單、實現方便、無需大量的訓練樣本數據和運算量等特點,通過利用不同人臉姿態的關鍵特征點的相對距離變化等簡單特征,而無需復雜的特征提取過程和額外的硬件要求,簡單高效地實現了頭部姿態的準確估計。下一步將對更加精細的頭部偏轉角度及其他方向的頭部姿態的估計進行研究。

猜你喜歡
特征模型
一半模型
抓住特征巧觀察
重要模型『一線三等角』
新型冠狀病毒及其流行病學特征認識
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 国产精女同一区二区三区久| 日本一区二区三区精品AⅤ| 免费无码网站| 国模沟沟一区二区三区| 久久一本精品久久久ー99| 国产精品伦视频观看免费| Jizz国产色系免费| 色婷婷狠狠干| 午夜久久影院| 国产麻豆精品久久一二三| 又污又黄又无遮挡网站| 91青青在线视频| 成人国产三级在线播放| 色综合综合网| 日韩AV手机在线观看蜜芽| 狠狠干欧美| 国产免费精彩视频| 91娇喘视频| 亚洲国产午夜精华无码福利| 国产区人妖精品人妖精品视频| 九色国产在线| 91无码网站| 69综合网| 精品国产www| 国产高潮视频在线观看| 一本久道久久综合多人| 亚洲天堂精品在线观看| 欧美视频二区| 亚洲综合久久成人AV| 首页亚洲国产丝袜长腿综合| 2021无码专区人妻系列日韩| 男女猛烈无遮挡午夜视频| 欧美日韩国产系列在线观看| 日韩亚洲高清一区二区| 在线观看视频99| 欧美高清日韩| 久久精品中文字幕免费| 精品人妻无码中字系列| 日韩精品专区免费无码aⅴ| 午夜视频www| 8090午夜无码专区| 爽爽影院十八禁在线观看| 高潮毛片免费观看| 精品乱码久久久久久久| 高清不卡一区二区三区香蕉| 老司机久久99久久精品播放| 二级特黄绝大片免费视频大片| 亚洲国产成人精品一二区| 一级毛片无毒不卡直接观看| 白浆视频在线观看| 精品无码一区二区三区电影| 99尹人香蕉国产免费天天拍| 91久草视频| 综合人妻久久一区二区精品| 青青久在线视频免费观看| 国产偷倩视频| 国产www网站| 激情爆乳一区二区| 永久免费无码成人网站| 亚洲人成网18禁| 久久夜夜视频| 婷婷六月综合网| 欧美三级自拍| 欧美日韩综合网| 不卡的在线视频免费观看| 性做久久久久久久免费看| 久久这里只有精品8| 2021天堂在线亚洲精品专区| 国产日本视频91| 亚洲国产高清精品线久久| 国内精品视频区在线2021| 亚洲色图欧美一区| 精品国产欧美精品v| www精品久久| 国产精品手机在线播放| 免费三A级毛片视频| 91九色国产在线| 亚洲人成亚洲精品| 国产特级毛片aaaaaaa高清| 天堂成人在线| 国产亚洲视频中文字幕视频| 国产成人精品2021欧美日韩|