999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種基于深度學習的頭部姿態估計模型*

2022-03-17 10:17:06劉亞飛王敬東林思玉
計算機與數字工程 2022年2期
關鍵詞:特征信息模型

劉亞飛 王敬東 劉 法 林思玉

(南京航空航天大學自動化學院 南京 211106)

1 引言

頭部姿態作為進行人體行為分析的重要手段,在社區安防、智能家居以及室內行為監控等領域得到廣泛應用。頭部姿態估計是指計算機通過對輸入圖像或者視頻序列進行分析、預測,確定人的頭部在三維空間中的位置以及姿態參量[1]。如圖1所示,頭部的姿態包括俯仰角(pitch),偏航角(yaw)和翻滾角(roll),其中,俯仰角作為頭部姿態中的關鍵信息之一,在教室學生注意力分析、判斷駕駛員疲勞狀態等方面有諸多應用,因此,本文主要針對俯仰角進行展開研究。

圖1 頭部姿態三個旋轉角度

目前,頭部姿態估計的方法有多種,主要可分為基于模型的方法和基于表觀的方法,基于模型的方法[2~4]是先獲取臉部的多個關鍵點,通過PnP 算法[5]實現2D 到3D 的轉化,構建頭部模型與姿態之間的空間立體的對應關系。但該方法在頭部轉動角度大時,難以對臉部關鍵點進行準確定位,造成頭部圖像與3D 頭部模型之間的匹配度降低。另一種基于表觀的方法[6~8]則是直接對頭部圖像進行分析,通過學習不同頭部姿態對應的角度信息,可以不受角度限制,因此受到廣泛關注。基于此方法,Patacchiola 與Cangelosi 等[6]測試了dropout 和基于自適應梯度的方法與CNN 相結合進行頭部姿勢估計的效果,提出將自適應梯度與CNN 結合使用。Nataniel 等[7]利用ResNet50 進行特征提取,并對俯仰、偏航和翻滾三個角度分別采取分類與回歸雙重損失,增強對誤差的約束。Shao 等[8]在此基礎上,研究了不同人臉邊界框對頭部姿態估計的影響,并將文獻[7]中對三個角度先分類后預測改為了回歸與分類結果同時輸出,以減小分類與回歸之間的換算誤差。

但是頭部姿態估計網絡需要提取和保留比較多的空間結構信息,如由于頭部轉動所形成的與原豎直頭部之間的俯仰角。上述基于表觀的方法均是通過使用深層次網絡以提取更多、更豐富的語義信息,而增加網絡深度就意味著需要增加相應的MaxPooling 池化層以降低參數量,加快網絡訓練速度,但由于MaxPooling 是取一定尺寸范圍內的最大值,即最顯著特征,而忽略最顯著特征所處圖像的位置與角度,使得特征丟失了原本圖像中所存在的空間結構信息。因此,構建的網絡模型一方面應當盡量避免MaxPooling 池化的使用,另一方面也應當對頭部的角度信息能夠進行有效地提取,使頭部的姿態信息傳遞至最終的輸出。

為此,本文利用膠囊網絡充分保留空間結構信息的優點,并結合傳統的卷積神經網絡進行特征提取,提出將膠囊網絡(Capsule Networks,CapsNet)[9]與傳統卷積神經網絡(Convolutional Neural Network,CNN)相結合,利用設計的三級網絡輸出特征后,將特征編碼為膠囊形式傳入膠囊網絡進行傳遞至輸出,使整個網絡既能對語義特征進行充分的提取,又能利用CapsNet特性,保留圖像中存在的姿態關系,實現對頭部姿態的準確估計。本文模型具有以下三個優點:1)采用單輸入異構雙流的特征提取結構,使不同的卷積流提取更為豐富的信息;2)采用三級輸出策略,使得每級輸出能夠提取到不同的空間結構特征和語義特征;3)將CapsNet引入其中,并在三級輸出的特征轉成膠囊向量后,以動態路由確定最終輸出,從而能夠使空間結構特征得以保留。

2 膠囊網絡

2.1 膠囊

如圖2 所示,相比于傳統的單個神經元,膠囊由多個神經元構成,因此在卷積層上,普通的單層卷積是二維,而單層的膠囊則是三維。膠囊中的每個神經元表示一種屬性,如大小、方向、色調、紋理等特征,故相對而言,膠囊可以記錄更詳細的信息。當圖像中頭部發生角度變化時,膠囊中神經元也會產生相應的變化,接著使用動態路由算法對膠囊進行篩選傳遞,進而影響最終的輸出。而傳統的CNN 由于MaxPooling 的存在,只會保存顯著特征,丟棄非顯著特征,造成空間結構信息丟失。為了更形象地將二者相區分,常用標量表示普通神經元,向量表示膠囊,向量的長度表示識別目標存在的概率,方向表示目標的各種屬性。

圖2 普通神經元與膠囊對比圖

2.2 動態路由算法

首先利用卷積神經網絡進行特征提取,并將其轉換為膠囊形式,經過姿態矩陣得到初始預測膠囊,即子膠囊。姿態矩陣用于子膠囊對父膠囊的預測,不同的姿態矩陣代表子膠囊的不同預測方向,所有子膠囊對父膠囊的預測,實際是聚類的過程,如圖3 所示,子膠囊Caps1、Caps2、Caps3 以及Caps4等均對多個父膠囊進行預測,當多數子膠囊輸出一致時,會對不同的父膠囊形成簇,作為對父膠囊的預測,從而激活對應父膠囊。而對于如何使簇更緊密,以形成對父膠囊的準確預測,則由動態路由算法確定。

圖3 子膠囊向父膠囊聚類示意圖

根據動態路由算法,子膠囊與父膠囊之間是類似全連接的形式,所有子膠囊都會與父膠囊相連,并嘗試預測父膠囊的輸出,但是它們的權重并不相同,若子膠囊的預測與父膠囊的輸出一致,則這兩個膠囊之間的權重會增加,這樣就可以將對父膠囊貢獻大的子膠囊的權重變大,貢獻小的權重變小,造成預測相同的子膠囊逐漸接近,差別很大的逐漸遠離,經過迭代三次,最終根據權重大小,確定每個子膠囊對父膠囊的貢獻程度,進行加權求和,得到綜合的輸出。相比于MaxPooling 簡單地選擇最大值,更有利于保存最符合預期的信息。

3 基于CapsNet 與卷積神經網絡結合的頭部姿態估計模型

由于原來的CapsNet僅含有一個卷積層用于提取特征,其對于語義信息的提取是不夠的,為了既能進行充分信息提取,又能將其中的空間信息保留[10~11],本文借鑒了SSR 網絡[12]的多級輸出思想,提出了一種新的頭部姿態估計網絡模型。如圖4所示,該模型利用深度卷積結構用于提取特征,采用異構雙流的方式,并將網絡分為三級,分別在一層、三層和七層卷積輸出,每級輸出均通過同維度膠囊對實體的語義信息以及空間結構特征進行編碼,然后將三個CapsNet 通過三個不同的姿態矩陣得到膠囊網絡的全連接層,并通過動態路由的方式將上一級膠囊對輸出膠囊進行聚類,最終得到類別輸出。在整個特征提取網絡中,一層卷積對輸入圖像的特征提取較淺,基本保留了空間結構信息;而第三層卷積既保留了一部分空間信息,也對語義特征進行了一定的提取;第七層則是通過不斷的卷積池化,將語義信息進行了充分的提取。這樣,既能得到豐富的空間結構信息,也能對語義信息進行充分提取,而通過CapsNet 模塊對特征信息進行編碼并傳遞至輸出,從而既實現豐富的信息提取,又能夠將特征充分傳輸不丟失。這種深度和多級的協調融合有利于空間特征和語義特征的提取和保留,使網絡對頭部姿態有更好的檢測和識別效果。

圖4 用于頭部姿態估計的CNN與CapsNet相結合的網絡結構示意圖

如圖4所示,將尺寸大小為64×64 的頭部圖片分別送入上下兩個輸入進行深度可分離卷積,每個輸入在K1、K2、K3三個階段均進行特征提取,并通過1×1 卷積和element-wise 的方式進行點乘融合,其中,為提高網絡收斂的速度和防止過擬合,將處理后的卷積層進行批歸一化(Bacth Normalization)處理。本文網絡的基本構建塊由3×3 卷積、批歸一化、非線性激活以及2×2 池化組成,每個輸入采用不同類型的激活函數和池化以使它們異構,上輸入采用ReLU 與AveragePooling,下輸入采用Tanh 和MaxPooling,這樣可以通過不同的激活函數和池化對圖像信息進行提取,通過相互融合以提高性能,最后將融合后的特征送入CapsNet進行信息編碼。本文所設計的CapsNet模塊的結構如圖5所示。

本文對于圖4 中CapsNet 模塊的設計如圖5 所示,三級輸出進入CapsNet模塊后,首先通過一層卷積使其變為膠囊形式,繼而利用姿態矩陣將其轉化為類膠囊的形式的初始預測膠囊,通過dropout 的方法舍棄一部分后,通過動態路由算法將其轉為最終預測膠囊。具體設計為CapsNet模塊的輸入是三個N×M×D的卷積層,輸出為大小為1×Q的O個膠囊向量,中間過程如下:在三級輸出后,通過在原有卷積層的基礎上再進行C次相同卷積操作,使得原有卷積層從三維擴展至四維,形成了含有N×M×D個膠囊,每個膠囊含有C個神經元的初始膠囊層,其中每個神經元代表著不同的含義,諸如方向、大小、紋理等信息,由于輸出膠囊層中所含膠囊的個數對應著輸出類別O,因此該層中共含有O個膠囊,且每個膠囊是1×Q的向量。初始膠囊層需要經過三個N×M×D個C×Q的姿態矩陣(即圖6 中的W1、W2以及W3),從而得到初始預測U?,然后U?經過動態路由算法最終得到O×1 個長度為Q的膠囊。其中,姿態矩陣與常規的變換矩陣一樣,在初始化之后通過反向傳播訓練得到,而動態路由算法中各膠囊的權重則是在不斷的迭代更新中確定的。

圖5 CapsNet模塊結構示意圖

由于dropout 可以使某些膠囊暫時不起作用,防止了網絡過度依賴某些特征,提高網絡泛化能力,使網絡能夠通過子膠囊的共性對頭部的俯仰角度進行正確預測,本文采用文獻[13]中的dropout方法,將每個輸出的膠囊作為整體對待,以保證每個膠囊的方向不變,通過伯努利分布對膠囊進行隨機丟棄,即保持子膠囊與父膠囊之間的姿態矩陣參數不變,將子膠囊中各神經元的輸出置為0,從而使整個膠囊在網絡訓練中不起作用,避免因為丟棄膠囊中部分元素導致膠囊的方向發生變化。

本文所采用的損失函數是Marginloss,該函數常用于多類別損失的計算。在輸出父膠囊后,計算各向量的L2 范數,能夠得到對應于pitch 角度的60種不同類別的預測值與損失值,具體如式(1)所示:

4 實驗結果和分析

4.1 實驗準備

為了驗證本文提出的網絡模型的有效性,并便于與其他經典模型進行對比,本文選取在頭部姿態估計領域具有代表性且常用的300W-LP 數據集、AFLW2000數據集以及BIWI數據集。300W-LP 數據集是一個大型人臉姿態數據集,共有122450 張圖片,這些圖片通過三維密集面對齊(3D Dense Face Alignment,3DDFA)[14]合成出不同的偏航角。各圖片間差異較大,背景環境復雜,人物之間差異性較大,具有不同年齡段、不同光照、不同表情以及不同的遮擋程度,最大程度體現了真實環境下的頭部各個姿態。另外,該數據集中還對原有的數據進行了水平翻轉,在增加了不同角度的同時,也對數據集進行了擴充。本文使用數據集進行訓練,300W-LP數據集的部分圖片如圖6 所示。

圖6 300W-LP數據集部分實驗用圖

AFLW2000數據集是由2000張頭部圖片組成,該數據集包含有不同光照和遮擋條件的頭部姿勢,是頭部姿態估計中常用的用于測試的數據集。由于頭部的俯仰角基本位于[-90°,90°]之間,因此本文刪除了AFLW2000中存在角度不在[-90°,90°]之間的圖片,并歸一化為64×64 大小進行測試。

圖7 AFLW2000數據集部分圖片

圖8 BIWI數據集部分圖片

BIWI 數據集包含有24 個人拍攝的約15000 張圖片,每個人都有較為豐富的頭部姿態,并提供了每張圖片的深度圖像以及姿態信息。由于該數據集未提供頭部檢測框信息,故本文使用MTCNN(Multi-Task Convolutional Neural Network)進行頭部檢測和截取,針對部分圖片中多人存在的情況,采用分離區域檢測手段進行處理。

根據文獻[8]經實驗證明,邊界框邊緣參數K取0.5時,改善了俯仰角,偏航角和翻滾角在各個角度值上精度,因此,為保證一致性,本文所有的數據集均采用邊界框邊緣參數K=0.5 進行頭部區域裁剪。

本文使用Python 語言,基于Keras 和Tensorflow框架進行算法實現,其硬件環境為Intel i7-7200H@2.7Hz×8 CPU和GTX1080Ti GPU,卷積神經網絡的訓練參數設置為訓練的迭代次數為numEpochs=90,采用AdamOptimer優化器,每批次大小batch size為16,初始的學習率為0.001,每30步縮小0.1倍。

4.2 實驗結果

為了能夠更好地體現CapsNet與卷積神經網絡結合的頭部姿態估計模型的優勢,將該模型與FAN[15],Dlib[16],HopeNet 分別在在AFLW2000 數據集以及BIWI 數據集上進行測試,并采用平均絕對誤差(Mean Absolute Error,MAE)作為評價指標。

本文采用上述不同的方法對BIWI數據集的數據進行預測,并通過類別×3-90°的轉換公式將類別轉為對應的角度值,根據MAE 計算公式得到測試數據如表1所示。

表1 BIWI數據集在俯仰角上的MAE對比

由表1 可以看出,本文在俯仰角上所得出的MAE 具有最優值,且BIWI 數據集在角度姿態展現出多樣性,更能體現本文方法的表現優異。

另外,在AFLW2000 數據集上的測試結果如表2所示。

表2 AFLW2000數據集在俯仰角上的MAE對比

實驗結果表明,本文方法以及HopeNet 在俯仰角上與經典的Dlib 與FAN 算法相比,具有明顯的優勢,也證明了基于表觀的方法相比于基于模板的方法能夠克服頭部姿態變化的差異,更加準確地估計;并且本文方法相較于目前較為先進的HopeNet也有了很大程度的提高,在MAE 上取得了最佳的測試值。表2 的測試結果整體優于表1,是由于BIWI 數據集是在單一背景下拍攝的,而AFLW2000數據集背景構成較為復雜,從而影響了最終的估計精度,可見復雜背景對頭部姿態的估計精度影響較大。

為了驗證模型在實際應用中的有效性,本文拍攝了生活中的常見情形,分別為正常光照、昏暗光照、戴帽子以及復雜背景。數據采集自6 個人,每人在4種環境下分別做15種頭部姿勢,俯仰角取值為{-30°,0°,30°},偏航角取值為{-45°,-30°,0°,30°,45°},部分測試圖片如圖9所示。

圖9 不同條件下的部分測試圖

考慮到在實際操作過程中,由于人為標注以及實驗人員本身造成的誤差,故進行了本文模型與HopeNet的對比實驗,實驗結果如表3所示。

表3 不同條件下在俯仰角上的MAE對比

由表3 可以看出,本文方法在各個不同的場景中,都具有優異地表現,并且MAE 值均較小,魯棒性較強,沒有出現大幅度的起伏變化,在四組實驗中,昏暗光照下的表現最差,原因是實驗本身光照強度較低,且出現黑影,對頭部俯仰角的預測產生較大的影響。另外,由于測試的頭部區域均按照臉部邊界框邊緣參數K=0.5,因此背景所占比例較大,對最終的頭部姿態估計造成了一定的干擾。

5 結語

本文通過傳統卷積神經網絡提取圖像特征,并將特征信息傳入CapsNet 進行空間信息保留與傳遞,從而構建了一種新的頭部姿態估計模型,解決了傳統卷積神經網絡存在的MaxPooling 池化所造成的空間結構信息丟失的缺點。通過本文算法與FAN,Dlib 和HopeNet 分別在AFLW2000 數據集和BIWI 數據集上進行的俯仰角實驗對比結果表明,相比于其他算法,本文模型在俯仰角的估計上具備更加優異的表現。

猜你喜歡
特征信息模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
3D打印中的模型分割與打包
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 91精品视频播放| 精品久久久久久久久久久| 国产极品美女在线观看| 成人毛片免费在线观看| 狠狠色丁香婷婷| 青青国产视频| 99r在线精品视频在线播放| 国产打屁股免费区网站| 91香蕉国产亚洲一二三区 | 亚洲av片在线免费观看| 亚洲欧美精品日韩欧美| 日韩毛片免费视频| 中文字幕乱码中文乱码51精品| 日本三级欧美三级| 青青草原偷拍视频| 欧美亚洲欧美区| 亚洲精品欧美日本中文字幕| 国内熟女少妇一线天| 97国产精品视频自在拍| 久久一本日韩精品中文字幕屁孩| 欧美日韩国产综合视频在线观看 | 一级毛片无毒不卡直接观看| 人妻出轨无码中文一区二区| 色欲不卡无码一区二区| 在线另类稀缺国产呦| 国产三级a| 婷婷成人综合| 在线看国产精品| 欧美午夜视频在线| 看av免费毛片手机播放| 国产精品区视频中文字幕| 日韩东京热无码人妻| 亚洲午夜国产精品无卡| 久久久久久久97| 欧美日韩国产一级| 四虎影视国产精品| 国产成人精品一区二区| 日韩美一区二区| 亚洲精品视频免费看| 精品国产99久久| 欧美日韩国产高清一区二区三区| 欧美在线中文字幕| 亚洲高清中文字幕| 久草青青在线视频| 真实国产精品vr专区| 亚洲av无码成人专区| 大学生久久香蕉国产线观看| 日韩高清成人| 婷婷色在线视频| 18黑白丝水手服自慰喷水网站| 毛片卡一卡二| 免费国产好深啊好涨好硬视频| 国产精品美女在线| 国产农村妇女精品一二区| 999国产精品| 欧美色综合网站| 波多野结衣亚洲一区| 91麻豆精品国产高清在线| 亚洲日韩AV无码一区二区三区人| 999国产精品| www.国产福利| 国产资源站| 亚洲第一精品福利| 成人精品免费视频| 成人福利在线视频免费观看| 久久6免费视频| 日韩成人在线一区二区| 欧美精品亚洲二区| 欧洲熟妇精品视频| 91综合色区亚洲熟妇p| 波多野结衣一区二区三区四区视频| 狠狠亚洲五月天| 午夜视频在线观看免费网站| 亚洲欧美一区二区三区蜜芽| 91精品国产91久无码网站| 久久综合成人| 五月婷婷丁香色| 国产一区三区二区中文在线| 亚洲精品麻豆| 91丝袜在线观看| 午夜福利无码一区二区| 亚洲国产成人久久精品软件|