999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積神經(jīng)網(wǎng)絡(luò)及特征提取的面部表情識(shí)別算法

2019-08-12 01:27:59王怡文
電腦知識(shí)與技術(shù) 2019年16期
關(guān)鍵詞:特征提取

王怡文

摘要:旨在對(duì)卷積神經(jīng)網(wǎng)絡(luò)及特征提取面部表情識(shí)別算法進(jìn)行簡(jiǎn)單的對(duì)比,找到更加合適的識(shí)別方法。通過(guò)open CV進(jìn)行人臉動(dòng)態(tài)圖像截取,對(duì)截取的靜態(tài)圖像進(jìn)行簡(jiǎn)單的規(guī)格及灰度處理后進(jìn)行分類,分類算法選取基于卷積神經(jīng)網(wǎng)絡(luò)與基于特征提取的面部表情識(shí)別。結(jié)果表明,基于卷積神經(jīng)網(wǎng)絡(luò)的面部表情識(shí)別精確度更高,更能滿足要求。

關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò);特征提取;面部表情識(shí)別

中圖分類號(hào):TP391? ? ? ? 文獻(xiàn)標(biāo)識(shí)碼:A

文章編號(hào):1009-3044(2019)16-0203-03

開(kāi)放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):

Abstract: The purpose of this paper is to compare the convolutional neural network and feature extraction algorithm for facial expression recognition, and find a more suitable recognition method. OpenCV is used for face dynamic image interception, and the static image intercepted is classified by simple specification and gray level processing. The classification algorithm is based on convolution neural network and feature extraction for facial expression recognition. The results show that the accuracy of facial expression recognition based on convolution neural network is higher and can meet the requirements better.

Key words:Convolutional neural network; Feature extraction; Facial expression recognition

近年來(lái),隨著計(jì)算機(jī)技術(shù)的進(jìn)一步發(fā)展,人們對(duì)于計(jì)算機(jī)的探索不再局限于計(jì)算與數(shù)據(jù)處理方面,開(kāi)始更多地考慮通過(guò)計(jì)算機(jī)進(jìn)一步輔助人們的生活,人工智能的概念也逐漸被更多人所了解、支持。圖像識(shí)別作為人工智能的重要組成部分,近年來(lái)也取得了很多成果。圖像識(shí)別技術(shù)得到了很好的發(fā)展,人臉識(shí)別作為其中的一部分也在逐漸趨于成熟。在這個(gè)背景下,如果可以在人臉識(shí)別的基礎(chǔ)上,通過(guò)一些算法,讓計(jì)算機(jī)也可以做到察言觀色,可以辨別人們的表情情感,那么計(jì)算機(jī)將可以更好地幫助人們,為人們的日常生活服務(wù)。目前,面部表情識(shí)別有很多人機(jī)交互方面的應(yīng)用,比如疲勞駕駛檢測(cè)和手機(jī)端實(shí)時(shí)表情識(shí)別。早在20世紀(jì),Ekman等專家,通過(guò)跨文化調(diào)研提出了七類基本表情,包括恐懼、生氣、厭惡、悲傷、開(kāi)心、驚訝及中立,現(xiàn)在很多面部表情識(shí)別分類也是基于這七種表情進(jìn)行分類研究,是目前人臉表情識(shí)別最直接、最有效的情感識(shí)別模式。同時(shí)計(jì)算機(jī)實(shí)現(xiàn)面部表情識(shí)別也是人機(jī)交互的一個(gè)基礎(chǔ),對(duì)于面部表情識(shí)別的研究既符合當(dāng)下的科技發(fā)展發(fā)現(xiàn),在未來(lái)也必定會(huì)成為一大熱門(mén)領(lǐng)域。人臉表情識(shí)別的實(shí)現(xiàn)的難點(diǎn)主要在于特征的提取、學(xué)習(xí)與分類,這也會(huì)在很大程度上直接影響最后識(shí)別的準(zhǔn)確率。論文主要選取了卷積神經(jīng)網(wǎng)絡(luò)和特征提取兩種方法分別進(jìn)行面部表情識(shí)別的實(shí)現(xiàn)。

1 面部表情識(shí)別的基本框架

人臉面部表情識(shí)別一般分為四部分,包括圖像獲取、人臉檢測(cè)、圖像預(yù)處理、表情識(shí)別分類。其中表情識(shí)別分類部分又根據(jù)算法的不同會(huì)有不同的實(shí)現(xiàn)方式,在本文中主要是構(gòu)建神經(jīng)網(wǎng)絡(luò),數(shù)據(jù)訓(xùn)練和提取表情特征、參數(shù)計(jì)算兩種不同的實(shí)現(xiàn)方式?;究蚣苋鐖D1所示。

2 基于卷積神經(jīng)網(wǎng)絡(luò)的面部表情識(shí)別

2.1 卷積神經(jīng)網(wǎng)絡(luò)

卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)是深度學(xué)習(xí)的代表算法之一,是一種包含卷積計(jì)算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)。因?yàn)榭梢赃M(jìn)行平移不變分類(shift-invariant classification),所以卷積神經(jīng)網(wǎng)絡(luò)也被稱為“平移不變?nèi)斯ど窠?jīng)網(wǎng)絡(luò)(Shift-Invariant Artificial Neural Networks, SIANN)。卷積神經(jīng)網(wǎng)絡(luò)主要由卷積層、池化層、全連接層三部分組成,如圖2所示。其中卷積層主要是實(shí)現(xiàn)在原始的輸入上進(jìn)行的特征提取操作,池化層的作用是對(duì)特征圖進(jìn)行特征壓縮,以減少數(shù)據(jù)量,全連接層是對(duì)特征進(jìn)行整合分類,得到最終的分類結(jié)果。

2.1.1 卷積層

卷積層主要實(shí)現(xiàn)的是特征提取功能,特征提取簡(jiǎn)而言之就是在原始輸入上一個(gè)小區(qū)域內(nèi)通過(guò)卷積計(jì)算進(jìn)行特征提取。在卷積層中有一個(gè)很重要的概念——卷積核,是指在進(jìn)行圖像處理時(shí),對(duì)于給定輸入進(jìn)行加權(quán)平均的權(quán)值的定義函數(shù)。而卷積層的最主要的運(yùn)算卷積運(yùn)算就是指將卷積核與輸入矩陣根據(jù)一定規(guī)則進(jìn)行相乘并求和的計(jì)算過(guò)程。設(shè)ωmn是卷積核中的值,xmn是輸入矩陣的值,aij是卷積后得到的特征矩陣的值,可以得到如下的計(jì)算公式

每進(jìn)行一次卷積計(jì)算,都會(huì)產(chǎn)生數(shù)個(gè)與之有關(guān)的權(quán)值,并且這些權(quán)值參數(shù)的個(gè)數(shù)與卷積層個(gè)數(shù)有關(guān),即與卷積層所用的函數(shù)有直接的關(guān)系。通過(guò)卷積層,可以得到若干個(gè)特征值,根據(jù)判斷特征值的大小可以確定該區(qū)域內(nèi)是否含有所需要的特征。

2.1.2 池化層

當(dāng)需要描述的圖像過(guò)大,不便于描述處理的時(shí)候,就可以對(duì)圖像根據(jù)一定的規(guī)則進(jìn)行聚合運(yùn)算,這種聚合統(tǒng)計(jì)的方法就稱為池化。經(jīng)過(guò)池化操作,可以大大減小參數(shù)矩陣的尺寸,從而方便后面全連接進(jìn)行運(yùn)算,簡(jiǎn)化訓(xùn)練。池化操作最大的優(yōu)點(diǎn)是可以在避免過(guò)擬合的基礎(chǔ)上有效地降低緯度,減少數(shù)據(jù)量。池化的這個(gè)優(yōu)點(diǎn)在對(duì)大型數(shù)據(jù)進(jìn)行神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)會(huì)起到很好的不可忽視的作用。目前常見(jiàn)的池化算法有四種:最大池化、平均池化、隨機(jī)池化和譜池化。在這次的面部表情識(shí)別實(shí)現(xiàn)中使用的是最大池化,即取一定范圍內(nèi)元素的最大的一項(xiàng)作為該區(qū)域最終的輸出結(jié)果。

2.1.3 全連接層

全連接層的功能是將之前訓(xùn)練得到的局部特征重新通過(guò)一定的權(quán)值矩陣組裝成一個(gè)完整的全新的圖。通過(guò)全連接層,可以將同一個(gè)特征的表示由特征矩陣,變?yōu)閱蝹€(gè)的值,在減小數(shù)據(jù)量的基礎(chǔ)上,大大減少特征位置對(duì)分類帶來(lái)的影響。全連接層具體的實(shí)現(xiàn)原理如圖3所示。其中,W是全連接層的參數(shù),是一個(gè)T*N的矩陣,T表示類別數(shù),N表示特征數(shù)。X是指全連接層的輸入,是一個(gè)N*1的向量。通過(guò)全連接層可以得到一個(gè)T*1的向量,其中向量中的每個(gè)值表示該樣本屬于每個(gè)類的可能性的大小,數(shù)值越大,則表示該樣本是該類的可能性越大。由此,可以通過(guò)最后的輸出向量,來(lái)判斷該樣本的分類。

2.2 面部表情識(shí)別實(shí)現(xiàn)[2]

2.2.1 數(shù)據(jù)集的選取

本次實(shí)驗(yàn)所用的數(shù)據(jù)集選取的是FER2013數(shù)據(jù)集,該數(shù)據(jù)集是2013年Kaggle比賽時(shí)的一個(gè)數(shù)據(jù)集,由28709張訓(xùn)練圖,3589張公開(kāi)測(cè)試圖和3589張私有測(cè)試圖組成,且每一張圖片都是像素為48*48的灰度圖。FER2013數(shù)據(jù)集采取七分類的分類方式進(jìn)行人臉表情分類,將表情分為憤怒,厭惡,恐懼,開(kāi)心,難過(guò),驚訝和中性七種。由于該數(shù)據(jù)集是從網(wǎng)上別人提供的鏈接下載的,而且數(shù)據(jù)大多是通過(guò)網(wǎng)絡(luò)爬蟲(chóng)下載,所以可能會(huì)存在一定的誤差。

2.2.2 數(shù)據(jù)預(yù)處理

這一環(huán)節(jié)主要是對(duì)于數(shù)據(jù)集進(jìn)行預(yù)處理。首先對(duì)FER2013數(shù)據(jù)集進(jìn)行劃分,將其分為訓(xùn)練集和測(cè)試集兩部分,以方便后面的訓(xùn)練。然后對(duì)于所有數(shù)據(jù)進(jìn)行統(tǒng)一的灰度處理,減少噪聲干擾。為了防止網(wǎng)絡(luò)過(guò)快地過(guò)擬合,一個(gè)最好的辦法就是使用更多的訓(xùn)練數(shù)據(jù)。所以在數(shù)據(jù)集劃分后,會(huì)對(duì)圖像進(jìn)行一些旋轉(zhuǎn)切割等操作,以增大數(shù)據(jù)量。最終得到1050000張經(jīng)過(guò)處理的圖片,均為48*48的黑白照片。

2.2.3 神經(jīng)網(wǎng)絡(luò)搭建

對(duì)于多類分類網(wǎng)絡(luò)結(jié)構(gòu)而言,增加中間隱含層能夠提升訓(xùn)練精度,但是所需的計(jì)算時(shí)間和空間會(huì)增大,因此需要測(cè)試選擇一個(gè)合適的數(shù)目,本論文選取了一些層數(shù)分別進(jìn)行訓(xùn)練測(cè)試。同時(shí),每一層將舍棄率設(shè)為0.5,以盡可能地避免欠擬合或過(guò)擬合現(xiàn)象的出現(xiàn)。實(shí)驗(yàn)所搭建的八層神經(jīng)網(wǎng)絡(luò)示意圖如圖4所示,八層神經(jīng)網(wǎng)絡(luò)搭建所使用的代碼如圖5所示,十三層神經(jīng)網(wǎng)絡(luò)構(gòu)建與八層類似。

3 基于特征提取的面部表情識(shí)別

3.1 基于幾何的特征提取[6]

人臉幾何特征包括人臉眼睛、鼻子、嘴等五官的局部形狀特征,臉型特征以及五官在臉上分布的幾何特征?;趲缀蔚奶卣魈崛》椒ǎ且环N基于統(tǒng)計(jì)的特征提取方法,是通過(guò)計(jì)算臉部各個(gè)特征點(diǎn)之間的距離與標(biāo)準(zhǔn)進(jìn)行比較,從而進(jìn)行情緒判斷的一種識(shí)別方式。一般對(duì)于人臉輪廓的確定多采用灰度差投影法,眼睛的定位采用積分投影法或水平差分累加的方式。

人臉部特征提取主要依靠Dlib庫(kù),采用ERT算法進(jìn)行實(shí)現(xiàn)。ERT(Ensemble of Regression Trees)算法又稱為級(jí)聯(lián)回歸算法,是一種基于梯度提高學(xué)習(xí)的回歸樹(shù)方法。該算法需要一個(gè)事先標(biāo)定好的圖片集作為訓(xùn)練集,進(jìn)行訓(xùn)練,從而得到訓(xùn)練模型,以用于的后續(xù)特征分類。在該算法中,會(huì)使用基于特征選擇的相關(guān)性方法,將輸入數(shù)據(jù)隨機(jī)投影到一個(gè)方向上,并選擇一對(duì)特征(u,v),計(jì)算該特征與輸入數(shù)據(jù)之間的樣本相關(guān)性,并通過(guò)不斷調(diào)整特征(u,v)的值,來(lái)尋找與輸入數(shù)據(jù)具有最高樣本相關(guān)性的特征。每當(dāng)輸入一個(gè)新的圖像時(shí),算法會(huì)首先估計(jì)一個(gè)大致的特征點(diǎn)位置,然后采用gradient boosting算法選取與輸入平方差最小的特征點(diǎn)。該算法一般采用最小二乘法來(lái)減少誤差,以得到每一級(jí)的級(jí)聯(lián)回歸因子。ERT算法的核心公式如下所示:

其中,t表示級(jí)聯(lián)序號(hào),rt表示當(dāng)前級(jí)的回歸器regressor。I為輸入圖像。

每個(gè)回歸器可以由若干棵樹(shù)組成,使用梯度提高學(xué)習(xí)的回歸樹(shù)訓(xùn)練每個(gè)回歸器,同時(shí)不斷使用最小二乘法來(lái)最小化誤差。

3.2 算法實(shí)現(xiàn)

在實(shí)踐中,首先調(diào)用Dlib庫(kù)來(lái)進(jìn)行動(dòng)態(tài)的人臉識(shí)別,同時(shí)調(diào)用預(yù)測(cè)器來(lái)對(duì)識(shí)別出來(lái)的臉部進(jìn)行68點(diǎn)標(biāo)定。標(biāo)定后獲取并存儲(chǔ)這68個(gè)點(diǎn)的具體坐標(biāo),以備后面進(jìn)行相關(guān)參數(shù)計(jì)算。面部表情識(shí)別主要依靠嘴張開(kāi)的比例,眼睛睜開(kāi)程度與眉毛的傾斜程度三個(gè)指標(biāo)來(lái)進(jìn)行表情判定。實(shí)驗(yàn)用的主要規(guī)則如下:1.嘴巴張開(kāi)的大小占面部識(shí)別框也就是整個(gè)臉的寬度的比例越大,說(shuō)明此時(shí)被試的情緒越激動(dòng),可能出于非常開(kāi)心的狀態(tài),也可能是極度憤怒的狀態(tài)。2.當(dāng)Dlib標(biāo)注的17-21 或者 22-26 號(hào)特征點(diǎn)距離面部識(shí)別框頂部的距離與識(shí)別框的總高度的比值越小,說(shuō)明眉毛上揚(yáng)越厲害,此時(shí)該被試可能處于驚訝或開(kāi)心的情緒狀態(tài)下。研究表明,眉毛的傾斜角度在一定程度可以顯示目前的情緒狀態(tài),人開(kāi)心時(shí)眉毛一般會(huì)上揚(yáng),而憤怒時(shí)大多人會(huì)有皺眉的行為出現(xiàn),眉毛下壓的會(huì)比較厲害。3.人在開(kāi)懷大笑的時(shí)候多數(shù)情況下會(huì)不自覺(jué)地瞇起眼睛,而憤怒或者驚訝的時(shí)候更大概率的會(huì)瞪大眼睛。本實(shí)驗(yàn)的主要通過(guò)以上三條判定準(zhǔn)則來(lái)判斷樣本的面部表情。具體的實(shí)現(xiàn)流程圖如圖6所示。

4 總結(jié)

面部表情識(shí)別是情感識(shí)別的一部分,也是圖像識(shí)別的分支之一,該技術(shù)也一直深受人們關(guān)注,且具有巨大的應(yīng)用市場(chǎng)。本文對(duì)現(xiàn)有的面部表情識(shí)別算法進(jìn)行簡(jiǎn)要介紹,并對(duì)其中兩種比較熱門(mén)的方法-基于卷積神經(jīng)網(wǎng)絡(luò)的表情識(shí)別與基于特征提取的表情識(shí)別進(jìn)行了實(shí)現(xiàn)。在實(shí)現(xiàn)過(guò)程中也對(duì)二者進(jìn)行了一些比較。在算法的復(fù)雜性方面,基于特征提取的方法相對(duì)較高,該方法更依賴于算法設(shè)計(jì)本身,想要得到較高的準(zhǔn)確率就必須要一些比較精密的算法作支撐,對(duì)于實(shí)現(xiàn)者的能力要求相對(duì)較高。且該方法的判別標(biāo)準(zhǔn)主要依賴于統(tǒng)計(jì)與研究結(jié)果,具有一定的主觀性。總體來(lái)說(shuō),基于特征提取的面部表情識(shí)別方法在現(xiàn)實(shí)中可能更適用于設(shè)備環(huán)境相對(duì)較差,無(wú)法支撐大量數(shù)據(jù)訓(xùn)練的情況。相對(duì)而言,在本次實(shí)現(xiàn)中,基于卷積神經(jīng)網(wǎng)絡(luò)的面部表情識(shí)別精確度更高,更能滿足要求。

由于作者能力有限,對(duì)于這兩種方法均只完成了相對(duì)較為簡(jiǎn)單的實(shí)現(xiàn),算法與最后的結(jié)果還有很大的提升空間,在日后的研究中,應(yīng)加深研究,進(jìn)一步改進(jìn)與優(yōu)化相應(yīng)的算法。同時(shí)在這兩種算法基本掌握的情況下,應(yīng)進(jìn)一步嘗試別的算法,并對(duì)于這些算法進(jìn)行對(duì)比,找到各個(gè)算法的優(yōu)缺點(diǎn),以便更好地服務(wù)于實(shí)際應(yīng)用。

參考文獻(xiàn):

[1] 胡超. 人臉表情識(shí)別研究[D].華東交通大學(xué),2018.

[2] 張璐璐. 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉面部表情識(shí)別方法研究[D].河北科技大學(xué),2019.

[3] 施興華. 自動(dòng)人臉表情識(shí)別[D].西安電子科技大學(xué),2009.

[4] 楊凡,張磊.基于Gabor參數(shù)矩陣與改進(jìn)Adaboost的人臉表情識(shí)別[J].計(jì)算機(jī)應(yīng)用,2014,34(04):1134-1138.

[5] 李雅倩,李穎杰,李海濱,等.融合全局與局部多樣性特征的人臉表情識(shí)別[J].光學(xué)學(xué)報(bào),2014,34(05):172-178.

[6] 寧凡,厲星星.基于人臉幾何結(jié)構(gòu)的表情識(shí)別[J].計(jì)算機(jī)應(yīng)用與軟件,2009,26(06):238-240+285.

[7] 王志良,陳鋒軍,薛為民.人臉表情識(shí)別方法綜述[J].計(jì)算機(jī)應(yīng)用與軟件,2003(12):63-66.

[8] 左登宇. 基于Adaboost算法的人臉檢測(cè)研究[D].中國(guó)科學(xué)技術(shù)大學(xué),2009.

【通聯(lián)編輯:唐一東】

猜你喜歡
特征提取
特征提取和最小二乘支持向量機(jī)的水下目標(biāo)識(shí)別
基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
電子制作(2019年15期)2019-08-27 01:12:00
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
基于DNN的低資源語(yǔ)音識(shí)別特征提取技術(shù)
Bagging RCSP腦電特征提取算法
一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
基于DSP的直線特征提取算法
基于改進(jìn)WLD的紋理特征提取方法
淺析零件圖像的特征提取和識(shí)別方法
基于CATIA的橡皮囊成形零件的特征提取
主站蜘蛛池模板: 综合色88| 国产精品刺激对白在线| 一区二区影院| 99久久免费精品特色大片| 福利姬国产精品一区在线| 亚洲三级色| 日韩成人在线网站| 在线中文字幕网| 免费99精品国产自在现线| 三上悠亚一区二区| 国产在线观看一区精品| 久久综合九色综合97婷婷| 亚洲第一区欧美国产综合| 超碰aⅴ人人做人人爽欧美 | 99精品欧美一区| 波多野结衣中文字幕久久| 婷婷激情五月网| 99久视频| 54pao国产成人免费视频 | av免费在线观看美女叉开腿| 看你懂的巨臀中文字幕一区二区 | 欧美成人免费| 亚洲码一区二区三区| 97成人在线观看| 91成人免费观看在线观看| 国产精品亚洲欧美日韩久久| 欧美中文字幕一区| 特级毛片免费视频| 狠狠色成人综合首页| 国产96在线 | 性欧美在线| 伊人天堂网| 人妻无码中文字幕一区二区三区| 四虎精品黑人视频| 91无码人妻精品一区二区蜜桃| 免费不卡视频| 亚洲成人网在线播放| 97视频免费看| 91美女视频在线| 亚洲三级色| 欧美黄色网站在线看| 精品福利视频导航| 日本手机在线视频| 成人福利免费在线观看| 美美女高清毛片视频免费观看| 亚洲日韩AV无码精品| 热思思久久免费视频| 国产资源站| 婷婷五月在线| 欧美高清视频一区二区三区| 99re66精品视频在线观看| 亚洲精品国产日韩无码AV永久免费网| 欧美日韩综合网| 精品国产美女福到在线不卡f| 综合社区亚洲熟妇p| av尤物免费在线观看| 婷婷99视频精品全部在线观看| 亚洲男人的天堂久久香蕉| 久久综合亚洲色一区二区三区| 91人人妻人人做人人爽男同| 波多野一区| 99久久精品免费看国产免费软件| 国产精品55夜色66夜色| 国产成人一二三| 亚洲人成亚洲精品| 色婷婷成人| 国内精品91| 国产精品色婷婷在线观看| 高清无码手机在线观看| 九九这里只有精品视频| 国产视频资源在线观看| 亚洲色无码专线精品观看| 午夜毛片福利| 97成人在线视频| 激情综合婷婷丁香五月尤物| 丁香婷婷激情网| 国产地址二永久伊甸园| 波多野吉衣一区二区三区av| 噜噜噜久久| 久草国产在线观看| 国产幂在线无码精品| 国产精品亚洲片在线va|