999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于HOG與卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別研究

2019-06-06 04:21:26顧江鵬袁和金
軟件導(dǎo)刊 2019年3期
關(guān)鍵詞:人臉識(shí)別特征提取

顧江鵬 袁和金

摘 要:為了獲取更加全面的整體與局部人臉特征,得到更高的人臉識(shí)別率,提出一種基于方向梯度直方圖(HOG)特征與卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別新方法。該方法首先提取人臉圖像的HOG特征,然后將HOG特征圖像作為卷積網(wǎng)絡(luò)的輸入數(shù)據(jù)進(jìn)行訓(xùn)練,改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu),在全連接層之后采用Softmax loss和center loss兩個(gè)損失函數(shù)進(jìn)行監(jiān)督,最后在訓(xùn)練得到的網(wǎng)絡(luò)模型上對(duì)人臉圖像進(jìn)行識(shí)別操作。實(shí)驗(yàn)結(jié)果表明,該方法在ORL人臉集上的識(shí)別率達(dá)到97.5%,相比于其它人臉識(shí)別算法具有一定優(yōu)越性。

關(guān)鍵詞:HOG;卷積神經(jīng)網(wǎng)絡(luò);人臉識(shí)別;特征提取

DOI:10. 11907/rjdk. 181859

中圖分類(lèi)號(hào):TP301文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):1672-7800(2019)003-0020-05

0 引言

人臉識(shí)別屬于生物識(shí)別領(lǐng)域的研究?jī)?nèi)容之一,與傳統(tǒng)生物識(shí)別手段相比,人臉識(shí)別具有無(wú)接觸、交互性強(qiáng)、更友好直觀,且更方便安全等優(yōu)勢(shì)[1]。國(guó)外手機(jī)廠商蘋(píng)果公司首次將人臉識(shí)別應(yīng)用于手機(jī)解鎖,國(guó)內(nèi)支付平臺(tái)支付寶首次實(shí)現(xiàn)刷臉支付,公安部門(mén)的天眼系統(tǒng)可根據(jù)人臉檢測(cè)實(shí)現(xiàn)實(shí)時(shí)安全監(jiān)測(cè)及疑犯追蹤,這些都是人臉識(shí)別的典型應(yīng)用,人臉識(shí)別同樣在門(mén)禁系統(tǒng)、檔案管理等領(lǐng)域應(yīng)用廣泛。目前,人臉識(shí)別技術(shù)已經(jīng)成為計(jì)算機(jī)視覺(jué)與人工智能領(lǐng)域的研究熱點(diǎn)[2]。

如何提高人臉識(shí)別率一直是研究人員的研究重點(diǎn),而影響人臉識(shí)別準(zhǔn)確率的主要因素在于特征提取。定向梯度直方圖特征最初主要用于在計(jì)算機(jī)視覺(jué)與圖像處理中檢測(cè)物體的特征描述子,近年來(lái)HOG描述符也被應(yīng)用于人臉檢測(cè)。Zheng等[3]提出一種基于密集網(wǎng)格直方圖的人臉識(shí)別方法,將人臉圖像均分為很多密集網(wǎng)格,從中提取HOG特征,然后構(gòu)造HOG網(wǎng)格特征向量,實(shí)現(xiàn)整個(gè)人臉的特征表達(dá),最后利用最近鄰算法進(jìn)行分類(lèi)識(shí)別,該方法可有效表示復(fù)雜環(huán)境下的人臉特征;Cuan[4]提出改進(jìn)的面向梯度直方圖與稀疏表示的混合識(shí)別方法,可以保持光照與幾何不變性,對(duì)表情、姿勢(shì)和角度變化不敏感,從而消除了許多不必要的干擾信息,提高了面部識(shí)別準(zhǔn)確性;Xie & Sujata等[5-7]從不同角度采用LBP與HOG融合算法進(jìn)行人臉識(shí)別,在有遮擋、姿態(tài)變化及光照變化等條件下取得了較好效果。然而這些方法在特征提取過(guò)程中介入了太多主觀因素,過(guò)度依賴(lài)于人工選擇,對(duì)識(shí)別準(zhǔn)確性造成一定負(fù)面影響。

近年來(lái),深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)與物體識(shí)別領(lǐng)域取得了突出進(jìn)展,卷積神經(jīng)網(wǎng)絡(luò)算法逐漸被引入到人臉識(shí)別相關(guān)研究中。LeCun[8]首次提出LeNet-5,其傾向于將CNN稱(chēng)為卷積網(wǎng)絡(luò),將網(wǎng)絡(luò)中的節(jié)點(diǎn)稱(chēng)為單元,自此開(kāi)啟了現(xiàn)代卷積網(wǎng)絡(luò)研究;Facebook團(tuán)隊(duì)[9]與香港中文大學(xué)團(tuán)隊(duì)[10]分別在LFW數(shù)據(jù)集上報(bào)告了97.35%和97.45%的平均分類(lèi)精度,其在人臉識(shí)別技術(shù)路線上,由基于DCNN的端到端自主學(xué)習(xí)特征替代了傳統(tǒng)的人工設(shè)計(jì)特征與分類(lèi)識(shí)別;Google團(tuán)隊(duì)提出的FaceNet[11]框架在LFW數(shù)據(jù)集上的平均分類(lèi)精度達(dá)到99.63%。雖然上文提到的各種深度卷積神經(jīng)網(wǎng)絡(luò)算法及其改進(jìn)算法能夠獲得很高的識(shí)別準(zhǔn)確率,但其均采取了更深的網(wǎng)絡(luò)結(jié)構(gòu),在獲得更好特征抽象能力的同時(shí),也意味著訓(xùn)練難度的增大、訓(xùn)練參數(shù)的增多以及更大的計(jì)算量,而傳統(tǒng)的CNN網(wǎng)絡(luò)對(duì)圖像局部結(jié)構(gòu)特征不敏感,難以學(xué)習(xí)到人臉局部特征,同時(shí)網(wǎng)絡(luò)還會(huì)因光照等因素學(xué)習(xí)到不利特征。基于以上分析,本文提出一種基于HOG特征與卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別新方法,在網(wǎng)絡(luò)輸入原始人臉圖像基礎(chǔ)上,加入人臉的HOG特征,使卷積神經(jīng)網(wǎng)絡(luò)在自動(dòng)學(xué)習(xí)原始圖像信息的同時(shí),也可以學(xué)習(xí)到HOG人臉局部特征。實(shí)驗(yàn)結(jié)果表明,在卷積神經(jīng)網(wǎng)絡(luò)中加入HOG特征可一定程度上提高人臉識(shí)別準(zhǔn)確率。

1 HOG特征提取

HOG特征最早被應(yīng)用于行人檢測(cè),是一種由SIFT算子發(fā)展演變而來(lái)的特征描述子,用于描述圖像局部差分信息,因其具有對(duì)圖像幾何和光學(xué)變化保持不變性的特點(diǎn),并且受噪聲影響小,對(duì)人臉表情變化、場(chǎng)景變化具有很好的魯棒性,因而被廣泛應(yīng)用于人臉識(shí)別領(lǐng)域。HOG 特征由HOG算子通過(guò)計(jì)算圖像局部區(qū)域梯度,統(tǒng)計(jì)分布在不同方向的梯度幅值得到的梯度方向直方圖構(gòu)成,具體特征提取過(guò)程如下:

(1)Gamma校正。對(duì)輸入圖像作顏色歸一化處理,從而提高圖像整體亮度,減弱圖像局部陰影與光照變化帶來(lái)的影響,也可以抑制噪聲干擾。

Gamma壓縮公式為:

(2)圖像梯度值計(jì)算。分別計(jì)算圖像橫縱坐標(biāo)梯度,具體為:采用中心對(duì)稱(chēng)梯度算子[-1,0,1]對(duì)圖像作卷積操作,可得到[x]方向梯度分量;采用算子[1,0,-1T]對(duì)圖像作卷積操作,可得到[y]方向梯度分量,據(jù)此可計(jì)算每個(gè)像素點(diǎn)的梯度方向值。該操作可捕捉人影、輪廓與一些紋理信息,并進(jìn)一步減弱光照影響。

像素點(diǎn)[(x,y)]梯度為:

(3)構(gòu)建局部方向梯度直方圖。將圖像分成若干單元格,稱(chēng)為細(xì)胞單元(cell),對(duì)每個(gè)cell的梯度方向進(jìn)行統(tǒng)計(jì)。將[0,π]之間分為9個(gè)區(qū)間,平均每個(gè)區(qū)間占[20°],由此可得每個(gè)單元的一個(gè)9維梯度方向直方圖。

(4)將block中的局部梯度直方圖歸一化。將相鄰不重疊的k個(gè)cell組合成一個(gè)block,然后將該block塊內(nèi)所有cell的直方圖進(jìn)行拼接,采用[L2]范數(shù)對(duì)block中的直方圖進(jìn)行歸一化處理,得到該block塊對(duì)應(yīng)的梯度直方圖。

(5)HOG特征形成。收集圖像中全部block的HOG特征,依次級(jí)聯(lián)全部block的直方圖特征,從而得到圖像的整體HOG特征。HOG特征提取過(guò)程如圖1所示。

針對(duì)同一張圖像,采用不同cell_size得到的HOG特征如圖2所示(圖像經(jīng)過(guò)反相處理)。

由圖2對(duì)比可以看出,適當(dāng)增大cell大小得到的特征圖更加注重圖像基本輪廓與邊緣,而忽略了圖像中的一些細(xì)節(jié),從而在一定程度上降低了噪聲。

本實(shí)驗(yàn)中HOG特征提取參數(shù)設(shè)置為:2*2細(xì)胞/區(qū)間,8*8像素/細(xì)胞,8個(gè)直方圖通道,步長(zhǎng)為1。

2 卷積神經(jīng)網(wǎng)絡(luò)

卷積神經(jīng)網(wǎng)絡(luò)[12-13]最早是由日本學(xué)者Fukushima基于Hubel&Wiesel感受野概念提出的神經(jīng)認(rèn)知機(jī),其本質(zhì)上是一種為處理二維輸入數(shù)據(jù)設(shè)計(jì)的多層神經(jīng)網(wǎng)絡(luò)。與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)相比,卷積神經(jīng)網(wǎng)絡(luò)的每一層有許多二維平面,而每個(gè)二維平面都由多個(gè)獨(dú)立神經(jīng)元組成,其中相鄰兩層神經(jīng)元間互相連接,處于同一層的神經(jīng)元間沒(méi)有連接。權(quán)值共享的結(jié)構(gòu)特征使卷積神經(jīng)網(wǎng)絡(luò)更加類(lèi)似于生物神經(jīng)網(wǎng)絡(luò),同時(shí)網(wǎng)絡(luò)模型容量可通過(guò)網(wǎng)絡(luò)廣度與深度加以調(diào)整[14]。因而與全連接網(wǎng)絡(luò)相比,卷積神經(jīng)網(wǎng)絡(luò)具有更少的網(wǎng)絡(luò)連接數(shù)與權(quán)值參數(shù),從而有效簡(jiǎn)化了網(wǎng)絡(luò)模型的學(xué)習(xí)復(fù)雜度。

(1)卷積層。卷積層主要對(duì)輸入層或上一采樣層輸出的特征圖像進(jìn)行卷積操作,然后通過(guò)激勵(lì)函數(shù)的作用得到相應(yīng)特征圖。經(jīng)過(guò)卷積層的一系列操作后可以提取圖像局部區(qū)域特征,相應(yīng)每一個(gè)卷積核即是特征提取器。例如第l層卷積層中第j個(gè)特征圖計(jì)算公式[15]為:

(2)池化層。池化層設(shè)置在兩個(gè)卷積層之間,主要對(duì)上一層卷積層得到的特征圖進(jìn)行降采樣操作,通過(guò)該步驟可以有效縮小矩陣尺寸、降低卷積特征維數(shù),并大幅減少訓(xùn)練參數(shù)數(shù)量,以減輕分類(lèi)器負(fù)擔(dān),從而在一定程度上加快了計(jì)算速度,防止數(shù)據(jù)出現(xiàn)過(guò)擬合問(wèn)題。設(shè)第[l]層為池化層,該層某個(gè)特征圖的計(jì)算公式為:

(3)全連接層。圖像在經(jīng)過(guò)上述兩步操作后,將上一層所有神經(jīng)元與全連接層的神經(jīng)元相連。該層依據(jù)具體任務(wù)情況對(duì)高層特征進(jìn)行映射,主要是將卷積輸出的二維特征圖轉(zhuǎn)化成一維特征向量,計(jì)算公式[15]為:

(4)輸出層。卷積網(wǎng)絡(luò)中的輸出層通常作為分類(lèi)器存在,常用分類(lèi)器主要有sigmoid函數(shù)與softmax函數(shù)。以分類(lèi)能力較強(qiáng)的softmax[16]函數(shù)為例,該函數(shù)可對(duì)多個(gè)類(lèi)別進(jìn)行分類(lèi)。softmax回歸中將[x]劃分為類(lèi)別[j]的概率為:

3 本文算法

目前在大部分卷積神經(jīng)網(wǎng)絡(luò)中,經(jīng)常使用softmax loss作為損失函數(shù)進(jìn)行模型訓(xùn)練,因?yàn)閟oftmax loss能夠使特征可分。然而在人臉識(shí)別中,深度學(xué)習(xí)特征不僅具有可分性,還應(yīng)具有可判別性。Wen等[17]提出一種新的損失函數(shù)center loss,其能夠在最小化類(lèi)內(nèi)距離的同時(shí)保證特征的可判別性。center loss公式定義如下:

故本研究在傳統(tǒng)卷積網(wǎng)絡(luò)基礎(chǔ)上,結(jié)合softmax loss與center loss兩種損失函數(shù)進(jìn)行類(lèi)別監(jiān)測(cè),取參數(shù)[λ]為1進(jìn)行實(shí)驗(yàn)。同時(shí)對(duì)于網(wǎng)絡(luò)輸入,首先對(duì)人臉圖像提取HOG特征,可降低人臉表情、光照與噪聲的影響。

本實(shí)驗(yàn)的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)如圖4所示。

其中,輸入圖片大小為57[×]47,包含2個(gè)卷積層、2個(gè)池化層和1個(gè)全連接層,最后用softmax loss與center loss聯(lián)合監(jiān)測(cè)分類(lèi)。卷積層C1有5個(gè)3[×]3的卷積核,padding為same,步長(zhǎng)為2,得到輸出為57[×]47[×]5;池化層S1對(duì)C1每個(gè)2[×]2的區(qū)域采樣,步長(zhǎng)為2,輸出為28[×]23[×]5;卷積層C2采用10個(gè)3[×]3的卷積核,padding為same,步長(zhǎng)為2,得到輸出為28[×]23[×]10;池化層S2對(duì)C2每個(gè)2[×]2的區(qū)域采樣,步長(zhǎng)同樣為2,輸出為14[×]11[×]10;全連接層FC的輸入來(lái)自S2,將多維輸入一維化,最后利用分類(lèi)器進(jìn)行分類(lèi)。

4 仿真實(shí)驗(yàn)及分析

為了驗(yàn)證本文算法的可行性與優(yōu)越性,采用ORL人臉庫(kù)作為實(shí)驗(yàn)數(shù)據(jù)集。實(shí)驗(yàn)運(yùn)行環(huán)境為:Ubuntu16.04操作系統(tǒng)、Theano開(kāi)發(fā)工具與NVIDIA GTX950M顯卡。

4.1 實(shí)驗(yàn)數(shù)據(jù)集

ORL人臉庫(kù)共包含40個(gè)不同年齡、性別與種族的對(duì)象,每個(gè)對(duì)象有10幅圖像,總計(jì)400張灰度圖,圖像尺寸為[92×112px],圖像背景全為單一黑色,人臉部分的表情和細(xì)節(jié)都有變化,如笑與不笑、睜眼與閉眼、戴或不戴眼鏡等,人臉姿態(tài)同樣有變化,人臉深度與平面旋轉(zhuǎn)可達(dá)到將近20°,尺寸也有近10%的變化。該人臉庫(kù)的部分人臉圖像如圖5所示。

4.2 實(shí)驗(yàn)方法及參數(shù)設(shè)置

實(shí)驗(yàn)過(guò)程中對(duì)數(shù)據(jù)集作以下處理:首先提取圖像的HOG特征,得到處理后的HOG特征圖集,將處理后的數(shù)據(jù)集作為輸入;依次選取同一個(gè)人的前6張圖像作為訓(xùn)練集,第7~8張圖像作為驗(yàn)證集,第9~10張圖像作為測(cè)試集,從而分別得到訓(xùn)練集、驗(yàn)證集、測(cè)試集的320張、40張、40張圖像。實(shí)驗(yàn)中主要參數(shù)設(shè)定為:學(xué)習(xí)率為0.05,批次大小為40,訓(xùn)練步數(shù)為40,卷積核個(gè)數(shù)依次是5、10,池化大小為(2,2)。使用訓(xùn)練數(shù)據(jù)訓(xùn)練得到網(wǎng)絡(luò)模型,然后加載模型對(duì)測(cè)試數(shù)據(jù)進(jìn)行測(cè)試,從而得到相應(yīng)的人臉識(shí)別率。

對(duì)于實(shí)驗(yàn)?zāi)P蛥?shù)的討論如下:

(1)調(diào)節(jié)batch_size。本實(shí)驗(yàn)采用minibatch SGD算法進(jìn)行優(yōu)化,即batch連續(xù)將數(shù)據(jù)輸入CNN模型中,然后計(jì)算該batch所有樣本的平均損失,即代價(jià)函數(shù)是所有樣本平均值,batch_size是一個(gè)batch包含的樣本數(shù)。

本實(shí)驗(yàn)訓(xùn)練集數(shù)據(jù)為320,驗(yàn)證集和測(cè)試集都為40,所以最好設(shè)置batch_size能被40整除,否則會(huì)浪費(fèi)一些樣本。當(dāng)batch_size設(shè)置為1、2、5、10、20時(shí),驗(yàn)證錯(cuò)誤率一直是97.5%,沒(méi)有下降。由于實(shí)驗(yàn)中每個(gè)類(lèi)別的10個(gè)樣本連續(xù)排列在一起,故若batch_size過(guò)小,則類(lèi)別覆蓋率偏低,最終將其設(shè)置為40。

(2)調(diào)節(jié)learning_rate。學(xué)習(xí)率learning_rate是運(yùn)用SGD算法時(shí)梯度之前的系數(shù),若該系數(shù)設(shè)置過(guò)大,算法可能無(wú)法進(jìn)行優(yōu)化;若設(shè)置過(guò)小,則算法優(yōu)化太慢,而且可能陷入局部最優(yōu)。

分別設(shè)置learn_rate為0.1、0.01、0.05,對(duì)應(yīng)的驗(yàn)證錯(cuò)誤率分別為97.5%、5%、2.5%,故本實(shí)驗(yàn)選取學(xué)習(xí)率為0.05進(jìn)行實(shí)驗(yàn)。

(3)調(diào)節(jié)pool_size。本實(shí)驗(yàn)中pool_size大小為(2,2),即在4個(gè)像素中保留1個(gè)像素,由于實(shí)驗(yàn)樣本圖像大小為57*47,對(duì)于小圖像而言,大小為(2,2)時(shí)比較合適。

4.3 實(shí)驗(yàn)結(jié)果與分析

隨著實(shí)驗(yàn)步數(shù)的增加,驗(yàn)證集錯(cuò)誤率與分類(lèi)的對(duì)數(shù)損失變化如圖6所示。

采用本文算法與其它算法獲得的人臉識(shí)別率對(duì)比如表1所示[18]。

由表1可以看出,采用HOG特征與卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合的算法相比于主成分分析法及BP神經(jīng)網(wǎng)絡(luò),識(shí)別率得到明顯提高,同時(shí)相對(duì)于傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò),本文算法在識(shí)別率上也具有一定優(yōu)勢(shì)。

5 結(jié)語(yǔ)

本文提出一種基于HOG特征與卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法。HOG算子可以很好地描述圖像局部信息,同時(shí)也具有對(duì)圖像幾何與光學(xué)變化的不變性,受噪聲影響較小。通過(guò)在卷積網(wǎng)絡(luò)中加入HOG圖像信息,使卷積神經(jīng)網(wǎng)絡(luò)能夠提取到區(qū)分性更強(qiáng)的人臉特征信息。根據(jù)ORL人臉庫(kù)的實(shí)驗(yàn)結(jié)果表明,本文方法能夠有效提高人臉識(shí)別率。

然而,本文提出的方法雖然能夠有效提高人臉識(shí)別率,但是人臉數(shù)據(jù)集背景較為簡(jiǎn)單,在更復(fù)雜的人臉圖像環(huán)境中,相比于限制環(huán)境下的數(shù)據(jù)集,算法識(shí)別率有所下降。因此,如何在更復(fù)雜的非限制環(huán)境中進(jìn)一步提高人臉識(shí)別率是將來(lái)的主要研究方向。

參考文獻(xiàn):

[1] 景晨凱,宋濤,莊雷,等. 基于深度卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別技術(shù)綜述[J]. 計(jì)算機(jī)應(yīng)用與軟件,2018,35(1):223-231.

[2] 何春. 人臉識(shí)別技術(shù)綜述[J]. 智能計(jì)算機(jī)與應(yīng)用,2016,6(5):112-114.

[3] XIANG Z,TAN H,YE W. The excellent properties of a dense grid- based hog feature on face recognition compared to Gabor and LBP[J]. IEEE Access, 2018,6: 29306-29319.

[4] YING C,SHI Y. Face recognition of the rhinopithecus roxellana qinlingensis based on improved HOG and sparse representation[C]. International Conference on Computer Network, Electronic and Automation, 2017:499-503.

[5] XIE Z, JIANG P, ZHANG S. Fusion of LBP and HOG using multiple kernel learning for infrared face recognition[C]. IEEE/ACIS International Conference on Computer and Information Science,2017:81-84.

[6] BHELE S G,MANKAR V H. Recognition of faces using discriminative features of LBP and HOG descriptor in varying environment[C]. International Conference on Computational Intelligence and Communication Networks, 2016:426-432.

[7] GHORBANI M, TARGHI A T, DEHSHIBI M M. HOG and LBP: towards a robust face recognition system[C]. Tenth International Conference on Digital Information Management, 2016:138-141.

[8] LECUN Y,BOTTOU L,BENGIO Y,et al. Gradient-based learning applied to document recognition[J].? Proceedings of the IEEE,1998, 86(11):2278-2324.

[9] TAIGMAN Y,YANG M,RANZATO M,et al. Deepface: closing the gap to human-level performance in face verification[C]. IEEE Conference on Computer Vision and Pattern Recognition,2014:1701-1708.

[10] SUN Y, WANG X, TANG X. Deep learning face representation from predicting 10000 classes[C]. Computer Vision and Pattern Recognition, 2014:1891-1898.

[11] SCHROFF F,KALENICHENKO D,PHILBIN J. FaceNet: a unified embedding for face recognition and clustering[C]. 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2015:815-823.

[12] 鄒國(guó)鋒,傅桂霞,李海濤,等. 多姿態(tài)人臉識(shí)別綜述[J]. 模式識(shí)別與人工智能,2015,28(7):613-625.

[13] 吳堯,邱衛(wèi)根. 基于改進(jìn)的深度卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別[J]. 計(jì)算機(jī)工程與設(shè)計(jì),2017,38(8):2246-2250.

[14] 周飛燕,金林鵬,董軍. 卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 計(jì)算機(jī)學(xué)報(bào),2017,40(6):1229-1251.

[15] SYAFEEZA A R, KHALIL-HANI M, S S, et al. Convolutional neural network for face recognition with pose and illumination variation[J]. International Journal of Computational Intelligerce & Applications,2015,14(3):1-18.

[16] 汪海波,陳雁翔,李艷秋. 基于主成分分析和Softmax回歸模型的人臉識(shí)別方法[J]. 合肥工業(yè)大學(xué)學(xué)報(bào):自然科學(xué)版,2015,38(6):759-763.

[17] WEN Y, ZHANG K, LI Z, et al. A discriminative feature learning approach for deep face recognition[C]. European Conference on Computer Vision, 2016:499-515.

[18] 張國(guó)云,向燦群,羅百通,等. 一種改進(jìn)的人臉識(shí)別CNN結(jié)構(gòu)研究[J]. 計(jì)算機(jī)工程與應(yīng)用,2017,53(17):180-185,191.

(責(zé)任編輯:黃 健)

猜你喜歡
人臉識(shí)別特征提取
特征提取和最小二乘支持向量機(jī)的水下目標(biāo)識(shí)別
人臉識(shí)別 等
揭開(kāi)人臉識(shí)別的神秘面紗
基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
電子制作(2019年15期)2019-08-27 01:12:00
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
基于(2D)2PCA-LBP 的人臉識(shí)別方法的研究
電子制作(2017年17期)2017-12-18 06:40:55
人臉識(shí)別在高校安全防范中的應(yīng)用
電子制作(2017年1期)2017-05-17 03:54:46
Bagging RCSP腦電特征提取算法
基于類(lèi)獨(dú)立核稀疏表示的魯棒人臉識(shí)別
基于MED和循環(huán)域解調(diào)的多故障特征提取
主站蜘蛛池模板: 99久久精品无码专区免费| 国产精品久久久久久久久kt| 国产精品美女自慰喷水| 久久福利网| 热久久国产| 狠狠色狠狠综合久久| 五月六月伊人狠狠丁香网| 日韩小视频在线观看| 呦视频在线一区二区三区| 国外欧美一区另类中文字幕| 亚洲综合九九| 日韩免费毛片视频| 中文字幕在线不卡视频| 欧美一级高清片欧美国产欧美| 日韩国产高清无码| 亚洲国产清纯| 全裸无码专区| 国产午夜精品鲁丝片| 亚洲成人动漫在线| 国产99视频精品免费视频7| 久久久久国产一级毛片高清板| 国产女人18水真多毛片18精品 | 久久久久人妻一区精品| 亚洲国产精品日韩av专区| 九九久久精品免费观看| 国产一级毛片yw| 国产爽妇精品| 日韩福利视频导航| 波多野结衣第一页| a毛片基地免费大全| 亚洲欧美一区在线| 国产在线98福利播放视频免费| 国产欧美日韩资源在线观看| 97视频精品全国在线观看| 亚洲一区二区三区香蕉| 成人国产精品网站在线看| 中文字幕永久在线观看| 欧美.成人.综合在线| 99热这里只有精品在线观看| 97在线免费视频| 手机在线免费毛片| 男女精品视频| 亚洲IV视频免费在线光看| 久久久成年黄色视频| 国产大片喷水在线在线视频| 91在线无码精品秘九色APP| 亚洲伊人天堂| 国产极品美女在线观看| 日本五区在线不卡精品| 激情无码字幕综合| 亚洲高清在线播放| 精品福利网| 99无码中文字幕视频| 91麻豆精品视频| 免费女人18毛片a级毛片视频| 亚洲成a人片| 在线播放91| 日韩第九页| 永久天堂网Av| 午夜精品久久久久久久无码软件| 国产在线拍偷自揄拍精品| 国产欧美在线视频免费| 亚洲成人精品| 操操操综合网| 亚洲天堂网站在线| 日本国产一区在线观看| 伊人久久婷婷五月综合97色| 久久a级片| 97国内精品久久久久不卡| 亚洲一区波多野结衣二区三区| 亚洲伊人电影| 人妻中文字幕无码久久一区| 欧美视频免费一区二区三区| 国产乱人视频免费观看| 欧美人人干| 亚洲日本在线免费观看| 国产福利不卡视频| 99er精品视频| 国产xx在线观看| 国产第二十一页| 国产在线观看一区二区三区| 欧美激情伊人|