999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別研究

2019-10-14 20:25:27薛艷杰鄧燕妮
科技風(fēng) 2019年11期
關(guān)鍵詞:人臉識(shí)別

薛艷杰 鄧燕妮

摘 要:由于傳統(tǒng)的深度卷積神經(jīng)網(wǎng)絡(luò)用于人臉識(shí)別時(shí),往往結(jié)構(gòu)層數(shù)多,參數(shù)量大,訓(xùn)練難度高。本文在經(jīng)典網(wǎng)絡(luò)LeNet-5的基礎(chǔ)上提出一種新的卷積神經(jīng)網(wǎng)絡(luò)模型來進(jìn)行人臉識(shí)別。首先,結(jié)構(gòu)上包含兩個(gè)子卷積網(wǎng)絡(luò),實(shí)現(xiàn)多卷積的功效;然后,對于提取人臉特征的卷積層和池化層采取融合,以減少網(wǎng)絡(luò)參數(shù)及訓(xùn)練時(shí)間;采用兩個(gè)全連接層,第一個(gè)全連接層與前面完成特征提取的每個(gè)單層連接來實(shí)現(xiàn)對多尺度特征的采集;最后的分類層采用Softmax分類器。實(shí)驗(yàn)結(jié)果表明,與傳統(tǒng)結(jié)構(gòu)模型相比,識(shí)別率有所提高,其訓(xùn)練速度提升了,驗(yàn)證了新網(wǎng)絡(luò)模型人臉識(shí)別方法的有效性。

關(guān)鍵詞:人臉識(shí)別;卷積神經(jīng)網(wǎng)絡(luò);多子卷積網(wǎng)絡(luò);卷積池化層融合;多尺度特征采集

近年來,人臉識(shí)別技術(shù)進(jìn)展迅猛,在身份識(shí)別認(rèn)證、金融支付、視頻監(jiān)控等領(lǐng)域都有良好的效果。這些傳統(tǒng)的人臉識(shí)別算法通常是人工來提取特征,因而識(shí)別率普遍不高。卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)在圖像處理、語音識(shí)別方面擁有其獨(dú)特的優(yōu)勢,包括局部感受野、權(quán)值共享、空間池化。有鑒于此,本文在網(wǎng)絡(luò)LeNet-5的基礎(chǔ)上改進(jìn),提出了一種具有雙子卷積神經(jīng)網(wǎng)絡(luò)的的六層卷積神經(jīng)網(wǎng)絡(luò)模型。

1 卷積神經(jīng)網(wǎng)絡(luò)的原理

神經(jīng)認(rèn)知機(jī)是由日本學(xué)者Fukushima基于Hubel&Wiesel感受野概念提出的第一個(gè)卷積神經(jīng)網(wǎng)絡(luò)。[1]卷積神經(jīng)網(wǎng)絡(luò)的特有優(yōu)點(diǎn)主要有三個(gè):局部感受野、權(quán)值共享、空間池化。現(xiàn)在的深度CNN是將深度學(xué)習(xí)概念應(yīng)用到神經(jīng)網(wǎng)絡(luò),由多個(gè)單層CNN堆疊而成的多層網(wǎng)絡(luò)結(jié)構(gòu),然后級(jí)聯(lián)到全連接層,最終輸出。

1.1 卷積層

卷積層主要工作是通過卷積操作來對輸入圖像提取特征,卷積核的作用相當(dāng)于濾波器,計(jì)算圖像的每一個(gè)像素以及其領(lǐng)域像素和濾波器矩陣對應(yīng)元素的乘積和,得到的結(jié)果即為輸出。若卷積層為第l層,則其卷積公式如下:

2 卷積神經(jīng)網(wǎng)絡(luò)的改進(jìn)

雖然LeNet-5網(wǎng)絡(luò)在手寫字符Mnist數(shù)據(jù)集上的識(shí)別率很高,但LeNet-5不能得到很好的人臉識(shí)別率。本文在LeNet-5基礎(chǔ)上做出改進(jìn)。改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)共6層,特征提取層由兩個(gè)并行獨(dú)立的子卷積神經(jīng)網(wǎng)絡(luò)組成。網(wǎng)絡(luò)第一層為輸入層,輸入26×26大小圖片。第二層包含兩個(gè)獨(dú)立的卷積層C1、C2,卷積核數(shù)目均為40個(gè);卷積層C1卷積核大小為3×3,這樣C1大小為12×12×40;卷積層C2卷積核大小為7×7,這樣C2大小為10×10×40。第三層包含兩個(gè)獨(dú)立的卷積層C3、C4,卷積核數(shù)目均為65個(gè);卷積層C3卷積核大小為3×3,這樣C3大小為5×5×65;卷積層C4卷積核大小為3×3,這樣C4大小為4×4×65。四個(gè)卷積層的步長均為2。第四層為F1全連接層,該層設(shè)計(jì)有300個(gè)神經(jīng)元,F(xiàn)1的輸入來自C1、C2、C3、C4,對(5)式做出改進(jìn)得到F1層的公式如下:

第五層是F2全連接層,神經(jīng)元數(shù)目根據(jù)人臉種類具體情況而定,F(xiàn)2與F1采用全連接,該層公式如式(5)所示。則公式(6)中的x′為該層的輸出。第六層是輸出層,由softmax函數(shù)判斷分類。

3 實(shí)驗(yàn)及結(jié)果分析

3.1 實(shí)驗(yàn)數(shù)據(jù)集和預(yù)處理

為了驗(yàn)證本文算法的有效性,采用AR人臉庫作為實(shí)驗(yàn)數(shù)據(jù)集。AR數(shù)據(jù)庫是Purdue大學(xué)建立,含126個(gè)人共2600張面部圖片。這些人臉圖像有正常、光照、表情變化、姿態(tài)變化、遮擋等多種情況。每張圖片的像素大小為120×165。實(shí)驗(yàn)前,先對圖像數(shù)據(jù)集進(jìn)行預(yù)處理,圖像歸一化成大小為26×26,灰度值為[0,1]。然后從中隨機(jī)抽取100人,每人20張,共2000張圖像組成新的數(shù)據(jù)集。每人隨機(jī)抽取的15張圖片組成訓(xùn)練集,即1500張圖像用于網(wǎng)絡(luò)訓(xùn)練,剩下的每人5張,共計(jì)500張圖像作為測試集用于性能驗(yàn)證。由于總?cè)藬?shù)為100人,則F2層神經(jīng)元數(shù)目設(shè)置為100。學(xué)習(xí)率置為0.02,動(dòng)量置為0.9。

3.2 實(shí)驗(yàn)驗(yàn)證網(wǎng)絡(luò)模型

上下兩個(gè)子卷積神經(jīng)網(wǎng)絡(luò)分別稱為CNN1、CNN2,由于兩者平行獨(dú)立,這里先對CNN1進(jìn)行實(shí)驗(yàn)來獲得其最佳網(wǎng)絡(luò)參數(shù)。

首先驗(yàn)證通過改變卷積核窗口滑動(dòng)步長來取代池化層的有效性,作以下四種設(shè)置:(1)步長為1,無池化;(2)步長為1,有池化;(3)步長為2,無池化;(4)步長為3,無池化。對四種情況下的網(wǎng)絡(luò)模型分別作3次實(shí)驗(yàn),最后取平均值。識(shí)別結(jié)果:CNN1-(1)識(shí)別率為98.21%,訓(xùn)練時(shí)間為110.8s,CNN1-(2)識(shí)別率為97.13%,訓(xùn)練時(shí)間為41.4s,CNN1-(3)識(shí)別率為9785%,訓(xùn)練時(shí)間為30.5s,CNN1-(4)識(shí)別率為97.07%,訓(xùn)練時(shí)間為18.7s。總結(jié)得出,CNN1-(3)是最佳選擇。同時(shí)驗(yàn)證了增大卷積核步長來代替池化層的方法是有效的。

本文提出的網(wǎng)絡(luò)模型各層參數(shù),如下表所示。

接下來驗(yàn)證擁有兩個(gè)子卷積神經(jīng)網(wǎng)絡(luò)的模型方法的識(shí)別率是否高于普通單個(gè)卷積神經(jīng)網(wǎng)絡(luò)模型的識(shí)別率。對CNN1、CNN2及本文方法在數(shù)據(jù)集上分別作3次實(shí)驗(yàn),結(jié)果取平均值。實(shí)驗(yàn)結(jié)果:本文方法測試集正確識(shí)別率為95.73%,CNN1為93.81%,CNN2為91.57%。

3.3 實(shí)驗(yàn)分析

由上表可知,CNN1的卷積核比CNN2的小,每張圖像卷機(jī)操作的次數(shù)相對增加,得到較多特征信息,則識(shí)別率比CNN2較高。兩者并行組成的本文算法的識(shí)別性能最好,驗(yàn)證了多個(gè)子卷積神經(jīng)網(wǎng)絡(luò)提取多局域特征的有效性。

由上圖可知,CNN1雖然比LeNet-5少一個(gè)卷積層,但因?yàn)槠洳捎昧硕喑叨忍卣鞑杉姆椒ǎ慈B接層分別與每一個(gè)特征提取層全連接,融合不同尺度大小的特征圖,所以CNN1的識(shí)別率比LeNet-5高,驗(yàn)證了該方法的有效性。本文方法、CNN1、LeNet-5、PCA在訓(xùn)練迭代到5000次時(shí)識(shí)別率依次為9573%、93.81%、90.15%、87.64%,本文方法得到了最佳識(shí)別率。

4 結(jié)語

本文針對人臉識(shí)別過程中受到非約束條件影響,基于已有的經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)LeNet-5設(shè)計(jì)了一個(gè)六層并行雙子卷積神經(jīng)網(wǎng)絡(luò)。通過多組實(shí)驗(yàn)對比,驗(yàn)證了文中各方向改進(jìn)方法的有效性。后續(xù)工作可以從增加子卷積神經(jīng)網(wǎng)絡(luò)的數(shù)量以及縮小各層神經(jīng)元數(shù)目有效范圍得到精準(zhǔn)數(shù)目等方面著手,來進(jìn)一步提高網(wǎng)絡(luò)模型的識(shí)別率。

參考文獻(xiàn):

[1]吳堯,邱衛(wèi)根.基于改進(jìn)的深度卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別[J].計(jì)算機(jī)工程與設(shè)計(jì),2017,38(08).

猜你喜歡
人臉識(shí)別
人臉識(shí)別 等
揭開人臉識(shí)別的神秘面紗
人臉識(shí)別技術(shù)的基本原理與應(yīng)用
電子制作(2019年14期)2019-08-20 05:43:34
人臉識(shí)別技術(shù)在高速公路打逃中的應(yīng)用探討
基于(2D)2PCA-LBP 的人臉識(shí)別方法的研究
電子制作(2017年17期)2017-12-18 06:40:55
淺談人臉識(shí)別技術(shù)
人臉識(shí)別在高校安全防范中的應(yīng)用
電子制作(2017年1期)2017-05-17 03:54:46
巡演完美收官 英飛拓引領(lǐng)人臉識(shí)別新潮流
人臉識(shí)別在Android平臺(tái)下的研究與實(shí)現(xiàn)
基于Metaface字典學(xué)習(xí)與核稀疏表示的人臉識(shí)別方法
主站蜘蛛池模板: 成人午夜免费观看| 日韩国产黄色网站| 亚洲乱亚洲乱妇24p| 国内黄色精品| 亚洲精品卡2卡3卡4卡5卡区| 亚洲天堂久久久| 国产熟睡乱子伦视频网站| 老色鬼欧美精品| 亚洲午夜18| 制服无码网站| 老熟妇喷水一区二区三区| 手机成人午夜在线视频| 日韩激情成人| 亚洲AV无码乱码在线观看裸奔 | 国产精女同一区二区三区久| 波多野结衣视频网站| 精品国产毛片| 波多野结衣无码视频在线观看| 天堂中文在线资源| 黄色a一级视频| 欧美不卡二区| 国产免费久久精品99re不卡| 欧洲亚洲一区| 亚洲精品无码成人片在线观看| 久久综合成人| 亚洲精品无码日韩国产不卡| 99热这里只有免费国产精品| 人妻中文久热无码丝袜| 国产一区二区精品福利| 丁香亚洲综合五月天婷婷| 欧美自慰一级看片免费| 免费亚洲成人| 亚洲成人网在线播放| 欧美一级高清片欧美国产欧美| 国产自在自线午夜精品视频| 2021国产在线视频| 性视频久久| 在线免费不卡视频| 一级一毛片a级毛片| 国产又黄又硬又粗| 在线观看国产小视频| 免费精品一区二区h| 丰满的熟女一区二区三区l| 亚洲国产欧美中日韩成人综合视频| 亚洲伦理一区二区| 国产在线精彩视频论坛| 扒开粉嫩的小缝隙喷白浆视频| 婷婷丁香色| 天天色天天综合| 婷婷色一区二区三区| 操国产美女| 无码中文AⅤ在线观看| 四虎国产在线观看| 亚洲一区色| 国产一区三区二区中文在线| 欧美视频免费一区二区三区| 一级毛片免费的| 久久综合丝袜长腿丝袜| 久夜色精品国产噜噜| swag国产精品| 欧美精品导航| 日日碰狠狠添天天爽| 亚洲色图综合在线| 2020最新国产精品视频| 国产综合亚洲欧洲区精品无码| 91色在线视频| 国产综合亚洲欧洲区精品无码| 成年人国产网站| JIZZ亚洲国产| 色香蕉影院| 伊人久久久大香线蕉综合直播| 日本亚洲最大的色成网站www| 青青青国产在线播放| 亚洲三级影院| 欧美一区日韩一区中文字幕页| 午夜国产理论| 亚洲第一黄色网| 国产精品久久久久无码网站| 国产成人精品一区二区不卡| 狂欢视频在线观看不卡| 99久久精品国产精品亚洲 | 婷婷丁香在线观看|