999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多級紋理特征的深度信念網(wǎng)絡(luò)人臉識別算法

2020-04-18 13:15:02陳雪鑫卜慶凱
關(guān)鍵詞:特征

陳雪鑫 孫 玥 苗 圃 卜慶凱

(青島大學(xué)電子信息學(xué)院 山東 青島 266071)

0 引 言

人臉識別是基于人臉特征信息進(jìn)行身份自動識別的生物識別技術(shù),憑借非強(qiáng)制性、非接觸性及并發(fā)性強(qiáng)的優(yōu)勢廣泛應(yīng)用于金融領(lǐng)域和安保領(lǐng)域等智能化社會建設(shè)方面[1]。傳統(tǒng)的人臉識別方法是基于統(tǒng)計(jì)特征的識別方法,特征的提取過度依賴于人工選擇,干擾因素過多。隨著研究的深入,機(jī)器學(xué)習(xí)的人臉識別方法(FRMML)得到空前發(fā)展[2]。在FRMML中包含了淺層機(jī)器學(xué)習(xí)識別方法(SMLFRM)和深層機(jī)器學(xué)習(xí)識別方法(DLFRM),其中SMLFRM優(yōu)化復(fù)雜度高,識別率較低。而DLFRM中新形成的深度信念網(wǎng)絡(luò)(DBN)提高了訓(xùn)練過程的泛化能力和自適應(yīng)能力,在復(fù)雜分類上比淺層網(wǎng)絡(luò)結(jié)構(gòu)有更好的效果,因此得到學(xué)者青睞。人臉特征高效且準(zhǔn)確的描述與提取決定識別的精度。傳統(tǒng)的特征描述算法主要有基于全局特征和基于局部特征兩類。基于全局特征的描述算法主要有主成分分析(Principal Component Analysis,PCA)、線性判別分析(Liner Discriminant Analysis,LDA)等。陳海霞等[3]結(jié)合PCA降維特性和Gabor小波多尺度濾波特性,實(shí)現(xiàn)了對臉部整體特征的提取,提高了識別準(zhǔn)確率。基于局部特征的描述算法主要有局部二值模式(Local Binary Pattern,LBP)、定向梯度直方圖(Histogram of Oriented Gradient,HOG)和Gabor變換等。Xie等[4]通過提取邊緣方向特征作為局部紋理特征的補(bǔ)充信息,實(shí)現(xiàn)LBP和HOG算法的融合,改善了紅外人臉識別的魯棒性。周昊等[5]通過對人臉圖像中特定的區(qū)域進(jìn)行分塊處理,結(jié)合稀疏表示分類器訓(xùn)練測試,雖然識別率有所提高但當(dāng)面對復(fù)雜人臉表情時(shí)并不能取得良好的效果。胡麗喬等[6]根據(jù)分塊后的人臉圖像識別貢獻(xiàn)率配置相應(yīng)的權(quán)重,然后利用支持向量機(jī)(SVM)對帶有權(quán)重的分塊直方圖進(jìn)行學(xué)習(xí)訓(xùn)練而后完成識別。

局部紋理特征是圖像特征的局部表達(dá),對蘊(yùn)含信息的表達(dá)具有良好的魯棒性,因此局部紋理特征詳細(xì)的提取可以達(dá)到有效描述人臉圖像的效果并為后續(xù)分類操作提供可靠的保障。為了實(shí)現(xiàn)更高的人臉識別率,本文提出對局部紋理特征采取多級提取的方法,對均勻分塊的圖像提取局部紋理特征,在此基礎(chǔ)上使用改進(jìn)的CS-LBP進(jìn)一步獲取局部詳細(xì)紋理信息并結(jié)合HOG算子優(yōu)勢,提取邊緣信息作為輔助,對人臉圖像紋理做出清楚詳細(xì)的描述。局部紋理特征的充分描述,彌補(bǔ)了DBN忽略局部結(jié)構(gòu)的缺陷。級聯(lián)后的融合特征信息通過DBN的深度學(xué)習(xí)并在頂層實(shí)現(xiàn)人臉識別。實(shí)驗(yàn)表明,多級局部特征的提取在DBN模型下能夠提高人臉識別精度。

1 算法理論

1.1 LBP和MB-LBP特征描述

局部二值模式(Local Binary Pattern,LBP)是由Ojala[7]提出的一種圖像局部紋理特征的描述算子。LBP算子將中心像素灰度值和鄰域像素灰度值以比較的方式實(shí)現(xiàn)對圖像局部紋理特征的高效描述,具有旋轉(zhuǎn)不變性、灰度不變性以及計(jì)算高效的特點(diǎn)[8-9]。傳統(tǒng)的LBP算子如圖1所示,在一個3×3區(qū)域中,中心點(diǎn)像素灰度值作為閾值,相鄰的像素灰度值依次與之比較,大于等于閾值則為1,否則為0。將產(chǎn)生的8個二進(jìn)制數(shù)按順時(shí)針連接并轉(zhuǎn)化為十進(jìn)制數(shù)。這個十進(jìn)制數(shù)即為區(qū)域中心點(diǎn)像素值,最后選用LBP直方圖作特征向量。

圖1 LBP算子示意圖

LBP算子編碼公式為:

(1)

(2)

式中:(xc,yc)代表中心像素的坐標(biāo);gc、gi分別代表中心像素的灰度值和鄰域像素的灰度值。觀察圖1,傳統(tǒng)的LBP算子被限制在固定區(qū)域內(nèi)對像素點(diǎn)之間比較提取特征,過于局部化并且削弱了局部特征的健壯性[10]。為此使用圓形鄰域結(jié)合雙線性插值運(yùn)算替代正方形鄰域,以此來獲取任意半徑和任意數(shù)目的不在像素中心位置的鄰域像素點(diǎn)。如圖2所示,用P表示鄰域點(diǎn)的個數(shù),R表示圓形領(lǐng)域的半徑。

(a) LBP4,1(b) LBP8,1 (c) LBP8,2圖2 圓形LBPP,R算子

使用LBP算子對圖像像素進(jìn)行直方圖統(tǒng)計(jì)不僅受鄰域像素的影響對噪聲敏感,而且缺乏對圖像粗粒度的把握,易丟失結(jié)構(gòu)信息。因此可以對圖像采取分塊處理,使用MB-LBP(Multi-Block Local Binary Patterns)彌補(bǔ)缺陷。MBS-LBP算子表示把圖像細(xì)分成大小為S×S的像素塊,圖3為S=3的MB-LBP算子。

圖3 MB3-LBP算子示意圖

對于圖3,整個圖像區(qū)域分為9個像素塊,每個像素塊有6個像素點(diǎn),傳統(tǒng)LBP算子像素灰度值之間的比較被像素塊之間的平均灰度的比較所代替,而且MB-LBP將每個像素塊的中心點(diǎn)像素也都考慮到,增加了對圖像全局信息的把握。傳統(tǒng)LBP算子得到的二進(jìn)制模式數(shù)目較多,而實(shí)際的位于分塊區(qū)域的像素?cái)?shù)目卻相對較少,失去了統(tǒng)計(jì)意義。因此提出統(tǒng)一化模式概念,保留的統(tǒng)一化模式往往反映重要的信息,而非統(tǒng)一化模式中往往由噪聲引起,不具有良好的統(tǒng)計(jì)意義。

圖4所示的是像素塊大小為3×3,半徑為2,鄰域?yàn)?的統(tǒng)一化模式下的圓形LBP算子,每個虛線的小方格代表一個像素,每個粗線圍成的大方格代表一個像素塊,其值是由其中3×3共9個像素的灰度平均而得的。不同像素塊大小代表著不同的觀察和分析粗粒度,可以加強(qiáng)對圖像整體特征信息的描述。

圖算子

1.2 CS-LBP算子及其改進(jìn)

中心對稱局部二值模式(Center-Symmetric Local Binary Patters,CS-LBP)使用中心對稱思想對鄰域內(nèi)像素灰度值的比較規(guī)則進(jìn)行重新定義,通過比較以中心像素灰度值為中心對稱的像素值對完成編碼,即對中心對稱點(diǎn)的亮度差編碼。

CS-LBP編碼公式為:

(3)

(4)

式中:gc代表對稱中心像素;gi代表以gc為圓心、R為半徑的圓周上的像素值,P代表圓上像素點(diǎn)的數(shù)量。gi、gi+(p/2)代表對稱像素值對。T代表閾值反映紋理的平坦性可以取gc,也可以根據(jù)實(shí)驗(yàn)自行設(shè)定。通過對比式(1)和式(3)以及觀察圖5可以發(fā)現(xiàn),LBP算子運(yùn)算后得到的二進(jìn)制模式串的長度為P、二進(jìn)制模式的種類為2P。而CS-LBP用對稱像素值對思想提取紋理特征,得到的二進(jìn)制模式串的長度為P/2、二進(jìn)制模式的種類為2P/2。二者相比較,CS-LBP對圖像局部區(qū)域灰度變化差異的描述能力更強(qiáng),同時(shí)也降低了紋理特征的維數(shù),縮減了存儲的空間。

圖5 LBP與CS-LBP算子對比示意圖

傳統(tǒng)的特征提取算子僅考慮中心像素和相鄰像素或者中心對稱像素對之間的灰度差,單一像素差之間的比較容易造成特征的丟失。結(jié)合LBP和CS-LBP紋理提取的優(yōu)勢,重新定義了像素之間的比較規(guī)則,即添加對稱像素與中心像素之間的比較,使生成的直方圖既短又考慮了中心像素。借用圖像中心點(diǎn)像素信息改善紋理特征粗細(xì)的同時(shí)放大了不同表達(dá)特征向量之間的差異,嚴(yán)格控制每個像素點(diǎn)的周圍條件,增強(qiáng)抗噪能力,使得所提取的紋理信息更加細(xì)致。改進(jìn)的CS-LBP編碼公式為:

CS-LBPP,R(x,y)=

(5)

(6)

(7)

圖6比較了不同算子對人臉圖像的紋理提取,可以看出LBP算子對紋理具有很強(qiáng)的描述能力。傳統(tǒng)的LBP算子描述的略顯粗糙。MB-LBP提取紋理特征加大了對整體信息的粗粒度把握,整體的結(jié)構(gòu)信息明顯加深,部分區(qū)域信息的描述增強(qiáng)。CS-LBP算子改善了紋理的復(fù)雜度。改進(jìn)的CS-LBP算子繼承了傳統(tǒng)LBP算子的優(yōu)點(diǎn)并且有效地區(qū)分背景,紋理特征豐富,五官表征明顯,在局部特征描述上具有很強(qiáng)的辨別能力。

圖6 不同算子紋理提取

1.3 方向梯度直方圖

方向梯度直方圖(Histograms of Oriented Gradients,HOG)是一種特征描述子,通過提取圖像局部區(qū)域的梯度或邊緣方向信息,構(gòu)成局部區(qū)域的方向梯度直方圖特征以此表征目標(biāo)形狀[13-14]。HOG是對圖像局部單元區(qū)域進(jìn)行描述提取,所以HOG特征描述子能夠保持圖像幾何和光學(xué)轉(zhuǎn)化不變性,而且在圖像區(qū)域形狀變化較大時(shí)依然可以提取出有效的邊緣信息。

HOG特征描述子提取過程如圖7所示。

圖7 HOG特征提取流程圖

(1) 對圖像進(jìn)行顏色空間標(biāo)準(zhǔn)化,抑制噪聲的干擾。

(2) 捕捉圖像輪廓信息,計(jì)算圖像每個像素點(diǎn)的梯度(包括大小和方向):

Gx(x,y)=H(x+1,y)-H(x-1,y)Gy(x,y)=H(x,y+1)-H(x,y-1)

(8)

式中:Gx(x,y)、Gy(x,y)、H(x,y)分別代表圖像中像素點(diǎn)(x,y)處的水平方向梯度、垂直方向梯度和像素值。像素點(diǎn)(x,y)處的梯度幅值和梯度方向分別為:

(9)

(3) 將圖像劃分成小cell,統(tǒng)計(jì)每個cell的梯度直方圖(不同梯度的個數(shù)),即可形成每個cell的特征描述子。將每幾個cell組成一個block(cell與block關(guān)系如圖7(b)),一個block內(nèi)所有cell的特征描述子串聯(lián)起來歸一化后便得到該block的HOG特征描述子。

(4) 檢測窗口中所有重疊的block并進(jìn)行HOG特征收集,按順序結(jié)合成最終的特征向量供后續(xù)分類使用。

1.4 深度信念網(wǎng)絡(luò)

深度信念網(wǎng)絡(luò)(Deep Belief Network,DBN)是Hinton等[15]提出的非監(jiān)督深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò), DBN不依賴于手動選擇信息而是主動學(xué)習(xí)輸入數(shù)據(jù)并自動挖掘隱藏在已知數(shù)據(jù)中的豐富信息[16]。DBN可以被視為玻爾茲曼機(jī)(Restricted Boltzmann Machines,RBM)的堆棧,RBM是一個基于能量的生成型模型,每個RBM由可視層和隱藏層構(gòu)成,可視層負(fù)責(zé)數(shù)據(jù)輸入,隱藏層負(fù)責(zé)特征提取。層與層之間全連接,同一層各單元彼此互不連接,如圖8右側(cè)所示。

圖8 DBN模型結(jié)構(gòu)圖

對于給定的一組狀態(tài)(v,h)擁有的能量函數(shù)為:

(10)

式中:v、h分別代表可視層和隱藏層單元的狀態(tài)向量;m、n分別代表可視層和隱藏層的單元數(shù)目;θ=(wij,ai,bj)是RBM系統(tǒng)中的參數(shù),wij代表兩層之間的連接權(quán)重;ai、bj分別代表可視層和隱藏層單元的偏置值向量。通過能量函數(shù)可得到(v,h)的聯(lián)合概率分布函數(shù):

(11)

RBM的學(xué)習(xí)目的就是對給定的輸入信號v最大程度重構(gòu)生成對應(yīng)信號h,使用對比散度算法調(diào)整系統(tǒng)參數(shù)θ使得聯(lián)合概率分布函數(shù)P(v,h)最大。

在具有n個隱藏層的DBN結(jié)構(gòu)中,其可視層單元與隱藏層單元的聯(lián)合分布為:

P(v,h(1),h(2),…,h(n-1),h(n))=

P(v|h(1))P(h(1)|h(2))…P(h(n-2)|h(n-1))P(h(n-1)|h(n))

(12)

式中:v=h(0)代表可視層單元;h(l)(l=1,2,…,n)代表第l層的隱藏層單元。其中第l層與第l+1層的隱藏層單元關(guān)系為:

(13)

DBN模型的訓(xùn)練如下:

(1) 預(yù)訓(xùn)練階段。采用貪婪學(xué)習(xí)算法,訓(xùn)練第一個RBM以盡可能準(zhǔn)確地重構(gòu)輸入,并且使第一個RBM的輸出訓(xùn)練第二個RBM。每一個RBM的隱藏層作為下一個RBM的可視層。由下到上,重復(fù)該過程直到完成整個DBN網(wǎng)絡(luò)的逐層訓(xùn)練。該階段的最終目的是訓(xùn)練得到每層最優(yōu)參數(shù),最大程度完成輸入特征的重構(gòu)。

(2) 微調(diào)階段。在DBN的最后一層設(shè)置為BP神經(jīng)網(wǎng)絡(luò),在接收到前一層RBM的輸出后進(jìn)行有監(jiān)督訓(xùn)練,由上到下,反向傳播(Back Propagation,BP),優(yōu)化每一層RBM的權(quán)值參數(shù)。

2 算法設(shè)計(jì)及流程

圖9 人臉圖像分級提取特征

在圖9中可以清楚地觀察到MB-LBP算子提高了人臉圖像粗粒度,提取的紋理特征更加詳盡。改進(jìn)的CS-LBP消除了冗雜的特征信息,細(xì)化了紋理特征的層次性,加強(qiáng)對部分區(qū)域(比如眼睛、嘴唇、鼻子等)特征提取。采用HOG作為輔助,完善圖像邊緣形狀特征信息,將整體的人臉圖像特征信息最大化提取。經(jīng)過對人臉圖像的分級操作,得到了完整且有效的紋理特征。

本文整體算法流程如圖10所示。對人臉數(shù)據(jù)庫分為訓(xùn)練集和測試集,對圖像進(jìn)行灰度統(tǒng)一化等預(yù)處理操作,訓(xùn)練集在經(jīng)過三級特征提取后得到融合特征輸入DBN學(xué)習(xí)訓(xùn)練。測試集在已完成訓(xùn)練的DBN系統(tǒng)中測試得到識別結(jié)果。

圖10 人臉識別算法流程圖

DBN在訓(xùn)練過程中可以從輸入數(shù)據(jù)中學(xué)習(xí)隱含的抽象信息。學(xué)習(xí)訓(xùn)練過程中DBN系統(tǒng)聯(lián)合分布為:

P(H,h(1),h(2),…,h(l-1),h(l))=

P(H|h(1))P(h(1)|h(2))…P(h(l-1)|h(l))

(14)

式中:H代表三級紋理提取后的最終融合特征向量,H中包含層次分明、結(jié)構(gòu)完整的局部紋理特征,也含有邊緣梯度等抽象特征,完整地保存了人臉圖像的固有特征。融合特征H由低層可視層輸入至整個DBN網(wǎng)絡(luò),采用逐層訓(xùn)練的機(jī)制實(shí)現(xiàn)數(shù)據(jù)的訓(xùn)練。h(1),h(2),…,h(l)是深度信念網(wǎng)絡(luò)對融合特征H訓(xùn)練學(xué)習(xí)而得到的相應(yīng)高層表示。P(H|h(1))代表對第一個隱藏層狀態(tài)向量求含有輸入特征的可視層狀態(tài)向量的概率。結(jié)合式(11)可以完成DBN系統(tǒng)的最終目的即調(diào)整系統(tǒng)參數(shù)達(dá)到全局最優(yōu)完成對融合特征充分飽滿的吸收。DBN系統(tǒng)隱藏層單元數(shù)量決定著深度網(wǎng)絡(luò)的性能,但沒有統(tǒng)一的理論標(biāo)準(zhǔn)規(guī)定。為此,本文在每層隱藏層選取相同數(shù)量單元的情況下進(jìn)行實(shí)驗(yàn)分析。

3 實(shí)驗(yàn)結(jié)果與分析

實(shí)驗(yàn)中選用ORL和YALE人臉數(shù)據(jù)庫完成測試。ORL人臉庫含有光照不變、姿態(tài)表情變化的40個人的400幅人臉圖像,其中隨機(jī)抽取6幅圖像作為訓(xùn)練集,4幅作為測試集。YALE人臉庫含有15個人,每人有11幅光照、姿態(tài)、表情都存在變化的人臉圖像,隨機(jī)選取7幅作為訓(xùn)練集,4幅作為測試集。設(shè)定RBN學(xué)習(xí)率為0.05,BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)率為7.5。

3.1 隱藏層層數(shù)

在DBN系統(tǒng)中隱藏層的數(shù)量對系統(tǒng)識別精度有重要的影響,網(wǎng)絡(luò)系統(tǒng)的深度過深則會使參數(shù)優(yōu)化陷入局部最優(yōu),深度過淺則不能充分訓(xùn)練輸入特征。在固定每層隱藏單元數(shù)為200不變的情況下改變隱藏層層數(shù),然后研究其變化情況對識別正確率的影響。結(jié)果如表1所示(組別中1-4為ORL人臉庫;5-8為YALE人臉庫)。

表1 不同隱藏層下的識別結(jié)果

由表1可知,在兩個人臉庫中,隨著系統(tǒng)深度的增加,識別率會有增加但并不是一直增加。在隱藏層深度為2時(shí),DBN系統(tǒng)識別正確率達(dá)到最大,訓(xùn)練的時(shí)間也在一個可觀范圍內(nèi)。隨著深度的增加,對DBN系統(tǒng)的泛化能力造成影響最終出現(xiàn)過擬合的現(xiàn)象,不僅識別準(zhǔn)確率下降而且訓(xùn)練的時(shí)間也增長。經(jīng)過實(shí)驗(yàn)測試,本文最終確定選用含有2層隱藏層的DBN系統(tǒng)。

3.2 隱藏層單元數(shù)

DBN系統(tǒng)實(shí)現(xiàn)人臉圖像的識別取決于深度網(wǎng)絡(luò)中對輸入特征逐層強(qiáng)有力的學(xué)習(xí)。之前的研究中已經(jīng)確定最佳的隱藏層層數(shù),而另一個影響因素就是隱藏層單元數(shù)。隱藏層所含有的單元數(shù)對系統(tǒng)的學(xué)習(xí)能力以及訓(xùn)練時(shí)間有著舉足輕重的作用。DBN系統(tǒng)中隱藏層單元數(shù)過多會導(dǎo)致過載現(xiàn)象,多余的單元數(shù)會增加訓(xùn)練過程的復(fù)雜度,降低整體識別正確率。而隱藏層單元數(shù)過少,神經(jīng)元之間的連接也會減少,從而忽略特征信息,降低特征學(xué)習(xí)訓(xùn)練的能力。本文在兩個人臉庫中對隱藏層單元數(shù)進(jìn)行測試,結(jié)果如圖11所示。

圖11 不同隱藏層單元數(shù)下識別率

由圖11可知,隱藏層單元數(shù)目帶動了人臉圖像特征更好的表達(dá),然而識別率并不隨著隱藏單元數(shù)的增加而提高。在ORL人臉庫中當(dāng)隱藏層單元數(shù)為500時(shí)輸入特征充分被吸收,識別率達(dá)到最大94.67%。在YALE人臉庫識別率達(dá)到最大值93.72%時(shí)隱藏層單元數(shù)也接近500。

3.3 不同識別算法比較

選取經(jīng)測試得到的最佳DBN系統(tǒng)模型結(jié)構(gòu)即深度為2層且每層隱藏層單元數(shù)都為500。在此情況下與傳統(tǒng)的SVM、PCA、BP算法在相同人臉庫中驗(yàn)證本文算法的優(yōu)越性,結(jié)果如圖12、圖13所示。

圖12 ORL人臉庫算法識別率比較

圖13 YALE人臉庫算法識別率比較

由圖12和圖13可以看出,本文算法相比傳統(tǒng)的算法取得了良好的人臉識別效果。與BP神經(jīng)網(wǎng)絡(luò)相比較,本文采用的DBN系統(tǒng)中每一層RBM優(yōu)化只對自身層的權(quán)值達(dá)到最優(yōu),為深度學(xué)習(xí)網(wǎng)絡(luò)選擇合適的初值提高了效率,而此點(diǎn)正是BP神經(jīng)網(wǎng)絡(luò)所缺少的。與SVM、PCA算法相比較,傳統(tǒng)的淺層學(xué)習(xí)算法僅僅是對提取到的特征進(jìn)行表面的吸收學(xué)習(xí),學(xué)習(xí)的準(zhǔn)確性取決于特征提取的詳盡性。DBN系統(tǒng)是多層網(wǎng)絡(luò)結(jié)構(gòu)的深度學(xué)習(xí)模式,可以學(xué)習(xí)到輸入特征再次提取特征信息,為系統(tǒng)的學(xué)習(xí)訓(xùn)練增加保障。本文構(gòu)建的DBN系統(tǒng)在最適樣本訓(xùn)練完成后,樣本增加對識別率影響不大,這充分說明DBN系統(tǒng)憑借自身無監(jiān)督學(xué)習(xí)和有監(jiān)督微調(diào)的特點(diǎn),在深層次的數(shù)據(jù)挖掘方面展現(xiàn)出傳統(tǒng)淺層學(xué)習(xí)所沒有的優(yōu)勢。

表2為不同特征提取算法下的人臉識別結(jié)果。ORL人臉庫中人臉圖像在表情、姿態(tài)方面存在不同,不存在光照方面的影響。YALE人臉庫在光照、表情、姿態(tài)方面都存在不同。使用不同的算法對人臉圖像特征進(jìn)行提取。由表2可以看出,改進(jìn)的CS-LBP算法對識別率有明顯的提高,尤其是在YALE人臉庫中識別率的提高驗(yàn)證了對背景光照的改善效果明顯。本文提出的三級圖像紋理提取算法提高了整體識別率。單一方面的紋理特征提取并不能充分展現(xiàn)出圖像的本質(zhì),多級的紋理提取增強(qiáng)了特征的適用性,局部紋理與全局紋理的結(jié)合為DBN的訓(xùn)練提供了良好的條件。本文算法得到的識別率在兩種人臉庫中提高了3%左右。

表2 不同特征提取方法的識別結(jié)果

4 結(jié) 語

借助深度信念網(wǎng)絡(luò)無監(jiān)督學(xué)習(xí)和有監(jiān)督微調(diào)的訓(xùn)練方式,提出多級紋理特征提取的人臉識別算法。在標(biāo)準(zhǔn)人臉庫中與傳統(tǒng)淺層學(xué)習(xí)方法以及單一特征提取算法作對比,充分展現(xiàn)了本文算法的優(yōu)越性。

(1) 通過分塊改進(jìn)局部紋理特征提取方式,融合算法細(xì)化紋理特征,增加邊緣信息加以輔助,層層篩選將人臉圖像固有特征詳細(xì)化。

(2) 探索最佳的DBN系統(tǒng)結(jié)構(gòu),發(fā)揮DBN深度挖掘數(shù)據(jù)信息的優(yōu)點(diǎn),同時(shí)也彌補(bǔ)了DBN學(xué)習(xí)局部特征薄弱的缺陷。

本文對局部紋理特征進(jìn)行整合提取,提高了識別的魯棒性,證明了DBN在人臉識別方面的應(yīng)用價(jià)值。如何減少特征維數(shù)以及確保初級特征的完整性是接下來進(jìn)一步研究的方向。

猜你喜歡
特征
抓住特征巧觀察
離散型隨機(jī)變量的分布列與數(shù)字特征
具有兩個P’維非線性不可約特征標(biāo)的非可解群
月震特征及與地震的對比
如何表達(dá)“特征”
被k(2≤k≤16)整除的正整數(shù)的特征
不忠誠的四個特征
詈語的文化蘊(yùn)含與現(xiàn)代特征
新聞傳播(2018年11期)2018-08-29 08:15:24
抓住特征巧觀察
基于特征篩選的模型選擇
主站蜘蛛池模板: 永久在线播放| 蜜臀av性久久久久蜜臀aⅴ麻豆 | 国产精品xxx| 女人18一级毛片免费观看| 高潮毛片免费观看| 欧美精品H在线播放| 亚洲av无码牛牛影视在线二区| 亚洲熟女中文字幕男人总站| 四虎在线观看视频高清无码| 国产精品成人AⅤ在线一二三四 | 99视频免费观看| 国产精品一区二区国产主播| 人妻丰满熟妇AV无码区| 99在线免费播放| 亚洲一区二区三区麻豆| 欧美性猛交一区二区三区| 人妻丰满熟妇αv无码| Aⅴ无码专区在线观看| 新SSS无码手机在线观看| 国产传媒一区二区三区四区五区| 国产菊爆视频在线观看| 国产欧美视频综合二区| 国产毛片片精品天天看视频| 亚洲女人在线| 国产女人18毛片水真多1| 日本免费a视频| 青青草国产精品久久久久| 日韩 欧美 小说 综合网 另类| 在线免费看片a| 国产午夜一级毛片| 精品视频一区二区观看| 亚洲国产综合自在线另类| 国产精品白浆无码流出在线看| 中文字幕一区二区人妻电影| 亚洲欧洲AV一区二区三区| 国产真实二区一区在线亚洲| 国产精品护士| 日韩欧美中文亚洲高清在线| 亚洲国产成人超福利久久精品| 一区二区三区成人| 国产成人精品男人的天堂下载 | 国外欧美一区另类中文字幕| 婷婷开心中文字幕| 免费在线色| 久操中文在线| 亚洲天堂2014| 亚洲—日韩aV在线| 最新国语自产精品视频在| 日本成人福利视频| 亚洲Av综合日韩精品久久久| 国产欧美日韩另类| 久久综合九色综合97婷婷| 亚洲有码在线播放| 国产欧美日韩精品综合在线| 亚洲第七页| 国产成人精品日本亚洲77美色| 国产极品粉嫩小泬免费看| 欧美日韩亚洲国产| 精品国产网| 日韩黄色在线| av午夜福利一片免费看| 婷婷色一区二区三区| 久久久久无码国产精品不卡| 日韩美女福利视频| 国产美女精品人人做人人爽| 久久亚洲国产视频| 久久久受www免费人成| 亚洲成a人片在线观看88| 亚洲精品麻豆| 国产高清在线精品一区二区三区 | 亚洲综合二区| 狠狠干综合| 91在线播放免费不卡无毒| 亚洲黄色激情网站| 女人18一级毛片免费观看| 亚洲二三区| 国产亚洲男人的天堂在线观看 | 四虎免费视频网站| 国产一级毛片高清完整视频版| 日本一区中文字幕最新在线| 欧洲高清无码在线| 国产精品开放后亚洲|