999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于熵自加權(quán)聯(lián)合正則化最近點(diǎn)的圖像集分類算法

2019-10-31 09:21:33任珍文吳明娜
計(jì)算機(jī)應(yīng)用 2019年9期
關(guān)鍵詞:模式識別人臉識別

任珍文 吳明娜

摘 要:圖像集分類算法通過充分利用圖像的集合信息來提高識別性能,得到了廣泛的關(guān)注。但是現(xiàn)有的圖像集分類算法存在如下問題:1)需要樣本滿足某種概率統(tǒng)計(jì)分布;2)忽略了圖庫集類與類之間的互斥性;3)對非高斯噪聲不具備魯棒性。為了解決上述問題,提出了一種基于熵自加權(quán)聯(lián)合正則化最近點(diǎn)的圖像集分類算法(SRNPC)。首先在測試集中尋找唯一的全局聯(lián)合正則化最近點(diǎn),同時(shí)最小化該點(diǎn)與每個圖庫集中正則化最近點(diǎn)之間的距離;然后,為了增強(qiáng)類之間的判別力以及對非高斯噪聲的魯棒性,引入一種基于熵尺度的自加權(quán)策略來迭代更新測試集與各個圖庫集合之間的熵加權(quán)權(quán)重,得到的權(quán)重能夠直接反映測試集與每個圖庫集之間相關(guān)性的高低;最后,利用測試集和每個圖庫集之間的最小殘差值獲得分類結(jié)果。通過在UCSD/Honda、CMU Mobo和YouTube這三個公開數(shù)據(jù)集上與當(dāng)前主流的算法進(jìn)行的對比實(shí)驗(yàn)結(jié)果表明,所提出的算法具有更高的分類精度和更強(qiáng)的魯棒性。

關(guān)鍵詞:圖像集分類;正則化最近點(diǎn);相對熵;人臉識別;模式識別

中圖分類號:TP391.4

文獻(xiàn)標(biāo)志碼:A

Correntropy self-weighted based joint regularized nearest points for images set classification algorithm

REN Zhenwen1,2*, WU Mingna1

1.School of National Defence Science and Technology, Southwest University of Science and Technology, Mianyang Sichuan 621010, China;

2.School of Computer Science and Engineering, Nanjing University of Science and Technology, Nanjing Jiangsu 210094, China

Abstract:

Image set classification algorithms, which make full use of the image set information to improve the recognition performance, have gained much attention. However, existing image set classification algorithms have the following problems: 1) samples need to obey a certain probability and statistical distribution; 2) ignoring the mutual exclusion between classes in the gallery set; 3) without robustness against non-Gaussian noise. In order to solve the above problems, an image set classification algorithm based on Correntropy Self-weighted based joint Regularization of Nearest Points (SRNPC) was proposed. Firstly, the unique global joint regularization nearest point in the test set was found and the distance between this point and the regularization nearest point in each gallery set was minimized simultaneously. Then, to enhance the discrimination between classes and the robustness against non-Gaussian noise, a self-weighting strategy based on correntropy scale was introduced to update the correntropy weight between the test set and each gallery set iteratively. And the obtained weight was able to directly reflect the correlation between the test set and each gallery set. Finally, the classification result was obtained by using the minimum residual value between the test set and each gallery set. Experimental results on three open datasets UCSD/Honda, CMU Mobo and YouTube show that SRNPC has higher classification accuracy and better robustness than many state-of-the-art image classification algorithms.

Key words:

image set classification; regularized nearest point; correntropy; face recognition; pattern recognition

0 引言

基于圖像集的圖像識別技術(shù)已經(jīng)成為計(jì)算機(jī)視覺領(lǐng)域和模式識別領(lǐng)域的研究熱點(diǎn)之一。與傳統(tǒng)的基于單幅靜態(tài)圖像的識別技術(shù)相比,基于圖像集的識別算法以目標(biāo)對象的多幅圖像或視頻序列構(gòu)成集合為單位,通過利用圖像集附加的集合信息更全面地獲取對象特征,進(jìn)而提高圖像識別的識別精度和魯棒性,在實(shí)際的人臉識別與目標(biāo)識別中得到了廣泛的應(yīng)用[1-2]。

總體來講,基于圖像集的分類涉及兩個關(guān)鍵問題:如何有效地對圖像集建模;如何適當(dāng)?shù)囟攘績蓚€集合之間相似度。為了解決這兩個問題,現(xiàn)有的圖像集分類方法可分為有參方法和無參方法。由于有參方法參數(shù)估計(jì)困難且無法很好地?cái)M合實(shí)際情況,因此當(dāng)前的圖像識別技術(shù)更傾向于無參方法[3]。現(xiàn)有的先進(jìn)的無參方法大多基于子空間、流形、仿射包或協(xié)方差矩陣。文獻(xiàn)[4]通過同時(shí)最大化類內(nèi)離散度,最小化類間離散度來獲取投影矩陣,利用典型相關(guān)性來度量集合之間的相似性。文獻(xiàn)[5]利用流形將每個圖像集建模為一

組局部子空間,同時(shí)定義圖像集之間的距離為相應(yīng)子空間之間距離的加權(quán)平均值。文獻(xiàn)[6]將圖像集建模成仿射包,圖像集之間的相似度被定義為兩個仿射包中最近點(diǎn)之間的距離。文獻(xiàn)[7]利用協(xié)方差矩陣表示圖像集,通過黎曼流形到歐氏空間的映射來度量圖像集之間的相似度。隨著壓縮感知的深入學(xué)習(xí)和廣泛應(yīng)用,近期,Hu等[8]提出基于稀疏表示的分類器(Sparse Approximated Nearest Points, SANP)來度量集合與集合之間的相似度,但是SANP涉及較多的參數(shù)和未知輔助變量,求解較復(fù)雜。為了降低SANP模型的復(fù)雜性,文獻(xiàn)[9]提出一種簡化的模型——正則最近點(diǎn)(Regularized Nearest Points, RNP)模型,該方法將每個圖像集建模為一個正則化的仿射包,利用正則化的最近點(diǎn)對來測量圖像集之間的相似性。但在RNP中,對于不同的訓(xùn)練集,測試集中與之對應(yīng)的正則化最近點(diǎn)不唯一,很容易出現(xiàn)過度擬合,導(dǎo)致分類不穩(wěn)定。在RNP和協(xié)同稀疏表示的啟發(fā)下,文獻(xiàn)[10]提出協(xié)同正則化最近點(diǎn)(Collaboratively Regularized Nearest Points, CRNP)模型,基于協(xié)同表示同時(shí)找到所有的正則化最近點(diǎn),但該算法只考慮測試集和整個圖庫集之間的相似度而忽略了測試集和每個圖庫集間的相關(guān)性,未能充分利用集合之間的判別信息。

隨著圖像集分類算法的進(jìn)一步研究,加權(quán)的思想在越來越多的算法中得到應(yīng)用[11-12]。其核心思想是通過加權(quán)策略使得正確的類具有高權(quán)重,錯誤類具有低權(quán)重,進(jìn)而增強(qiáng)測試集與正確類之間的相關(guān)性以及與錯誤類之間的互斥性。從廣義上來說,在SANP、RNP和CRNP中,測試集與每個圖庫集之間的加權(quán)權(quán)重均設(shè)置為1,即認(rèn)為每個圖庫集同等重要。為了增強(qiáng)測試集與正確類之間的相關(guān)性,聯(lián)合正則化最近點(diǎn)(Joint Regularized Nearest Points, JRNP)模型[13]通過計(jì)算測試集與每個圖庫集之間的歐氏距離來獲得不同的權(quán)重。但實(shí)際的圖像集分類任務(wù)中往往存在多種隨機(jī)噪聲(如:非高斯噪聲),上述算法對該類噪聲的魯棒性較低[13]。隨著對信息理論的不斷學(xué)習(xí)和擴(kuò)展,Liu等[14]提出通過熵尺度能夠有效地處理非高斯噪聲對圖像識別的影響,從而提高算法的魯棒性。

針對以上問題,本文提出了一種基于熵自加權(quán)聯(lián)合正則化最近點(diǎn)的圖像集分類方法(Correntropy Self-weighted based joint Regularized Nearest Points, SRNPC)。該方法首先在測試集中尋找唯一的全局聯(lián)合正則化最近點(diǎn)的同時(shí),最小化測試集與每個圖庫集之間的距離。在熵尺度的啟發(fā)下,進(jìn)一步引入了一種基于熵的自適應(yīng)加權(quán)策略來增強(qiáng)類間判別力和對非高斯噪聲的魯棒性。接著發(fā)展了一種交替迭代的優(yōu)化求解算法快速有效地得到目標(biāo)函數(shù)的最優(yōu)解。最后,采用殘差判別函數(shù)完成圖像分類。通過在UCSD/Honda、CMU Mobo和YouTube數(shù)據(jù)集上與多種其他流行圖像集分類算法(典型相關(guān)法(Discriminative learning and recognition using Canonical Correlations, DCC)[4]、流行判別分析法(Manifold-Manifold Distance, MMD)[5]、基于圖像集的人臉識別(Face recognition based on image sets, AHISD/CHISD)(Affine/Convex Hull Image Set Distance)算法[7]、SANP[8]、RHP[9]、CRNP[10]、JRNP[13])的對比實(shí)驗(yàn)證實(shí)了SRNPC具有更高的識別精度和魯棒性。

1 相關(guān)工作

1.1 正則化最近點(diǎn)模型(RNP)RNP模型

在正則化最近點(diǎn)(RNP)模型中,每個圖像集被建模成一個正則化的仿射包:

RAH={x=Xiα|∑k=1αk=1,‖α‖2≤σ}(1)

其中:Xi=[xi,1,xi,2,…,xi,ni]表示為圖庫集中第i類樣本集合,ni為第i類的圖像個數(shù),xi,k為第i類的第k個特征向量。對于給定的測試集Q和圖庫集Xi,RNP算法通過解決如下目標(biāo)函數(shù)來得到最近點(diǎn):

minα, β ‖Qα-Xi βi‖22

s.t. ∑k=1αk=1, ∑k=1βi,k=1,‖α‖2≤σ1, ‖βi‖2≤σ2(2)

其中: βi,k為βi的第k項(xiàng),Qα和Xi βi分別為在測試集Q和圖庫集Xi中對應(yīng)的正則化最近點(diǎn)。

計(jì)算得到α*和β*后,圖像集Q和Xi之間的距離為:

di = (‖Q‖* + ‖Xi‖*)*‖Qα*-Xi β*i‖22(3)

其中:‖Q‖*是Q的核范數(shù),即:Q的奇異值之和。

1.2 協(xié)同正則化最近點(diǎn)模型(CRNP)

與RNP不同,對于給定的測試集Q和圖庫集X=[X1,X2,…,Xc],CRNP直接最小化測試集Q與整個圖庫集X的距離:

minα, β{‖Qα-Xβ‖22+λ1‖α‖22+λ2‖β‖22}

s.t. ∑k=1αk=1,∑ci=1∑k=1βki=1(4)

其中:λ1、λ2為平衡參數(shù), β=[β1; β2;…; βn],βi為與Xi對應(yīng)的子仿射系數(shù)向量。Qα和Xβ分別為在測試集和整個圖庫集中的正則化最近點(diǎn)。

得到系數(shù)α*和β*后,Q和Xi之間的類間距離為:

di=(‖Q‖*+‖Xi‖*)·‖Qα*-

Xi β*i‖22/‖β*i‖22(5)

盡管與其他的圖像集分類方法相比,RNP和CRNP已經(jīng)取得了令人滿意的性能,但在這兩種方法中仍然存在一些問題需要解決(詳見引言)。為了解決這些問題,本文提出一種基于熵自加權(quán)聯(lián)合正則化最近點(diǎn)的圖像集分類算法(SRNPC)。

2 基于熵自加權(quán)聯(lián)合正則化最近點(diǎn)的圖像集分類算法本文方法

2.1 目標(biāo)函數(shù)的設(shè)計(jì)

對于一個給定的測試集Y=[y1,y2,…,yny](yk表示第k個特征向量)和整個圖像集X=[X1,X2,…,Xc],其中Xi=[xi,1,xi,2,…,xi,ni]。為了充分利用測試集與整個圖庫集以及測試集與每個圖庫集之間的相關(guān)性和差異性,本文首先在Y中尋找一個唯一的正則化最近點(diǎn)。該點(diǎn)不僅靠近整個圖庫集X中的協(xié)同正則化最近點(diǎn),還靠近正確類Xi中的正則化最近點(diǎn)。學(xué)習(xí)模型如下:

minα, β{‖Yβ-Xα‖22+λ1‖α-1—Ny‖22+

λ2‖β-1—Nx‖22+γ∑ci=1wi(‖Yβ-Xiαi‖22)}

s.t. ∑k=1βk=1(6)

其中:λ1、λ2和γ為平衡參數(shù),α和β表示描述系數(shù)。Ny和Nx分別是測試集Y和圖庫集X中的樣本數(shù)量,c為圖像集中類的個數(shù)。1N表示元素全為1的N維列向量,1—N=1N/N。項(xiàng)‖Yβ-Xα‖22表示Yβ與整個圖庫集的協(xié)同正則化最近點(diǎn)之間的距離,λ1‖α-1—Ny‖22+λ2‖β-1—Nx‖22保證描述系數(shù)α和β趨近于樣本圖心,使得獲得的最近點(diǎn)更接近真實(shí)樣本。最后一項(xiàng)γ∑ci=1wi(‖Yβ-Xiαi‖22)則是Yβ與每個圖庫集中正則化最近點(diǎn)之間距離。其中wi為熵尺度加權(quán)權(quán)重,它的引入進(jìn)一步確保Yβ更加靠近所對應(yīng)的正確類。仿射約束∑k=1βk=1可以避免出現(xiàn)平凡解(如:α=β=0)。算法模型圖如圖1所示,可以直觀得出,相比RNP,該模型對于不同的圖庫集,測試集中的正則化最近點(diǎn)Yβ始終保持不變,這樣避免了RNP中過度擬合情況的出現(xiàn);相比CRNP,該模型明確地最小化了Yβ和每個類之間的距離,很大程度上提高了類之間的判別能力;相比JRNP,該模型利用熵尺度加權(quán)權(quán)重來度量測試集與每個圖庫集之間的相似度,使得該模型對非高斯噪聲魯棒。

2.2 優(yōu)化求解

在優(yōu)化求解過程中,松弛對β的約束,即∑k=1βk≈1,同時(shí)令R=1—Ny,G=1—Nx,則式(6)重寫為:

minα, β{‖z-Yβ-Xα‖22+λ1‖α-R‖22+

λ2‖β-G‖22+γ∑ci=1wi(‖z-Yβ-Xiαi‖22)}(7)

其中:z=[0;1],Y=[-Y;1T],X=[X;0T],i=[Xi;0]。列向量0,1的大小根據(jù)圖像集的大小決定。為了快速得到α、 β和w的最優(yōu)解,本文提出一種有效的交替迭代優(yōu)化算法來得到閉式解集,算法更新規(guī)則如下:

當(dāng)β、w固定時(shí),α更新為:

α=P(XT(z-Yβ)+λ1R); P=(XTX+λ1I)-1(8)

當(dāng)α、w固定時(shí),β更新為:

β=Q(YT((z-Xα)+γ∑ci=1wi(z-iαi))+λ2G); Q=(2YTY+λ2I)-1(9)

為了在不同的類之間引入競爭,從而保證Yβ與所對應(yīng)的正確類之間的邏輯加權(quán)距離最短。本文利用一種基于熵的自適應(yīng)加權(quán)策略來更新wi。具體來說,熵是一種度量任意兩個隨機(jī)變量(u,v)之間相似度的方法,該尺度對非高斯噪聲和沖擊噪聲魯棒[14-15]。定義如下:

Vσ(u,v)=E[kσ(e)](10)

其中:e=u-v,E[·]表示期望值,kσ(·)為核函數(shù),本文僅僅考慮高斯核函數(shù)kσ(e)=exp(-e2/2σ2)。σ表示核寬度。

基于式(10),本文提出一種新穎的自適應(yīng)加權(quán)策略來更新w。即:當(dāng)α、 β固定時(shí),w更新為:

wi=(1-1c∑ci=1kσ(Yβ-Xiαi))1/2(11)

文中初始化β0=1/Ny,w0=1/c。圖2為絕對誤差和熵尺度的比較示意圖。可以看出,熵是一種局部度量方法,當(dāng)集合之間的誤差較小時(shí),熵近似于絕對誤差(|Δx|),當(dāng)誤差較大時(shí),熵收斂于1。因此本文提出的基于熵的自適應(yīng)加權(quán)策略能夠有效地抑制離群樣本和噪聲的影響,尤其在非高斯噪聲和沖擊噪聲存在的情況下表現(xiàn)出更強(qiáng)魯棒性。換句話說,若Yβ和Xiαi之間的熵權(quán)重越小,說明相似度越高,wi則越大。反之,wi則越小。此外,由于損失函數(shù)有下限(≥0)且是α和β聯(lián)合凸面,因此迭代過程中損失函數(shù)的值會不斷減小,最終收斂于全局最優(yōu)解。

2.3 分類

得到最優(yōu)的描述系數(shù)α*、 β*后,SRNPC定義集合間的距離為:

di=(‖Xi‖*+‖Y‖*)·(‖Xα*-Yβ*‖22+

‖Xiα*i-Yβ*‖22)/‖α*i‖22(12)

其中:項(xiàng)‖Xi‖*+‖Y‖*用于移除與類無關(guān)信息的干擾。例如:與正確的類相比,錯誤的類由于具有更多的樣本導(dǎo)致‖Xiα*i-Yβ*‖22的值較低,但凸松弛矩陣Xi和Y的秩‖Xi‖*+‖Y‖*卻能增強(qiáng)圖像集的表示能力[10]。此外,式(12)融合了RNP和CRNP中對距離的測量方法,因此SRNPC在分類上兼?zhèn)鋬烧叩膬?yōu)勢。

最后,確定測試集Y的類別標(biāo)簽為:

identity(Y)=arg mini {di}(13)

2.4 算法時(shí)間復(fù)雜度

假設(shè)n為圖庫集的樣本總數(shù),t為算法迭代更新次數(shù)。對于測試集Y,利用離線計(jì)算即可得到圖庫集對應(yīng)投影矩陣P和Pi。式(9)中對Q的計(jì)算涉及矩陣的逆運(yùn)算,其時(shí)間復(fù)雜度可粗略地等效為SANP中求解Y時(shí)的時(shí)間復(fù)雜度。從文獻(xiàn)[8]可知,SANP通過SVD得到標(biāo)準(zhǔn)正交基,因此在SRNPC中計(jì)算Q時(shí)的時(shí)間復(fù)雜度近似為O(n3)。此外,算法每次更新α和β的時(shí)間復(fù)雜度均為O(n3),每次更新wi的時(shí)間復(fù)雜度為O(n)。所以整個交替迭代更新策略的總的時(shí)間復(fù)雜度為O(t·(3n3+n))。

3 實(shí)驗(yàn)

為了驗(yàn)證本文算法的有效性和魯棒性,本文在UCSD/Honda[16]、CMU Mobo[17]和YouTube celebrities(YTC)[18]這三個公開數(shù)據(jù)集上進(jìn)行了SRNPC與多種先進(jìn)的圖像集分類方法的對比實(shí)驗(yàn)。這些方法包括:DCC[4]、MMD[5]、AHISD[7]、CHISD[7]、SANP[8]、RNP[9]、CRNP[10]和JRNP[13]。所有方法的相關(guān)參數(shù)均按照對應(yīng)文獻(xiàn)中推薦的最佳參數(shù)值進(jìn)行配置。對于SRNPC,參數(shù)λ1=0.001,λ2=0.1,采用5倍交叉驗(yàn)證獲得γ的值。在本文的實(shí)驗(yàn)中,每個圖像集都由隨機(jī)選擇的50、100或200張人臉圖片組成集合,所有實(shí)驗(yàn)結(jié)果的分類精度與標(biāo)準(zhǔn)差均為進(jìn)行10次實(shí)驗(yàn)后求均值得到。實(shí)驗(yàn)運(yùn)行環(huán)境為Win10 64位 Matlab 2016a, Intel Core i5-3210M CPU 2.5GHz,8GB RAM。

3.1 實(shí)驗(yàn)環(huán)境搭建

UCSD/Honda數(shù)據(jù)集包含20名不同的對象共59個視頻序列,視頻中的每個圖像均發(fā)生了姿態(tài)、光照和表情的變化。圖3(a)展示了該數(shù)據(jù)集的部分樣本。仿照文獻(xiàn)[16]中的實(shí)驗(yàn)設(shè)置,調(diào)整圖像尺寸為20×20,并進(jìn)行直方圖均衡化處理。實(shí)驗(yàn)中,隨機(jī)選取20個視頻序列作為圖庫集,剩下的39個視頻序列為測試集。

CMU Mobo數(shù)據(jù)集包含了來自24名對象的96個視頻序列,每名對象包含4個視頻序列,每個序列分別對應(yīng)著一種行走模式(部分樣本見圖3(b))。為了簡化運(yùn)算,提高運(yùn)行速

度,本文將人臉調(diào)整為30×30的灰度圖像,在每次實(shí)驗(yàn)中,從

每個對象的視頻中隨機(jī)選取一個圖像集作為圖庫集,剩下的作為測試集。

YTC數(shù)據(jù)集是一個來自現(xiàn)實(shí)環(huán)境的數(shù)據(jù)集,由47位名人的1910個視頻序列組成。該數(shù)據(jù)集中的視頻大多分辨率低、姿態(tài)變化大、光照強(qiáng)度各異。相比前兩個數(shù)據(jù)集該數(shù)據(jù)集更具有挑戰(zhàn)性。對于該數(shù)據(jù)集,本文使用前29個的視頻序列,并調(diào)整臉部區(qū)域尺寸為20×20(如圖3(c)所示)。對于每個對象,隨機(jī)選取3個序列作為圖庫集,從剩余序列中再隨機(jī)選擇3個序列用作測試集。

3.2 識別精度評估

為了驗(yàn)證SRNPC和其他流行的圖像集分類算法相比具有更高的識別精度,本文依次在UCSD/Honda、CMU Mobo、YTC數(shù)據(jù)集上分別獲得測試集大小為50、100和200時(shí)的平均分類精度和標(biāo)準(zhǔn)差。實(shí)驗(yàn)結(jié)果如表1所示,其中最高分類精度加粗顯示。

通過觀察表1,本文得出以下3個結(jié)論:1)同預(yù)期一致,在所有的情況下,本文提出的算法SRNPC均表現(xiàn)出最佳的分類效果,驗(yàn)證了本文所提出算法的有效性。特別是在UCSD/Honda數(shù)據(jù)集上,當(dāng)圖像集大小為100,200時(shí),SRNPC達(dá)到了100%的分類精度。2)當(dāng)樣本不充分時(shí)(<50),DCC,MMD在所有數(shù)據(jù)集上的分類精度均小于70%,這可能和判別信息提取和流形分析依賴于圖像集樣本充足的事實(shí)有關(guān)。3)當(dāng)樣本充分時(shí)(>100),在UCSD/Honda和CMU Mobo數(shù)據(jù)集上所有的算法均表現(xiàn)出較好的識別性能,在YTC數(shù)據(jù)集上,SRNPC仍然實(shí)現(xiàn)了最高的識別精度,但與其他算法之間的差距較小。這是因?yàn)閅TC數(shù)據(jù)集是自然條件下采集的圖像,圖像質(zhì)量不高,含有噪聲,與前兩個數(shù)據(jù)集相比更具有挑戰(zhàn)性。

3.3 魯棒性評估

本節(jié)中,再次利用YTC數(shù)據(jù)集來評估魯棒性。與4.2節(jié)中的實(shí)驗(yàn)不同,在該實(shí)驗(yàn)中,首先固定YTC圖像集的大小為

200,并在人臉圖像中添加不同百分比的椒鹽噪聲研究表明,對于人眼來說,一張破壞超過50%的圖片便很難被識別[17]。因此該實(shí)驗(yàn)僅測試在添加0%~50%的椒鹽噪聲時(shí),各個算法的魯棒性。圖4為添加不同百分比噪聲時(shí)的YTC人臉圖像。

實(shí)驗(yàn)結(jié)果如表2所示,在所有的實(shí)驗(yàn)中,SRNPC仍然具有最好的分類精度;同時(shí),隨著噪聲百分比的增加,其他算法與SRNPC之間的差距越來越大。與次優(yōu)的算法JRNP相比,SRNPC在分類精度上平均實(shí)現(xiàn)了3.1%的提高。由此,充分驗(yàn)證了本文提出算法的魯棒性。但是,當(dāng)圖像包含40%以上的噪聲時(shí),由于判別信息不充分,所有算法(包括SRNPC)的分類精度都低于50%。

4 結(jié)語

本文提出一種用于圖像集分類的熵自加權(quán)聯(lián)合正則化最近點(diǎn)算法(SRNPC)。該算法融合協(xié)同表示和正則化最近點(diǎn)的優(yōu)勢,同時(shí)最小化測試集與整個圖像集以及每個訓(xùn)練集之間的距離。為了避免過度擬合,測試集中的全局聯(lián)合最近點(diǎn)始終保持不變。為了增強(qiáng)集合之間的判別能力和對非高斯噪聲的魯棒性,提出了一種基于熵的自加權(quán)策略,根據(jù)每個圖庫集與測試集的相似度分配給每個圖庫集不同的權(quán)重。最后通過計(jì)算測試集和每個圖庫集之間的最小殘差值完成分類。在三種公開數(shù)據(jù)集上與目前先進(jìn)的圖像集分類算法進(jìn)行了對比實(shí)驗(yàn),驗(yàn)證了SRNPC在圖像集分類任務(wù)上具有更高的識別精度和更強(qiáng)的魯棒性。

下一步工作中,將引入低秩約束模型來增強(qiáng)對損壞圖像的恢復(fù),從而能夠更進(jìn)一步地提高算法的分類精度與魯棒性。

參考文獻(xiàn)

[1]UZAIR M, SHAFAIT F, GHANEM B, et al. Representation learning with deep extreme learning machines for efficient image set classification[J]. Neural Computing and Applications, 2018, 30(4): 1211-1223.

[2]李光早,王士同.基于稀疏表示和彈性網(wǎng)絡(luò)的人臉識別[J].計(jì)算機(jī)應(yīng)用,2017,37(3):901-905.(LI G Z, WANG S T. Face recognition based on sparse representation and elastic network [J]. Journal of Computer Applications, 2017, 37(3): 901-905.)

[3]劉天賜, 史澤林, 劉云鵬,等.基于Grassmann流形幾何深度網(wǎng)絡(luò)的圖像集識別方法[J].紅外與激光工程, 2018,47(7):25-31.(LIU T C, SHI Z L, LIU Y P, et al. Geometry deep network image-set recognition method based on Grassmann manifolds [J]. Infrared and Laser Engineering, 2018, 47(7): 25-31.)

[4]KIM T, KITTLER J, CIPOLLA R. Discriminative learning and recognition of image set classes using canonical correlations [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007, 29(6): 1005-1018.

[5]HAYAT M, BENNAMOUN M, AN S. Learning non-linear reconstruction models for image set classification [C]// Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2014: 1907-1914.

[6]鄭萍萍,李波,丁玉琳.基于局部鄰域多流形度量的人臉識別[J].計(jì)算機(jī)應(yīng)用研究,2018,35(4):1250-1253.(ZHENG P P, LI B, DING Y L. Local neighborhood based multi-manifold metric learning for face recognition[J]. Application Research of Computers, 2018, 35(4):1250-1253.)

[7]WANG R, GUO H, DAVIS L S, et al. Covariance discriminative learning: A natural and efficient approach to image set classification[C]// Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2012: 2496-2503.

[8]HU Y, MIAN A S, OWENS R. Face recognition using sparse approximated nearest points between image sets [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(10): 1992-2004.

[9]YANG M, ZHU P, van GOOL L, et al. Face recognition based on regularized nearest points between image sets [C]// Proceedings of the 2013 10th IEEE International Conference and Workshops on Automatic Face and Gesture Recognition. Piscataway, NJ: IEEE, 2013: 1-7.

[10]WU Y, MINOH M, MUKUNOKI M. Collaboratively regularized nearest points for set based recognition [C]// Proceedings of the 2013 British Machine Vision Conference. Durham: BMVA Press, 2013: No.0134.

[11]唐宋,陳利娟,陳志賢,等.基于目標(biāo)域局部近鄰幾何信息的域自適應(yīng)圖像分類方法[J].計(jì)算機(jī)應(yīng)用,2017,37(4):1164-1168. (TANG S, CHEN L J, CHEN Z X, et al. Domain adaptation image classification based on target local-neighbor geometrical information [J]. Journal of Computer Applications, 2017,37(4): 1164-1168.)

[12]CAO F, YANG Z, REN J, et al. Sparse representation-based augmented multinomial logistic extreme learning machine with weighted composite features for spectral-spatial classification of hyperspectral images [J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 56(11): 6263-6279.

[13]YANG M, WANG X, LIU W, et al. Joint regularized nearest points for image set based face recognition[J]. Image and Vision Computing, 2017, 58: 47-60.

YANG M, LIU W, SHEN L, et al. Joint regularized nearest points for image set based face recognition [C]// Proceedings of the 2015 11th IEEE International Conference and Workshops on Automatic Face and Gesture Recognition. Washington, DC: IEEE Computer Society, 2015: 1-7.

[14]LIU W, POKHAREL P P, PRINCIPE J C. Correntropy: properties and applications in non-Gaussian signal processing [J]. IEEE Transactions on Signal Processing, 2007, 55(11): 5286-5298.

[15]CHEN B, WANG X, LU N, et al. Mixture correntropy for robust learning[J]. Pattern Recognition, 2018, 79: 318-327.

[16]GOU G, SHI J, XIONG G, et al. Image-set based collaborative representation for face recognition in videos [C]// Proceedings of the 2017 Pacific Rim Conference on Multimedia, LNCS 10736. Berlin: Springer, 2017: 498-507.

[17]HAYAT M, KHAN S H, BENNAMOUN M. Empowering simple binary classifiers for image set based face recognition [J]. International Journal of Computer Vision, 2017, 123(3): 479-498.

[18]FERRARI C, BERRETTI S, del BIMBO A. Extended YouTube faces: a dataset for heterogeneous open-set face identification [C]// Proceedings of the 2018 24th International Conference on Pattern Recognition. Piscataway, NJ: IEEE, 2018: 3408-3413.

This work is partially supported by the National Natural Science Foundation of China (61673220),

the Project of State Administration of Science, Technology and Industry for National Defense (JCKY2017209B010, JCKY2018209B001),

the Project of Sichuan Office of Science, Technology and Industry for National Defense (ZYF-2018-106), the Innovation Foundation for College Students of Southwest University of Science and Technology (cx18-029).

REN Zhenwen, born in 1987, Ph. D., lecturer. His research interests include machine learning, computer vision, compressed sensing.image set classification, sparse representation, low-rank representation, deep learning and their applications in machine learning.

WU Mingna, born in 1998. Her research interests include machine learning, computer vision.

猜你喜歡
模式識別人臉識別
人臉識別 等
揭開人臉識別的神秘面紗
紫地榆HPLC指紋圖譜建立及模式識別
中成藥(2018年2期)2018-05-09 07:19:52
基于(2D)2PCA-LBP 的人臉識別方法的研究
電子制作(2017年17期)2017-12-18 06:40:55
人臉識別在高校安全防范中的應(yīng)用
電子制作(2017年1期)2017-05-17 03:54:46
淺談模式識別在圖像識別中的應(yīng)用
電子測試(2017年23期)2017-04-04 05:06:50
第四屆亞洲模式識別會議
可拓模式識別算法中經(jīng)典域的確定方法
基于類獨(dú)立核稀疏表示的魯棒人臉識別
第3屆亞洲模式識別會議
主站蜘蛛池模板: 国模沟沟一区二区三区| 国产极品美女在线播放| 一本视频精品中文字幕| 黄色网址免费在线| 爆乳熟妇一区二区三区| 美女毛片在线| 国产亚洲视频播放9000| 露脸一二三区国语对白| 天天综合网色| 国产精品主播| 国产在线视频福利资源站| 国产精品欧美在线观看| 国产综合另类小说色区色噜噜| 激情综合网址| 国产剧情国内精品原创| 免费又爽又刺激高潮网址 | 欧美激情网址| 久久天天躁夜夜躁狠狠| 六月婷婷激情综合| 欧美午夜视频在线| 国产成人免费观看在线视频| 在线国产欧美| 69视频国产| 国产精品久久久久无码网站| 91在线免费公开视频| 91久久夜色精品国产网站| 欲色天天综合网| 国产性生大片免费观看性欧美| 国产成人久久777777| 在线中文字幕日韩| 婷婷综合缴情亚洲五月伊| 色天天综合| 中文字幕永久在线看| 毛片在线看网站| 自偷自拍三级全三级视频| 色天堂无毒不卡| 天天综合亚洲| 无码精品一区二区久久久| 国产丝袜一区二区三区视频免下载| 国产熟睡乱子伦视频网站| 国产黑丝一区| 日韩精品无码不卡无码| 精品视频一区在线观看| 国产H片无码不卡在线视频| 毛片久久久| 1769国产精品免费视频| 四虎永久在线精品影院| 欧美三级自拍| 麻豆精品国产自产在线| 黄色成年视频| 呦女精品网站| 国产精品久久久久无码网站| 另类欧美日韩| 久996视频精品免费观看| 丰满人妻一区二区三区视频| 国产av剧情无码精品色午夜| 亚洲第一成人在线| 成人av专区精品无码国产| 亚洲区欧美区| 中文字幕亚洲精品2页| 性色在线视频精品| 成人午夜久久| 天堂岛国av无码免费无禁网站| 欧美亚洲一区二区三区导航| 国产高清不卡| 日韩在线影院| 久久这里只有精品66| 91无码人妻精品一区二区蜜桃| 秘书高跟黑色丝袜国产91在线| 亚洲日本在线免费观看| 99福利视频导航| 色妞www精品视频一级下载| 久久这里只有精品免费| 日韩欧美综合在线制服| 日韩av资源在线| 欧美a级完整在线观看| 久久99精品久久久久纯品| 亚洲精品无码av中文字幕| 亚洲高清在线播放| 一级一级一片免费| 夜夜爽免费视频| 亚洲手机在线|