999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于平均區(qū)域劃分的Laplacian稀疏編碼的圖像分類

2017-08-12 15:45:56陳曉麗
關(guān)鍵詞:分類利用特征

史 瑩 萬 源 陳曉麗

(武漢理工大學(xué)理學(xué)院 湖北 武漢 430070)

?

基于平均區(qū)域劃分的Laplacian稀疏編碼的圖像分類

史 瑩 萬 源 陳曉麗

(武漢理工大學(xué)理學(xué)院 湖北 武漢 430070)

針對(duì)稀疏編碼方法中編碼過程不穩(wěn)定和金字塔匹配的劃分方法無法使得融合后的特征很稀疏這兩個(gè)問題,提出基于平均區(qū)域劃分的Laplacian稀疏編碼LSCARD(Laplacian sparse coding based on average region division)的圖像分類方法。首先,對(duì)原始圖像進(jìn)行局部不變特征轉(zhuǎn)化(SIFT)特征提取;然后,在稀疏編碼方法中加入Laplacian正則化對(duì)局部特征進(jìn)行編碼,使相似的特征具有相似的碼字;再利用平均區(qū)域劃分以及最大值融合將編碼后的特征向量進(jìn)行融合;最后,采用多類SVM分類器對(duì)圖像進(jìn)行分類。在幾個(gè)標(biāo)準(zhǔn)圖像數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,LSCARD算法具有更高的分類精度。

稀疏編碼 Laplacian正則化 平均區(qū)域劃分 最大值融合

0 引 言

圖像分類是計(jì)算機(jī)視覺領(lǐng)域中一個(gè)重要的研究問題,其關(guān)鍵在于提取合適的特征表示圖像。目前應(yīng)用得最廣泛的是利用局部特征,如SIFT[1]特征來表示圖像。對(duì)于SIFT特征的改進(jìn),涂秋潔等[2]提出基于PCA-SIFT特征與貝葉斯決策的圖像分類算法。而圖像表示最原始的算法是詞袋BoW(bag of words)[3]模型,為解決缺少特征點(diǎn)的空間關(guān)系信息的問題,Lazebnik等[4]提出利用空間金字塔匹配SPM(spatial pyramid matching)對(duì)圖像進(jìn)行分類。由于BoW模型中的C-means方法導(dǎo)致語(yǔ)義信息的丟失從而造成量化誤差,Yang等[5]提出了基于稀疏編碼的空間金字塔匹配(ScSPM)圖像分類算法。該算法在圖像的不同尺度上進(jìn)行稀疏編碼,并利用多類線性SVM分類器[6]對(duì)表示圖像的特征向量進(jìn)行分類。然而,ScSPM對(duì)特征的變化很敏感,因此Gao等[7]引入圖Laplacian算子提出基于Laplacian的ScSPM(LScSPM或LSC)算法,改善了編碼的不穩(wěn)定性。另外,由于金字塔匹配的劃分方法無法使融合后的特征向量很稀疏,許多學(xué)者在圖像區(qū)域劃分的改進(jìn)和應(yīng)用方面做了相關(guān)的研究。例如在圖像去噪領(lǐng)域中,傅鵬等[8]將圖像的平均區(qū)域劃分ARD(average region division)方法應(yīng)用在噪聲估計(jì)中,提出一種遙感圖像信噪比評(píng)估和度量準(zhǔn)則。Liu等[9]提出對(duì)于盲目去噪的單圖像噪聲水平估計(jì)。由于稀疏表示理論為圖像去噪方法帶來了新思路,將其與冗余字典結(jié)合,周確[10]提出基于區(qū)域劃分和字典學(xué)習(xí)的圖像去噪方法。在圖像檢索方面,張旭等[11]利用一種結(jié)合SIFT和Harris特性的尺度空間興趣點(diǎn)檢測(cè)(IPDSH)和空間區(qū)域劃分的方法對(duì)圖像進(jìn)行檢索,有效提高了圖像的檢索準(zhǔn)確率。另外,對(duì)于合成孔徑雷達(dá)(SAR)圖像,張光勝等[12]將圖像劃分成尺寸變化的子圖像塊,并與馬爾可夫隨機(jī)場(chǎng)模型(MRF)結(jié)合,對(duì)SAR圖像實(shí)現(xiàn)變化檢測(cè)。Kazuhiro等[13]利用圖像特征的空間域和頻域,并將圖像劃分成單獨(dú)的幾個(gè)圖像塊,從而改善圖像的檢索效率。對(duì)于圖像分類的應(yīng)用,唐峰等[14]提出基于改進(jìn)稀疏編碼模型的圖像分類算法,利用ARD方法和隨機(jī)森林多分類器,提高了圖像分類的性能。姜宇恒[15]提出基于區(qū)域劃分的極化SAR圖像分類算法研究,并取得了較好的分類效果。

上述的研究中,遇到的第一個(gè)問題就是稀疏編碼SC(sparse coding)在編碼過程中極其不穩(wěn)定,相似特征之間的多種組合方式會(huì)導(dǎo)致相似的特征可能會(huì)被編成不同的碼字。而第二個(gè)問題是圖像區(qū)域劃分中金字塔匹配方法運(yùn)用使得融合后的特征無法很稀疏。因此,為了解決第一個(gè)問題,由于Laplacian正則化可以提取圖像的空間幾何信息來保持相似特征之間編碼的一致性,從而改善編碼的不穩(wěn)定性,因此本文首先在SC的優(yōu)化問題中引入Laplacian正則化。針對(duì)第二個(gè)問題,從上述的研究成果中可以看出,圖像的ARD憑借其操作簡(jiǎn)單、快速等優(yōu)點(diǎn)應(yīng)用得最廣泛。因此,本文將LSC方法結(jié)合圖像的ARD,提出一種基于ARD的Laplacian稀疏編碼的圖像分類算法,即LSCARD。該方法利用Laplacian正則化提取更多的圖像空間幾何信息并保持特征空間中特征的依賴關(guān)系和相似信息,而圖像的ARD使得區(qū)域融合后的特征向量盡可能稀疏并具備空間信息,因此可得到較低的重構(gòu)誤差和較好的分類性能。

1 相關(guān)工作

對(duì)于圖像分類來說,局部特征的適當(dāng)編碼不僅可以簡(jiǎn)潔準(zhǔn)確地模擬圖像,而且還可以提高圖像分類的效率。因此,在這節(jié)中將回顧兩種典型的編碼方法:向量量化和稀疏編碼。

相關(guān)符號(hào)說明:X=[x1,x2,…,xn]∈Rd×n為輸入的SIFT特征矩陣,A=[a1,a2,…,ak]∈Rd×k代表字典(或碼本),S=[s1,s2,…,sn]∈Rk×n為相應(yīng)的編碼。

1.1 向量量化

(1)

其中,S∈Rk×n為聚類指標(biāo)矩陣即X的編碼集;‖·‖2和‖·‖1分別代表l2-范數(shù)和l1-范數(shù);Card(si)=1代表si的僅一個(gè)元素非零;si≥0表示向量si的所有元素非負(fù);所有這些約束條件加起來表示向量si中有且僅有一個(gè)元素的值為1。

對(duì)于式(1)的簡(jiǎn)單解法是對(duì)于每一個(gè)局部特征xi搜索其最近鄰,并給相應(yīng)的指標(biāo)標(biāo)記為1,其他的標(biāo)記為0。

1.2 稀疏編碼(SC)

由于VQ方法很容易導(dǎo)致量化誤差,并且C-means方法可能會(huì)使語(yǔ)義信息丟失,因此Yang等[5]提出了基于SPM的稀疏編碼方法(ScSPM)即SC。其核心問題是學(xué)習(xí)k空間中的超完備(即k?d,基向量的個(gè)數(shù)遠(yuǎn)大于維數(shù))字典A,并選取其中盡可能少的基向量來表示原始的特征向量。該方法利用空間金字塔劃分方法進(jìn)行稀疏編碼,它首先訓(xùn)練用于稀疏編碼的基向量,再利用得到的基向量和對(duì)圖像進(jìn)行空間劃分方法,將不同金字塔層次得到的向量直接相連構(gòu)成一個(gè)向量,從而利用此向量表示圖像的特征。因此,圖像中的每個(gè)特征都是由字典中的多個(gè)基向量表示,減少特征點(diǎn)的量化誤差,從而能更準(zhǔn)確地描述一幅圖像的特點(diǎn)。具體優(yōu)化問題如下:

(2)

其中,S∈Rk×n為相應(yīng)的稀疏編碼;λ為正則化參數(shù),用來平衡重構(gòu)誤差和編碼的稀疏性;aj為矩陣A的第j個(gè)列向量。

對(duì)于式(2)的通常解法是交替固定A(或S)從而優(yōu)化S(或A),直到目標(biāo)函數(shù)的值達(dá)到指定的極值即可。首先固定X和A,則優(yōu)化問題可以轉(zhuǎn)化為通過優(yōu)化每一個(gè)編碼系數(shù)si來解決。即:

(3)

針對(duì)式(3),可以通過特征符號(hào)搜索算法[16]來求解。固定X和S,則相應(yīng)地將優(yōu)化問題轉(zhuǎn)化為二次約束的最小平方問題。即:

(4)

利用共軛梯度法或Lagrange對(duì)偶方法[16]可得出式(4)的解。

2 基于平均區(qū)域劃分的Laplacian稀疏編碼

雖然傳統(tǒng)的LSC方法能提取圖像的空間幾何信息,保留相似特征編碼的一致性和穩(wěn)定性,但該方法在劃分圖像時(shí)利用的是金字塔匹配,由于金字塔的第一層和第二層劃分的局域數(shù)量較小,使得融合后的向量無法達(dá)到很稀疏,并且缺乏空間信息。而ARD是將一幅圖像平均劃分為大小相等的方塊,利用最大值融合方法能使融合后的每一個(gè)圖像的特征向量都盡可能達(dá)到稀疏并保留空間信息,因此本文結(jié)合ARD和最大值融合提出LSCARD的圖像分類方法。LSCARD方法的整體框架如圖1所示。

圖1 LSCARD算法的整體框架

2.1 Laplacian稀疏編碼

Laplacian稀疏編碼方法最初是由Gao等[7]考慮到傳統(tǒng)的SC方法對(duì)特征變化很敏感,且相似的局部特征之間缺乏判別能力,因此引入Laplacian矩陣保留特征之間編碼的一致性,使得編碼過程不再獨(dú)立。相應(yīng)的優(yōu)化問題如下:

(5)

(6)

其中,k是兩個(gè)直方圖的維數(shù)(即字典的尺寸),Him和Hjm分別表示特征xi和xj落入直方圖Hi和Hj的數(shù)量,即向量Hi和Hj的第m個(gè)元素。

對(duì)于式(5)來說,同時(shí)求解A和S是非凸的,但是固定A(或S)求S(或A)卻是凸的。一般的解法是:首先從所有局部特征中隨機(jī)選擇部分局部特征即模板特征來訓(xùn)練A和S。在交替更新A和S的過程中,分別采用共軛梯度法和特征符號(hào)搜索算法[16]。當(dāng)有新的特征出現(xiàn)時(shí),就可以得到對(duì)于新特征的稀疏編碼。

下面具體介紹利用特征符號(hào)搜索算法求編碼的步驟。首先固定特征X和字典A,優(yōu)化S。為了優(yōu)化S,我們逐個(gè)優(yōu)化si,固定所有剩下的sj(j≠i)。相應(yīng)的優(yōu)化問題如下:

(7)

接下來,利用算法1求解式(7)。算法中涉及的公式定義如下:

(8)

(9)

其中,矩陣S-i是去掉矩陣S的第i列的子矩陣,向量Li,-i是去掉Li第i項(xiàng)的子向量,E是單位矩陣。

算法具體步驟如下:

算法1 特征符號(hào)搜索算法求稀疏編碼

輸入:字典A,特征矩陣X的第i個(gè)特征,初始化編碼S,參數(shù)λ和β以及Laplacian矩陣L

輸出:第i個(gè)特征的稀疏編碼si

step 1 初始化si=0,θ=0,其中,θi∈{-1,0,1}表示系數(shù)的符號(hào),activeset:={}。

其中,θm是θ的第m個(gè)分量。

(10)

step5 檢查最優(yōu)化條件:

2.2 利用ARD進(jìn)行最大值融合

這節(jié)將介紹利用ARD對(duì)圖像進(jìn)行劃分,由于ARD是對(duì)給定圖像平均劃分為多個(gè)區(qū)域,因此結(jié)合最大值融合方法可使融合后的特征向量盡可能稀疏,有效地克服了金字塔的不同尺度所劃分的局域數(shù)量較小并無法順暢地傳遞空間信息的缺點(diǎn)。在對(duì)圖像進(jìn)行SIFT提取階段,若每個(gè)SIFT描述子是在p×p的像素塊上計(jì)算所得,則將每幅圖像I平均分成p(p=q×q)個(gè)方塊。因此,在對(duì)圖像進(jìn)行LSC之后,可以利用ARD將這些稀疏特征進(jìn)行最大值融合,從而得到圖像的最終表示。具體步驟如下:

輸入:圖像I,圖像劃分的區(qū)域數(shù)量p=q×q,字典A

輸出:融合后的特征向量z∈Rp×k,其中k為字典的個(gè)數(shù)

step 1 將圖像I平均地劃分成p個(gè)方塊,并提取每一個(gè)方塊中的SIFT特征。

step 2 利用算法1求解特征的稀疏編碼系數(shù),得到每一個(gè)SIFT特征向量X∈R128×n的稀疏編碼S∈Rk×n。

step 3 采用最大值融合方法將每一個(gè)方塊中的所有稀疏編碼利用ARD進(jìn)行融合,即:

vl=max{|s1l|,|s2l|,…,|snl|},l=1,2,…,k

(11)

其中,snl是稀疏編碼sn的第l個(gè)元素;而vl是向量v的第1個(gè)元素。而每一方塊的稀疏向量可用v=[v1,v2,…,vk]表示。

step 4 將表示該圖像中每一方塊的稀疏向量v按照這個(gè)方塊所在位置拼接成表示該幅圖像的稀疏向量z,即:z=[v11,…,v1k,…,vi1,…,vij,…,vik,…,vp1,…,vpk]

(12)

其中,vij是表示第i個(gè)方塊的稀疏特征向量的第j個(gè)元素。

得到圖像的最終表示之后,對(duì)于圖像分類,由于線性SVM具備快速、低復(fù)雜度等優(yōu)點(diǎn),因此,本文采用多類線性SVM分類器。

3 實(shí)驗(yàn)仿真

為了驗(yàn)證本文LSCARD算法的有效性,分別在Corel-10[18]、Scene-15[19]和Caltech-101[20]三個(gè)標(biāo)準(zhǔn)數(shù)據(jù)集上進(jìn)行仿真實(shí)驗(yàn)。并將其與三種稀疏編碼方法的分類準(zhǔn)確率進(jìn)行比較。

3.1 圖像數(shù)據(jù)集

這節(jié)將介紹三個(gè)標(biāo)準(zhǔn)的圖像數(shù)據(jù)集,包括Corel-10、Scene-15和Caltech-101數(shù)據(jù)集。具體如表1所示。其中,Scene-15數(shù)據(jù)集的部分圖片如圖2所示。

表1 三個(gè)標(biāo)準(zhǔn)圖像數(shù)據(jù)集(張)

圖2 Scene-15數(shù)據(jù)集中部分圖片

3.2 實(shí)驗(yàn)設(shè)置

對(duì)于ARD中的空間劃分粒度,本文選取4×4的粒度。在特征提取階段,利用16×16的窗口,步長(zhǎng)為8提取圖像的SIFT特征。對(duì)于訓(xùn)練字典的過程,固定字典的尺寸為k=1 024。使用K最近鄰構(gòu)建相似W矩陣時(shí),K=5。

針對(duì)LSC優(yōu)化問題中的目標(biāo)函數(shù),有兩個(gè)重要的參數(shù)λ和β。本文依照文獻(xiàn)[7]中的方法,對(duì)于不同的圖像數(shù)據(jù)集設(shè)置不同的值。例如,對(duì)于Corel-10和Scene-15數(shù)據(jù)集,λ=0.4,β=0.2;對(duì)于Caltech-101數(shù)據(jù)集,λ=0.3,β=0.1。

3.3 實(shí)驗(yàn)步驟

首先,對(duì)于上述的三個(gè)標(biāo)準(zhǔn)圖像數(shù)據(jù)集,將每一個(gè)數(shù)據(jù)集隨機(jī)分成10份,并利用10-折交叉驗(yàn)證來證明本文方法的有效性。然后,記錄基于10-折交叉驗(yàn)證的LSCARD方法的平均分類準(zhǔn)確率和標(biāo)準(zhǔn)差。最后,將本文方法與其他三種稀疏編碼方法進(jìn)行比較并分析相應(yīng)的實(shí)驗(yàn)結(jié)果。

3.4 實(shí)驗(yàn)結(jié)果與分析

表2、3、4給出了LSCARD方法與一些知名的稀疏編碼方法包括ScSPM、LScSPM和SC-RF[14]在上述三個(gè)標(biāo)準(zhǔn)圖像數(shù)據(jù)集上的分類效果比較。

表2 Corel-10數(shù)據(jù)集上的分類結(jié)果 %

表3 Scene-15數(shù)據(jù)集上的分類結(jié)果 %

從上述這三個(gè)表可以看到,LSCARD方法在所有圖像數(shù)據(jù)集上的平均分類準(zhǔn)確率都比其它三種編碼方法要高。具體地,對(duì)于ScSPM和LScSPM這兩種方法,由于其在進(jìn)行圖像劃分時(shí),利用的是金字塔匹配,這會(huì)造成金字塔的第一層和第二層因劃分的局域數(shù)量較小,使得融合后的特征無法很稀疏,并且缺乏空間信息。而LSCARD方法利用的是將圖像平均劃分為多個(gè)區(qū)域,這不僅使得融合后的特征盡可能稀疏,而且還具備空間信息,因此更能準(zhǔn)確地表示圖像。對(duì)于SC-RF來說,由于其缺乏Laplacian正則化的使用,因此相似的編碼可能被編成不同的碼字。而LSCARD方法利用Laplacian算子能提取更多的空間幾何信息,保持編碼的一致性并使編碼過程不再獨(dú)立。因此,從整體上看,本文的LSCARD方法能顯著地提高圖像分類準(zhǔn)確率。

3.5 復(fù)雜度分析

給定一幅圖像的局部特征數(shù)量為n,模板特征的數(shù)量為n1,字典的數(shù)量為k,則總的局部特征和模板特征之間相似度的計(jì)算的復(fù)雜度為O(n×n1),特征符號(hào)搜索算法[16]的復(fù)雜度為O(n×k),因此編碼階段的總復(fù)雜度為O(n×n1+n×k)=O(n×(n1+k))。針對(duì)編碼融合階段,空間金字塔劃分過程中涉及到金字塔的層數(shù)pLevels和直方圖的個(gè)數(shù)nBins,因此復(fù)雜度為O(2×n+pLevels×nBins)。而本文方法在融合階段利用的是平均區(qū)域劃分,假設(shè)一幅圖像的區(qū)域劃分?jǐn)?shù)量為p,則該階段的復(fù)雜度為O(p×k)。因此,LSCARD方法的總復(fù)雜度為O(n×(n1×k)+p×k),遠(yuǎn)小于利用空間金字塔劃分進(jìn)行特征融合的算法的復(fù)雜度。

4 結(jié) 語(yǔ)

針對(duì)SC方法中不穩(wěn)定和金字塔匹配的劃分方法無法使得融合后的特征很稀疏這兩個(gè)問題,本文提出LSCARD的圖像分類方法。由于Laplacian正則化能降低由字典的超完備性造成稀疏編碼對(duì)局部特征的敏感性,并保留了相似特征編碼的一致性,使得對(duì)局部特征的表達(dá)更具魯棒性。同時(shí)由于使用ARD對(duì)圖像進(jìn)行劃分,結(jié)合最大值融合,能使融合后的特征更稀疏并帶有空間信息。因此,在圖像表示階段,通過利用特征之間的依賴性和稀疏性可以更準(zhǔn)確地模擬圖像。在三個(gè)標(biāo)準(zhǔn)圖像數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果也表明本文的LSCARD方法與已有的三種編碼算法相比有更好的性能。

[1] Lowe D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004,60(2):91-110.

[2] 涂秋潔, 王晅. 基于PCA-SIFT特征與貝葉斯決策的圖像分類算法[J]. 計(jì)算機(jī)應(yīng)用與軟件, 2016,33(6):215-219.

[3] Sivic J, Zisserman A. Video Google: A text retrieval approach to object matching in videos[C]//Proceedings of the International Conference on Computer Vision,2003,2:1470-1477.

[4] Lazebni S, Schmid C, Ponce J. Beyond bags of features: Spatial pyramid matching for recognizing natural scene categories[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, 2006,2:2169-2178.

[5] Yang J C, Yu K, Gong Y H, et al. Linear spatial pyramid matching using sparse coding for image classification[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, 2009:1794-1801.

[6] 楊淑瑩. 模式識(shí)別與智能計(jì)算—Matlab技術(shù)實(shí)現(xiàn)[M].2版.北京: 電子工業(yè)出版社, 2011:126-133.

[7] Gao S H, Tsang I W, Chia L-T, et al. Local features are not lonely-Laplacian sparse coding for image classification[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, 2010:3555-3561.

[8] 傅鵬, 孫權(quán)森, 紀(jì)則軒, 等. 一種遙感圖像信噪比評(píng)估和度量準(zhǔn)則[J]. 測(cè)繪學(xué)報(bào), 2013,42(4):559-567.

[9] Liu X H, Tanaka M, Okutomi M. Single-image noise level estimation for blind denoising[J].IEEE Transcations on Image Processing, 2013,22(12):5226-5237.

[10] 周確. 基于區(qū)域劃分和字典學(xué)習(xí)的圖像去噪方法[D]. 西安: 西安電子科技大學(xué), 2013.

[11] 張旭, 郭寶龍, 孟繁節(jié), 等. 基于IPDSH興趣點(diǎn)空間區(qū)域劃分的圖像檢索[J].吉林大學(xué)學(xué)報(bào)(工學(xué)版),2013,43(5):1408-1414.

[12] 張光勝, 李長(zhǎng)春, 鄒友峰. 基于自適應(yīng)分塊馬爾可夫隨機(jī)場(chǎng)(MRF)模型的SAR圖像變化檢測(cè)研究[J].科學(xué)技術(shù)與工程,2014,14(16):6-10.

[13] Kazuhiro K, Chen Q. Image retrieval using features in spatial and frequency domains based on block-division[C]//2015 International Conference on Computational Science and Computational Intelligence,2015:448-453.

[14] 唐峰, 孫錟鋒, 蔣興浩, 等. 基于改進(jìn)稀疏編碼模型的圖像分類算法[J].上海交通大學(xué)學(xué)報(bào),2012,46(9):1406-1410.

[15] 姜宇恒. 基于區(qū)域劃分的極化SAR圖像分類方法研究[D]. 西安: 西安電子科技大學(xué), 2014.

[16] Lee H, Battle A, Raina R, et al. Efficient sparse coding algorithms[C]//Advances in Neural Information Processing Systems,2006:801-808.

[17] Wu J X, Rehg J M. Beyond the Euclidean distance: Creating effective visual codebooks using the histogram intersection kernel[C]//Proceedings of IEEE 12th International Conference on Computer Vision, 2009:630-637.

[18] Lu Z W, Ip H H S. Image categorization with spatial mismatch kernels[C]//IEEE Conference on Computer Vision and Pattern Recognition, 2009:397-404.

[19] Li F F, Perona P. A Bayesian hierarchical model for learning natural scene categories[C]//IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2005,2:524-531.

[20] Li F F, Fergus R, Perona P. Learning generative visual models from few training examples: An incremental Bayesian approach tested on 101 object categories[J].Computer Vision and Image Understanding,2007,106(1):59-70.

IMAGE CLASSIFICATION BASED ON AVERAGE REGION PARTITIONING AND LAPLACIAN SPARSE CODING

Shi Ying Wan Yuan Chen Xiaoli

(SchoolofScience,WuhanUniversityofTechnology,Wuhan430070,Hubei,China)

For the sparse coding method, the coding process is unstable and the pyramid matching method can not make the fusion feature very sparse, an image classification method based on Laplacian sparse coding with average region partition is proposed. Firstly, local invariant feature transform (SIFT) feature extraction was applied to the original image. Then, Laplacian regularization was added to the sparse coding method to encode the local features so that the similar features have similar code words and the feature vectors were fused by average region partition and max pooling. Finally, multi-class SVM classifier was used to classify the images. Experimental results on several standard image datasets show that the algorithm has higher classification accuracy.

Sparse coding Laplacian regularization Average region division Maximum fusion

2016-07-14。國(guó)家自然科學(xué)基金項(xiàng)目(81271513,91324201)。史瑩,碩士生,主研領(lǐng)域:圖像處理與模式識(shí)別。萬源,副教授。陳曉麗,碩士生。

TP391.4

A

10.3969/j.issn.1000-386x.2017.07.027

猜你喜歡
分類利用特征
利用min{a,b}的積分表示解決一類絕對(duì)值不等式
分類算一算
利用一半進(jìn)行移多補(bǔ)少
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
分類討論求坐標(biāo)
利用數(shù)的分解來思考
Roommate is necessary when far away from home
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
主站蜘蛛池模板: 免费va国产在线观看| 亚洲伊人久久精品影院| 91精品啪在线观看国产60岁| 91综合色区亚洲熟妇p| 99热这里只有精品2| 国产精品偷伦在线观看| 亚洲av片在线免费观看| 免费无码又爽又黄又刺激网站 | 国产区免费| 九九热视频精品在线| 777国产精品永久免费观看| 国产精品久久久久鬼色| 在线日韩日本国产亚洲| 女人毛片a级大学毛片免费| 国产成人久视频免费| 国产激爽大片高清在线观看| 久久精品aⅴ无码中文字幕 | www.亚洲色图.com| 国产亚洲欧美在线人成aaaa| 国产综合无码一区二区色蜜蜜| 中文字幕天无码久久精品视频免费| 成人精品免费视频| 免费人成在线观看视频色| a级毛片免费在线观看| 激情爆乳一区二区| 日韩国产欧美精品在线| 91精品啪在线观看国产91九色| 久久狠狠色噜噜狠狠狠狠97视色| A级毛片无码久久精品免费| 丁香婷婷综合激情| 精品国产91爱| 五月婷婷丁香综合| 亚洲成人一区二区三区| 国产精品尤物铁牛tv| 欧美不卡视频在线观看| 特级做a爰片毛片免费69| 日本成人精品视频| 久草热视频在线| 日本不卡免费高清视频| 亚洲精品手机在线| 日本妇乱子伦视频| 亚洲天堂久久| 国产成人精品亚洲日本对白优播| 亚洲欧美日韩天堂| 久久综合伊人77777| 91视频日本| 久久精品人妻中文系列| 伊人蕉久影院| 999福利激情视频| 精品成人免费自拍视频| 亚洲一区二区三区麻豆| 亚洲无码视频一区二区三区| 亚洲综合色婷婷中文字幕| 欧美激情一区二区三区成人| 国产亚洲精久久久久久久91| 国产一级毛片网站| 日韩免费毛片| 国产成人麻豆精品| 亚洲精品日产AⅤ| 国产成人精品优优av| 国产精品偷伦视频免费观看国产| 五月婷婷导航| 爽爽影院十八禁在线观看| 欧美成人aⅴ| 亚洲系列中文字幕一区二区| 久久中文无码精品| 亚洲综合日韩精品| 精品剧情v国产在线观看| 成人福利在线免费观看| 亚洲人网站| 亚洲欧美日韩动漫| 超碰精品无码一区二区| 久久精品这里只有国产中文精品| 亚洲中久无码永久在线观看软件 | 全部免费特黄特色大片视频| 国产亚洲美日韩AV中文字幕无码成人| 日韩精品无码免费专网站| 日韩AV无码免费一二三区| 欧美午夜小视频| 2018日日摸夜夜添狠狠躁| 亚洲中文在线看视频一区| 2018日日摸夜夜添狠狠躁|