劉朝強(qiáng),秦麗娟,班允強(qiáng)
(沈陽(yáng)理工大學(xué)信息科學(xué)與工程學(xué)院,遼寧沈陽(yáng)110159)
基于Tri-training的圖像多特征融合目標(biāo)分類(lèi)
劉朝強(qiáng),秦麗娟,班允強(qiáng)
(沈陽(yáng)理工大學(xué)信息科學(xué)與工程學(xué)院,遼寧沈陽(yáng)110159)
在對(duì)目標(biāo)進(jìn)行分類(lèi)識(shí)別過(guò)程中,對(duì)其特征的有效提取直接影響最后分類(lèi)的精度。針對(duì)此類(lèi)問(wèn)題,提出了基于Tri-training算法對(duì)圖像進(jìn)行多特征融合分類(lèi),通過(guò)利用Principal Component Analysis(PCA)主成分分析法,并結(jié)合目前比較實(shí)用的半監(jiān)督學(xué)習(xí)Tri-training算法對(duì)圖像顯著目標(biāo)進(jìn)行分類(lèi),其中Tri-training算法是以Support Vector Machine(SVM)、Na?ve Bayes(NB)、Back Propagation(BP)為基分類(lèi)器,將圖像的多特征數(shù)據(jù)值作為圖像在Tri-training分類(lèi)器的輸入對(duì)分類(lèi)器進(jìn)行訓(xùn)練和測(cè)試。實(shí)驗(yàn)表明,在進(jìn)行了有效的預(yù)處理之后,再對(duì)樣本進(jìn)行多特征融合在一定程度上明顯提高了分類(lèi)精度。
分類(lèi)器;多特征融合;半監(jiān)督;顯著目標(biāo)
半監(jiān)督學(xué)習(xí)是近年來(lái)提出的一種新的學(xué)習(xí)策略,它不僅有效結(jié)合了監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí)的優(yōu)點(diǎn),而且完善了它們的不足。它通過(guò)同時(shí)使用標(biāo)記樣本和未標(biāo)記樣本的數(shù)據(jù),然后利用未標(biāo)記樣本的信息數(shù)據(jù)來(lái)幫助其建立學(xué)習(xí)模型,使其可以獲得很好的學(xué)習(xí)泛化性能和學(xué)習(xí)效果。所以在近年來(lái)該理論及其算法得到快速的發(fā)展和應(yīng)用,Blum和Mitchell提出的Co-training算法[1],通過(guò)使用兩個(gè)不同的分類(lèi)器來(lái)實(shí)行協(xié)同訓(xùn)練,然后再將單個(gè)分類(lèi)器所產(chǎn)生的新標(biāo)記數(shù)據(jù)加入到另一個(gè)分類(lèi)器中,通過(guò)迭代的方法,不停地?cái)U(kuò)充有標(biāo)記樣本集并反復(fù)訓(xùn)練。但是該算法不僅要求其數(shù)據(jù)屬性可以分為兩個(gè)不同的子集,而且要求其中每個(gè)子集能獨(dú)立訓(xùn)練產(chǎn)生出分類(lèi)器,所以在實(shí)際應(yīng)用中很難得到滿(mǎn)足。Zhou等人提出的Tritraining算法[1],它沒(méi)有充分冗余視圖的局限,同時(shí)也不需要采用不同的分類(lèi)方法,其實(shí)用性更廣。將Co-training算法和Tri-Training算法結(jié)合的SVM分類(lèi)方法,也可以獲得很好的分類(lèi)精度。
為了提高對(duì)圖像中顯著目標(biāo)的分類(lèi)精度,本文提出了基于Tri-training算法對(duì)目標(biāo)進(jìn)行多特征融合分類(lèi)的方法,首先對(duì)圖像中的目標(biāo)進(jìn)行預(yù)處理,消除圖像中的噪聲干擾,同時(shí)有效克服其強(qiáng)度敏感性。然后在此基礎(chǔ)上分別提取中心矩特征,仿射不變矩特征以及其灰度共生矩特征,然后再利用PCA方法將以上特征融合,最后基于Tri-training算法進(jìn)行分類(lèi)。
1.1 數(shù)據(jù)預(yù)處理
在對(duì)圖像數(shù)據(jù)實(shí)行有效的預(yù)處理過(guò)程中,一般主要對(duì)其實(shí)行去噪處理。本文主要利用小波方法對(duì)圖像實(shí)行有效的降噪處理。小波變換降噪方法通過(guò)將數(shù)據(jù)變換到其小波域中,然后再利用小波分解獲得的高頻系數(shù)將其去除,最后再對(duì)圖像信號(hào)進(jìn)行小波反變換來(lái)達(dá)到降噪目的。其公式如下:

其中g(shù)(x,y)為要得到的理想圖像,f(x,y)為輸入圖像,n(x,y)為噪聲,通過(guò)頻域變化將噪聲去除就得到了想要的理想圖像。
1.2 圖像中心矩特征提取
假設(shè)x={x(i),i=0,1,2,…,I-1}表示距離像幅度,其中x(i)為第i+1個(gè)距離單元的回波幅度,I為距離單元的個(gè)數(shù),然后對(duì)其歸一化處理可得:所以x={x(i),i= 0,1,2,…,I-1}可以被當(dāng)作一個(gè)離散概率分布函數(shù)。N(i)的J階中心矩WJ可表示為:



其中中心矩WJ的幅度與階數(shù)關(guān)系為遞增關(guān)系,為了能夠有效地抑制指數(shù)增長(zhǎng)造成的影響,一般通過(guò)對(duì)中心矩作極差變換來(lái)達(dá)到消除數(shù)量級(jí)造成干擾的目的。在對(duì)中心矩特征作向量極差變換時(shí),實(shí)質(zhì)上是做了歸一化處理,從而有效地解決了特征不在同一個(gè)數(shù)量級(jí)的問(wèn)題。所以可得其中心矩特征為f=[f(1),f(2),…,f(J-1)],其中J表示中心矩的最高階數(shù)。
1.3 圖像灰度共生矩陣特征提取
灰度共生矩陣一般定義為從灰度級(jí)為i的點(diǎn)離開(kāi)某個(gè)固定位置關(guān)系d=(Dx,Dy)達(dá)到灰度為j的概率。這里用Pd=(i,j)(i,j=0,1,2,…,L-1)來(lái)表示灰度共生矩陣。其中L指圖像的灰度級(jí),i,j分別表示像素的灰度。圖像中像素間的距離和方向由d的值決定。θ為灰度共生矩陣的生成方向,通常取0°,45°,90°和135°四個(gè)方向。灰度共生矩陣的像素對(duì)如圖1所示。

圖1 灰度共生矩陣的像素對(duì)
當(dāng)選定像素間位置關(guān)系d后,就能基于關(guān)系d生成灰度共生矩陣[2]。

1.4 圖像仿射不變特矩特征提取
一般二維仿射線性變換的數(shù)學(xué)變換模型可表示為:

假設(shè)p是坐標(biāo)平面上任一點(diǎn),p′點(diǎn)是其仿射線性變換對(duì)應(yīng)點(diǎn),變換后坐標(biāo)系下的兩點(diǎn)坐標(biāo)可表示為(x,y)0)的尺度變換

如果通過(guò)歸一化中心矩來(lái)獲得仿射不變矩,只需要合適的扭曲不變性和拉伸不變性就可以實(shí)現(xiàn)仿射變換的不變性。通過(guò)利用構(gòu)造的中心矩多項(xiàng)式方法,可達(dá)到消除仿射變換矩A的目的,這樣就能實(shí)現(xiàn)一般情況下的仿射不變性。這里是利用Jan Flusser等人構(gòu)造的六個(gè)仿射不變矩變量來(lái)作為目標(biāo)圖像的特征不變量[3]。

因此,矩陣A可表示為:

PCA的基本思想是用一組維數(shù)最少的特征以最精確的方式描述原始樣本特征[4-5]。仿真實(shí)驗(yàn)中從圖像中提取三種有效特征,然后使用主成分分析法再將三種特征融合成一種綜合特征對(duì)目標(biāo)進(jìn)行分類(lèi)。實(shí)驗(yàn)取每類(lèi)樣本100張圖片,一共兩類(lèi)樣本數(shù)據(jù),其中每一組樣本數(shù)據(jù)中包含7維中心矩特征、6維仿射不變矩特征以及3維灰度共生矩特征。將上述三種特征生成一個(gè)16維的特征向量為x=(φ1,φ2,…,φ16)T,那么由200個(gè)特征向量構(gòu)成的特征矩陣為X=(x1,x2,…,x200),其中向量xk表示第k張樣本圖像的中心矩特征,仿射不變矩特征及灰度共生矩特征組成列向量。實(shí)驗(yàn)仿真中先將三種特征數(shù)據(jù)進(jìn)行串聯(lián),然后通過(guò)PCA來(lái)將串聯(lián)后的數(shù)據(jù)進(jìn)行有效的融合。目的有兩方面:一是將三種特征數(shù)據(jù)中的相關(guān)性消除;二是將三種特征數(shù)據(jù)從高維矢量降為低維矢量。
基于Tri-training算法的多特征融合圖像分類(lèi)流程圖如圖2所示。將圖像數(shù)據(jù)轉(zhuǎn)換成算法程序能夠處理的數(shù)據(jù)格式(xls文件)并輸入到Tri-training算法的MATLAB程序中,由算法進(jìn)行樣本集的劃分。當(dāng)完成初始的三種基分類(lèi)器之后,按百分比輸入已標(biāo)記樣本,然后通過(guò)三個(gè)基分類(lèi)器對(duì)未標(biāo)記樣本進(jìn)行相互標(biāo)記以獲得置信度高的樣本,再加入到已標(biāo)記樣本中進(jìn)行模型的訓(xùn)練。以此迭代直至結(jié)束,最后獲得由三個(gè)基分類(lèi)器組成的集成分類(lèi)器。在測(cè)試階段,通過(guò)三個(gè)分類(lèi)器分別對(duì)測(cè)試樣本集進(jìn)行有效的分類(lèi),使用多數(shù)投票法來(lái)獲得最后的分類(lèi)結(jié)果。

圖2 基于Tri-training算法的多特征融合圖像分類(lèi)流程圖
Tri-training分類(lèi)算法流程圖如圖3所示。Tri-training[4]算法采用三個(gè)基分類(lèi)器,再通過(guò)隨機(jī)采樣算法bootstrap來(lái)獲得存在差異的訓(xùn)練數(shù)據(jù)子集,從而能夠有效地保證基分類(lèi)器之間的差異性。在Tri-training訓(xùn)練結(jié)束后,采用多數(shù)投票法對(duì)三個(gè)分類(lèi)器進(jìn)行集成,得到最終的分類(lèi)器進(jìn)行分類(lèi)。

圖3 Tri-training分類(lèi)算法流程圖
本文中選取飛機(jī)和越野車(chē)各100張照片作為實(shí)驗(yàn)數(shù)據(jù),首先提取圖像的中心矩特征、放射不變矩特征和灰度共生矩特征,再將這些數(shù)據(jù)融合得到一個(gè)多特征數(shù)據(jù)來(lái)作為T(mén)ri-training分類(lèi)器的輸入數(shù)據(jù),實(shí)驗(yàn)中基于MATLAB 7.0平臺(tái)進(jìn)行仿真。部分樣本如圖4所示。

圖4 部分樣本圖
4.1 樣本分配
選用25%的特征數(shù)據(jù)作為測(cè)試樣本集,剩余的75%作為訓(xùn)練樣本集。在訓(xùn)練樣本集中,未標(biāo)記樣本的比例依次選用80%,60%,40%和20%進(jìn)行測(cè)試和比較。Tritraining算法中采用了SVM,NB,BP作為分類(lèi)器。
4.2 算法的性能評(píng)價(jià)標(biāo)準(zhǔn)
采用算法對(duì)于測(cè)試集的分類(lèi)錯(cuò)誤率作為分類(lèi)器的評(píng)價(jià)指標(biāo)。

其中,E是算法分類(lèi)錯(cuò)誤率,Ncorrect是分類(lèi)正確的樣本數(shù)目,N是總樣本數(shù)。
4.3 實(shí)驗(yàn)結(jié)果
實(shí)驗(yàn)中對(duì)未標(biāo)記樣本的比例依次選用80%,60%,40%和20%進(jìn)行測(cè)試和比較,結(jié)果如圖5~圖12所示。以下各圖中,(a)為PCA融合得到的方差圖,(b)為訓(xùn)練之后與最優(yōu)線的比較,(c)是最后分類(lèi)的精度。

圖5 飛機(jī)20%未標(biāo)記樣本

圖7 飛機(jī)60%未標(biāo)記樣本

圖8 飛機(jī)80%未標(biāo)記樣本

圖9 越野車(chē)20%未標(biāo)記樣本

圖10 越野車(chē)40%未標(biāo)記樣本

圖11 越野車(chē)60%未標(biāo)記樣本

圖12 越野車(chē)80%未標(biāo)記樣本
表1是在4種不同百分比下未標(biāo)記樣本的半監(jiān)督學(xué)習(xí)(PCA+Tri-training)與對(duì)應(yīng)的PCA特征融合分類(lèi)錯(cuò)誤率的比較。
從表1中可以看出,當(dāng)標(biāo)記的樣本比較多時(shí),PCA多特征融合法與基于Tri-training算法的PCA多特征融合法的分類(lèi)精度差不多,但是當(dāng)樣本開(kāi)始減少時(shí),就能看出兩種方法的差異性,所以在少數(shù)樣本情況下第二種方法更實(shí)用,分類(lèi)精度更高,操作性很強(qiáng)。

表1 分類(lèi)精度對(duì)比(%)
本文主要是將機(jī)器學(xué)習(xí)領(lǐng)域的Tri-training半監(jiān)督學(xué)習(xí)方法應(yīng)用在圖像的顯著目標(biāo)分類(lèi),并基于Tri-training算法提出了與多特征融合相結(jié)合的圖像分類(lèi)方法,通過(guò)有效地將圖像的中心矩特征、仿射不變矩特征和灰度共生矩特征進(jìn)行融合,利用SVM,NB,BP三個(gè)基分類(lèi)器進(jìn)行協(xié)同訓(xùn)練,達(dá)到了很好的分類(lèi)效果。仿真結(jié)果表明其在小樣本分類(lèi)中具有很好的分類(lèi)效果。
[1]周志華.機(jī)器學(xué)習(xí)及其應(yīng)用2007[M].北京:清華大學(xué)出版社,2007.
[2]陸麗珍,劉仁義,劉南.一種融合顏色和紋理特征的遙感圖像檢索方法[J].中國(guó)圖象圖形學(xué)報(bào),2004,9(3):328-332.
[3]楚稼,張桂林.基于顏色和邊緣信息融合的背景建模方法[J].計(jì)算機(jī)工程,2008,34(4):42-45.
[4]LOWE D G.Distinctive image features from scale invariant key points[J].In Journal of Computer Vision,2004,60(2):91-110.
[5]謝輝,陸月明,孫松林.基于半監(jiān)督學(xué)習(xí)的一種圖像檢
索方法[J].計(jì)算機(jī)應(yīng)用研究,2013,30(7):2210-2212.
Target classification of image feature fusion based on the Tri-training
Liu Zhaoqiang,Qin Lijuan,Ban Yunqiang
(School of Information Science and Engineering,Shenyang Ligong University,Shenyang 110159,China)
In the process of target classification and recognition,the characteristics of the effective extraction affects the final classification accuracy directly.Aiming at such problems,the algorithm is proposed for image feature fusion classification which is based on Tri-training.It uses Principal Component Analysis(PCA)and combined with the practical semi-supervised Tri-training algorithm for target classification significantly.The Tri-training algorithm is based on Support Vector Machine(SVM),Na?ve Bayes(NB),Back Propagation(BP)as the classifier.The features of the image data value are used as the input image in the Tri-training classifier for classifier for training and testing.Experimental results show that the method can improve the classification accuracy,which make the samples multiple features fusion in a certain extent after the effective pretreatment.
classifier;multiple feature fusion;semi-supervised;significant target
TP751.1
A
1674-7720(2015)19-0043-04
劉朝強(qiáng),秦麗娟,班允強(qiáng).基于Tri-training的圖像多特征融合目標(biāo)分類(lèi)[J].微型機(jī)與應(yīng)用,2015,34(19):43-46.
2015-05-11)
劉朝強(qiáng)(1989-),男,在讀碩士研究生,主要研究方向:自適應(yīng)信號(hào)處理。
秦麗娟(1978-),女,博士,副教授,主要研究方向:計(jì)算機(jī)視覺(jué)智能計(jì)算、虛擬實(shí)現(xiàn)系統(tǒng)、機(jī)器人控制理論等。
班允強(qiáng)(1986-),男,在讀碩士研究生,主要研究方向:自適應(yīng)信號(hào)處理。