999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

結(jié)合半監(jiān)督聚類和數(shù)據(jù)剪輯的自訓(xùn)練方法

2018-03-20 00:43:02黎雋男
計(jì)算機(jī)應(yīng)用 2018年1期
關(guān)鍵詞:訓(xùn)練方法分類

呂 佳,黎雋男

(重慶師范大學(xué) 計(jì)算機(jī)與信息科學(xué)學(xué)院,重慶 401331)(*通信作者電子郵箱lvjia@cqnu.edu.cn)

0 引言

自訓(xùn)練方法[1]是半監(jiān)督學(xué)習(xí)[2]算法中的一種,它利用少量的有標(biāo)記樣本和大量的無(wú)標(biāo)記樣本共同去訓(xùn)練一個(gè)分類器,用來解決數(shù)據(jù)標(biāo)注的瓶頸問題。由于它不需要特定的假設(shè)條件且簡(jiǎn)單有效,受到了不少學(xué)者青睞。

Hady等[3]提出Co-Training by Committee自訓(xùn)練學(xué)習(xí)框架,該方法集成多個(gè)分類器共同進(jìn)行自訓(xùn)練學(xué)習(xí),其中置信度為多個(gè)分類器的平均后驗(yàn)概率。針對(duì)選取最大后驗(yàn)概率時(shí),可能出現(xiàn)重復(fù)的最大后驗(yàn)概率的問題,Wang等[4]引入了Naive Bayes(NB)[5],最大后驗(yàn)概率取平均后驗(yàn)概率與NB后驗(yàn)概率之和。同時(shí)針對(duì)這個(gè)問題,Liu等[6]引入了一種基于距離的度量方式,即當(dāng)平均后驗(yàn)概率相同的時(shí)候,離類別中心越近的樣本的置信度越高,越可靠。Shi等[7]提出集成SVM(Support Machine Vector)[8]、NB和Rocchio[9]三個(gè)異構(gòu)分類器自訓(xùn)練的方式對(duì)文本進(jìn)行分類,通過按類別投票的方式選取可靠的樣本。Hajmohammadi等[10]提出結(jié)合主動(dòng)學(xué)習(xí)與自訓(xùn)練的方法去解決跨語(yǔ)言分類問題,該方法用自訓(xùn)練方法選取置信度高的樣本,同時(shí)用平均余弦相似度和熵結(jié)合的方法去選取一些信息量大的樣本。Leng等[11]提出結(jié)合主動(dòng)學(xué)習(xí)和自訓(xùn)練方法去構(gòu)建SVM分類器,用SVM分類器去選擇類中心且標(biāo)記改變率為0的樣本,同時(shí)用主動(dòng)學(xué)習(xí)去選擇離決策邊界近的樣本。然而,在上述自訓(xùn)練方法中,如果誤標(biāo)記的無(wú)標(biāo)記樣本被作為可靠樣本加入到訓(xùn)練集中,不僅會(huì)降低自訓(xùn)練方法的性能,還會(huì)造成錯(cuò)誤累積問題,使樣本原本數(shù)據(jù)空間結(jié)構(gòu)發(fā)生扭曲。

數(shù)據(jù)剪輯是一種統(tǒng)計(jì)過濾技術(shù),它一般用KNN(KNearest Neighbors)[12]作為基分類器,來去除樣本中潛在的噪聲,同時(shí)保留正確的樣本。不少學(xué)者用數(shù)據(jù)剪輯技術(shù)來去除自訓(xùn)練方法中的潛在的誤標(biāo)記樣本。Fan等[13-14]提出結(jié)合KNN數(shù)據(jù)剪輯技術(shù)的NB自訓(xùn)練算法,用KNN數(shù)據(jù)剪輯技術(shù)過濾掉NB自訓(xùn)練的噪聲樣本點(diǎn)。黎雋男等[15]提出結(jié)合加權(quán)KNN(WeightedKNearest Neighbors, WKNN)數(shù)據(jù)剪輯技術(shù)的NB自訓(xùn)練算法,把WKNN和NB分類器投票一致且置信度都高的樣本加入到訓(xùn)練集。Triguero等[16]總結(jié)數(shù)十種數(shù)據(jù)剪輯技術(shù),并把它們結(jié)合到自訓(xùn)練方法中進(jìn)行了實(shí)驗(yàn)性分析。

針對(duì)自訓(xùn)練方法選出置信度高的無(wú)標(biāo)記樣本中,所含信息量可能不大的問題,Gan等[17]提出用半監(jiān)督模糊C均值(Semi-supervised Fuzzy C Means, SFCM)去改進(jìn)自訓(xùn)練方法。他認(rèn)為無(wú)標(biāo)記樣本可能含有數(shù)據(jù)空間結(jié)構(gòu)潛在信息,利用好這些潛在的信息,能更好地輔助自訓(xùn)練方法,從而提高自訓(xùn)練方法的泛化性。

為了解決自訓(xùn)練方法中的錯(cuò)誤累積問題和自訓(xùn)練選出置信度高的無(wú)標(biāo)記樣本所含信息量不大,從而導(dǎo)致自訓(xùn)練方法泛化性不強(qiáng)的問題,并受聚類和數(shù)據(jù)剪輯技術(shù)的共同啟發(fā),本文提出結(jié)合SMUC(Semi-supervised Metric-based fUzzy Clustering)[18]和SKNN(Semi-supervisedKNearest Neighbor)[19]數(shù)據(jù)剪輯技術(shù)的NB自訓(xùn)練方法(Naive Bayes Self-Training combined SMUC and SKNN Data Editing, NBSTSMUCSKNNDE)。實(shí)驗(yàn)結(jié)果表明,本文提出方法相比改進(jìn)前方法具有更好的性能。

1 提出算法

傳統(tǒng)的數(shù)據(jù)剪輯技術(shù)僅僅利用有標(biāo)記樣本的信息,而假設(shè)無(wú)標(biāo)記樣本的類標(biāo)號(hào)是不可預(yù)測(cè)的,但是自訓(xùn)練方法中,有標(biāo)記樣本是很少的,那么數(shù)據(jù)剪輯的性能可能因有標(biāo)記樣本的數(shù)量的匱乏而下降。陳日新等[19]提出SKNN方法,它能同時(shí)利用有標(biāo)記樣本信息和無(wú)標(biāo)記樣本信息對(duì)待測(cè)樣本進(jìn)行分類。他認(rèn)為,如果無(wú)標(biāo)記樣本和有標(biāo)記樣本來自一個(gè)共同的序列,那么有效利用無(wú)標(biāo)記樣本信息,能提高KNN算法的性能,因此,本文提出的NBSTSMUCSKNNDE引入了一種新的數(shù)據(jù)剪輯方法,用SKNN作為數(shù)據(jù)剪輯的基分類器。它能夠同時(shí)利用有標(biāo)記樣本信息和無(wú)標(biāo)記樣本信息進(jìn)行數(shù)據(jù)剪輯,在有標(biāo)記樣本不足的情況下,利用額外無(wú)標(biāo)記樣本信息來提高數(shù)據(jù)剪輯的性能,從而更好地解決自訓(xùn)練方法中的錯(cuò)誤累積問題。

傳統(tǒng)的自訓(xùn)練方法會(huì)隨機(jī)選擇一些無(wú)標(biāo)記樣本給自訓(xùn)練方法學(xué)習(xí),而選擇更具有信息量的無(wú)標(biāo)記樣本給自訓(xùn)練方法學(xué)習(xí),能提高自訓(xùn)練方法的性能,所以本文提出的NBSTSMUCSKNNDE用半監(jiān)督聚類SMUC方法去選擇一些聚類隸屬度高的無(wú)標(biāo)記樣本給自訓(xùn)練方法學(xué)習(xí)。聚類隸屬度高的無(wú)標(biāo)記樣本離樣本真實(shí)的類中心越近,它包含著原始樣本空間結(jié)構(gòu)信息。NBSTSMUCSKNNDE的自訓(xùn)練學(xué)習(xí)器如果能正確標(biāo)記這樣的無(wú)標(biāo)記樣本,并加入到訓(xùn)練集,則可以提高自訓(xùn)練方法的泛化性。

2 SKNN數(shù)據(jù)剪輯技術(shù)

傳統(tǒng)的數(shù)據(jù)剪輯技術(shù)有ENN(Edited Nearest Neighbor)[20]、RENN(Repeated Edited Nearest Neighbor)[21]、ALLKNN(AllKNearest Neighbors)[21]、MENN(Modified Edited Nearest Neighbor)[22]等,它們都是利用KNN或WKNN分類的結(jié)果與給定樣本的類標(biāo)號(hào)進(jìn)行對(duì)比,如果類標(biāo)號(hào)不一致,就判斷為噪聲樣本,但是KNN或WKNN只考慮到了k個(gè)有標(biāo)記近鄰樣本對(duì)待測(cè)樣本的類別的貢獻(xiàn),沒有考慮到無(wú)標(biāo)記近鄰樣本對(duì)待測(cè)樣本的影響,如果待測(cè)樣本和無(wú)標(biāo)記樣本來自一個(gè)共同的序列,它們的類別就會(huì)存在一定的聯(lián)系,根據(jù)待測(cè)樣本和無(wú)標(biāo)記樣本的相關(guān)性,可以提高數(shù)據(jù)剪輯的精度,從而提高算法性能。如圖1所示,如果用KNN或WKNN進(jìn)行分類,待測(cè)樣本x會(huì)被分到A類,實(shí)際上樣本x應(yīng)該屬于B類。針對(duì)這個(gè)問題,SKNN在對(duì)待測(cè)樣本分類時(shí),考慮有標(biāo)記樣本和無(wú)標(biāo)記樣本對(duì)待測(cè)樣本的共同影響。

圖1 采用KNN或WKNN分類時(shí)的錯(cuò)誤分類的情況

在SKNN中,設(shè)無(wú)標(biāo)記樣本x0,x1,…,xt,那么對(duì)待測(cè)樣本xt進(jìn)行分類的時(shí)候,考慮到xt與x0:t-1的樣本存在一定的相關(guān)性,為此SKNN采用聯(lián)合概率密度P(ωk|xt,x0:t-1)作為分類依據(jù),其中ω為類標(biāo)記。

首先從已標(biāo)記樣本集中找出與xt的k1+1個(gè)最近的樣本,用xt(1),xt(2),…,xt(k1+1)表示,類標(biāo)號(hào)為t(1),t(2),…,t(k1+1)。從無(wú)標(biāo)記樣本集中找出與待測(cè)樣本最近的k2個(gè)無(wú)標(biāo)記樣本,分別用xt-1,xt-2,…,xt-k2表示,組成測(cè)試樣本本序列。

接著用第k1+1個(gè)近鄰樣本xt(k1+1)到測(cè)試樣本xt的距離d(xt,xt(k1+1))來標(biāo)準(zhǔn)化前k1個(gè)近鄰樣本xt(1),xt(2),…,xt(k1)到測(cè)試樣本{xj,j=t,t-1,…,t-k2}的距離:

(1)

然后用高斯核函數(shù)核化標(biāo)準(zhǔn)后的距離:

(2)

最后確定xt樣本的類別表達(dá)式如下,具體推導(dǎo)見文獻(xiàn)[19]。

(3)

SKNN數(shù)據(jù)剪輯技術(shù)算法流程如下所示。

輸入:有標(biāo)記近鄰樣本數(shù)k1,無(wú)標(biāo)記近鄰樣本數(shù)k2,數(shù)據(jù)集D。

輸出:過濾后的樣本集Filtered_D。

過程:

forxi∈D

1)SKNN分類xi得到類標(biāo)號(hào)ti,依據(jù)式(1)~(3)。

2)如果ti與xi本身的類標(biāo)號(hào)不一致,則視xi為噪聲樣本,丟棄。

end

3 半監(jiān)督模糊C均值聚類

Gan等[17]提出用SFCM去輔助自訓(xùn)練方法,實(shí)驗(yàn)結(jié)果表明SFCM作為一種知識(shí)發(fā)掘工具,能挖掘大量無(wú)標(biāo)記樣本所暗含的數(shù)據(jù)空間結(jié)構(gòu)信息。新標(biāo)記的有標(biāo)記樣本不僅可以改善自訓(xùn)練方法,而且也可以改善SFCM的性能,從而讓SFCM更好地優(yōu)化自訓(xùn)練方法。SFCM損失函數(shù)如下:

(4)

其中:c為類別個(gè)數(shù),n為樣本個(gè)數(shù),m為參數(shù)。如式(4)所示,對(duì)于SFCM,m值的選取一直是一個(gè)棘手的問題,并且用歐氏距離來計(jì)算樣本間的距離,沒有考慮到樣本屬性之間的關(guān)聯(lián)性。Yin等[18]提出SMUC,它用正則熵的方法來解決SFCM的m值選取問題,同時(shí)用馬氏距離代替歐氏距離,考慮到實(shí)際應(yīng)用中屬性之間的關(guān)系,因此,NBSTSMUCSKNNDE用SMUC替代SFCM輔助自訓(xùn)練方法,能選出更具有信息量的無(wú)標(biāo)記樣本交給自訓(xùn)練方法進(jìn)行學(xué)習(xí)。SMUC推導(dǎo)如下。

給定先驗(yàn)隸屬度矩陣:

U′={uik′|uik′∈[0,1];i=1,2,…,n;k=1,2,…,c}

(5)

同時(shí)滿足如下條件:

(6)

首先獲得先驗(yàn)質(zhì)心:

(7)

接著計(jì)算協(xié)方差矩陣:

(8)

根據(jù)式(8)的協(xié)方差矩陣,給定兩個(gè)樣本x1,x2,馬氏距離計(jì)算如下:

(9)

SMUC的損失函數(shù)如下,其中等式右邊加入了熵正則表達(dá)式:

(10)

式(10)是一個(gè)凸優(yōu)化問題,進(jìn)行拉格朗日優(yōu)化:

(11)

根據(jù)式(11),對(duì)uik和vk求偏導(dǎo)后,得到隸屬度uik和vk的計(jì)算公式,如下:

(12)

(13)

SMUC算法流程如下所示。

輸入:數(shù)據(jù)集D,先驗(yàn)隸屬度uik′,聚類數(shù)量c。

輸出:成員隸屬度uik。

過程:

依據(jù)式(7)計(jì)算先驗(yàn)質(zhì)心。

依據(jù)式(8)計(jì)算協(xié)方差矩陣C。

while ‖uk-uk-1‖≥ε

依據(jù)式(12)計(jì)算uik。

依據(jù)式(13)計(jì)算vk。

end

4 算法流程

首先,NBSTSMUCSKNNDE用少量的有標(biāo)記樣本和大量的無(wú)標(biāo)記樣本進(jìn)行SMUC聚類,從而選出隸屬度高的無(wú)標(biāo)記樣本給NB自訓(xùn)練方法分類。然后,NBSTSMUCSKNNDE用SKNN數(shù)據(jù)剪輯技術(shù)來過濾掉聚類隸屬高但是NB自訓(xùn)練方法誤分類無(wú)標(biāo)記樣本。聚類隸屬度高的無(wú)標(biāo)記樣本,更接近每一個(gè)聚類簇的中心,這樣的無(wú)標(biāo)記樣本更好地反映了每一個(gè)聚類簇的結(jié)構(gòu)。如果把這些聚類隸屬度高的無(wú)標(biāo)記樣本正確標(biāo)記,并加入到訓(xùn)練集,能使訓(xùn)練集更好地代表原始樣本空間的結(jié)構(gòu),從而提高NB自訓(xùn)練方法的泛化性,但是聚類隸屬度高的無(wú)標(biāo)記樣本可能是每次自訓(xùn)練方法迭代中離決策邊界近的樣本,NB自訓(xùn)練方法難以把這樣聚類隸屬度高的樣本分類正確。如果錯(cuò)誤標(biāo)記這樣的樣本,然后加入到訓(xùn)練集,不僅會(huì)扭曲數(shù)據(jù)空間原始結(jié)構(gòu)而且會(huì)使NB自訓(xùn)練方法性能下降。SKNN數(shù)據(jù)剪輯技術(shù)能過濾掉聚類隸屬高但是NB自訓(xùn)練方法誤分類無(wú)標(biāo)記樣本,使標(biāo)記正確的所含信息量大的無(wú)標(biāo)記樣本加入到訓(xùn)練集,因此,本文提出的方法通過SMUC和SKNN數(shù)據(jù)剪輯技術(shù)結(jié)合的方式,既解決了自訓(xùn)練方法選出置信度高的無(wú)標(biāo)記樣本所含信息量不大的問題,又解決了自訓(xùn)練方法的錯(cuò)誤累積問題。新標(biāo)記的無(wú)標(biāo)記樣本加入到訓(xùn)練集,不僅可以提高自訓(xùn)練方法的性能,而且可以更好地讓半監(jiān)督聚類和數(shù)據(jù)剪輯為自訓(xùn)練方法服務(wù)。

NBSTSMUCSKNNDE算法流程如下所示。

輸入:有標(biāo)記樣本集L,無(wú)標(biāo)記樣本集U,有標(biāo)記近鄰樣本k1,無(wú)標(biāo)記近鄰樣本k2,參數(shù)ε1,參數(shù)ε2,參數(shù)η。

輸出:訓(xùn)練好的NB。

過程:

whileU集不為空

用樣本集L和U進(jìn)行SMCU聚類,選出隸屬度uik≥ε1的樣本集R1;

whileR1為空

ε1=ε1-0.05,選出隸屬度uik≥ε1的樣本集R1;

end

用樣本集L和U訓(xùn)練分類器NB,用訓(xùn)練后的分類器對(duì)R1分類,選出置信度大于ε2的樣本集R2,并得到其類標(biāo)號(hào)Tag2;

whileR2為空

ε2=ε2-0.05,選出置信度大于ε2的樣本集R2,并得到其類標(biāo)號(hào)Tag2;

end

用SKNN數(shù)據(jù)剪輯技術(shù)過濾掉R2中的噪聲樣本,得到可靠樣本集R3;

L=L+R3,U=U-R3;

end

5 實(shí)驗(yàn)仿真

為了說明本文算法的有效性,選用對(duì)比算法如下:

1)NB自訓(xùn)練(NB Self-Training, NBST)。

2)結(jié)合SFCM的NB自訓(xùn)練(NB Self-Training combined SFCM, NBSTSFCM)。

3)結(jié)合SMUC的NB自訓(xùn)練(NB Self-Training combined SMUC, NBSTSMUC)。

4)本文提出的結(jié)合SMUC和SKNN數(shù)據(jù)剪輯技術(shù)的NB自訓(xùn)練(Naive Bayes Self-Training combined SMUC and SKNN Data Editing, NBSTSMUCSKNNDE)。

實(shí)驗(yàn)數(shù)據(jù)集來源于UCI數(shù)據(jù)集,共8個(gè),如表1。把每一個(gè)數(shù)據(jù)集隨機(jī)分為測(cè)試集和訓(xùn)練集兩部分,其中訓(xùn)練集為80%,測(cè)試集為20%。在訓(xùn)練集中隨機(jī)選取10%的樣本作為初始化的有標(biāo)記樣本,其余樣本去除類標(biāo)記作為無(wú)標(biāo)記樣本。NBSTSFCM中的參數(shù)m=2。NBSTSMUCSKNNDE中的參數(shù)ε1=0.95,ε2=0.95,η=1,其他參數(shù)在各個(gè)數(shù)據(jù)集調(diào)整至最優(yōu)進(jìn)行實(shí)驗(yàn),如表2。實(shí)驗(yàn)重復(fù)10次,取10次的平均分類正確率±標(biāo)準(zhǔn)差,如表3所示。為了說明有標(biāo)記樣本數(shù)對(duì)算法的影響,圖2給出了當(dāng)初始化的有標(biāo)記樣本比例為10%~50%的時(shí)候,實(shí)驗(yàn)重復(fù)10次,4個(gè)算法在8個(gè)數(shù)據(jù)集上的平均分類正確率。

表1 UCI數(shù)據(jù)集描述

表2 實(shí)驗(yàn)參數(shù)設(shè)置

表3 有標(biāo)記率為10%時(shí),4個(gè)算法在8個(gè)數(shù)據(jù)集上的性能對(duì)比

從表3總體可以看出,當(dāng)有標(biāo)記樣本比例為10%的時(shí)候,本文提出的NBSTSMUCSKNNDE算法整體上性能好于對(duì)比算法。具體地看,當(dāng)有標(biāo)記樣本率為10%時(shí):在數(shù)據(jù)集Vertebral Column、Haberman’s Survival、Blood Transfusion Service Center、Breast Cancer Wisconsin (Original)和Indian Liver Patient Dataset上,本文提出算法均優(yōu)于對(duì)比算法;但在數(shù)據(jù)集IRIS、Seeds和Wine上,本文提出算法弱于對(duì)比算法。這可能是數(shù)據(jù)集IRIS、Seeds和Wine中的樣本數(shù)太少,用過少的有標(biāo)記樣本來指導(dǎo)SMUC聚類,難以找到信息量大的無(wú)標(biāo)記樣本給NB自訓(xùn)練標(biāo)記。而且在迭代初期,有標(biāo)記樣本過少也影響SKNN數(shù)據(jù)剪輯技術(shù)對(duì)無(wú)標(biāo)記樣本利用的準(zhǔn)確率,最終使SMUC和SKNN數(shù)據(jù)剪輯技術(shù)難以有效輔助NB自訓(xùn)練方法。在8個(gè)UCI數(shù)據(jù)集上,NBSTSFCM性能微弱于NBSTSMUC,這是因?yàn)镹BSTSMUC用SMUC代替SFCM,考慮到了實(shí)際應(yīng)用中屬性之間的關(guān)聯(lián)性。NBSTSFCM、NBSTSMUC的分類正確率在數(shù)據(jù)集Haberman’s Survival和Blood Transfusion Service Center上高于NBST,但在其他6個(gè)數(shù)據(jù)集上,分類正確率低于NBST。這是因?yàn)榫垲愃惴苓x出無(wú)標(biāo)記樣本中一些暗含數(shù)據(jù)空間結(jié)構(gòu)的樣本,但是這樣的樣本可能是NB自訓(xùn)練每次迭代很難正確標(biāo)記的樣本。如果用SKNN數(shù)據(jù)剪輯技術(shù)過濾掉這些樣本,則能更好地提高NB自訓(xùn)練性能,因此本文提出的NBSTSMUCSKNNDE優(yōu)于對(duì)比算法。

從圖2可以看出,在數(shù)據(jù)集Vertebral Column、Haberman’s Survival、Blood Transfusion Service Center、Breast Cancer Wisconsin (Original)和Indian Liver Patient Dataset上,本文提出的NBSTSMUCSKNNDE算法在有標(biāo)記樣本比例為10%~50%的情況下,分類正確率都優(yōu)于對(duì)比算法。雖然當(dāng)有標(biāo)記樣本為10%的時(shí)候,在IRIS、Seeds數(shù)據(jù)集上,和當(dāng)有標(biāo)記樣本比例為10%、20%的時(shí)候,在Wine數(shù)據(jù)集上,NBSTSMUCSKNNDE算法在分類正確率上低于NBST,但是隨著有標(biāo)記比例的增加,也能好于對(duì)比算法。這可能是因?yàn)镮RIS、Seed和Wine樣本量過少的緣故。同時(shí),當(dāng)有標(biāo)記樣本比例為10%~50%的情況下,NBSTSMUC在8個(gè)數(shù)據(jù)集上,整體性能也好于NBSTSFCM。這也證明了本文NBSTSMUCSKNNDE算法用SMUC的優(yōu)勢(shì)。

6 結(jié)語(yǔ)

本文針對(duì)自訓(xùn)練方法在迭代中選出的置信度高的無(wú)標(biāo)記樣本所含信息量不大和自訓(xùn)練方法容易誤標(biāo)記無(wú)標(biāo)記樣本的問題,提出NBSTSMUCSKNNDE算法。在自訓(xùn)練每次迭代中,該算法用SMUC選取暗含數(shù)據(jù)空間結(jié)構(gòu)信息的無(wú)標(biāo)記樣本給NB分類,同時(shí)用SKNN數(shù)據(jù)剪輯技術(shù)來過濾掉聚類信息量大但是NB誤分類的無(wú)標(biāo)記樣本。相比傳統(tǒng)的半監(jiān)督聚類,SMUC考慮到了實(shí)際應(yīng)用中屬性之間的關(guān)聯(lián)性,并且用熵正則化來優(yōu)化物理表達(dá)式,克服了SFCM難找到一個(gè)最優(yōu)參數(shù)來發(fā)掘更具有信息量的無(wú)標(biāo)記樣本的問題。同時(shí),本文首次提出了一種新的數(shù)據(jù)剪輯技術(shù),相比以往的數(shù)據(jù)剪輯技術(shù),SKNN能同時(shí)利用有標(biāo)記樣本和無(wú)標(biāo)記樣本信息進(jìn)行噪聲過濾,在有標(biāo)記樣本不足的情況下,它能利用額外的無(wú)標(biāo)記樣本信息來過濾掉自訓(xùn)練方法中誤標(biāo)記的無(wú)標(biāo)記樣本。最后在UCI數(shù)據(jù)集上驗(yàn)證了算法的有效性。在后續(xù)的工作中,將研究如何降低本文提出方法的時(shí)間復(fù)雜度和如何提高自訓(xùn)練方法在迭代中的預(yù)測(cè)準(zhǔn)確率問題。

References)

[1] YAROWSKY D. Unsupervised word sense disambiguation rivaling supervised methods [C]// ACL ’95: Proceedings of the 33rd Annual Meeting on Association for Computational Linguistics. Stroudsburg: Association for Computational Linguistics, 1995: 189-196.

[2] ZHU X, GOLDBERG A B, BRACHMAN R, et al. Introduction to Semi-Supervised Learning [M]. San Rafael, CA: Morgan and Claypool Publishers, 2009: 130.

[3] HADY M F A, SCHWENKER F. Co-training by committee: a new semi-supervised learning framework [C]// ICDMW ’08: Proceedings of the 2008 IEEE International Conference on Data Mining Workshops. Washington, DC: IEEE Computer Society, 2008: 563-572.

[4] WANG S, WU L, JIAO L, et al. Improve the performance of co-training by committee with refinement of class probability estimations [J]. Neurocomputing, 2014, 136(8): 30-40.

[5] LEWIS D D. Naive (Bayes) at Forty: the independence assumption in information retrieval [C]// ECML ’98: Proceedings of the 10th European Conference on Machine Learning. Berlin: Springer, 1998: 4-15.

[6] LIU K, GUO Y, WANG S, et al. Semi-supervised learning based on improved co-training by committee [C]// IScIDE 2015: Proceedings of the 5th International Conference on Intelligence Science and Big Data Engineering. Big Data and Machine Learning Techniques. Berlin: Springer, 2015: 413-421.

[7] SHI L, MA X, XI L, et al. Rough set and ensemble learning based semi-supervised algorithm for text classification [J]. Expert Systems with Applications, 2011, 38(5): 6300-6306.

[8] JOACHIMS T. A statistical learning model of text classification with support vector machines [C]// SIGIR ’01: Proceedings of the 24th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. New York: ACM, 2001: 128-136.

[9] JOACHIMS T. A probabilistic analysis of the Rochhio algorithm with TFIDF for text categorization [C]// ICML ’97: Proceedings of the Fourteenth International Conference on Machine Learning. San Francisco: Morgan Kaufmann, 1997: 143-151.

[10] HAJMOHAMMADI M S, IBRAHIM R, SELAMAT A, et al. Combination of active learning and self-training for cross-lingual sentiment classification with density analysis of unlabelled samples [J]. Information Sciences, 2015, 317: 67-77.

[11] LENG Y, XU X, QI G. Combining active learning and semi-supervised learning to construct SVM classifier [J]. Knowledge-Based Systems, 2013, 44(1): 121-131.

[12] COVER T M. HART P E. Nearest neighbor pattern classification [J]. IEEE Transactions on Information Theory, 1967, 13(1): 21-27.

[13] FAN X, GUO Z, MA H. An improved EM-based semi-supervised learning method [C]// IJCBS ’09: Proceedings of the 2009 International Joint Conference on Bioinformatics, Systems Biology and Intelligent Computing. Washington, DC: IEEE Computer Society, 2009: 529-532.

[14] FAN X, GUO Z, MA H. A semi-supervised text classfification method based on incremental EM algorithm [C]// ICIE ’10: Proceedings of the 2010 WASE International Conference on Information Engineering. Washington, DC: IEEE Computer Society, 2010: 211-214.

[15] 黎雋男,呂佳.結(jié)合主動(dòng)學(xué)習(xí)與置信度投票的集成自訓(xùn)練方法[J].計(jì)算機(jī)工程與應(yīng)用,2016,52(20):167-171.(LI J N, LYU J. Ensemble self-training method based on active learning and confidence voting [J]. Computer Engineering and Applications, 2016, 52(20): 167-171.)

[16] TRIGUERO I, SáEZ J A, LUENGO J, et al. On the characterization of noise filters for self-training semi-supervised in nearest neighbor classification [J]. Neurocomputing, 2014, 132(13): 30-41.

[17] GAN H, SANG N, HUANG R, et al. Using clustering analysis to improve semi-supervised classification [J]. Neurocomputing, 2013, 101(3): 290-298.

[18] YIN X, SHU T, HUANG Q. Semi-supervised fuzzy clustering with metric learning and entropy regularization [J]. Knowledge-Based Systems, 2012, 35(15): 304-311.

[19] 陳日新,朱明旱.半監(jiān)督K近鄰分類方法[J].中國(guó)圖象圖形學(xué)報(bào),2013,18(2):195-200.(CHEN R X, ZHU M H. Semi-supervisedK-nearest neighbor classification method [J]. Journal of Image and Graphics, 2013, 18(2): 195-200.)

[20] WILSON D L. Asymptotic properties of nearest neighbor rules using edited data [J]. IEEE Transactions on Systems Man & Cybernetics, 1972, SMC- 2(3): 408-421.

[21] TOMEK I. An experiment with the edited nearest-neighbor rule [J]. IEEE Transactions on Systems Man & Cybernetics, 1976, 6(6): 448-452.

[22] HATTOR K, TAKAHASHI M. A new editedk-nearest neighbor rule in the pattern classification problem [J]. Pattern Recognition, 2000, 33 (3): 521-528.

This work is partially supported by Chongqing Natural Science Foundation of China (cstc2014jcyjA40011), Science and Technology Project of Chongqing Municipal Education Commission (KJ1400513), Chongqing Scientific Research Project (CYS17176), Chongqing Normal University Research Project (YKC17001).

LYUJia, born in 1978, Ph. D., professor. Her research interests include machine learning, data mining.

LIJunnan, born in 1992, M. S. candidate. His research interests include machine learning, data mining.

猜你喜歡
訓(xùn)練方法分類
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
談高中數(shù)學(xué)習(xí)題訓(xùn)練方法與答題技巧
甘肅教育(2020年18期)2020-10-28 09:07:12
分類討論求坐標(biāo)
壁球反手擊球技術(shù)及其訓(xùn)練方法
跳遠(yuǎn)運(yùn)動(dòng)員專項(xiàng)力量訓(xùn)練方法
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
簡(jiǎn)論1min跳繩訓(xùn)練方法
鋼琴視奏訓(xùn)練方法探析
樂府新聲(2016年4期)2016-06-22 13:03:05
主站蜘蛛池模板: 伊人久久福利中文字幕| 国产一区二区三区在线观看视频| 波多野结衣一二三| 亚洲人成亚洲精品| 欧美中文字幕一区| 亚洲国产av无码综合原创国产| 色视频国产| 欧美视频在线播放观看免费福利资源 | 四虎精品黑人视频| 91精品情国产情侣高潮对白蜜| 久久国产精品嫖妓| 91九色视频网| 欧美综合区自拍亚洲综合天堂| 亚洲女同一区二区| 一本大道香蕉中文日本不卡高清二区 | 91视频日本| 国产精品第| 欧美一级99在线观看国产| 乱色熟女综合一区二区| 日韩激情成人| 中文字幕2区| 天天摸天天操免费播放小视频| 好吊色国产欧美日韩免费观看| 色噜噜狠狠色综合网图区| 这里只有精品在线播放| 99视频在线观看免费| 国产a v无码专区亚洲av| 韩日免费小视频| 久久久久免费精品国产| 国产区免费精品视频| 91精品专区国产盗摄| 乱系列中文字幕在线视频| 亚洲综合色吧| 91视频国产高清| 日本一区二区不卡视频| 天天综合色网| 国产精品自在在线午夜 | 久久久久亚洲精品成人网 | 欧美国产日韩在线| 欧美国产日韩一区二区三区精品影视| 尤物国产在线| 欧美成在线视频| 久久精品最新免费国产成人| 国产又爽又黄无遮挡免费观看 | 又爽又大又光又色的午夜视频| 国产精品毛片一区视频播| 欧美在线三级| 精品视频一区在线观看| 国产美女无遮挡免费视频| 蝌蚪国产精品视频第一页| 91国内视频在线观看| 久久精品这里只有国产中文精品| 97久久精品人人做人人爽| 经典三级久久| 国产精品污视频| 国产交换配偶在线视频| 波多野结衣久久高清免费| 中文国产成人久久精品小说| 中文字幕无线码一区| 国产在线观看精品| 中文字幕欧美成人免费| 亚洲女人在线| 综合久久久久久久综合网| 久草美女视频| 欧美在线网| 国产色婷婷视频在线观看| 亚洲美女一区二区三区| 成人av专区精品无码国产| 精品无码一区二区在线观看| 久久激情影院| 欧美亚洲国产一区| 日韩欧美中文| 国产成人一二三| 欧美国产日韩在线| 成人综合久久综合| 国内嫩模私拍精品视频| 五月天福利视频| 天天摸夜夜操| 麻豆精品视频在线原创| 毛片免费在线视频| 野花国产精品入口| a国产精品|