999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多維網(wǎng)格空間的改進K-means聚類算法

2018-11-22 09:37:54周新志趙成萍
計算機應(yīng)用 2018年10期

邵 倫,周新志,趙成萍,張 旭

(四川大學(xué) 電子信息學(xué)院,成都 610065)(*通信作者電子郵箱xz.zhou@scu.edu.cn)

0 引言

聚類算法是一種典型的無監(jiān)督學(xué)習(xí)算法,是利用樣本的特征比較樣本的相似性,將具有相似屬性的樣本劃分到同一類或簇中的算法[1-5]。聚類算法的應(yīng)用廣泛,在數(shù)據(jù)挖掘、信息檢索和圖像分割等方面都有重要的作用[6-11]。迄今為止已經(jīng)衍生出了眾多的聚類算法,這些算法可以分為劃分法、層次法、密度法、圖論法、網(wǎng)格法和模型法等[5,11-14]。K-means是一種典型的基于劃分的聚類算法[12,16-17],其應(yīng)用非常普遍,但是傳統(tǒng)的K-means算法存在一些不足之處,比如隨機選擇的初始聚類中心通常是不理想的,易使最后的聚類結(jié)果局部最優(yōu),而非全局最優(yōu);另外初始聚類中心選擇的不穩(wěn)定性,也會導(dǎo)致算法迭代次數(shù)及聚類結(jié)果的不穩(wěn)定[18-19]。很多研究人員對初始聚類中心的選擇提出了優(yōu)化的方法,文獻[11]中提出了一種基于最小生成樹的層次K-means聚類算法,文獻[20]中提出了一種基于最小方差優(yōu)化初始聚類中心的K-means算法,但是這些算法在初始聚類中心選擇的效果上仍不夠理想,聚類結(jié)果的穩(wěn)定性和準確性仍有待提高。

針對上述問題,本文提出了一種基于多維網(wǎng)格空間結(jié)構(gòu)優(yōu)化初始聚類中心的改進K-means聚類算法。此算法首先根據(jù)樣本集的屬性個數(shù)n,將樣本集映射到一個包含有限個子網(wǎng)格的n維網(wǎng)格空間結(jié)構(gòu)中。其映射流程如下:以樣本集中每一類屬性的最大值和最小值作為網(wǎng)格空間中每一維度的上邊界和下邊界;接著,根據(jù)樣本的類別數(shù)k,依次將每一維度均等切分成k等份;然后,計算出每個子網(wǎng)格中的樣本數(shù),選擇包含樣本數(shù)最多且距離較遠的k個子網(wǎng)格作為初始聚類中心網(wǎng)格,再計算初始聚類中心網(wǎng)格中樣本的均值點作為初始聚類中心;最后,依據(jù)距離作為相似性的評價標(biāo)準來迭代更新聚類中心,直到找出最終的聚類中心。相對于傳統(tǒng)的K-means算法中隨機選擇初始聚類中心的方法,本文算法基于多維網(wǎng)格空間目的性選擇的初始聚類中心與實際聚類中心接近,使得算法的迭代次數(shù)明顯減少,聚類結(jié)果穩(wěn)定且錯誤率較低。

1 多維網(wǎng)格空間的設(shè)計

需要進行聚類分析的數(shù)據(jù)集其數(shù)據(jù)量往往較大,并且數(shù)據(jù)屬性往往有多個,在這一大堆數(shù)據(jù)中隨機選擇初始聚類中心,通常很難選中與實際聚類中心相近的樣本點作為初始聚類中心。設(shè)想將數(shù)據(jù)集映射到一個多維的網(wǎng)格空間中,由于數(shù)據(jù)樣本各屬性值的差異,數(shù)據(jù)集就被分散到了多個小的子網(wǎng)格之中,那么數(shù)據(jù)集便以空間化的形式得到粒化。另外,由于數(shù)據(jù)集中包含多個不同類別的樣本,而不同類別的樣本間屬性值差異一般較大,因而分布在各個子網(wǎng)格中的樣本數(shù)必定會存在差異,而且在同一子網(wǎng)格中的樣本必定是距離相近的樣本,即同一子網(wǎng)格中的樣本很有可能屬于同一類別。由此,有理由認為含樣本數(shù)最多且距離較遠的子網(wǎng)格是包含有實際聚類中心或者與實際聚類中心接近的網(wǎng)格,那么在此子網(wǎng)格中選定初始聚類中心便是與實際聚類中心最接近的,此子網(wǎng)格亦被稱為初始聚類中心網(wǎng)格。

基于多維網(wǎng)格空間選擇初始聚類中心網(wǎng)格,其網(wǎng)格空間中子網(wǎng)格的個數(shù)對于選擇出完美的初始聚類中心網(wǎng)格至關(guān)重要:過多的子網(wǎng)格會使對樣本集的切分過度細化,出現(xiàn)較多包含樣本點個數(shù)無差異的子網(wǎng)格,對初始聚類中心網(wǎng)格的選擇產(chǎn)生干擾;過少的子網(wǎng)格又無法將樣本集中的所有類別完全切分開,出現(xiàn)一個子網(wǎng)格中包含較多多個類別的樣本,導(dǎo)致最終無法正確選擇初始聚類中心網(wǎng)格。如果按照數(shù)據(jù)集的類別數(shù)k來切分數(shù)據(jù)集,即將數(shù)據(jù)集所映射的多維空間結(jié)構(gòu)中每一維度均等切分為k份,則所得子網(wǎng)格數(shù)最為合理,切分好后多維網(wǎng)格空間的子網(wǎng)格數(shù)為kn(n為數(shù)據(jù)集的屬性個數(shù))。

1.1 二維網(wǎng)格空間

假設(shè)如圖1所示的樣本集為X={X(1),X(2), …,X(m)},包含m個樣本,共3類數(shù)據(jù)(即k=3),其中X(i)=(x(i),y(i))為單個樣本,并且包含x(i)和y(i)(i∈{1, 2, …,m})兩個屬性特征。那么將樣本集X映射到二維網(wǎng)格空間中,其每一維度均等切分3份,則切分后該二維網(wǎng)格空間包含9個同等形狀和大小的子網(wǎng)格,如圖2所示。其中,(x0,y0)小于或等于樣本集中最小的點,(x3,y3)大于或等于樣本集中最大的點,即:

?i∈{1,2,…,m},有

(1)

(2)

令屬性特征x(i)所代表的維度的切分步長為dx,屬性特征y(i)所代表的維度的切分步長為dy,有

dx=(xmax-xmin)/3

(3)

dy=(ymax-ymin)/3

(4)

易知,xi=xi-1+dx和yi=yi-1+dy,其中i∈{1, 2, 3}。

為了方便標(biāo)記二維網(wǎng)格空間中的子網(wǎng)格和記錄每個子網(wǎng)格中樣本點的個數(shù),以(x0,x1;y0,y1)表示圖2中左邊下方的子網(wǎng)格,在此表示形式中,x0和y0分別稱之為此子網(wǎng)格第1維度上和第2維度上的前界,x1和y1分別稱之為此子網(wǎng)格第1維度上和第2維度上的后界,將此子網(wǎng)格中的樣本點數(shù)記為w1;以(x0,x1;y1,y2)表示圖2中左邊中間的子網(wǎng)格,并將此子網(wǎng)格中的樣本點數(shù)記為w2;依照此法,最后(x2,x3;y2,y3)表示圖2中右邊上方的子網(wǎng)格,并將此子網(wǎng)格中的樣本點數(shù)記為w9。最終,可以得到樣本集X映射到二維網(wǎng)格空間后各個子網(wǎng)格中樣本點個數(shù)的分布為{w1,w2, …,w9},如圖2所示,虛線框所標(biāo)出的子網(wǎng)格(x0,x1;y2,y3)、(x1,x2;y0,y1)、(x2,x3;y2,y3)中的樣本點數(shù)分別為w3、w4、w9。可以看出這3個子網(wǎng)格中樣本數(shù)最多并且它們的距離較遠,故樣本集X的3個初始聚類中心網(wǎng)格就選擇這3個子網(wǎng)格。

圖1 二維屬性數(shù)據(jù)集Fig. 1 Data set with two-dimensional attribute feature

圖2 基于二維網(wǎng)格空間選擇初始聚類中心網(wǎng)格Fig. 2 Initial cluster center grid selection based on two-dimensional grid space

1.2 三維網(wǎng)格空間

三維網(wǎng)格空間的設(shè)計及數(shù)學(xué)描述與二維網(wǎng)格空間基本一致。假設(shè)如圖3所示的樣本集為X={X(1),X(2), …,X(m)},包含m個樣本,共3類數(shù)據(jù),其中X(i)=(x(i),y(i),z(i))為單個樣本,并且包含3個屬性特征x(i)、y(i)和z(i),i∈{1, 2, …,m}。那么將樣本集X映射到三維網(wǎng)格空間中,如圖4所示,該三維網(wǎng)格空間包含27個同等形狀和大小的子網(wǎng)格。其中,(x0,y0,z0)小于或等于樣本集中最小的點,(x3,y3,z3)大于或等于樣本集中最大的點,即

?i∈{1,2,…,m},有

(5)

(6)

令屬性特征x(i)所代表的維度的切分步長為dx,屬性特征y(i)所代表的維度的切分步長為dy,屬性特征z(i)所代表的維度的切分步長為dz,有

dx=(xmax-xmin)/3

(7)

dy=(ymax-ymin)/3

(8)

dz=(zmax-zmin)/3

(9)

易知,xi=xi-1+dx、yi=yi-1+dy和zi=zi-1+dz,其中i∈{1, 2, 3}。

同樣,為了方便標(biāo)記三維網(wǎng)格空間中的子網(wǎng)格和記錄每個子網(wǎng)格中樣本點的個數(shù),以(x0,x1;y0,y1;z0,z1)、(x0,x1;y0,y1;z1,z2)、…、(x2,x3;y2,y3;z2,z3)表示各個子網(wǎng)格,并且各個子網(wǎng)格中樣本點個數(shù)的分布為{w1,w2, …,w27}。如圖4所示,粗虛線框所標(biāo)出的子網(wǎng)格(x0,x1;y2,y3;z1,z2)、(x1,x2;y0,y1;z0,z1)和(x2,x3;y0,y1;z2,z3)中的樣本點數(shù)分別為w8、w10、w21,可以看出這3個子網(wǎng)格中樣本數(shù)最多并且它們的距離較遠,故樣本集X選擇這3個子網(wǎng)格作為初始聚類中心網(wǎng)格。

圖3 三維屬性數(shù)據(jù)集Fig. 3 Data set with three dimensional attribute feature

圖4 基于三維網(wǎng)格空間選擇初始聚類中心網(wǎng)格Fig. 4 Initial cluster center grid selection based on three-dimensional grid space

1.3 n維網(wǎng)格空間

?i∈{1,2,…,m},有

(10)

其中:j∈{1, 2, …,n}。

dj=(xj_max-xj_min)/k

(11)

其中:j∈{1, 2, …,n}。

記(x1_min,x1_min+d1;x2_min,x2_min+d2; …;xn_min,xn_min+dn)、 (x1_min,x1_min+d1;x2_min,x2_min+d2; …;xn_min,xn_min+2dn)、 …、 (x1_min+(ε-1)d1,x1_min+εd1;x2_min+(ε-1)d2,x2_min+εd2; …;xn_min+(ε-1)dn,xn_min+εdn)、 …、 (x1_min+(k-1)d1,x1_max;x2_min+(k-1)d2,x2_max; …;xn_min+(k-1)dn,xn_max)是各個子網(wǎng)格的表示形式,分號將子網(wǎng)格每一維度的前界和后界隔開,前界和后界又以逗號隔開,其中ε∈{1, 2, …,k},并且各個子網(wǎng)格中樣本點個數(shù)的分布為{w1,w2, …,wkn}。

在選擇初始聚類中心網(wǎng)格時,要考慮到的一個重要指標(biāo)是各初始聚類中心網(wǎng)格之間的距離要比較遠,下面給出此指標(biāo)的判斷公式:

令兩個子網(wǎng)格之間的距離為D,有

(12)

(13)

若D滿足式(14),則認為這兩個子網(wǎng)格之間的距離較遠。

?j∈{1,2,…,n},有

D≥(k/2)×max{dj}

(14)

2 K-means算法的改進

本文對傳統(tǒng)K-means算法的改進主要在于對初始聚類中心的選擇方式作出了良好的改進,傳統(tǒng)K-means算法是通過隨機的方式選擇出k個初始聚類中心,而本文算法是基于多維網(wǎng)格空間結(jié)構(gòu)選擇出k個初始聚類中心,多維網(wǎng)格空間以子網(wǎng)格的形式將數(shù)據(jù)集中屬性相似的樣本包裹、屬性差異較大的樣本隔離,此方法選擇出來的初始聚類中心擺脫了隨機性,并且基本接近實際的聚類中心。

算法具體流程:

1)輸入包含m個樣本的數(shù)據(jù)集X={X1,X2, …,Xm},其中每一個樣本Xi為n維向量,其中n為樣本屬性個數(shù),i∈{1, 2, …,m}。

2)初始化樣本類別k,將數(shù)據(jù)集映射到虛擬的n維網(wǎng)格空間結(jié)構(gòu)中。

詳細步驟:首先,找到第1個屬性的最大值和最小值,根據(jù)式(11)計算出步長,按照該步長將數(shù)據(jù)集分成k份;然后,再找到第2個屬性的最大值和最小值,計算出步長,按照該步長將上一步分得的k份中的每一份再分成k份;依次遞推,直到將數(shù)據(jù)集分成kn份,即完成將數(shù)據(jù)集映射到n維網(wǎng)格空間結(jié)構(gòu)中了。

3)根據(jù)上一步構(gòu)造網(wǎng)格空間結(jié)構(gòu)的遞進規(guī)則,依次計算每一個子網(wǎng)格中樣本點的個數(shù),得到{w1,w2, …,wkn}。

4)選擇k個包含樣本數(shù)最多,且兩兩之間距離D滿足式(14)的初始聚類中心網(wǎng)格{G1,G2, …,Gk},再在各初始聚類中心網(wǎng)格中計算出其內(nèi)含樣本點的均值點,得到k個初始聚類中心{C1,C2, …,Ck},即:

其中:q∈{1,2,…,k};|Xi∈Gq|表示Gq所包含樣本的個數(shù)。

5)依據(jù)K-means算法迭代步驟,更新聚類中心,直到最終聚類中心不再改變便停止迭代。

計算每個樣本與每個初始聚類中心之間的相似度,將樣本劃分到最相似的類別中,即,若Xi與Cq之間歐氏距離d(Xi,Cq)最小,則Xi屬于類別Cq。

計算劃分到每個類別中的所有樣本特征的均值,并將各均值作為各類新的聚類中心,重復(fù)步驟5)直到最終的聚類中心不再改變或達到最大迭代次數(shù)時停止更新聚類中心,即新的聚類中心有:

6)輸出最終的聚類中心,以及每個樣本所屬的類別。

本文算法主要由兩部分組成:第一部分是選擇初始聚類中心,時間主要花費在將數(shù)據(jù)集映射到多維網(wǎng)格空間上,這部分的時間復(fù)雜度為O(knm);第二部分是根據(jù)初始聚類中心來迭代更新聚類中心,這部分的時間復(fù)雜度與傳統(tǒng)K-Means算法的時間復(fù)雜度一樣為O(tknm)。兩部分的時間復(fù)雜度相加即為本文算法的時間復(fù)雜度,所以本文算法的時間復(fù)雜度為O(tknm);另外,空間復(fù)雜度為O((k+m)×n),其中:t表示迭代次數(shù),k表示樣本集類別個數(shù),n表示樣本屬性個數(shù),m表示樣本數(shù)。

3 實驗結(jié)果與分析

為了充分驗證本文算法的效果,實驗分為兩個階段:第一階段采用計算機模擬的二維數(shù)據(jù)集作為實驗數(shù)據(jù),對傳統(tǒng)的K-means算法和本文的基于多維網(wǎng)格空間的改進K-means算法進行可視化對比;第二階段采用三個UCI數(shù)據(jù)集作為實驗數(shù)據(jù),分別對傳統(tǒng)K-means算法、文獻[11]算法、文獻[20]算法和本文算法進行對比。實驗環(huán)境是Windows 10操作系統(tǒng),Intel Core i7-8550U處理器,8 GB內(nèi)存,Python編程語言。

3.1 模擬數(shù)據(jù)集測試實驗

計算機模擬的數(shù)據(jù)集具有4個類別,包含80個二維數(shù)據(jù),如圖5所示。通過此數(shù)據(jù)集分別對K-means算法和本文提出的改進算法進行聚類實驗,各經(jīng)過60次重復(fù)實驗后,在實驗結(jié)果中各隨機挑選三組,如圖6所示是K-means算法得到的三組實驗結(jié)果。圖7所示是本文的改進算法得到的三組實驗結(jié)果,其中十字點為初始聚類中心,星形點為最終的聚類中心。對比這三組實驗結(jié)果可以看出,K-means算法的初始聚類中心選擇的隨機性導(dǎo)致了迭代次數(shù)和聚類結(jié)果的不穩(wěn)定,其中圖6(b)所示的聚類結(jié)果B陷入了局部最優(yōu),與實際聚類中心的偏離非常大;而本文的改進算法的初始聚類中心非常穩(wěn)定且與實際聚類中心距離較近,故算法迭代次數(shù)較少,最終的聚類結(jié)果準確和穩(wěn)定。

圖5 模擬的二維數(shù)據(jù)集Fig. 5 Simulated two-dimensional data set

3.2 UCI數(shù)據(jù)集測試實驗

表1 UCI數(shù)據(jù)集描述Tab. 1 UCI data set description

三個UCI數(shù)據(jù)集Iris、Wine和Seeds的描述如表1所示。利用這三個數(shù)據(jù)集分別對傳統(tǒng)K-means算法、文獻[11]算法、文獻[20]算法和本文算法進行了40次重復(fù)實驗,記錄每一次的迭代次數(shù)和錯誤率,實驗結(jié)果如表2所示。從表2中四種算法的迭代次數(shù)可以看出,K-means算法的最大迭代次數(shù)基本都是最小迭代次數(shù)的4倍左右,迭代次數(shù)的不穩(wěn)定是較為突出的問題;而本文算法的迭代次數(shù)是穩(wěn)定不變的,非常接近K-means算法的最小迭代次數(shù)且略小于文獻[11]和文獻[20]算法的迭代次數(shù)。實驗結(jié)果表明基于多維網(wǎng)格空間選擇初始聚類中心對算法的收斂速度有較為明顯的提升。

表2 4種算法在不同數(shù)據(jù)集上的實驗結(jié)果Tab. 2 Experimental results of four algorithms on different data sets

圖6 K-means算法隨機抽取的三組實驗結(jié)果Fig. 6 Three groups of randomly selected experimental results of K-means algorithm

再對比四種算法的錯誤率,可以發(fā)現(xiàn)K-means算法的最大錯誤率一般是最小錯誤率的2到3倍;而本文算法的錯誤率穩(wěn)定不變,并且都低于K-means、文獻[11]和文獻[20]算法的平均錯誤率。

圖7 改進的K-means算法隨機抽取的三組實驗結(jié)果Fig. 7 Three groups of randomly selected experimental results of the improved K-means algorithm

4 結(jié)語

本文提出的基于多維網(wǎng)格空間優(yōu)化的K-means算法,其核心是通過多維網(wǎng)格空間分解數(shù)據(jù)集,凸顯同類別數(shù)據(jù)之間的凝聚性和不同類別數(shù)據(jù)之間的距離差,從而選擇出與實際聚類中心較為接近的初始聚類中心,克服了傳統(tǒng)K-means算法易陷入局部最優(yōu),算法迭代次數(shù)和聚類結(jié)果不穩(wěn)定的缺點。本文算法的聚類結(jié)果仍然依賴于距離作為相似性的度量方式,在接下來的工作中,將重點研究相似性的度量方式,在距離的基礎(chǔ)上再綜合考慮密度和屬性間的相關(guān)系數(shù)等,探求從單一的相似性度量方式轉(zhuǎn)變?yōu)榫C合的相似性度量方式,以實現(xiàn)更低錯誤率的聚類結(jié)果。

主站蜘蛛池模板: 天堂va亚洲va欧美va国产| 国产男女XX00免费观看| 亚洲欧美日韩久久精品| 久久久久久久蜜桃| 国产a网站| 国产精品性| 2020国产在线视精品在| 久久国产高清视频| 精品国产aⅴ一区二区三区| 亚洲精品无码AV电影在线播放| 欧洲一区二区三区无码| 在线无码九区| 欧美精品在线免费| 日韩欧美国产成人| 久久青草免费91观看| 国产成人精品在线| 欧美亚洲香蕉| 欧美一区二区三区欧美日韩亚洲| 一级成人欧美一区在线观看| 国产裸舞福利在线视频合集| 国产毛片久久国产| 日韩少妇激情一区二区| 日韩在线观看网站| 人妻少妇久久久久久97人妻| 手机在线免费毛片| 91丝袜在线观看| 香蕉eeww99国产精选播放| 日日碰狠狠添天天爽| 免费在线观看av| 精品少妇人妻无码久久| 亚洲天堂久久| 欧美日韩va| 国产精品亚洲一区二区在线观看| 国产成人毛片| 精品久久高清| 日韩无码黄色| 99国产精品免费观看视频| 久久影院一区二区h| 亚洲人成网址| 婷婷色中文网| 亚洲视频色图| a级毛片免费网站| 国产精品欧美激情| 在线视频亚洲色图| 毛片大全免费观看| av免费在线观看美女叉开腿| 69综合网| 国禁国产you女视频网站| 国产精女同一区二区三区久| 亚洲国产成人自拍| 欧美一级黄片一区2区| 国产精品妖精视频| 国产精品无码AV中文| 国产成人综合亚洲网址| 成人免费视频一区| 中文字幕 欧美日韩| 女人一级毛片| 夜夜高潮夜夜爽国产伦精品| 国产福利微拍精品一区二区| 天天综合网色中文字幕| 在线观看国产网址你懂的| 亚洲精品另类| 日本精品αv中文字幕| 欧美色香蕉| 波多野结衣无码AV在线| 一级一级特黄女人精品毛片| 久操线在视频在线观看| 欧美黄色网站在线看| 国产精品9| 一级一级一片免费| 国产爽爽视频| 一级毛片免费不卡在线| 成人免费一区二区三区| 毛片手机在线看| 欧美日韩一区二区三区在线视频| 国产97视频在线观看| 国内精品久久人妻无码大片高| 波多野结衣中文字幕一区二区| 黄色三级网站免费| 久久久久免费精品国产| 伊人成人在线视频| 欧美黑人欧美精品刺激|