999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于密度期望和有效性指標的K-均值算法

2013-07-20 02:34:04何云斌肖宇鵬萬靜李松
計算機工程與應用 2013年24期
關鍵詞:有效性

何云斌,肖宇鵬,萬靜,李松

哈爾濱理工大學計算機科學與技術學院,哈爾濱 150080

基于密度期望和有效性指標的K-均值算法

何云斌,肖宇鵬,萬靜,李松

哈爾濱理工大學計算機科學與技術學院,哈爾濱 150080

1 引言

所謂聚類,就是根據事物的某些屬性,將其劃分為若干類,使得類內相似性盡量大,類間相似性盡量小。聚類是一種無監督分類方法,其對數據及分析人員的專業相關知識要求較少,因而其相關技術在統計、模式識別、機器學習和數據挖掘等諸多領域中都有極其廣泛的應用前景[1]。通過適當的聚類,可以發現同類事物共同性質的特征型知識,以及不同類事物之間的差異型知識。為了對數據對象進行聚類,目前已經提出許多有效的聚類算法,例如基于層次的CURE[2]算法,基于劃分的K-Means[3]算法,基于密度的DBSCAN[4]算法,基于網格的STING[5]算法,基于模型的COBWEB[6]算法等。

在諸多聚類算法中,K-均值聚類算法是使用最為廣泛的算法之一。該算法對大型數據集的處理效率較高,特別是當簇群密集,簇間距離較大時,能得到較好的聚類效果。傳統K-均值算法的初始聚類中心點是從數據集中隨機產生的,因此在聚類過程中容易陷入局部最優解,并且聚類結果不穩定。針對上述缺點,文獻[7]中Likas等人提出了全局K-均值算法,通過不斷迭代的方式最終確定最佳初始聚類中心;文獻[8]提出了基于可變閥值的初始聚類中點選取方法,選擇較為分散的樣本作為初始聚類中心,以增加找到全局最優解的可能性;文獻[9]對最大最小距離算法進行了改進,選取到所有已初始化聚類中心距離最大的高密度點作為當前聚類中心;文獻[10]引入特征選擇和特征賦權思想,提出了基于密度的初始中心點選取算法和改進的特征賦權K-均值算法;文獻[11]將免疫原理的選擇操作機制引入遺傳算法中,利用遺傳算法全局尋優能力和K-均值算法的高效性,較好地解決了聚類中心優化的問題;文獻[12]提出了一種改進人工蜂群算法與K-均值相結合的混合聚類方法,將蜂群算法全局尋優能力與局部尋優能力的優點與K-均值算法收斂速度快的優點相結合,克服了傳統K-均值聚類算法穩定性差的缺點。此外,對于實際問題中聚類數目的適當選取也是獲取高精度聚類結果的關鍵因素之一。但多數情況下,聚類數k無法預先確定。對于有效聚類數k值的選取,李永森,楊善林等[13]提出了距離代價函數,綜合了類間距離與類內距離,并證明了當距離代價函數最小時,可得到最佳聚類數k;汪中等[14]學者在距離代價函數的基礎上,提出了新的評價函數,即均衡化函數,以均衡化函數為準則自動生成有效聚類數目;文獻[15]則利用二分思想遞歸分裂簇內相似度大于給定閥值的簇,合并簇間相似度小于給定閥值的簇,從而最終確定有效的聚類數;此外,諸如Silhouette[16]、Calinski-Harabasz[17]、In-Group Proportion[18]、Davies-Bouldin[19]、Dunn[19]等學界公認較為優秀的聚類有效性指標函數也常用于評價聚類結果,并根據評價的結果來確定最優的k值。

本文首先提出了基于密度期望的初始聚類中心點選取方法。該方法消除了傳統K-均值算法對初始聚類中心點選取的盲目性,并且有效地減少了聚類的迭代次數,同時還獲得了更穩定的聚類結果。在上述基礎上,本文還給出了一種基于密度期望和聚類有效性指標函數的K-均值優化算法。該算法對于不同的k值,首先使用基于密度期望的方法選取k個初始聚類中心點,其次對樣本集進行聚類,最后通過聚類有效性指標分析每次聚類的結果,從而確定最佳有效聚類數。

2 傳統K-均值聚類算法

式中,nj表示聚類子集Cj中樣本的數量。

傳統K-均值聚類算法基本思想:首先隨機地從樣本空間中選取k個初始聚類中心;通過式(1)計算對象間的距離,根據距離最小的原則,將每個對象分配給距離最近的初始代表點所在的聚類簇Cj;完成數據樣本劃分后,對每一個聚類簇計算簇中所有對象的平均值cj,并將其作為新的簇中心點;通過不斷迭代對樣本數據進行劃分,直至劃分的結果不再發生變化,即誤差平方和準則函數E的值達到最優。誤差平方和準則函數定義為:

式中,xi為空間的點,即數據對象,ci是簇Ci的平均值。E越大說明對象與聚類中心的距離越大,簇內的相似度越低;E越小說明簇內的相似度越高。

算法描述如下:

從算法的第一步可以看出,在聚類數目k值事先確定的情況下,初始中心點的選取是隨機的。這就可能造成在同一類別中的樣本被強行當做兩個類的初始聚類中心,如圖1中的紅色樣本數據,其中有兩個黑色樣本點被強行選做兩個類的初始聚類中心。因此在圖2中,最終使得聚類結果只能收斂于局部最優。故而,K-均值算法的聚類效果在很大程度上依賴于初始聚類中心的選擇。

圖1 初始中心點隨機選取情況

圖2 聚類結果的局部最優

3 基于密度期望的初始中心點選取

對于傳統的K-均值聚類算法,隨機選取初始的聚類中心往往不能較好地反映數據的分布情況,因而得到的聚類結果往往也是局部最優的。通常希望所選取的初始聚類中心較為分散,但在一般的基于貪心算法的初始中心點搜索過程中,由于僅考慮距離因素,往往找到許多孤立點作為初始聚類中心點,不利于算法的聚類[15]。因此在選擇聚類初始中心點時,如果同時考慮距離和密度兩個因素,則可有效改善初始聚類中心點的選取效果。這里所提及的密度是指樣本的密度,具有統計的性質,即對于待聚類樣本中的某一對象,在其給定的鄰域有效半徑r中包含的樣本數目,即為該樣本點的密度。此外,期望所選取的最大樣本密度應小于或等于聚類簇中樣本的數量。因為這樣的一組樣本點在鄰域有效半徑r作用下,能較好地反映該聚類簇的分布情況。特別是對于每一個聚類簇中樣本數量大致相當的情況下,如圖3中所示,所選取的一組樣本點,在半徑r的鄰域內包含了其所屬聚類簇中樣本的70%左右。因此可以看出該組樣本點能有效地代表其所屬聚類簇中的所有樣本。因而在聚類數k已知的情況下,可以通過計算樣本總數n和k值,進而得到每一個聚類簇中大致期望的樣本平均個數,同時對其附加最大及最小期望系數,即為樣本點密度范圍的上、下限。隨后從最大與最小密度期望之間選取相距最遠的k個對象作為初始聚類中心。這樣不僅能有效避免所選取的樣本點過分密集,同時還屏蔽了異常數據對算法結果的影響。

圖3 鄰域半徑r下的樣本密度

3.1 基本定義

已知樣本數據集X={x1,x2,…,xn}為m維空間的n個對象。

定義1(樣本密度)對于空間中任意樣本xi和鄰域有效半徑r,以樣本xi為中心,半徑為r的區域中樣本點個數稱為樣本xi基于距離r的密度,計為Density(xi),即

Density(xi)={p∈X|Dist(xi,p)≤r}(4)式中,r為鄰域有效半徑,Dist(xi,p)為數據集中任意兩點的歐氏距離,其定義如2章中的式(1)。

定義2(鄰域半徑)鄰域有效半徑r定義為:

式中,θ為半徑調節參數;n為樣本個數;xi,xj為樣本對象。

聚類對象的有效鄰域半徑r以n個樣本的均方根距離為基礎,這是由于樣本的均方根距離能較好地反映樣本的離散程度,通過調節參數θ來調節半徑r的大小,使得半徑r保持在一個合理的范圍內。

定義3(密度期望)密度期望范圍定義為:

3.2 基于密度期望的初始中心點選取方法

設樣本數據集X={x1,x2,…,xn}為m維空間的n個對象,現將對其聚成k類;集合D包含樣本密度在密度期望區間范圍內的樣本點;集合U保存所選取的初始聚類中心。

算法的基本思想是:計算樣本總數n和k值,得到每個類簇中大致期望的樣本平均個數,并對其附加最大及最小期望系數,從而得到密度期望區間的上下限;其次計算數據集中所有樣本的密度,將介于密度期望區間范圍內的樣本添加到集合D中;接著從集合D中選取密度最大的樣本點d1作為第一個初始聚類中心點,并添加到集合U中,此時D=D-{d1},U=U∪{d1};然后不斷從集合D中選取距集合U中所有樣本平均距離最遠的樣本di,作為第i個初始聚類中心點添加到集合U中,有D=D-{di},U=U∪{di},直至集合U中的樣本數等于k為止。最后,以集合U中的k個樣本作為初始聚類中心,按照K-均值算法進行聚類分析。

算法描述:

算法中,選取處于密度期望范圍內相距最遠的k個對象作為初始聚類中心點,這些中心點能較好地反映數據的分布,使聚類結果具有較好的穩定性。但是有效鄰域半徑調節參數θ是未知的,是根據實驗數據選取的,其數值的大小會對有效鄰域半徑r產生影響。這是因為r過大或者過小都會使聚類結果較差,故而要求有效鄰域半徑r的取值應能良好地反映樣本在空間的分布情況。通常有效鄰域半徑調節參數θ是基于經驗選取的,θ滿足0<θ<1。

傳統K-均值算法的時間復雜度為O(nkt),其中n是所有樣本數目,k是聚類數目,t是迭代的次數[20]。在基于密度期望的改進K-均值算法中,計算樣本密度時需要事先計算所有樣本之間距離,其時間復雜度為O(n2),因此該算法的時間復雜度為O(n2+nkt),即O(n2)。

4 基于密度期望和聚類有效性指標函數的k值優化

對于有效聚類數k值的選取,目前通常的做法是要預先確定其最佳搜索范圍[kmin,kmax]的上、下限,而后在從中選取合適的數值作為最佳有效聚類數。其中對于最佳搜索范圍下限kmin有,當kmin=1時,表明樣本是均勻分布的,無明顯特征差異。因此通常聚類數k最小為2,即kmin=2[21]。而對kmax的確定尚無明確的理論指導,其中Frey等人在文獻[22]中提出了近鄰傳播聚類算法(Affinity Propagation clustering),簡稱AP算法,將該算法產生的聚類數作為聚類數搜索范圍的上限kmax。此外,更多采用的是通過經驗規則來確定聚類數搜索范圍的上限kmax,即kmax≤n。于劍等在文獻[23]中給出了確定kmax新方法,該方法證明了規則kmax≤n具有一定的理論依據,并在文獻中驗證了新方法的有效性。楊善林等[13]提出了運用距離代價函數確定最優的k值,同時還給出了k值最優解kopt及其上界kmax的條件,并證明了規則的合理性。

4.1 聚類有效性指標函數

當確定有效聚類數目k的搜索范圍后,選擇合適的聚類有效性指標是尤為關鍵的。聚類有效性指標主要有兩類,即外部有效性指標和內部有效性指標。當原始數據劃分是已知的情況下,外部有效性指標反映了聚類劃分結果與原始數據劃分之間的吻合度;內部有效性指標則是在原始數據劃分未知的情況下評價聚類結果好壞的一個度量。因而對于有效聚類數目k的確定,可借助內部有效性指標來實現。通過對不同k值下聚類有效性指標的計算,將最優聚類結果所對應的聚類數目作為最佳聚類數,從而最終確定有效的k值。目前在常用的聚類有效性指標函數中Silhouette[17]指標以其較優良的性能及較低的計算復雜度,得到了廣泛的應用。Silhouette指標是一種復合型指標,Silhouette指標定義如下:

假設樣本xi屬于簇Ci,a(xi)表示樣本xi到Ci中其余樣本的平均距離;b(xi)表示樣本xi到其他每個類中樣本的平均距離的最小值。即有:

每個樣本的Silhouette指標值介于[-1,1]的區間內,當Sil(xi)接近于1時,表明樣本xi歸到簇Ci是適合的;當Sil(xi)近似于0時,表明樣本xi可能屬于距離簇Ci最近的類簇中;當Sil(xi)近似于-1時,表明樣本xi被錯到類簇Ci中。因此,Silhouette指標既能反應出目標樣本跟其所屬簇內樣本的相似程度,也能反應出目標樣本跟其他簇中樣本的不相似程度。同樣的對于樣本任何的一次劃分,如果求出該劃分結果中所有樣本的Silhouette平均值,就能夠了解到該劃分的優劣。全部樣本的Silhouette平均值定義如下:

式中,n表示樣本數量。Silhouette平均值越大表示聚類結果質量越好,其最大值所對應的類數就是期望的最佳聚類數。結合調研資料和相關實驗分析,認為Silhouette指標作為K-均值算法聚類結果評價指標是合適的。

4.2 基于密度期望和有效性指標函數的K-均值優化算法

基于密度期望和有效性指標函數的k值優化算法的基本思想是:首先確定最佳聚類數k的搜索范圍[kmin,kmax],根據不同的k值,首先通過基于密度期望原則選取k個初始聚類中心點;其次使用傳統的K-均值聚類算法聚類;計算每次聚類的有效性指標——Silhouette指標值;最后分析聚類結果,根據最大Silhouette平均值確定最優聚類數。容易分析得出基于密度期望和有效性指標函數的k值優化算法的復雜度為O(n2)。該算法的描述如下:

5 實驗結果與分析

本文實驗分為兩部分,第一部分將傳統K-均值算法與基于密度期望的改進K-均值算法進行比較,所采用的測試數據集是UCI中的Iris、Glass、Wine、Balance-scale 4組數據。第二部分是在基于密度期望的改進K-均值算法的基礎上,采用聚類有效性Silhouette指標確定最佳聚類數的實驗,所采用的人工數據集DataSet1,DataSet2。數據集描述如表1所示。

表1 實驗數據

5.1 基于密度期望改進K-均值算法實驗與分析

實驗分別從類間距、類內距、正確率和迭代次數四個方面對比了改進的K-均值算法和傳統的K-均值算法,并給出分析結果。將基于密度期望的改進K-均值算法中數據對象的密度期望系數鎖定在0.7至0.9之間,即γmin=0.7,γmax=0.9;設定Iris數據集半徑調節系數θ=0.4,Wine數據集半徑調節系數θ=0.7,其余兩個數據集的半徑調節系數θ= 1;進行聚類分析并記錄聚類結果。此外,運用傳統K-均值算法對上述數據集進行10次獨立聚類實驗,記錄每次實驗結果,并求其結果的平均值與基于密度期望的改進K-均值算法所獲得的結果進行比較。實驗結果對比分析如表2所示。

表2 新舊算法聚類性能實驗對比

由本實驗所得的結果可以看出,基于密度期望的改進K-均值算法的各項聚類評價指標均優于傳統K-均值聚類算法。其中基于密度期望的改進K-均值算法的實驗結果中類間距相對更大,類內距相對更小,實驗結果的正確率要高于傳統K-均值算法,而迭代次數也有所減少。這是因為基于密度期望的改進K-均值算法所選取的初始聚類中心點更加穩定,其選取結果基本符合數據的實際分布情況,從而幫助算法更加高效、快速地向最優逼近,最終提高了其聚類性能。

5.2 最佳聚類數確定的實驗與分析

在基于密度期望的改進K-均值算法的基礎上,采用聚類有效性Silhouette指標確定最佳聚類數,并將實驗結果與隨機確定初始聚類中心點的計算結果對比,考察兩種不同方法對Silhouette指標的影響。實驗采用人工生成的數據集DataSet1、DataSet2。此外,本實驗還給出了兩種初始中心點選取方法下聚類結果的直觀對比。

根據樣本數據總量確定DataSet1的聚類數搜索范圍為[2,48];DataSet2的聚類數搜索范圍為[2,62]。將基于密度期望的改進K-均值算法分別應用于數據集DataSet1、DataSet2中,其類數與Silhouette指標的關系如圖4、圖5所示。將隨機確定初始聚類中心點的方法分別應用于數據集DataSet1,DataSet2中,其類數與Silhouette指標的關系圖如圖6、圖7所示。表3給出了上述兩種初始聚類中心選取方法下的最佳聚類數實驗結果。結合表3分析可得:圖4中數據集DataSet1最佳聚類數為3,其對應的Silhouette指標為0.792 8;在圖5中,數據集DataSet2最佳聚類數為4,其對應的Silhouette指標取到最大的0.755 7。可以得出改進后的算法,依據Silhouette指標可以得到準確的聚類數目。然而圖6中數據集DataSet1在隨機初始中心點選取方法下,其最佳聚類數為4,其對應的Silhouette指標為0.780 1;圖7中,數據集DataSet2的最佳聚類數為5,其對應的Silhouette指標取為0.677 9。均未得到正確的聚類數目。

圖4 基于密度期望的改進K-均值算法下DataSet1聚類數-Silhouette指標關系圖

圖6 基于傳統K-均值算法下DataSet1聚類數-Silhouette指標關系圖

圖5 基于密度期望的改進K-均值算法下DataSet2聚類數-Silhouette指標關系圖

圖7 基于傳統K-均值算法下DataSet2聚類數-Silhouette指標關系圖

表3 基于不同初始中心點選取方法得到的最佳聚類數

此外,采用基于密度期望的初始中心點選取方法,所得到的兩個人工數據集的聚類效果分別如圖8,圖9所示。結果表明采用基于密度期望的改進K-均值算法能得到最佳聚類效果。表4給出了兩種方法下的聚類準確率和迭代次數。可以看出在對于類內緊湊,類間遠離的聚類結構時,基于密度期望的K-均值改進算法得到的聚類結果是唯一確定且正確合理的。而采用隨機方法確定初始聚類中心點得到的聚類效果往往欠佳。

圖8 數據集DataSet1的聚類效果圖

圖9 數據集DataSet2的聚類效果圖

表4 基于不同初始中心點選取方法得到的聚類準確率和迭代次數

實驗結果表明:基于密度期望的初始中心點的選取方法結合聚類有效性指標Silhouette指標能夠得到正確的最佳聚類數。而基于隨機初始中心點選取方法則很難得到正確的最佳聚類數。

6 結束語

傳統K-均值聚類算法在聚類數目k已知的情況下,通過隨機選取k個樣本作為初始聚類中心,聚類結果受初始聚類中心影響較大,容易陷入局部最優。提出將樣本對象的密度鎖定在一個合理的期望范圍內,從中選取k個相距最遠的對象作為初始中心點。能有效地降低初始中心點的敏感性。實驗表明,基于密度期望的初始中心點的選取方法能獲得較為穩定且高質量的聚類效果。此外,結合本文提出的基于密度期望的初始中心點選取方法,通過聚類有效性Silhouette指標分析聚類結果,從而確定最佳聚類數,可有效改善K值無法預先確定的缺點。實驗分析結果驗證了所提出方案的可行性。該方案及實驗結果對K-均值聚類算法的進一步研究,具有一定的理論和實踐參考價值。

[1]張志兵.空間數據挖掘及其相關問題研究[M].武漢:華中科技大學出版社,2011:20-21.

[2]Guha S,Rastogir,Shmk.Cure:an efficient clustering algorithm for large databases[C]//Proceedings of the ACM SIGMOD International Conference on Management of Data.New York:ACM Press,1998:73-84.

[3]Mac Q J.Some methods for classification and analysis of multivariate observations[C]//Proceedings of the 5th Berkeley Symposium on Mathematical Statistics and Probability.USA:University of California Press,1967:281-297.

[4]Ester M,Hans P K,Sander J,et a1.A density based algorithm for discovering clusters in large spatial databases with noise[C]// Proceedings of the 2nd International Conference on Knowledge Discovery and Data Mining(KDD-96),Portland,1996:226-231.

[5]Wang W,Yang J,Muntz R.Sting:a statistical information grid approach to spatial data mining[C]//Proceedings of the 23rd IEEE International Conference on Very Large Data Bases,Athens,1997:186-195.

[6]Kohonen T.Self organized formation of topologically correct feature maps[J].Biological Cybernetics,1982,43(1):59-69.

[7]Likas A,Ulassis M,Uerbeek J.The global k-means clustering algorithm[J].Pattern Recognition,2003,36(2):451-461.

[8]劉一鳴,張化祥.可變閾值的K-means初始中心選擇方法[J].計算機工程與應用,2011,47(32):56-58.

[9]熊忠陽,陳若田,張玉芳.一種有效的K-means聚類中心初始化方法[J].計算機應用研究,2011,28(11):4188-4190.

[10]任江濤,施瀟瀟,孫靖昊,等.一種改進的基于特征賦權的K均值聚類算法[J].計算機科學,2006,33(7):186-187.

[11]徐家寧,張立文,徐素莉,等.改進遺傳算法的K-均值聚類算法研究[J].微計算機應用,2010,31(4):11-15.

[12]畢曉君,宮汝江.一種結合人工蜂群和K的值的混合聚類算法[J].計算機應用研究,2012,29(6):2040-2046.

[13]楊善林,李永森,胡笑旋,等.K-means算法中的k值優化問題研究[J].系統工程理淪與實踐,2006(2):97-101.

[14]汪中,劉貴全,陳恩紅.一種優化初始中心點的K-means算法[J].模式識別與人工智能,2009,22(2):299-304.

[15]張中平,王愛杰,柴旭光.簡單有效的確定聚類數目算法[J].計算機工程與應用,2009,45(15):166-168.

[16]Thalamuthu A,Mukhopadhyay I,Zheng X,et al.Evaluation and comparison of gene clustering methods in microarray analysis[J].Bioinformatics,2006,22(19):2405-2412.

[17]Dudoit S,Fridlyand J.A prediction-based resampling method for estimating the number of clusters in a dataset[J].Genome Biology,2002,3(7):1-21.

[18]Kapp A V,Tibshirani R.Are clusters found in one dataset present in another dataset?[J].Biostatistics,2007,8(1):9-31.

[19]Halkidi M,Batistakis Y,Vazirgiannis M.On clustering validation techniques[J].Journal of Intelligent Information Systems,2001,17(2):107-145.

[20]孫吉貴,劉杰,趙連宇.聚類算法研究[J].軟件學報,2008,19(1):48-61.

[21]周世兵,徐振源,唐旭清.新的K-均值算法最佳聚類數確定方法[J].計算機工程與應用,2010,46(16):27-31.

[22]Frcy B J,Dueck D.Clustering by passing message between data points[J].Science,2007,315(5814):972-976.

[23]于劍,程乾生.模糊聚類方法中的最佳聚類數的搜索范圍[J].中國科學:E輯,2002,32(2):274-280.

HE Yunbin,XIAO Yupeng,WAN Jing,LI Song

School of Computer Science and Technology,Harbin University of Science and Technology,Harbin 150080,China

The traditionalK-means clustering algorithm must be given in advance the number of clustersk,but in the actual cases,kis difficult to establish;in addition,traditionalK-means clustering algorithm is sensitive to initialization and easily falls into local optimum.In view of this,this paper presents an improvedK-means algorithm based on expectation of density and Silhouette validity index.The algorithm chooses the furthest mutual distanceksample objects as the initial centers,which belong to the expectation of density region.The experimental result shows that the improvedK-means algorithm has not only the weak dependence on initial data,but also fast convergence and high clustering quality.Meanwhile,the new algorithm can automatically analyze the clustering quality in differentkvalues and determine the optimal number of clusters by selecting the Silhouette validity index.The experiment and analysis demonstrate the feasibility and effectiveness of the proposed algorithm.

K-means clustering;initial clustering centers;expectation of density;optimization ofk

傳統K-均值聚類算法雖然收斂速度快,但存在聚類數k無法預先確定,并且算法對初始中心點敏感的缺點。針對上述缺點,提出了基于密度期望和聚類有效性Silhouette指標的K-均值優化算法。給出了基于密度期望的初始中心點選取方案,將處于密度期望區間內相距最遠的k個樣本作為初始聚類中心。該方案可有效降低K-均值算法對初始中心點的依賴,從而獲得較高的聚類質量。在此基礎上,可進一步通過選擇合適的聚類有效性指標Silhouette指標分析不同k值下的每次聚類結果,確定最佳聚類數,則可有效改善k值無法預先確定的缺點。實驗及分析結果驗證了所提出方案的可行性和有效性。

K-均值聚類;初始聚類中心點;期望密度;k值優化

A

TP18

10.3778/j.issn.1002-8331.1307-0079

HE Yunbin,XIAO Yupeng,WAN Jing,et al.Improved K-means algorithm based on expectation of density and clustering validity index.Computer Engineering and Applications,2013,49(24):105-111.

黑龍江省自然科學基金(No.F201134);黑龍江省教育廳科學技術研究項目(No.12531120)。

何云斌(1972—),男,博士,教授,研究生導師,主要研究方向:數據庫理論與應用、時空數據庫、嵌入式系統;肖宇鵬(1986-),男,碩士研究生,主要研究方向:空間數據挖掘;萬靜(1972—),女,博士,教授,碩導,主要研究方向:數據庫理論及應用;李松(1977—),男,博士,副教授,主要研究方向:空間數據庫理論及應用。E-mail:hybha@163.com

2013-07-08

2013-08-27

1002-8331(2013)24-0105-07

CNKI出版日期:2013-10-11http://www.cnki.net/kcms/detail/11.2127.TP.20131011.1653.002.html

猜你喜歡
有效性
當代藝術概念的確立與有效性
如何提高英語教學的有效性
甘肅教育(2020年6期)2020-09-11 07:45:28
制造業內部控制有效性的實現
提高家庭作業有效性的理論思考
甘肅教育(2020年12期)2020-04-13 06:24:56
論新形勢下工商管理企業管理有效性的提升
活力(2019年22期)2019-03-16 12:47:08
翻譯的政治性與有效性
翻譯界(2018年2期)2018-03-05 07:55:16
如何提高高中數學作業有效性
小學語文課堂提問的有效性
散文百家(2014年11期)2014-08-21 07:16:22
船舶嚴重橫傾時應急行動的有效性
中國航海(2014年1期)2014-05-09 07:54:30
對體育教學有效性的思考
體育師友(2011年5期)2011-03-20 15:29:48
主站蜘蛛池模板: 日韩欧美中文字幕在线韩免费 | 中文字幕中文字字幕码一二区| 人妻精品久久无码区| 1级黄色毛片| 国产乱子伦无码精品小说 | 丝袜高跟美脚国产1区| 人妻免费无码不卡视频| 免费xxxxx在线观看网站| 亚洲国产天堂久久综合| 亚洲中字无码AV电影在线观看| 国产精品30p| 国产国产人在线成免费视频狼人色| 97久久超碰极品视觉盛宴| 91偷拍一区| 国产黄网永久免费| 精品亚洲欧美中文字幕在线看| 精品国产成人a在线观看| 国产欧美日韩精品第二区| 国产一区二区免费播放| 亚洲第一精品福利| 一级毛片在线播放免费观看| 97人妻精品专区久久久久| 国产精品美女免费视频大全| 亚洲色大成网站www国产| 沈阳少妇高潮在线| 2020极品精品国产| 欧美国产精品不卡在线观看| 精品综合久久久久久97| 日韩毛片免费观看| 无码视频国产精品一区二区| 71pao成人国产永久免费视频| jijzzizz老师出水喷水喷出| 在线观看国产精美视频| 亚洲视频一区在线| 欧美国产日韩在线| 日韩久久精品无码aV| 中文字幕日韩久久综合影院| 欧美国产菊爆免费观看| 久草热视频在线| 国产精品成人AⅤ在线一二三四| 亚洲AⅤ波多系列中文字幕| 99ri精品视频在线观看播放| 91精品网站| 在线看片中文字幕| 欧美一区中文字幕| 中文纯内无码H| 亚洲午夜福利精品无码| 成人亚洲国产| 一级一级一片免费| 女高中生自慰污污网站| 国产激情在线视频| 午夜色综合| 欧美日韩综合网| 狠狠色丁香婷婷| 九色视频一区| 在线欧美一区| 久久国产成人精品国产成人亚洲| 欧美成人午夜影院| 午夜啪啪网| 亚洲精品图区| 91香蕉视频下载网站| 国产精品视频猛进猛出| 九一九色国产| 日韩无码一二三区| 亚洲av无码人妻| 中文字幕亚洲精品2页| 国产精品一老牛影视频| 日本道综合一本久久久88| 成人国产免费| 狠狠干综合| 国产成人一区免费观看| 欧美性久久久久| 日韩欧美中文亚洲高清在线| 天堂成人av| 91在线一9|永久视频在线| 久久久久夜色精品波多野结衣| 99ri精品视频在线观看播放| 无码丝袜人妻| 综1合AV在线播放| 中文字幕乱码二三区免费| 国产成熟女人性满足视频| 一级毛片网|