






摘要:為了在多維聚類分析中運(yùn)用有效距離度量方法表征數(shù)據(jù)對象的鄰近度 ,提出一種協(xié)方差測距(covariance distance measure analysis , CDM)算法 , 首先 , 采用模糊 C 均值(fuzzy c-means ,F(xiàn)CM)方法對數(shù)據(jù)對象賦予權(quán)值 ,得到每個樣本點相對類別特征的隸屬度 ,再依據(jù)隸屬度計算每個樣本的差異度;其次 , 為了使類別分離最大化 , 用樣本點同關(guān)聯(lián)類別的協(xié)方差距離度量代替模糊聚類中歐式距離度量作為優(yōu)化問題的第一個標(biāo)準(zhǔn) ,使相似數(shù)據(jù)對象更為接近;最后 , 用樣本點間的協(xié)方差距離度量作為第二個優(yōu)化標(biāo)準(zhǔn) ,使相異數(shù)據(jù)相互隔開 , 交替固定變量迭代計算最優(yōu)解 ,使聚類指標(biāo)和距離度量學(xué)習(xí)參數(shù)同時得到優(yōu)化 , 獲得更好的聚類結(jié)果。在不同數(shù)據(jù)集上的實驗結(jié)果表明 , 與 FCM -Sig 和 UNCA 算法相比 ,CDM 算法在聚類準(zhǔn)確性和算法收斂性方面均有更好表現(xiàn)。
關(guān)鍵詞:聚類分析;協(xié)方差測距;模糊 C 均值;距離度量學(xué)習(xí)
中圖分類號:TP312文獻(xiàn)標(biāo)志碼:A文章編號:1000-582X(2023)05-102-09
Optimization of covariance distance measurement algorithm for multidimensional clustering analysis
LIUYun, ZHANGYi, ZHENGWenfeng
(Faculty of Information Engineering and Automation, Kunming University of Science and Technology, Kunming 650500, P. R . China)
Abstract: In order to use effective distance measurement methods to characterize the proximity of data objects in multi-dimensionalclusteringanalysis,acovariancedistancemeasurement (CDM) algorithmis proposed . First, fuzzy C-means (FCM) is used to assign weights to the data objects, so that the membership degree of each sample point relative to the category feature is obtained . Based on the membership degree, the difference degree of each sample is calculated . Then, as the first optimization criterion, the variance distance measure is used to replace the Euclidean distance measure in fuzzy clustering to make similar data objects closer. Finally, the covariance distance measure between the sample points is used as the second optimization criterion to make the different data objects separate from each other. The optimal solution is calculated iteratively with alternate fixed variables, so that the clusteringindexanddistancemeasurementlearningparametersareoptimizedatthesametime,andbetter clustering results are obtained . Experimental results on different data sets show that compared with FCM -Sig and UNCA algorithms, CDM algorithm has better performance in clustering accuracy and algorithm convergence .Keywords: cluster analysis; covariance distance; fuzzy C-means (FCM); distance metric learning
距離度量學(xué)習(xí)作為一種有效表征數(shù)據(jù)結(jié)構(gòu)的方法被廣泛應(yīng)用于聚類分析 ,通過學(xué)習(xí)的距離度量構(gòu)建學(xué)習(xí)模型。基于帶標(biāo)簽實例的可用性存在有監(jiān)督和無監(jiān)督的距離度量學(xué)習(xí)算法 ,有監(jiān)督距離度量學(xué)習(xí)需要帶標(biāo)簽的訓(xùn)練數(shù)據(jù)集。而在實際應(yīng)用中 , 由于缺少類別標(biāo)簽信息 ,無監(jiān)督距離度量學(xué)習(xí)對于先驗信息有限的問題更為重要[1?2]。
針對無監(jiān)督距離度量學(xué)習(xí)在多維聚類分析中的研究取得很多成果 ,傳統(tǒng)算法僅在聚類前將距離度量用作單獨(dú)的數(shù)據(jù)預(yù)處理步驟。文獻(xiàn)[3]提出一種新距離度量模糊 C 均值(new distance metric for fuzzy c-means, FCM -Sig)算法 ,通過新的距離度量標(biāo)準(zhǔn)結(jié)合群集中的距離變化以規(guī)范數(shù)據(jù)點和群集中心的距離。將其應(yīng)用于常規(guī)模糊 C 均值(fuzzy c-means , FCM )聚類和高維特征空間的內(nèi)核模糊 C 均值(kernel fuzzy c-means, KFCM )聚類 ,子空間選擇和聚類之間的固有分隔可能會影響聚類的可分離性。另一種方法將距離度量學(xué)習(xí)和聚類結(jié)合到聯(lián)合框架中 ,文獻(xiàn)[4]提出無監(jiān)督鄰域成分分析(unsupervised neighborhood component analysis , UNCA )算法 ,通過最大化未標(biāo)記數(shù)據(jù)的遺忘 K 近鄰(k-nearest neighbor,KNN )隨機(jī)變量同時運(yùn)用距離度量學(xué)習(xí)和聚類 ,而未很好考慮數(shù)據(jù)間的固有關(guān)聯(lián)信息。
為了選取更有效的距離度量方法提高聚類質(zhì)量 ,提出一種協(xié)方差測距算法(covariance distance measure analysis, CDM)。首先 ,采用模糊 C 均值[5]聚類對數(shù)據(jù)對象賦予權(quán)值 ,得到類別特征的隸屬度計算出每個樣本的差異度;其次 ,依據(jù)樣本點與類別特征的協(xié)方差距離代替模糊聚類中的歐式距離 ,作為優(yōu)化問題的第一標(biāo)準(zhǔn)使相似樣本之間距離最??;最后 ,將樣本點間的協(xié)方差距離[6]作為約束條件得到第二個標(biāo)準(zhǔn)隔離不相似樣本 , 計算優(yōu)化問題最優(yōu)解。仿真結(jié)果表明 ,對比 FCM -Sig 和 UNCA 算法 ,CDM 算法在聚類精度和算法收斂性方面均有提升。
1 距離度量模型
聚類分析的研究重點是采用有效的距離度量方法分析數(shù)據(jù)對象之間的離散性或相異性信息 ,用于數(shù)據(jù)分類。
1.1 歐式距離的模糊聚類模型
模糊 C 均值(FCM)是一種模糊聚類算法 ,其中每個數(shù)據(jù)點都具有多個類別屬性。假設(shè) X是輸入數(shù)據(jù) , C ={cl | cl ∈ Rp }l(k)=1和 Q={qil| qil∈ R }分別為集群中心的位置和模糊隸屬度矩陣 , k 為聚類數(shù) ,其中每個qil是 xi 在集群 l 中的隸屬度。FCM 的目標(biāo)函數(shù)定義為
u 是模糊程度 ,xi - cj為歐氏距離[7] ,表征數(shù)據(jù)點之間的離散程度。公式(1)是具有雙凸目標(biāo)函數(shù)的非凸優(yōu)化問題 ,該問題可通過交替優(yōu)化方案的方式解決。固定 C 時 ,其相對于 Q 凸 , 固定 Q 時 ,其相對于 C 凸。首先認(rèn)為 C 是固定的 ,在另一個參數(shù)上優(yōu)化問題 ,然后對 Q 重復(fù)此過程直到實現(xiàn)收斂 ,更新公式為
FCM 的時間復(fù)雜度為 O(Γ npk2),Γ是迭代次數(shù)。
1.2 分類距離度量模型
聚類分析模型使用的所有數(shù)值和分類距離度量表示為
其中:xi 和xj是2個數(shù)據(jù)點之間的點對點距離矢量;r 和 s 分別是類別和數(shù)值屬性的數(shù)量。
對于f ∈{1,..,r },d O(p)R(p)LP 和dF(p)S(p)K 分別稱為重疊距離與 ESK 距離[8] ,定義如下
mf 是第f 個屬性采用不同值的數(shù)值屬性 ,任何數(shù)值屬性f ∈{r +1,..,r + s}的距離定義為
每個關(guān)聯(lián)點 xi ∈ X 到集群 cl ∈ C 的距離表示為
相對f ∈{1,..,r },除重疊距離和 ESK 距離外 ,另一種距離度量計算為
由6Af = xi,j (cl,f )計算集群中 l 的數(shù)據(jù)點數(shù) ,其中屬性Af的值為xi,j ,與6Af ≠ 1(cl,f )的含義相同 ,但屬性Af不為 1。此度量只能選取點到集群的距離 ,而不能為點到點的距離。因此 ,分別定義了2個不同的向量d pc 和 d pp ,數(shù)值屬性的距離度量記為
1.3 馬氏距離(協(xié)方差測距)模型
針對多維特征空間的聚類分析 ,數(shù)據(jù)屬性間的關(guān)聯(lián)關(guān)系需要采用有效的距離度量方法來表征。假設(shè) X={xi | xi ∈ RP }i(n)=1是輸入數(shù)據(jù) ,其中:xi ∈ RP 是第i個的數(shù)據(jù)點;p 為屬性數(shù);n 是數(shù)據(jù)點的數(shù)量。S 和 D 分別代表相似和不相似的集合記為
距離度量的最大化可分離性定義假設(shè) xi 和xj屬于 S,則它們應(yīng)彼此靠近 ,屬于 D 則它們應(yīng)彼此分開。在線性方法中 ,通過學(xué)習(xí)線性變換并將數(shù)據(jù)投影到新空間中 L:xi ← xj。投影空間中的馬氏距離(協(xié)方差測距)記為
dM (xi ,xj )為馬氏距離 ,其本質(zhì)是協(xié)方差測距[6],M 是一個半正定矩陣 ,去掉協(xié)方差矩陣 ,馬氏距離就退化為歐式距離。對比歐式距離 ,馬氏距離(協(xié)方差測距)是一種表征屬性之間關(guān)聯(lián)性且尺度無關(guān)的無監(jiān)督度量學(xué)習(xí)方法 ,如圖1所示。
觀察圖1中2個綠色點以及中間綠色點到藍(lán)色點的距離。如果不考慮數(shù)據(jù)分布 , 則藍(lán)色距離更近 ,這就是歐式距離度量。但實際需要考慮數(shù)據(jù)分布的影響 ,數(shù)據(jù)樣本呈橢圓形分布 ,藍(lán)色點在橢圓外 ,綠色在橢圓內(nèi) , 因此2個綠色點更為接近。馬氏距離(協(xié)方差測距)度量可以有效的表征數(shù)據(jù)對象之間的鄰近度[9] ,而歐式距離度量得到的是數(shù)據(jù)之間的離散度 ,不利于對多維數(shù)據(jù)之間的關(guān)聯(lián)性進(jìn)行分析。
2CDM 算法
2.1 協(xié)方差測距的模糊聚類算法
運(yùn)用協(xié)方差測距 ,模糊聚類算法獲得相似集合 S 和不相似集合 D 的估計值。相同聚類的數(shù)據(jù)屬于 S,不同聚類數(shù)據(jù)屬于 D 。X ={xi | xi ∈ RP }i(n)=1是輸入數(shù)據(jù)的集合 , (L :xi ← Lxj)為 L 的線性變換。
傳統(tǒng)的 FCM 沒有清晰地定義數(shù)據(jù)的鄰近度 ,而是提供了模糊形式。Q ={qil| qil∈ R }是模糊隸屬度矩陣 ,C ={cl | cl ∈ RP }l(k)=1是集群中心。d?ij∈ R是數(shù)據(jù)點i和j 的差異度 ,通過模糊隸屬度值計算為
其中:qi 和qj是矩陣 Q 的第i行和第j 行 ,基于第i個數(shù)據(jù)點和第j 個數(shù)據(jù)點之間的相似度A , 由隸屬度是否相似來定量估計。如果數(shù)據(jù)屬于不同的集群 ,則所有群集(qi 和qj)的值不同。qi 和qj的關(guān)聯(lián)條目對(qil和qjl)不同 , 至少一個接近于零。因此 ,它們的差異度d?ij接近于1。
為了使類分離最大化 ,運(yùn)用協(xié)方差測距代替歐式距離改進(jìn)模糊聚類的優(yōu)化問題[10]。該期望度量的一個標(biāo)準(zhǔn)是所有相似數(shù)據(jù)點之間距離最小。在同一群集 S 中的所有數(shù)據(jù)(即群集 l 中的 xi 和xj)都被視為配對 , 以群集中心 cl 的方向進(jìn)行遷移。由于 S 是一個模糊的相似集 ,該約束應(yīng)與賦予群集 l 中 xi 的隸屬度qil成比例滿足。為了實現(xiàn)這一目標(biāo) ,用協(xié)方差測距(10)代替 FCM 目標(biāo)函數(shù)(1)中的歐氏距離。第一個標(biāo)準(zhǔn)被表示為損失函數(shù) ,表示為
第二個標(biāo)準(zhǔn)通過添加約束條件使 D 中不相似的數(shù)據(jù)點相互隔開
ε是一個大于零的常數(shù) , 因 D 是模糊的不相似關(guān)系 ,所以這個新添加的約束必須與d?ij成比例地滿足。引入與此約束相關(guān)的松弛變量ζij ≥0來衡量其違反量。第二個標(biāo)準(zhǔn)由所有ζij的總和定義 ,其中每個ζij乘以d?ij , 問題的解決方法如式(14)。
式(14)中:α是2個項之間的折衷參數(shù) ,是大于零的常數(shù);M 是半正定矩陣且 M A 0。優(yōu)化問題中 ,如果d?ij =0,則對應(yīng)項為0。另一方面 ,如果d?ij =1,ζij 的值是對第二項的貢獻(xiàn)。
FCM 的運(yùn)用與 K 均值(k-means)不同 , K 均值方法提供了清晰的標(biāo)簽信息 ,通過學(xué)習(xí)聚類指標(biāo)來調(diào)整轉(zhuǎn)換矩陣以適應(yīng)聚類指標(biāo)。在第二次迭代中 ,新的聚類指標(biāo)將保持與前次相同 , 因此該方法存在局部優(yōu)化 ,無法在更新迭代中學(xué)習(xí)新的轉(zhuǎn)換矩陣 ,造成快速收斂到局部最優(yōu)的問題[11]。FCM 中數(shù)據(jù)點并不完全相似或相異 ,根據(jù)模糊隸屬度值qil和差異度d?ij得到目標(biāo)函數(shù)(14)中2個準(zhǔn)則的滿意程度 ,避免了收斂到局部最優(yōu)[12]。
2.2CDM 算法實現(xiàn)
CDM 算法優(yōu)化公式(14)不是凸面的 ,這使得尋找最優(yōu)解變得困難。通過固定某一變量 ,則它在每個變量中都是凸的 ,可以迭代計算最優(yōu)解[13]。
1)固定M,ζ,Q并更新 C
當(dāng)固定除 C 外的所有參數(shù)時 , 目標(biāo)函數(shù)(14)的第二項將變?yōu)槌?shù) ,對參數(shù) C 沒有任何約束。對于數(shù)值屬性 ,可以通過式(2)計算更新每個聚類中心與原始聚類中心。為了更新分類屬性的聚類中心 cl ,采用
定理1模糊 k 模式更新方法[14]:由分類屬性 A 1 ,A2 ,...,Ar和 Domain(Af )={a 1) ,a 2) ,...,a nf )}定義分類對象Xc ={x i(c)}i(n)=1 ,nf是屬性Af由1≤f ≤ r 的類別數(shù)。聚類中心 cl 由1≤ l ≤ k 的[ cl, 1 ,cl,2 ,...,cl,r ]表示 , 當(dāng)cl,f = a t ′)∈ Domain (Af )時 ,最小值為∑i(n)=1∑l(k)=1 q il(u) d個pc (xi ,cl ) T d個pc (xi ,cl ),記為
根據(jù)該定理 ,分類屬性的聚類中心 cl 中每個屬性類別均由所求總和最大的類別給出 ,從而對所有類別進(jìn)行聚類。
2)固定M,ζ,C并更新 Q
當(dāng)除 Q 以外的參數(shù)固定 ,可以獲得問題(14)的最佳 Q 。在這種情況下 , 目標(biāo)函數(shù)(14)的第二項變?yōu)槌?shù) ,Q的最值優(yōu)通過對優(yōu)化問題(14)中第一項求導(dǎo)得出。每個qi,l ′的最優(yōu)值定義為
目標(biāo)函數(shù)(14)的第二項中d個i,j的定義取決于qil ′,參數(shù)在上一次迭代設(shè)置 ,在此步驟中值視為常數(shù)。
3)固定 Q ,C 并更新M,ζ
當(dāng)固定集群成員矩陣 Q 和集群中心矩陣 C,通過解決以下優(yōu)化問題來計算最佳 M 和ζ
優(yōu)化公式定義新的松弛變量i,j將線性不等式約束轉(zhuǎn)換為線性等式約束 ,該優(yōu)化公式為半正定規(guī)劃問題(SDP)[15] ,可通過現(xiàn)有的在線程序包求解。
2.3CDM 算法分析
基于以上分析 ,迭代算法解決優(yōu)化問題(14)的偽代碼如下所示。在此方法的每個步驟中 ,所有變量均根據(jù)其相應(yīng)公式進(jìn)行更新。此過程迭代進(jìn)行 ,直到變量收斂為止。
CDM 算法代碼如下
輸入:混合數(shù)據(jù) X,α ,ε。
輸出:Q ,C,M,ζ。
Step1:每個qil和ζij初始化 Q ,C,ζ,滿足(14)中的約束2,4和5,
Step2:設(shè)置 M ← I.由式(13)計算d?ij , ?i,j .,
Step3:迭代:
1)固定M,ζ,Q ,d?ij由式(6)更新 C,
2)固定M,ζ,C,d?ij由式(16)更新 Q ,然后由(11)設(shè)置d?ij , ?i,j,
3)固定 Q ,C,d?ij根據(jù)優(yōu)化目標(biāo)函數(shù)(17)來更新M,ζ,
4)首先 ,使用 M 的 Cholesky 分解 , 當(dāng) M = LT L 時設(shè)置 L,接著 ,通過 d個pp (xi ,xj )← Ld個pp (xi ,xj )來更新 d個pp (xi ,xj )。 d個pc (xi ,cl )由 d個pc (xi ,cl )← Ld個pc (xi ,cl )更新 ,
5) M ← I。
Step4:直到收斂。
在步驟4)中 ,定義了額外變量 L來計算新的點對點和點對集群的距離矢量。在每次迭代中學(xué)習(xí)到新的 M 之后 ,將更新這些距離向量 ,并在這些新向量的基礎(chǔ)上繼續(xù)執(zhí)行該過程。
3 仿真分析
3.1 仿真環(huán)境和方法
為了驗證所提出的算法 , 多維聚類分析常選用 UCI machine learning repositor 中的 Iris, Wine 和 Breast Tissue3個數(shù)據(jù)集作為基準(zhǔn)[16] ,另選用真實數(shù)據(jù)集 Mechanical Analysis 評估 CDM 算法解決實際問題的能力。 Mechanical Analysis 是一個多變量工業(yè)數(shù)據(jù)集 ,任務(wù)是基于機(jī)械組件的屬性信息 ,預(yù)測機(jī)電設(shè)備的故障診斷情況[17?19]。表1為仿真數(shù)據(jù)集信息 ,實驗使用 SDP 在線程序包進(jìn)行 ,SDP 為求解半正定規(guī)劃問題的 MATLAB 程序包。運(yùn)行環(huán)境為 Windows10 ,2.6GHzCPU ,8 G 內(nèi)存。
仿真實驗將每個數(shù)據(jù)點的預(yù)測標(biāo)記與其真實標(biāo)記進(jìn)行比較來評估聚類結(jié)果的準(zhǔn)確性?!熬垲惥取焙汀皹?biāo)準(zhǔn)化互信息(NMI)”被用作比較不同算法的2個仿真指標(biāo)[4]。
其中:n 是數(shù)據(jù)點的數(shù)量;yi是正確的標(biāo)簽;map 是一個函數(shù);當(dāng) s = t 將標(biāo)簽分配給 xi 其群集和增量功能的多數(shù)標(biāo)簽6(s,t )=1,否則為0。
NMI 的計算如下
其中:Y 和 I 是真實標(biāo)簽和聚類指標(biāo)的集合;P (yi )和 p(clustj ),p (yi ,clustj )分別是概率隨機(jī)分布在yi ,clustj類和yi與clustj交集之間的概率;函數(shù) H(Y )和 H(I )分別是 Y 和 I 的熵。
3.2 聚類數(shù)量對聚類精度的影響分析
為了研究聚類數(shù)對聚類結(jié)果的影響 , 在 Breast Tissue(BT),Wine 和 Mechanical Analysis 數(shù)據(jù)集中評估 CDM 算法與 FCM -Sig 和 UNCA 算法準(zhǔn)確性結(jié)果。聚類數(shù)設(shè)置為與類數(shù)相等 ,并累加到類數(shù)的四倍 ,仿真結(jié)果如圖2所示。
圖2顯示了算法在3個數(shù)據(jù)集中的性能 ,3種算法的聚類精度都隨聚類數(shù)的增加逐漸提高。BT 數(shù)據(jù)集中 CDM 算法的聚類精度明顯優(yōu)于對比算法。葡萄酒數(shù)據(jù)集中 CDM 算法的聚類精度保持在80%上下波動對比 FCM -Sig 和 UNCA 算法,能夠保持平穩(wěn)高精度的聚類性能。在機(jī)械分析數(shù)據(jù)集下 , 因多維數(shù)據(jù)的復(fù)雜分布使聚類精度有所降低 ,但 CDM 仍能保持更高的聚類精度 ,F(xiàn)CM -Sig 次之 ,UNCA 最低。
3.3 迭代次數(shù)對算法準(zhǔn)確性和收斂性分析
為了進(jìn)一步評估 CDM 算法的聚類性能 ,將目標(biāo)函數(shù) ,NMI 和聚類精度作為迭代函數(shù) ,在3個數(shù)據(jù)集中進(jìn)行仿真分析如圖3所示。
圖3顯示了 CDM 算法在不同數(shù)據(jù)集中的性能 ,仿真每次迭代都對應(yīng)著參數(shù) Q , C,M 的更新。在3個數(shù)據(jù)集實驗中 , 隨著迭代次數(shù)的增加 ,總的趨勢是 CDM 算法的目標(biāo)函數(shù)值逐漸降低 ,而聚類精度和 NMI 值逐步提高。在機(jī)械分析數(shù)據(jù)集下目標(biāo)函數(shù)值在迭代過程中有提升 ,這是由于為了更新 Q ,公式(14)中第二項約束被忽略 , 隨著 Q 的迭代更新目標(biāo)函數(shù)在收斂過程中有所起伏,但最后仍能達(dá)到收斂。結(jié)合3次仿真 ,針對不同的數(shù)據(jù)集 ,CDM 算法均能在有效提升 NMI 與聚類精度的同時保證算法的收斂性。
4 結(jié)論
為了在聚類分析中選取有效的距離度量表征數(shù)據(jù)間的關(guān)聯(lián)信息 ,提出了一種協(xié)方差測距算法(CDM)。首先 , 由模糊 C 均值聚類得到數(shù)據(jù)類別特征的隸屬度 ,并計算出每個樣本的差異度;其次 ,采用協(xié)方差測距代替模糊聚類中的歐式距離作為第一個優(yōu)化標(biāo)準(zhǔn)使相似樣本之間距離最??;最后 ,將樣本點間的協(xié)方差測距作為第二個優(yōu)化標(biāo)準(zhǔn)使不相似樣本距離最大 ,交替固定變量迭代計算最優(yōu)解。仿真結(jié)果表明 ,對比 FCM -Sig 和 UNCA 算法 ,CDM 算法在聚類精確性和算法收斂性方面均有提升。下一步 ,面對更為復(fù)雜的數(shù)據(jù)結(jié)構(gòu)和分析需求 ,將研究更有效的距離度量方法。
參考文獻(xiàn)
[1] AhmedI,DagninoA ,DingY. Unsupervisedanomalydetectionbasedonminimumspanningtreeapproximateddistancemeasures and its application to hydropower turbines[J]. IEEE Transactions on Automation Science and Engineering, 2019, 16(2):654-667.
[2] ZhuXB ,PedryczW,LiZW. Fuzzyclusteringwithnonlinearlytransformeddata[J]. AppliedSoftComputing, 2017, 61:364-376.
[3] Wei L Y. A hybrid ANFIS model based onempirical mode decompositionfor stock timeseries forecasting[J]. AppliedSoftComputing, 2016, 42:368-376.
[4] Qin C ,SongS J, Huang G , et al. Unsupervised neighborhood component analysis for clustering[J]. Neurocomputing, 2015,168:609-617.
[5] 李鵬華 , 劉晶晶 , 馮輝宗 , 等.改進(jìn)測度下的模糊 C 均值三元催化器故障診斷方法[J].重慶大學(xué)學(xué)報 , 2018, 41(1):88-98.
Li P H , Liu J J, Feng H Z , et al. Fault diagnosis of three-way catalytic converter using improved fuzzy C-means clustering[J]. Journal of Chongqing University, 2018, 41(1):88-98.(in Chinese)
[6] Li P H , LiuJ, FengH , et al. Fault diagnosisof three-waycatalyticconverter usingimprovedfuzzyC-meansclustering[J].Chongqing DaxueXuebao/Journal of Chongqing University, 2018, 41(1):88-98.
[7] Bai Z X , Zhang X L , Chen J D . Speaker verification by partial AUC optimization with mahalanobis distance metric learning[J].IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2020, 28:1533-1548.
[8] Cardarilli G C , Di Nunzio L , Fazzolari R , et al.$N$-dimensional approximation of euclidean distance[J]. IEEE Transactions onCircuits and Systems II : Express Briefs, 2020, 67(3):565-569.
[9] Xue B , Zhang L H , Yu Y, et al. Locating the nodes from incomplete euclidean distance matrix using Bayesian learning[J]. IEEEAccess, 2019, 7:37406-37413.
[10] Chang Z P, Chen WH , Gu Y P, et al. Mahalanobis-taguchisystemfor symbolic interval data basedon kernel mahalanobisdistance[J]. IEEE Access, 2020, 8:20428-20438.
[11] dos Santos T R L ,Zárate L E . Categorical data clustering: what similarity measure to recommend?[J]. Expert Systems WithApplications, 2015, 42(3):1247-1260.
[12] Hou C P, Nie F P, Yi D Y, et al. Discriminative embedded clustering: a framework for grouping high-dimensional data[J]. IEEETransactions on Neural Networks and Learning Systems, 2015, 26(6):1287-1299.
[13]劉洲洲 , 李彬.基于動態(tài)多子族群自適應(yīng)群居蜘蛛優(yōu)化算法[J].四川大學(xué)學(xué)報(自然科學(xué)版), 2017, 54(4):721-727.
LiuZZ ,LiB . Anadaptationsocialspideroptimizationalgorithmbasedondynamicmulti-swarmstrategy[J]. Journalof Sichuan University (Natural Science Edition), 2017, 54(4):721-727.(in Chinese)
[14] Sun Y N , Yen G G , 0001 Z Y. IGD indicator-based evolutionary algorithm for many-objective optimization problems[J]. IEEETrans Evolutionary Computation, 2019, 23(2):173-187.
[15] Zhao X W, Liang J Y, Dang C Y. Clustering ensemble selection for categorical data based on internal validity indices[J]. PatternRecognition, 2017, 69:150-168.
[16] PakazadS K , Hansson A , Andersen MS , et al. Distributed semidefinite programming with application to large-scale systemanalysis[J]. IEEE Transactions on Automatic Control, 2018, 63(4):1045-1058.
[17] BacheK ,LichmanM . UCI machine learning repository,2013,[EB/OL],Available:http://archive .ics .uci.edu/ml
[18] Li P H , Zhang Z J, Xiong Q Y, et al. State-of-health estimation and remaining useful life prediction for the lithium -ion batterybased on a variant long short term memory neural network[J]. Journal of Power Sources, 2020, 459(C):228069.
[19]余萍 , 曹潔.深度學(xué)習(xí)在故障診斷與預(yù)測中的應(yīng)用[J].計算機(jī)工程與應(yīng)用 , 2020, 56(3):1-18.
YuP,CaoJ . Deeplearningapproachanditsapplicationinfaultdiagnosisandprognosis[J]. ComputerEngineeringand Applications, 2020, 56(3):1-18.(in Chinese)
(編輯侯湘)