999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于模糊K-Means的MBD隨機樣本分類仿真

2023-09-20 11:24:58李靜波顧園園
計算機仿真 2023年8期
關鍵詞:分類特征方法

李靜波,顧園園

(長春工業大學人文信息學院,吉林 長春 130102)

1 引言

隨著計算機技術的飛速發展,互聯網通信或云儲存空間內留存的數據信息也在持續不斷增多[1]。面對信息量過載、信息分類不明確的網絡數據庫,用戶急切地需要一種有效的方法,以快速、準確地提取出簡潔、精練且有價值的目標信息。因此,研究人員提出將海量大數據樣本進行分類,減少用戶對目標信息的檢索時間,提高用戶對目標信息的獲取效率。

王忠震[2]等人通過噪聲樣本識別算法對樣本集中整體數據完成去噪處理,并過濾噪聲干擾強烈且無法識別的樣本數據,再利用K鄰近(KNN)聚類原理將去噪后的優化樣本集劃分成質量相同的樣本子簇,考慮到樣本子簇的類間不平衡性,需要利用AdaBoost算法合成樣本子簇的簇心,該簇心具備類間特征屬性,可以通過決策樹分類器的訓練,實現海量大數據隨機樣本的分類,但是該方法存在分類準確率低的問題。王凱亮[3]等人通過深度玻爾茲曼機(DBM)對先驗數據庫內隨機數據進行采樣,再利用極限學校機(ELM)網絡對采集到的樣本集進行訓練,獲取樣本集內負荷曲線相關的優化特征,將優化特征投入到數據集分類模型中,實現海量大數據隨機樣本的分類。但是該方法存在分類召回率低的問題。董明剛[4]等人通過Bootstrap算法選取數據塊中小類樣本組成A類樣本合集,再利用DWES算法選取數據塊中大類樣本組成B類樣本合集,分別計算兩合集內各數據的熵值大小以此構建樣本特征合集,將樣本特征合集投入基分類中,實現樣本集內整體數據的分類,但是該方法存在分類耗時長的問題。

為了解決上述方法中存在的問題,提出基于模糊K-Means的海量大數據隨機樣本分類仿真的方法。

2 數據降維及樣本特征提取

2.1 數據降維

數據降維[5]是指將冗余雜亂的海量高維數據根據點對點的映射原理改變成空間結構緊湊、處理更加便捷的低維數據,舉例來說,在網絡數據庫檢索目標信息時,數據庫內原始樣本所具備的權重向量較為復雜,這種由于樣本權重向量復雜而導致用戶對目標信息檢索失敗的問題,稱為“維度災難”,為了避免“維度災難”干擾后續的樣本特征提取工作,需要對數據庫內原始樣本進行降維處理。目前研究人員推出的降維方法包括線性辨別分析法、多維尺度分析法、主成分分析法和因子分析等,其中,常用于海量大數據隨機樣本分類的降維方法是因子分析法。

1)因子分析建模

設隨機選取的樣本集內數據總量為x,觀測樣本數據的光譜維度從而建立因子分析模型,因子分析模型的表達式如下

T(x)=δ+gH+r

(1)

2)求解因子載荷矩陣的維度頻率

以光譜維度為基礎獲取的因子載荷矩陣無論是在維度平衡方面還是在數據光譜細節方面都表現出極高的穩定性,為下一步樣本集內整體數據的降維做好充足準備。根據精度原理推導因子載荷矩陣的維度平衡向量,精度奠定原理的表達式如下

(2)

式中,π表示維度平衡常數;i∈[0,1]表示精度演算區間;dα-dβ表示鄰近樣本數據的權重差值。

根據協同方差計算公式獲取因子載荷矩陣的數據光譜細節,協同方差計算公式的表達式如下

(3)

式中,β表示協方差系數;ΔE表示光譜突出的細節位點。

已知因子載荷矩陣的維度平衡向量和數據光譜細節,利用正交近似分解算法求解因子載荷矩陣的維度頻率,正交近似分解算法的表達式如下

(4)

其中

(5)

3)因子載荷矩陣的旋轉

因子載荷矩陣的旋轉建立在因子載荷矩陣維度頻率求解成功的基礎上,其目的在于旋轉樣本集中每個單位向量數據,使數據本身的維度頻率盡可能靠近1或靠近0,以此實現樣本集內整體數據的兩極分離,進而突出每個單位向量數據與公共維度因子之間的關系,即單位向量數據的維度頻率與公共維度因子的差值越大,說明該樣本表現為高維正畸數據的概率越大,單位向量數據的維度頻率與公共維度因子的差值越小,說明該樣本表現為高維異常數據的概率越大。將兩組數據歸類,利用元素平方的相對差求和公式過濾高維異常數據,避免數據加權時,高維異常數據中心化對整體降維的影響。因子載荷矩陣的旋轉過程依靠最大分量旋轉法,旋轉后的因子載荷矩陣表示為:

其中,ε表示矩陣旋轉中心的因子參數;表示旋轉角度。

元素平方的相對差求和公式如下

(6)

4)基于加權最小二乘法的樣本集內數據降維

以優化后保留高維正畸數據的樣本集為基礎,利用加權最小二乘法對各數據進行降維,加權最小二乘法的表達式如下

(7)

2.2 基于信息熵和相關度的低維數據特征提取

經過數據降維的樣本集不僅降低了算法復雜度,還過濾掉了特征信息量較少且鄰近特征信息冗余度過密的樣本數據,使樣本集內數據特征處于提取的最優階段,基于信息熵[6]和相關度提取樣本特征的操作步驟如下:首先利用wrapper方法計算樣本集內各數據信息熵,規定信息熵閾值為c<1,若不滿足閾值條件,則淘汰數據,反之,將滿足閾值條件的數據整合為特征集,以特征集為基礎,通過姿態特征選擇算法檢測內部數據相關性,若兩數據相關性趨近于1,表示兩者特征內容重合度高,需要利用異常檢測算法[7]保留兩者間特征信息量多的一方,并淘汰特征信息量少的一方。若兩數據相關性趨近于0,表示兩者特征內容重合度低,可以省略檢測算法,同時保留雙方數據。Wrapper方法的表達式如下

(8)

式中,Qm表示任意數據m的信息熵;?表示wrapper系數。

姿態特征選擇算法的表達式如下

(9)

式中,XiYj表示數據i和數據j的相關性,當q趨近于1時,數據i和數據j的特征內容重合率滿足ωi;當q趨近于0時,數據i和數據j的特征內容重合率滿足ωj。

異常檢測算法的表達式如下

(10)

其中

(11)

式中,B表示異常檢測算法的準確率;n3表示異常檢測算法的誤檢率。

經過信息熵閾值限定和相關度檢測的樣本數據在快速收斂函數[8]內完成多次迭代,實現樣本特征的提取??焖偈諗亢瘮档谋磉_式如下

(12)

式中,υ表示快速收斂函數的常數;m表示迭代次數;ΔK表示樣本特征矩陣。

3 基于模糊K-Means聚類算法的樣本特征分類

模糊K-Means聚類算法是以樣本特征為基礎的一種簇族式分類方法,其具體操作為:首先利用初始聚類算法獲取樣本集內多個聚類中心[9],各樣本特征值與聚類中心之間的距離被稱為歐氏距離,視聚類中心為圓點中心,將歐氏距離不超過Lk的樣本特征劃分為一簇,以簇為單位,利用模糊K-Means聚類算法[10]獲取各簇族的類別系數,根據最優聚類標準將類別系數相同的簇族進行歸一化處理,得到基于模糊K-Means聚類算法的特征樣本分類矩陣。模糊K-Means聚類算法流程如下圖1所示。

圖1 模糊K-Means聚類算法流程

設待分類的樣本特征集為k,且每個樣本特征都與矩陣中的低維樣本數據一一對應。將樣本特征集輸入初始聚類算法中獲取該特征集的多個聚類中心[11]。初始聚類算法的表達式如下

(13)

式中,q表示初始聚類系數;k,l∈[0,1]表示聚類中心閾值;R(k·l)表示滿足聚類中心限制條件的樣本特征數[12,13]。

在成功獲取樣本特征集多個聚類中心后,觀察各樣本特征值與聚類中心之間的歐氏距離,完成樣本特征簇族單位的劃分,并以此為基礎,加入模糊K-Means聚類算法獲取各簇族的類別系數。模糊K-Means聚類算法的表達式如下

(14)

最優聚類標準的表達式如下

(15)

式中,f(x)表示最優聚類系數;f(y)表示類別系數歸一化參數[14,15];Sc表示特征樣本分類矩陣。根據特征樣本分類矩陣實現海量大數據隨機樣本的分類。

4 實驗與分析

為了驗證基于模糊K-Means的海量大數據隨機樣本分類仿真的整體有效性,需要對其進行測試。

選擇1000篇新聞稿件組成樣本數據集A,稿件主題涉及時政、經濟、娛樂、新媒體等30多個類別;選擇3000篇語言類稿件組成樣本數據集B,稿件語言涉及英文、俄文、日文等20多個類別;選擇5000篇說明書類稿件組成樣本數據集C,稿件內容涉及機械、計算機、工業機器等10多個類別,上述三組樣本集內各數據信息的關鍵詞、樣本特征、類別屬性均無序且混亂,分別采用不同方法對三組樣本數據集進行分類,測試指標為準確率、召回率、F1值以及分類時間。準確率、召回率、F1值的計算式如下

(16)

式中,N表示樣本數據的總數;accuracy表示準確率;recall表示召回率。

1)準確率

對比所提方法、文獻[2]方法和文獻[3]方法的分類準確率,進而評估不同方法的分類性能。不同方法的準確率對比如圖2所示。

由圖2可見,所提方法在三組樣本數據集中的分類準確率均不低于95%,說明所提方法在面對任意樣本數據集時均能表現出精確度較高的分類能力,這是因為所提方法利用因子分析法對樣本數據集進行降維,從而得到運算簡便的低維數據,低維數據的獲取不僅提高了樣本特征的分類準確度,還加快了樣本數據集的分類速度,大大提升了用戶獲取目標信息的效率。文獻[2]方法和文獻[3]方法在三組樣本數據集中的分類準確率分別不超過70%和50%,兩者均與所提方法存在一定差距,說明文獻[2]方法和文獻[3]方法的分類精確度較低。經上述對比可知,所提方法的分類準確率高。

2)召回率

為了進一步驗證不同方法的分類性能,對比提方法、文獻[2]方法和文獻[3]方法的召回率,對比結果如下圖3所示。

圖3 不同方法的召回率對比

由上圖3可見,所提方法在三組樣本數據集中的召回率均接近100%,說明所提方法具備良好的分類能力和穩定性。文獻[2]方法和文獻[3]方法在三組樣本數據集的召回率分別低于60%和50%,說明文獻[2]方法和文獻[3]方法的分類能力較差,與所提方法存在較大差距。經上述對比,進一步驗證了所提方法的分類性能更強。

3)F1值

通過F1對精度和召回率進行整體評價,以突出所提方法的性能優勢。不同方法的F1值對比如下圖4所示。

圖4 不同方法的F1值對比

由上圖4可見,所提方法在三組樣本數據集中的F1值均不低于90%,而文獻[2]方法和文獻[3]方法在三組樣本數據集中的F1值分別低于75%和65%,可見所提方法在分類能力上明顯優于傳統方法。

4)分類時間

采用不同方法對樣本數據集進行分類所消耗的時間與該方法的分類效率成反比,觀察所提方法、文獻[3]方法和文獻[4]方法對三組樣本數據集進行分類所消耗的時間,為避免統計學誤差,同時計算三組樣本數據集的平均分類時間。不同方法的分類時間對比如下表1所示。

表1 不同方法的分類時間對比

由上表1可知,所提方法在三組樣本數據集中的分類時間及平均分類時間均低于1s,說明所提方法能夠快速實現海量數據的分類,適用于發展迅速的大數據網絡時代。文獻[3]方法和文獻[4]方法在三組樣本數據集的分類時間及平均分類時間分別超過1.19s和2.26s,兩者與所提方法存在一定差距。經上述對比可知,所提方法的分類耗時短,分類效率高。

5 結束語

在科技快速發展的現代社會,大數據儼然成為互聯網熱頻詞匯,如何處理大數據規模下的冗余雜亂的信息,使用戶能夠在數萬億Web搜索內容中鎖定目標信息,已成為研究人員需要重點解決的問題。如何在引入模糊K-Means聚類算法的基礎上,查明樣本分類過程中數據流拓撲并行化的機制是研究人員下一步工作的重點。

猜你喜歡
分類特征方法
分類算一算
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
抓住特征巧觀察
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 97精品伊人久久大香线蕉| 在线观看无码av五月花| 久草中文网| 国产欧美自拍视频| 亚洲小视频网站| 亚洲婷婷六月| 亚洲日韩精品无码专区| 美女毛片在线| 99精品视频九九精品| 91啪在线| 精品国产一区二区三区在线观看| 亚洲成人网在线播放| 无码精品国产VA在线观看DVD| 久久这里只有精品66| 亚洲人成影院在线观看| AV天堂资源福利在线观看| 国产特级毛片| 日韩无码白| 国产浮力第一页永久地址| 免费99精品国产自在现线| 亚洲欧美日韩综合二区三区| 亚洲欧美在线综合一区二区三区| 国产女人18水真多毛片18精品| 91国内外精品自在线播放| 久久综合一个色综合网| 久久久久国产一区二区| 国产人免费人成免费视频| 久久精品一品道久久精品| 三级欧美在线| 欧美日韩中文字幕在线| 国产精品粉嫩| 国产又大又粗又猛又爽的视频| 成·人免费午夜无码视频在线观看 | 日韩精品一区二区三区中文无码| 色综合天天操| 国产白浆在线| 国产免费怡红院视频| 国产av一码二码三码无码| 亚洲无码视频图片| 亚洲无码37.| 91精品国产综合久久香蕉922 | 国产成a人片在线播放| 四虎国产永久在线观看| 国产91特黄特色A级毛片| 五月婷婷伊人网| 国产精品v欧美| 美女免费精品高清毛片在线视| 高清久久精品亚洲日韩Av| 国产成人一级| 日本欧美在线观看| 国产精品综合色区在线观看| 亚洲最大看欧美片网站地址| 美女国产在线| 亚洲美女高潮久久久久久久| 国内精自线i品一区202| 伊人久久精品无码麻豆精品| 日韩成人在线网站| 美美女高清毛片视频免费观看| 日韩国产精品无码一区二区三区| 亚洲欧洲自拍拍偷午夜色| 澳门av无码| 精品国产网站| 中国国产一级毛片| 97人妻精品专区久久久久| 亚洲视频影院| 狠狠亚洲五月天| 91久久精品国产| 日韩在线欧美在线| 国产美女精品一区二区| 国产精品毛片在线直播完整版| 国产乱人伦AV在线A| 欧美成人a∨视频免费观看| 免费中文字幕在在线不卡| 一级毛片在线播放免费| 国产成人精品免费av| 人妻中文久热无码丝袜| 成人中文字幕在线| 亚洲专区一区二区在线观看| 国产精品亚洲五月天高清| 国产无码精品在线播放| 综合天天色| 亚洲第一区在线|