999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

用于水聲目標(biāo)識(shí)別的近鄰無監(jiān)督特征選擇算法

2016-09-07 06:26:59陳含露楊宏暉申昇
聲學(xué)技術(shù) 2016年3期
關(guān)鍵詞:分類特征

陳含露,楊宏暉,申昇

?

用于水聲目標(biāo)識(shí)別的近鄰無監(jiān)督特征選擇算法

陳含露,楊宏暉,申昇

(西北工業(yè)大學(xué)航海學(xué)院,陜西西安 710072)

針對(duì)水聲目標(biāo)數(shù)據(jù)的特征冗余問題,提出一種新的近鄰無監(jiān)督特征選擇算法。首先利用順序向后特征搜索算法生成原始特征集的子集,然后利用基于代表近鄰選取方法的特征評(píng)價(jià)機(jī)制評(píng)價(jià)特征子集的優(yōu)越性。使用實(shí)測水聲目標(biāo)數(shù)據(jù)集和聲吶數(shù)據(jù)集進(jìn)行特征選擇和分類實(shí)驗(yàn),在保持支持向量機(jī)平均分類正確率幾乎不變的情況下,特征數(shù)目分別降低了90%和75%。結(jié)果表明,該算法選擇出的特征子集,在去除冗余特征后有效地提高了后續(xù)學(xué)習(xí)算法的效率。

水聲目標(biāo)識(shí)別;無監(jiān)督;特征選擇;代表近鄰

0 引言

為提高水聲目標(biāo)識(shí)別的正確率,研究人員往往用多種方法提取水聲目標(biāo)輻射噪聲的多域特征。然而,水聲目標(biāo)樣本獲取的代價(jià)卻很大。因此,要在水聲目標(biāo)樣本數(shù)目保持不變的前提下達(dá)到分類正確率損失盡可能小的目的,進(jìn)行特征選擇以去除不相關(guān)和冗余特征,在水聲目標(biāo)識(shí)別任務(wù)中具有重要的意義。

根據(jù)用于特征選擇的數(shù)據(jù)有無類標(biāo),可將特征選擇方法分為有監(jiān)督方法和無監(jiān)督方法。在水聲目標(biāo)識(shí)別領(lǐng)域,相比于有監(jiān)督特征選擇方法[1]的趨于成熟,無監(jiān)督特征選擇方法[2]仍有待深入研究。有監(jiān)督特征選擇方法通常通過類標(biāo)的指導(dǎo)來評(píng)價(jià)特征與識(shí)別任務(wù)的相關(guān)程度。而無監(jiān)督特征選擇由于缺少類標(biāo)指導(dǎo),往往傾向于選出能夠保留樣本內(nèi)在聚類屬性的特征。文獻(xiàn)中大多現(xiàn)有無監(jiān)督特征選擇算法依賴于距離矩陣來尋找最優(yōu)特征子集[3-5],近年來從樣本近鄰方面考慮的非參數(shù)方法為特征選擇提供了新的思路[6-8]。但這些方法往往面臨兩方面的問題:(1) 通常選擇近鄰是為了觀察某個(gè)特征子集判別樣本是否屬于同一聚類的能力,因此要求所選近鄰必須對(duì)不同的特征具敏感性——保證樣本與最近近鄰屬于同一聚類,與最遠(yuǎn)近鄰屬于不同聚類;(2) 通常要求根據(jù)先驗(yàn)知識(shí)設(shè)定近鄰數(shù)目,若要求設(shè)定的近鄰數(shù)目逼近樣本數(shù)目且樣本數(shù)目較大,則將導(dǎo)致算法的計(jì)算量過大。本文研究了一種基于特征順序搜索算法和代表近鄰選取方法[9]的非參數(shù)無監(jiān)督特征選擇方法——近鄰無監(jiān)督特征選擇(Neighbor Based Unsupervised Feature Selection, NBUFS)算法,其中代表近鄰的選取機(jī)制可克服上述兩個(gè)問題,并利用實(shí)測水聲目標(biāo)數(shù)據(jù)集和聲吶數(shù)據(jù)集的多域特征進(jìn)行了特征選擇和分類實(shí)驗(yàn),結(jié)果證明本文算法能夠較好地解決水聲目標(biāo)特征選擇問題。

1 近鄰無監(jiān)督特征選擇算法

1.1 算法原理

NBUFS算法的原理如圖1所示。對(duì)于數(shù)據(jù)集,首先計(jì)算兩兩樣本間的歐式距離,得到相異度矩陣。接著將相異度矩陣輸入聚類傾向視覺評(píng)估算法(Visual Assessment of cluster Tendency, VAT)[10-11],由輸出的重組圖像評(píng)估聚類數(shù)目。然后利用K-means算法對(duì)數(shù)據(jù)集進(jìn)行聚類,并選擇出基于聚類結(jié)果的代表近鄰。最后采用封裝模型進(jìn)行特征選擇,得到結(jié)果子集,其中封裝模型的特征評(píng)價(jià)函數(shù)是基于代表近鄰設(shè)計(jì)的。

1.2 代表近鄰的選取方法

代表近鄰主要用于后續(xù)封裝模型特征評(píng)價(jià)函數(shù)的設(shè)計(jì),其選取步驟如下:

(2)

(3) 由步驟(2)中的SVM訓(xùn)練結(jié)果得到分類超平面的特征向量:

(4)

1.3 順序向后特征搜索算法

順序向后特征搜索算法由特征全集開始,在其后的每一次迭代中去掉一個(gè)特征(每次迭代中去掉該特征時(shí)得到的特征子集評(píng)價(jià)值比去掉其它任何一個(gè)特征時(shí)得到的評(píng)價(jià)值都高),直到特征數(shù)目減少到規(guī)定數(shù)目為止,算法流程見圖2。

1.4 封裝式特征選擇模型

采用封裝模型進(jìn)行特征選擇是本文算法的核心部分,其具體步驟如下:

(1) 開始:運(yùn)行順序向后特征搜索算法。

(2) 評(píng)價(jià)初始化:對(duì)于用待評(píng)價(jià)特征子集描述的數(shù)據(jù)集,和近鄰集,,將它們以相同的方式分為部分,每部分所含樣本數(shù)目相同。將其中的-1個(gè)部分作為,剩下的1個(gè)部分作為。

(7)

(3) 測試:將特征子集的評(píng)價(jià)值記為,它可由下式計(jì)算得到:

其中,[ ]的輸出分兩種:當(dāng)[ ]內(nèi)的條件滿足時(shí)為1,不滿足時(shí)為0。表示的樣本數(shù)目。

(5) 循環(huán):重復(fù)步驟(3)~(4),直到步驟(2)中所述的部分?jǐn)?shù)據(jù)都曾作為測試集。

(6) 評(píng)價(jià)完成:將以上步驟得到的個(gè)評(píng)價(jià)值的算術(shù)平均作為特征子集的最終評(píng)價(jià)值。

(7) 循環(huán):重復(fù)步驟(2)~(6),直到順序向后特征搜索算法運(yùn)行結(jié)束。

2 實(shí)驗(yàn)結(jié)果及分析

2.1 實(shí)驗(yàn)數(shù)據(jù)

利用實(shí)測水聲目標(biāo)數(shù)據(jù)集和加州大學(xué)用于機(jī)器學(xué)習(xí)的UCI(University of California Irvine, UCI)數(shù)據(jù)庫中的聲吶數(shù)據(jù)集對(duì)本文算法的性能進(jìn)行驗(yàn)證實(shí)驗(yàn),數(shù)據(jù)說明如表1所示。

表1 數(shù)據(jù)說明

2.2 NBUFS算法性能驗(yàn)證

采用如下兩種方式驗(yàn)證NBUFS算法的有效性:(1) 支持向量機(jī)(Support Vector Machine, SVM)的分類結(jié)果;(2) 樣本的空間分布。

2.2.1 SVM分類結(jié)果

分別用上述兩種數(shù)據(jù)對(duì)NBUFS算法的特征選擇結(jié)果進(jìn)行SVM分類實(shí)驗(yàn),采用10次10折交叉驗(yàn)證SVM運(yùn)行結(jié)果的分類正確率平均值作為最終的分類正確率。結(jié)果得到選擇出的特征數(shù)目與SVM分類正確率的關(guān)系如圖3所示,特征選擇前后所需的分類時(shí)間如表2所示。

表2 特征選擇前后所需的分類時(shí)間

由圖3可以看出,兩種數(shù)據(jù)的特征數(shù)目與SVM分類正確率關(guān)系曲線的變化趨勢相似:開始時(shí) SVM 分類正確率總體上隨特征數(shù)目的增加而增加,當(dāng)特征達(dá)到一定數(shù)目后,分類正確率趨于相對(duì)穩(wěn)定。實(shí)測水聲目標(biāo)數(shù)據(jù)使用7個(gè)特征即可使分類正確率與使用完全數(shù)據(jù)集的71個(gè)特征時(shí)相當(dāng);聲吶數(shù)據(jù)使用15個(gè)特征即可使分類正確率與使用完全數(shù)據(jù)集的60個(gè)特征時(shí)相當(dāng)。這說明使用NBUFS算法進(jìn)行特征選擇以后,使用部分特征就可以表征完全數(shù)據(jù)集的全部分類信息。

由表1可以看出,使用經(jīng)特征選擇得到的特征子集進(jìn)行SVM分類實(shí)驗(yàn),可以在較大程度上減少分類時(shí)間。

因此,使用本文方法進(jìn)行特征選擇后,在不犧牲分類正確率的前提下,有效提高了后續(xù)學(xué)習(xí)算法的速度,提高了計(jì)算效率。

2.2.2 樣本的空間分布

對(duì)于實(shí)測的水聲目標(biāo)數(shù)據(jù)集,使用NBUFS算法選擇出最佳兩維特征(記為特征1和特征2)和最差兩維特征(記為特征3和特征4),分別在二維平面繪制該數(shù)據(jù)在最佳兩維特征和最差兩維特征表示下的4類樣本散布圖,如圖4和圖5所示。另外由于聲吶數(shù)據(jù)本身分類性能較差,使用任意兩維特征,甚至三維特征均無法很好地區(qū)分不同類樣本,而高于三維特征表示的樣本散布圖又無法用圖形表示,因此本節(jié)僅以實(shí)測水聲目標(biāo)數(shù)據(jù)為例進(jìn)行闡明。

通過對(duì)比圖4和圖5可以看出,最佳兩維特征表示的4類樣本在平面中較好地分布在不同區(qū)域,可分性較好;而最差兩維特征的4類樣本混在一起,可分性較差。這說明本文特征選擇算法對(duì)特征分類性能的評(píng)價(jià)是可靠的。

綜上所述,本文提出的NBUFS算法能有效地選擇水聲目標(biāo)優(yōu)化特征子集,在一定程度上解決水聲目標(biāo)識(shí)別的問題。

3 結(jié)論

本文提出的近鄰無監(jiān)督特征選擇算法(NBUFS),利用順序向后特征搜索算法生成原始特征集的子集,并利用基于代表近鄰選取方法的特征評(píng)價(jià)機(jī)制評(píng)價(jià)特征子集的優(yōu)越性。使用實(shí)測水聲目標(biāo)數(shù)據(jù)和聲吶數(shù)據(jù)對(duì)其進(jìn)行實(shí)驗(yàn)驗(yàn)證的結(jié)果表明:本文算法能夠準(zhǔn)確地選擇出優(yōu)秀的特征子集,在分類實(shí)驗(yàn)中獲得較高的分類正確率,并減少分類時(shí)間,能較好地解決水聲目標(biāo)多域特征選擇問題。

[1] 楊宏暉, 王蕓, 孫進(jìn)才, 等. 融合樣本選擇與特征選擇的 AdaBoost支持向量機(jī)集成算法[J]. 西安交通大學(xué)學(xué)報(bào), 2014, 48(12): 63-68. YANG Honghui, WANG Yun, SUN Jincai, et al. An Adaboost support vector machine ensemble method with integration of instance selection and feature selection[J]. Journal of Xi'an Jiaotong University, 2014, 48(12): 63-68.

[2] 申昇, 楊宏暉, 袁帥. 用于水聲目標(biāo)識(shí)別的互信息無監(jiān)督特征選擇[J]. 聲學(xué)技術(shù), 2013, 32(6): 30-33. SHEN Sheng, YANG Honghui, YUAN Shuai. Mutual information unsupervised feature selection for underwater acoustic targets[J]. Technical Acoustics, 2013, 32(6): 30-33.

[3] Zhao Z, Liu H(2007)Spectral feature selection for supervised and unsupervised learning[C]//Proceedings of the 24th international conference on machine learning(ICML), ACM, New York, 1151-1157.

[4] Ng A, Jordan M, Weiss Y. (2001) On spectral clustering: analysis and an algorithm[C]//Proceedings of advances in neural information processing systems (NIPS), vol 14, MIT Press, Cambridge, 2001, 849-856.

[5] Mitra P, Murthy C a, Pal S K. Unsupervised Feature Selection Using Feature Similarity[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence PAMI, 2002, 24(3): 301-312.

[6] Yang L, Jin R, Mummert L, et al. A boosting framework for visuality-preserving distance metric learning and its application to medical image retrieval[J]. IEEE Trans. Patt. Anal. Mach. Intell, 2010, 32(1): 30-44.

[7] Yan R, Zhang J, Yang J, et al. A discriminative learning framework with pairwise constraints for video object classification[J]. IEEE Trans. Patt. Anal. Mach. Intell, 2006, 28(4): 578-593.

[8] Chen C H. Feature selection for clustering using instance-based learning by exploring the nearest and farthest neighbors[J]. Imformation Sciences, 2015, 318(3): 14-27.

[9] CHEN C H. A semi-supervised feature selection method using a non-parametric technique with side information[J]. Information Sciences, 2013, 39(3): 359-371.

[10] Havens T C, Bezdek J C. An Efficient Formulation of the Improved Visual Assessment of Cluster Tendency (iVAT) Algorithm[J]. IEEE Transactions on Knowledge and Data Engineering, 2012, 24(5): 813-822.

[11] Bezdek J C, Hathaway R J. VAT: A Tool for Visual Assessment of (Cluster)tendency[C]//Proceedings of the International Joint Conference on Neural Networks, 2002, 2225-2230.

Neighbor based unsupervised feature selection algorithm for underwater acoustic target recognition

CHEN Han-lu, YANG Hong-hui, SHEN Sheng

(Northwestern Polytechnical University, Xi’an 710072, Shaanxi,China)

The problem of feature redundancy in underwater target recognition has been studying by plenty of researchers. In this paper, a new neighbor based unsupervised feature selection algorithm is proposed. Primarily, the subsets of the original feature set extracted from the dataset are produced by using backward feature searching strategy. Subsequently, these feature subsets are evaluated with the assessment mechanism based on the representative neighbors choosing method. Results of classification experiments with actual measured underwater acoustic target dataset and sonar dataset after feature selection show that the accuracies of SVM classifiers remain almost the same when the numbers of features are decreased by 90% and 75%, which indicates that the proposed method improves the efficiency of subsequent learning algorithm with the redundant features removed.

underwater acoustic target recognition; unsupervised; feature selection; representative neighbors

TB533

A

1000-3630(2016)-03-0204-04

10.16300/j.cnki.1000-3630.2016.03.003

2015-05-21;

2015-09-17

水聲對(duì)抗技術(shù)重點(diǎn)實(shí)驗(yàn)室開放基金

陳含露(1991-), 女, 浙江麗水人, 碩士研究生, 研究方向?yàn)槟J阶R(shí)別、聲信號(hào)處理。

楊宏暉, E-mail:hhyang@nwpu.edu.cn

猜你喜歡
分類特征
抓住特征巧觀察
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
如何表達(dá)“特征”
不忠誠的四個(gè)特征
分類討論求坐標(biāo)
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
抓住特征巧觀察
主站蜘蛛池模板: 国产精品美女自慰喷水| 亚洲日本www| 久久久久国产精品嫩草影院| 97亚洲色综久久精品| 欧美国产综合色视频| 欧美一级高清片久久99| 久久久久夜色精品波多野结衣| 亚洲女同一区二区| 亚洲美女视频一区| 国产精品亚洲片在线va| 精品视频在线一区| 不卡午夜视频| 在线欧美一区| 国产毛片一区| 国产精品成| 在线观看国产小视频| 全部免费毛片免费播放| 欧美激情网址| 伊人精品视频免费在线| 国产青榴视频| 无码国内精品人妻少妇蜜桃视频| 国产超碰在线观看| 国产区免费精品视频| 东京热一区二区三区无码视频| 亚洲三级视频在线观看| 97国产成人无码精品久久久| 在线色国产| 亚洲欧美国产视频| 亚洲五月激情网| 欧美日韩国产系列在线观看| 日韩欧美中文| 国产美女一级毛片| 日韩精品无码免费一区二区三区| 精品人妻系列无码专区久久| 国产成人1024精品| 狠狠色狠狠综合久久| 亚洲综合香蕉| 欧美国产日韩在线播放| 中国毛片网| 亚国产欧美在线人成| 爆乳熟妇一区二区三区| 亚洲中文字幕23页在线| 亚洲一道AV无码午夜福利| 国产精品福利社| 18禁影院亚洲专区| 午夜综合网| 伊人色婷婷| 91久草视频| 欧美日韩一区二区三| 亚洲综合片| 深夜福利视频一区二区| 国产在线日本| 91麻豆精品国产高清在线| 欧美精品亚洲精品日韩专| 久久婷婷综合色一区二区| 国产三级成人| 在线无码av一区二区三区| 黄色网页在线观看| 成人一级黄色毛片| 国产成人永久免费视频| 成年女人a毛片免费视频| 国产精品永久不卡免费视频| 久久a级片| 欧美亚洲香蕉| 国产精品欧美亚洲韩国日本不卡| 四虎永久在线| 国产精品一区二区在线播放| 欧美另类精品一区二区三区| 蜜桃臀无码内射一区二区三区 | 真人高潮娇喘嗯啊在线观看| 欧美黄网在线| 国产真实二区一区在线亚洲| 欧美成在线视频| 最新加勒比隔壁人妻| 国产成人高清精品免费软件| 国产视频一区二区在线观看 | 国产精品99r8在线观看| 国产91视频免费观看| 亚洲日韩每日更新| 亚州AV秘 一区二区三区| 日韩欧美中文在线| 亚洲 成人国产|