999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于音頻特征的樂器分類研究

2018-09-04 09:37:16胡耀文龍華孫俊周濤邵玉斌
軟件導(dǎo)刊 2018年6期
關(guān)鍵詞:特征提取

胡耀文 龍華 孫俊 周濤 邵玉斌

摘 要:針對(duì)現(xiàn)有樂器分類研究中存在的使用特征量過多、分類準(zhǔn)確率有待提高等問題,提出了一種特征量少、準(zhǔn)確度高的樂器分類方法。基于Relief算法的主成分特征提取方法,計(jì)算出各特征量的權(quán)重,設(shè)計(jì)3層的神經(jīng)網(wǎng)絡(luò)分類器。根據(jù)所提算法和分類器,使用8項(xiàng)音頻特征與傳統(tǒng)的24項(xiàng)MFCC特征,分別對(duì)中西方9種樂器進(jìn)行了分類實(shí)驗(yàn),并分別使用權(quán)重最高的4、5、6項(xiàng)特征進(jìn)行分類實(shí)驗(yàn)。結(jié)果表明,所提出的音頻特征相比于傳統(tǒng)MFCC特征對(duì)樂器分類的平均準(zhǔn)確率更高,達(dá)到94.84%,且特征量更少,說明基于Relief算法的主成分特征提取方法能有效減小低相關(guān)性特征對(duì)分類準(zhǔn)確率的影響。

關(guān)鍵詞:樂器分類;音頻特征;MFCC;Relief算法;特征提取

DOI:10.11907/rjdk.172983

中圖分類號(hào):TP301

文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-7800(2018)006-0017-05

Abstract:To solve the problems in musical instrument classification studies like using too many features,lowclassification accuracy,etc,we proposed a musical instrument classification method with less features and high accuracy.We calculate the weight of each characteristics using the principal component feature extraction method based on Relief algorithm,and design three-layer neural network classifier.According to the proposed algorithm and classifier,we conduct the classification experiment between eight features proposed in this paper and traditionally twenty-four MFCC features,which include nine musical instruments consist of Chinese and western musical instrument,and accomplish the classification experiment by using the fourth,fifth and sixth characteristics with highest weight respectively.Results show that features proposed in this paper is fewer than MFCC features,and can get higher average accuracy which reached 94.84%.We can draw a conclusion that the principal component feature extraction method based on Relief algorithm can reduce the influence of low correlation characteristics on classification accuracy effectively.

Key Words:musical instrument classification; audio feature; MFCC; Relief algorithm; feature extraction

0 引言

樂器自動(dòng)分類是音頻檢索的重要組成部分,如何使用計(jì)算機(jī)分析和檢索多媒體數(shù)據(jù)中大量的音頻數(shù)據(jù)成為研究熱點(diǎn)。Zhu Liu 等 [1]通過對(duì)特征空間的簇間和簇內(nèi)距離分析,確定了包括幅值標(biāo)準(zhǔn)差、基因周期、能量比等12項(xiàng)特征的有效特征集,通過神經(jīng)網(wǎng)絡(luò)分類器實(shí)現(xiàn)對(duì)5種電視節(jié)目的分類。JD Deng等 [2]將基于特征分析的經(jīng)驗(yàn)學(xué)習(xí)用于古典樂器識(shí)別,使用機(jī)器學(xué)習(xí)技術(shù)對(duì)提取的特征集進(jìn)行選擇和評(píng)估,使用選出的17項(xiàng)特征將樂器分為銅管樂器、木管樂器、弦樂器、鋼琴4類,平均準(zhǔn)確率達(dá)到96.5%。Xueyuan Zhang等 [3]從頻譜中提取音高、音色及信號(hào)的非諧部分,提出了基于譜波分解的音頻特征集,使用主成分分析法(PCA)對(duì)特征向量進(jìn)行刪減,對(duì)包括男聲、女聲、鳥叫聲等13種音頻進(jìn)行分類測(cè)試,平均準(zhǔn)確率達(dá)到了84.1%。Mangal Joshi和Sharmila Nadgir[4]提取了音頻信號(hào)中的時(shí)域、頻域、倒譜域和小波域中的不同特征,將印度樂器分為弦樂器、銅管樂器、打擊樂器、木管樂器、鍵盤共5大類。張奇、蘇洪根[5]以樂器的MFCC系數(shù)及其一階導(dǎo)數(shù)為聲學(xué)特征,提出了一種基于支持向量機(jī)的樂器識(shí)別方法,對(duì)大提琴、長(zhǎng)笛、小號(hào)等6種樂器的平均識(shí)別準(zhǔn)確率達(dá)到96.7%。田莎莎等 [6]在MFCC參數(shù)的基礎(chǔ)上,提出了BMFCC特征參數(shù),通過大量實(shí)驗(yàn)表明MFCC特征參數(shù)各個(gè)分量對(duì)音頻的表征能力是不同的。陳卓[7]在Eeka平臺(tái)上使用由不同維度MFCC特征參數(shù)構(gòu)成的特征集,對(duì)古箏、琵琶、鋼琴等樂器進(jìn)行了分類實(shí)驗(yàn),結(jié)果表明,基于隨機(jī)森林的分類器最優(yōu)識(shí)別率可達(dá)到95.7%。郅逍遙等 [8]提出了一種基于相空間和柔性神經(jīng)樹的新的樂器分類方法,對(duì)圓號(hào)、鋼琴、喇叭、長(zhǎng)笛的分類平均正確率大于86%。華斌等 [9]對(duì)經(jīng)典MFCC系數(shù)進(jìn)行了分析,提出了基于熵值法加權(quán)的MFCC系數(shù),提高了音頻檢索的識(shí)別率。

這些研究中使用的特征量大多為30個(gè)以上,即使對(duì)特征量進(jìn)行了刪減,刪減后的特征量也超過16個(gè)[2],無疑增加了分類復(fù)雜度和處理時(shí)間;參與分類的樂器大多是國(guó)外樂器,如歐美樂器[5]、馬來西亞樂器[10]、巴基斯坦樂器[11],對(duì)中國(guó)樂器的分類研究較少[7-8],分類類別較少,分類準(zhǔn)確率也有待提高;大多數(shù)研究?jī)H注重了不同特征量搭配對(duì)分類結(jié)果的影響,忽視了各特征量自身對(duì)分類結(jié)果的影響程度。

本文提出8項(xiàng)特征量,結(jié)合神經(jīng)網(wǎng)絡(luò)分類器完成了對(duì)9種樂器的分類,還使用基于Relief算法的主成分特征提取方法,將特征量進(jìn)一步減少到6項(xiàng),平均分類準(zhǔn)確率達(dá)到94.84%。

1 特征提取

特征提取是將原始輸入數(shù)據(jù)轉(zhuǎn)化為數(shù)字表示的特征集的過程,其目的是從原始的大量數(shù)據(jù)中提取出有代表性的信息,用少量特征數(shù)據(jù)替代原始數(shù)據(jù)完成目標(biāo)任務(wù)[10]。通常使用的特征量包括頻域特征和時(shí)域特征,文獻(xiàn)[2-4]都表明頻域特征與時(shí)域特征的結(jié)合使用對(duì)提高音頻分類準(zhǔn)確率至關(guān)重要。本文從已有研究中選取部分基本且重要的時(shí)域和頻域特征,與能熵比、倒譜等能夠反映音頻深層信息的特征共同組成新的特征集。本文使用的特征集包括表1中的前8項(xiàng)特征,另有包含24項(xiàng)特征的MFCC特征集用于對(duì)比試驗(yàn)。

設(shè)信號(hào)第i幀中第n個(gè)點(diǎn)的幅值為u-i(n),分幀后的總幀數(shù)為f-n,分幀的幀長(zhǎng)為L(zhǎng),第m個(gè)音頻段的信號(hào)幅值序列為x-m,延遲量為k。各特征量詳細(xì)描述如下:

(1)短時(shí)平均幅度U-i,也是一幀語(yǔ)音信號(hào)能量大小的表征,它與短時(shí)能量的區(qū)別在于計(jì)算時(shí)不會(huì)因采樣值大小取二次方而造成較大差異。

其中,f是以Hz為單位的實(shí)際頻率。MFCC(Mel-scale Frequency Cepstral Coefficients,即梅爾倒譜系數(shù))是在Mel標(biāo)度頻率域提取出來的倒譜參數(shù)。MFCC參數(shù)分析是基于人的聽覺機(jī)理,即依據(jù)人的聽覺實(shí)驗(yàn)結(jié)果分析語(yǔ)音的頻譜。下面分別對(duì)8個(gè)特征和傳統(tǒng)的MFCC 24項(xiàng)參數(shù)進(jìn)行樂器分類實(shí)驗(yàn)。

2 分類器設(shè)計(jì)與主成分特征提取

2.1 分類器構(gòu)建

本文使用MATLAB設(shè)計(jì)3層BP(Backward Propagation)神經(jīng)網(wǎng)絡(luò)分類器[12],如圖1所示。BP算法是一種監(jiān)督式的機(jī)器學(xué)習(xí)算法,在建立預(yù)測(cè)模型時(shí),利用監(jiān)督式學(xué)習(xí)建立一個(gè)學(xué)習(xí)過程,將預(yù)測(cè)結(jié)果與“訓(xùn)練數(shù)據(jù)”的實(shí)際結(jié)果進(jìn)行比較,不斷調(diào)整預(yù)測(cè)模型,直到模型的預(yù)測(cè)結(jié)果達(dá)到一個(gè)預(yù)期的準(zhǔn)確率。預(yù)測(cè)模型確立后,使用測(cè)試數(shù)據(jù)對(duì)其進(jìn)行檢驗(yàn)。

2.2 主成分特征提取

為了分析各特征對(duì)樂器分類的相關(guān)程度,減少相關(guān)度低的特征量對(duì)分類準(zhǔn)確率的影響,本文使用Relief算法[13]計(jì)算分類器中各項(xiàng)特征所占的權(quán)重,具體如下:①?gòu)挠?xùn)練集D中隨機(jī)選擇一個(gè)樣本R;②從與R同類的樣本集中找到R的最近鄰樣本H,從與R不同類的樣本集中找到R的最近鄰樣本M;③求權(quán)重:若某個(gè)特征在R和H間的距離小于R和M間的距離,則該特征對(duì)分類是有益的,增加該特征權(quán)值,反之,則該特征對(duì)分類是有害的,降低其權(quán)值,如式(14)所示。各特征權(quán)值在所有特征總權(quán)值中所占比重即為各特征的權(quán)重,如式(15)所示。

其中,W為特征權(quán)值向量,W-0為特征權(quán)值向量的初始值,本文設(shè)為零向量,diff(R,H)表示R和H各特征向量的距離,diff(R,M)表示R和M各特征向量的距離,w-i表示各特征權(quán)重的向量。特征權(quán)重越大,表示該特征的分類性能越好,反之越差。

3 實(shí)驗(yàn)設(shè)置

3.1 音頻數(shù)據(jù)集建立

數(shù)據(jù)集是設(shè)計(jì)和改進(jìn)分類系統(tǒng)的關(guān)鍵之一,不同的作者獲取和處理音頻數(shù)據(jù)的方法不盡相同,但大多是基于使用音頻段長(zhǎng)度、分幀長(zhǎng)度、音頻格式、音頻種類、采樣率和濾波技術(shù)等方面的不同。文獻(xiàn)[14]從采樣率為44.1kHz的6種樂器音頻中提取300個(gè)音頻段,每個(gè)音頻段長(zhǎng)度為20s。文獻(xiàn)[15]從音頻中提取出5286個(gè)樣本用于29種西方管弦樂器分類,使用漢明窗,固定幀移為幀長(zhǎng)的25%時(shí),分別對(duì)幀長(zhǎng)為20ms和40ms時(shí)的分幀進(jìn)行測(cè)試。文獻(xiàn)[16]將音頻段長(zhǎng)度設(shè)為0.1s~10s,使用漢明窗,幀長(zhǎng)為256,幀移為幀長(zhǎng)的50%。文獻(xiàn)[10]采樣率為22.1kHz,對(duì)幀長(zhǎng)為256和1024的分幀進(jìn)行測(cè)試。文獻(xiàn)[11]將音頻段長(zhǎng)度設(shè)為10s,每種音頻樣本數(shù)為120個(gè),采樣率為16kHz。這些實(shí)驗(yàn)使用的各種參數(shù)表明,目前對(duì)如何確定用于建立數(shù)據(jù)集的最優(yōu)參數(shù)沒有基準(zhǔn)可循[10]。

對(duì)180min的音頻樣本進(jìn)行特征提取,音頻文件均統(tǒng)一為WAV格式,采樣率為8 000Hz,位數(shù)為16位,音頻段長(zhǎng)度均為4s,分幀使用海寧窗,幀長(zhǎng)200,幀移80,樂器種類及其提取出的樣本個(gè)數(shù)如表2所示。

3.2 全特征實(shí)驗(yàn)

首先,根據(jù)本文所提8項(xiàng)特征組成的特征集1和由24項(xiàng)MFCC特征組成的特征集2,分別劃分出訓(xùn)練數(shù)據(jù)1、2和測(cè)試數(shù)據(jù)1、2;然后,將訓(xùn)練數(shù)據(jù)1、2分別輸入設(shè)計(jì)好的三層神經(jīng)網(wǎng)絡(luò)分類器進(jìn)行訓(xùn)練;最后,將測(cè)試數(shù)據(jù)1、2分別輸入由訓(xùn)練數(shù)據(jù)1、2訓(xùn)練好的分類器中,得到分類結(jié)果。

為了分析不同訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)對(duì)實(shí)驗(yàn)結(jié)果的影響,對(duì)每種分類器分別使用訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)數(shù)量比例(訓(xùn)測(cè)比)為1∶1、1∶2、2∶1的數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)。

3.3 主成分特征實(shí)驗(yàn)

基于Relief算法的主成分特征提取方法,計(jì)算出本文所提特征集中各特征量的權(quán)重,使用權(quán)重最大的4、5、6個(gè)特征量,按照特征集1的實(shí)驗(yàn)方法分別進(jìn)行分類實(shí)驗(yàn)。

4 分類結(jié)果分析

分類器的分類結(jié)果通過平均準(zhǔn)確率P進(jìn)行對(duì)比:

不同訓(xùn)測(cè)比下的分類器分類結(jié)果見圖2、圖3、圖4。

從圖2、圖3、圖4可以看出,本文提出的8項(xiàng)特征分類性能比傳統(tǒng)的24項(xiàng)MFCC特征更穩(wěn)定。使用MFCC特征分類時(shí),在不同訓(xùn)測(cè)比試驗(yàn)中均出現(xiàn)無法正確分類的情況,如圖2中GT-SKS(吉他-薩克斯)、GT-SN(吉他-嗩吶)、WB-PP(烏巴-琵琶)分類的平均準(zhǔn)確率只有50%。

本文提出的特征集與MFCC特征集在各訓(xùn)測(cè)比下分類平均準(zhǔn)確率如表3所示。在訓(xùn)測(cè)比為1∶1和1∶2時(shí),本文提出的特征準(zhǔn)確率更高,而在訓(xùn)測(cè)比為2∶1時(shí),表現(xiàn)比MFCC特征集稍差,這可能是由于本文所提的特征集存在與分類相關(guān)性較小的特征項(xiàng),影響了分類準(zhǔn)確率。因此,基于Relief算法的主成分特征提取進(jìn)行實(shí)驗(yàn),對(duì)提取的權(quán)重最大的4、5、6個(gè)特征量重新進(jìn)行分類實(shí)驗(yàn)。

不同分類實(shí)驗(yàn)中各特征量所占權(quán)重的部分值見表4,實(shí)驗(yàn)結(jié)果見圖5。可見,基于Relief算法的主成分特征提取能有效減少較小相關(guān)性特征項(xiàng)對(duì)分類準(zhǔn)確率的影響。本文提出的特征集比MFCC特征集使用的特征量更少,且對(duì)文中9種樂器的分類準(zhǔn)確率更高,達(dá)到94.84%。

5 結(jié)語(yǔ)

針對(duì)過去樂器分類研究使用特征量過多、復(fù)雜度高、分類準(zhǔn)確率較低的問題,提出了一種特征量少、準(zhǔn)確率高的樂器分類方法。將提取的8項(xiàng)特征量和傳統(tǒng)24項(xiàng)MFCC特征量分別輸入神經(jīng)網(wǎng)絡(luò)分類器進(jìn)行試驗(yàn),對(duì)包括中國(guó)樂器和西方樂器的9種樂器的分類結(jié)果表明,在訓(xùn)測(cè)比為1∶1和1∶2時(shí),本文提出的特征準(zhǔn)確率更高,分別為93.87%和92.75%,而在訓(xùn)測(cè)比為2∶1時(shí),MFCC特征集表現(xiàn)較好,為94.14%。使用基于Relief算法的主成分特征提取方法,對(duì)從8項(xiàng)特征中提取出的權(quán)重最高的4、5、6項(xiàng)特征分別進(jìn)行分類實(shí)驗(yàn),結(jié)果表明,使用權(quán)重最高的6項(xiàng)特征進(jìn)行分類的平均準(zhǔn)確率比使用8項(xiàng)特征時(shí)有所提高,達(dá)到了94.84%,說明本文提出的基于Relief算法的主成分特征提取方法能夠有效降低權(quán)重較小的特征量對(duì)分類準(zhǔn)確率的影響。

參考文獻(xiàn):

[1] LIU Z,WANG Y, CHEN T.Audio feature extraction and analysis for scene segmentation and classification[J].Kluwer Academic Publishers.1998,20(1-2):61-79.

[2] DENG J D,IMMERMACHER C S,CRANEFIELD S.A study on feature analysis for musical instrument classification[J].IEEE Transactions on Systems,Man and Cyberntics,2008,38(2):429-439.

[3] ZHANG X Y, SU Z, LIN P, et al. An audio feature extraction scheme based on spectral decomposition[C].International Conference on Audio,Language and Image Processing,2014:730-733.

[4] JOSHI M,NADGIR S. Extraction of feature vectors for analysis of musical instruments[J].International Conference on Advances in Electronics, Computers and Communications,2015,25(27):1-6.

[5] 張奇,蘇洪根.基于支持向量機(jī)的樂器識(shí)別方法[J].計(jì)算機(jī)工程與應(yīng)用,2004,40(18):99-101.

[6] 田莎莎,唐菀,佘緯.改進(jìn)MFCC參數(shù)在非特定人語(yǔ)音識(shí)別系統(tǒng)中的研究[J].科技通報(bào),2013,29(3):139-142.

[7] 陳卓.基于多種分類器的樂器識(shí)別[D].昆明:云南大學(xué),2014:31-43.

[8] 郅逍遙,李臨生,郭哲喆,等.基于相空間和柔性神經(jīng)樹的樂器分類[J].計(jì)算機(jī)工程與應(yīng)用,2015,32(2):159-162.

[9] 華斌,張麗超,趙富強(qiáng).基于加權(quán)MFCC的音頻檢索[J].計(jì)算機(jī)工程與應(yīng)用,2015,51(8):200-204.

[10] SENAN N,IBRAHIM R,MOHD N NAWI,et al.Feature Extraction for traditional malay musical instruments classification system[C].2009 International Conference of Soft Computing and Pattern Recognition.2009:454-459.

[11] LASHARI S,IBRAHIM R,SENAN N.Soft set theory for automatic classification of traditional pakistani musical instruments sounds[C]. 2012 International Conference on Computer and Information Science,2012:94-99.

[12] 胡耀文,孫俊,方芳,等.基于BP神經(jīng)網(wǎng)絡(luò)的接收信號(hào)強(qiáng)度的檢測(cè)方法[J].云南大學(xué)學(xué)報(bào),2017,39(4):534-538.

[13] 黃莉莉,湯進(jìn),孫登第,等.基于多標(biāo)簽ReliefF的特征選擇算法[J].計(jì)算機(jī)應(yīng)用,2012,32(10):2888-2890.

[14] BENETOS E,KOTTI M,KOTROPOULUS C.Musical Instrument Classification using non-negative matrix factorization algorithms and subset feature selection[C].IEEE International Conference on Acoustics, Speech and Signal Processing.2006.

[15] ERONEN A.Comparison of features for musical instrument recognition[C].IEEE Workshop on the Applications of Signal Processing to Audio and Acoustics,2002:19-22.

[16] LIU M,WAN C.Feature selection for automatic classification of musical instrument sounds[C].ACM/IEEE-CS Joint Conference on Digital Libraries,2001:247-248.

(責(zé)任編輯:杜能鋼)

猜你喜歡
特征提取
特征提取和最小二乘支持向量機(jī)的水下目標(biāo)識(shí)別
基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
電子制作(2019年15期)2019-08-27 01:12:00
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
基于DNN的低資源語(yǔ)音識(shí)別特征提取技術(shù)
Bagging RCSP腦電特征提取算法
一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
基于DSP的直線特征提取算法
基于改進(jìn)WLD的紋理特征提取方法
淺析零件圖像的特征提取和識(shí)別方法
基于CATIA的橡皮囊成形零件的特征提取
主站蜘蛛池模板: 国产高清无码第一十页在线观看| 久久国产精品娇妻素人| 久久国产亚洲偷自| 欧洲亚洲一区| 欧美国产精品不卡在线观看| 亚洲第一黄色网址| 人妻精品全国免费视频| 日韩a级毛片| 国产精品密蕾丝视频| 黄色网页在线播放| 日韩小视频在线观看| 亚洲欧美不卡视频| 九九精品在线观看| 国产h视频在线观看视频| 国产精品亚洲精品爽爽| 中文字幕永久视频| 日韩欧美网址| 91久草视频| 国产香蕉在线| 啊嗯不日本网站| 婷婷色狠狠干| 国产免费精彩视频| 国产亚洲欧美在线人成aaaa | 67194成是人免费无码| 欧洲熟妇精品视频| 亚洲成人免费在线| 亚洲欧洲自拍拍偷午夜色| 国产美女免费| 国产成人亚洲综合A∨在线播放| 蜜桃臀无码内射一区二区三区| 日本少妇又色又爽又高潮| 精品欧美一区二区三区久久久| 青青草原国产| 黄色网在线| 国产尹人香蕉综合在线电影| 成年人久久黄色网站| 成人va亚洲va欧美天堂| 就去色综合| 最新国产午夜精品视频成人| 在线一级毛片| 无码内射在线| 91精品综合| a级毛片一区二区免费视频| 国产原创演绎剧情有字幕的| 视频在线观看一区二区| 毛片久久久| 国产成人无码播放| 国产91丝袜在线播放动漫 | 91娇喘视频| 漂亮人妻被中出中文字幕久久| 亚洲综合18p| 欧美色99| 亚洲色欲色欲www在线观看| 91激情视频| 日韩在线播放中文字幕| 日韩欧美国产成人| 免费高清a毛片| 福利视频99| 免费国产黄线在线观看| 日本欧美视频在线观看| 99这里只有精品免费视频| 91探花国产综合在线精品| 色婷婷综合在线| 国产亚洲精品在天天在线麻豆 | 亚洲精品卡2卡3卡4卡5卡区| 免费在线a视频| 无码丝袜人妻| 福利在线不卡| 久久精品无码一区二区国产区| 在线精品视频成人网| 欧美国产在线精品17p| 午夜毛片免费看| 日韩第一页在线| 久久免费视频6| 欧美午夜视频在线| 亚洲国产日韩视频观看| 亚洲成综合人影院在院播放| 国产在线精彩视频二区| 日韩国产亚洲一区二区在线观看 | 99久久精彩视频| 成人一级黄色毛片| 国禁国产you女视频网站|