999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進視覺詞袋模型的水聲目標識別①

2021-05-21 07:22:34潘安迪
計算機系統(tǒng)應(yīng)用 2021年5期
關(guān)鍵詞:詞匯特征模型

潘安迪,肖 川,陳 曦

(復旦大學 計算機科學技術(shù)學院,上海 201203)

1 介紹

水聲目標識別的任務(wù)是通過采集到水聲目標的信號來對目標進行識別和檢測[1].海水是一種復雜的介質(zhì),具有時變特性,充斥復雜噪聲的特性[2-4].因此捕捉到的聲學信號在時間和相位上擁有時變的特點[2].這也使得水聲目標識別是一項具有挑戰(zhàn)性的工作.

在水聲目標識別領(lǐng)域早期,大部分分類任務(wù)都是基于特征工程與分類器構(gòu)造的[5].常被水聲目標識別使用的特征有梅爾頻率倒譜系數(shù)(Mel Frequency Cepstrum Coefficient,MFCC),時頻譜特征等等.從特征工程的角度來講,有人設(shè)計手工特征,如Li 等[2]通過比較小波包分解后不同頻帶的分形維數(shù)(Fractal Dimension,FD)值來設(shè)計船聲信號特征;有人使用特征組合和特征選擇方法來組合、抽取以構(gòu)成更加魯棒的特征,如Jiang 等[6]將功率譜(power spectra)和方譜特征(square spectrum feature)結(jié)合起來,并且使用主成成分分析法降維,獲得更加有判別力的特征.分類器構(gòu)構(gòu)造方面,有人引入集成算法,如Sun 等[7]使用自適應(yīng)提升算法(AdaBoost)構(gòu)造并集成多個有偏好的分類器,以提高最終分類準確率;有人致力于核函數(shù)的構(gòu)造,如Sherin等[8]使用BAT 算法進行核函數(shù)的構(gòu)造與選擇.整體而言,在水聲目標識別領(lǐng)域中,抽取的特征能否有效地表示樣本決定了模型的性能.

近年來,由于深度學習可以從數(shù)據(jù)中自動學習特征,并且學得的特征比傳統(tǒng)特征更能表示樣本,成為了近年來的研究熱點,如Xie 等[9]基于時頻譜,使用了深度玻爾茲曼機.然而,深度學習方法在擁有大量數(shù)據(jù)時才更好地發(fā)揮優(yōu)越性,顯然,常見的水聲目標識別數(shù)據(jù)集無法滿足這一要求.因此,半監(jiān)督學習方法被引入.Yang 等[10]使用無標簽數(shù)據(jù)預訓練了深度信念網(wǎng)絡(luò),利用競爭性學習方法以及標簽數(shù)據(jù)對神經(jīng)元進行聚類,最后進行微調(diào).鄧晉等[11]使用了兩類遷移學習方法,基于ImageNet[12]和AudioSet 訓練分類模型作為特征提取器,對于抽取的深度特征進行進一步分類;另一種方法是,將上述模型作為預訓練模型,使用水聲目標識別數(shù)據(jù)集進行微調(diào)得到最終的分類模型.

在現(xiàn)實的海洋環(huán)境聲學場景中,往往船只的聲音信號伴隨著很大的背景噪聲[13,14],傳統(tǒng)的低層次特征[15-18]對噪聲會比較敏感,因為低層次特征容易直接被聲音信號中的物理性質(zhì)影響.在圖像分類任務(wù)[19-21]中,視覺詞袋模型是一個有效的模型,常常被用于計算機視覺中的目標識別任務(wù).與另外一種高層次特征SIFT[22]相比,視覺化詞袋模型更適合水聲目標識別,因為水聲音頻信號頻譜沿著時間軸的變化是顯著的,但是在尺度,位置以及形態(tài)上面沒有顯著的特征.因此,本文提出了一種基于改進視覺化詞袋模型的方法來進行水聲目標識別,對高層次特征進行提取,通過建立視覺詞本,統(tǒng)計一個音頻頻譜圖中含有的每個視覺化詞條的數(shù)量,將這個向量轉(zhuǎn)化為TF-IDF 向量,得到最終的特征,輸入到多層感知機中,進行分類.

本文后續(xù)的組織結(jié)構(gòu)如下:第2 節(jié)介紹本文提出的算法流程以及算法的原理;第3 節(jié)介紹本文進行的實驗,包括實驗配置以及實驗結(jié)果和結(jié)果分析;第4 節(jié)對文章進行總結(jié).

2 算法設(shè)計

本文提出的算法的整體架構(gòu)如圖1所示.首先,對音頻信號進行預處理,將音頻信號轉(zhuǎn)換為梅爾頻譜,然后對梅爾頻譜圖做歸一化操作,將梅爾頻譜圖轉(zhuǎn)換為灰值圖譜.然后需要建立視覺詞匯庫,在每個類別中隨機抽取10 個樣本,對樣本進行上述的預處理操作,轉(zhuǎn)換為灰度圖,然后將灰度圖中的一列作為一個視覺詞匯,將所有視覺詞匯打亂,使用K-means 聚類[23]將所有視覺詞匯聚類為600 個簇心.簇心的數(shù)目即視覺詞匯庫的規(guī)模.最后,訓練集中的音頻數(shù)據(jù)都需要進行預處理,然后將灰度圖中的每一列歸類到視覺詞匯庫中的某個詞匯,從而得到一個600 維的向量,每個維度表示的是該樣本對應(yīng)的灰度圖中含有某個詞匯的數(shù)量.

2.1 預處理

由于船只噪聲信號能量主要分布在8000 Hz 以下的低頻帶,為了更好地表現(xiàn)能量沿著頻率軸的變化,我們選擇梅爾頻譜來表現(xiàn)信號的時頻特性.目標音頻信號采用的采樣率為52 734 Hz,使用50%重疊的90 ms漢明窗加窗函數(shù),然后通過歸一化操作將梅爾頻譜圖轉(zhuǎn)換為灰度圖,公式描述如下,得到224×224的圖片格式.

2.2 建立視覺詞匯庫

詞袋模型(Bag of Words,BOW)[24]是自然語言處理(natural language processing)領(lǐng)域中常用的算法,用來表示文本信息.詞袋模型假設(shè)一個文檔,忽視文檔的單詞順序與語法,僅將文本看作詞語的集合,用詞語的統(tǒng)計信息來表示一個文檔.在本論文中我們將灰度圖中的一列作為一個詞匯,從而得到視覺詞袋模型(Bags of Visual Words,BOVW),可以將頻譜圖表示為一個統(tǒng)計向量[25].首先,我們需要建立視覺詞匯庫.從每個類別中隨機選擇10 個樣本,轉(zhuǎn)化為灰度頻譜圖,然后把灰度頻譜圖的每一列作為一個詞匯,使用K-means 聚類算法,使用余弦距離作為度量標準,將50 個樣本中所有的詞匯進行聚類,聚類為k個類別,k為視覺詞匯庫的規(guī)模,即為其中含有的詞匯數(shù)量.

圖1 算法整體流程圖

2.3 視覺詞袋表示

建立視覺詞匯庫之后,我們將提取音頻的視覺詞袋表示特征.首先我們將音頻轉(zhuǎn)化為灰度圖,然后將灰度圖中的每一個列作為視覺詞匯,將視覺詞匯與視覺詞匯庫中的K個標準視覺詞匯進行對比,找到歐式距離最近的標準視覺詞匯Wi,這一列視覺詞匯即屬于視覺詞匯Wi.在得到了灰度圖中的每一列所屬的視覺詞匯之后,通過統(tǒng)計每一個視覺詞匯出現(xiàn)的次數(shù),得到一個K維向量,這個向量即為一個音頻的視覺詞袋表示.在視覺詞袋模型上,本文還使用TF-IDF 方法做出了額外的改進,用來凸顯重要性高的視覺詞匯,對重要性較低的視覺詞匯則使用較低的權(quán)重.視覺詞袋表示的特征提取流程如算法2.

算法2.視覺詞袋特征提取輸入:樣本音頻輸出:視覺詞袋特征向量(V1,V2,…,V224)←G←Preprocess(S)#對音頻進行預處理,得到灰度圖,將灰度圖中的每一列當成一個視覺詞匯(N1,N2,…NK)←(Wi…)←match(((V1,V2,…,V224)))#在視覺詞匯庫中找到歐式距離最近的標準詞匯W,將這一列看作詞匯Wi, 統(tǒng)計灰度圖中包含的各個視覺詞匯的數(shù)量,得到一個K 維向量,向量的第i 維是視覺詞匯Wi的數(shù)量(F1,F2,…,FK)←Mutiply((N1,N2,…,NK),(TDF,TDF,…,TDF))#計算逆文件頻率(IDF)向量,將兩個向量對應(yīng)位置的值相乘,得到K 維的BOVW-TF-IDF 向量

TF-IDF (Term Frequency-Inverse Document Frequency,詞頻-逆向文件頻率)[26]是一種用于信息檢索與文本挖掘的常用加權(quán)技術(shù).其實TF是詞頻(Term Frequency),表示了詞語在文本中出現(xiàn)的頻率,IDF (Inverse Document Frequency)是逆文檔頻率,表示了詞語在語料庫中出現(xiàn)的頻率.TF-IDF是一種統(tǒng)計方法,用以評估一個詞匯對于一個語料庫中的其中一份文檔的重要程度.詞匯的重要性隨著它文檔中出現(xiàn)的次數(shù)成正比增加,但同時會隨著它在語料庫中出現(xiàn)的頻率成反比下降,例如常用的“的”字.在視覺詞匯中,詞匯同樣有重要程度的區(qū)別,比較重要的視覺詞匯更能顯著地描述樣本,重要程度低的視覺詞匯可能與音頻信號中共有的場景以及噪聲有關(guān).所以本論文中將視覺詞袋模型方法提取的向量轉(zhuǎn)化為TF-IDF 向量,表示為如公式:

IDFi可以衡量視覺詞匯Wi在視覺詞匯庫中的重要程度,在音頻文件轉(zhuǎn)換得到的灰度圖中出現(xiàn)的頻率越高,重要程度越低,反之,則重要程度越高.

2.4 分類器

感知機(perceptron)[27]是最原始的前饋神經(jīng)網(wǎng)絡(luò).它通過權(quán)重w和偏置項b,可以將一個多維輸入X映射為一個二元的值,是一種簡單的二元線性分類器.多層感知機(multilayer perceptron)是感知機的推廣.感知機由輸入層部分、隱藏層部分和輸出層部分組成,隱藏層部分可以是一層或者多層的.每一層由多個感知機單元組成,輸入為上一層的所有輸出.同時,若多層感知器的每一個單元都是線性的,那么任意多層感知機都可被等價為一個單層感知機.所以,多層感知機中,每一個單元都選擇了非線性的激活函數(shù).最終,使用衡量預測值與實際值之間誤差的損失函數(shù),通過反向傳播算法,一個多層感知機可以在訓練集上面擬合.

在本文中,我們將設(shè)置感知機的參數(shù)為:輸入層的神經(jīng)元數(shù)目為600,即為輸入特征的維數(shù),也是聚類算法的簇心數(shù)目,視覺詞匯庫的規(guī)模;中間隱藏層的神經(jīng)元數(shù)目為300;輸出層神經(jīng)元數(shù)目與類別數(shù)目一致,為5 個神經(jīng)元.在輸入層和隱藏層之后都使用批歸一化(batch normalization)來調(diào)整數(shù)據(jù)的分布.本文使用的感知機原理圖簡化如圖2.

圖2 多層感知機原理圖

本文還測試了將支持向量機[28]和隨機森林[29]作為后端分類器的性能,結(jié)果顯示多層感知機要優(yōu)于其他兩個分類器,實驗結(jié)果在第3.4 節(jié)中給出.

3 實驗及結(jié)果分析

3.1 實驗平臺

本文實驗在 Ubuntu20.04 系統(tǒng)下,利用 Python 語言,Scikit-Learn[30]機器學習框架完成.硬件環(huán)境為CPU Intel I7,內(nèi)存 16 GB,顯卡 Nvidia GeForce RTX1080Ti.

3.2 數(shù)據(jù)集

本文中使用的船舶噪聲數(shù)據(jù)集來自于挪威科技大學在2012-2013年錄制的ShipsEar 數(shù)據(jù)集.ShipsEar 數(shù)據(jù)集包含不同種類的船只錄音以及海洋環(huán)境自然背景噪聲,旨在用于訓練船只識別檢測系統(tǒng).該數(shù)據(jù)集總共包含90 條記錄,每條記錄的長度從15 秒到10 分鐘不等,船只總共有11 類,根據(jù)原論文的分類,將11 種船只噪聲和海洋環(huán)境自然背景噪聲合并為A,B,C,D,E 五類,其中E 類為自然背景噪聲,詳細的分類如表1所示.

表1 ShipsEar 數(shù)據(jù)集詳情

3.3 評價指標

在評估模型性能過程中,經(jīng)常需要使用多種不同指標進行評估.大部分的評價指標只能片面的反映模型某一部分的性能.常用的分類任務(wù)評價指標有精確率(Precision),召回率(Recall),準確率(Accuracy),F1.本文的數(shù)據(jù)類別比較均衡,用Accuracy即可較好地評估模型的好壞.將模型的預測結(jié)果和真實的標簽進行對比,真正例(True Positive,TP)為被模型預測為正的正樣本,假正例(False Positive,FP)為被模型預測為正的負樣本,假負例(False Negative,FN)為被模型預測為負的正樣本,真負例(True Negative,TN)為被模型預測為負的負樣本.

3.4 結(jié)果分析

本論文選擇現(xiàn)在ShipEar 船舶噪聲數(shù)據(jù)集上使用神經(jīng)網(wǎng)絡(luò)達到最好性能的論文:基于深度玻爾茲曼機的水聲目標識別算法(dbm-based underwater acoustic source recognition)作為對比模型.該論文提出了一種通過數(shù)據(jù)集用深度學習學習特征的方法進行水聲目標識別.

為了體現(xiàn)本文提出的使用詞頻-逆文件頻率改進的視覺詞袋特征(BOVW-TF-IDF)的作用,本實驗選擇了對比使用詞頻-逆文件頻率改進的視覺詞袋特征(BOVW-TF-IDF)與視覺詞袋特征(BOVW)的效果,分類器都是多層感知機.如表2,可以看出,BOVW-TF-IDF特征相比傳統(tǒng)BOVW 特征能更好地表示水聲目標識別信號,可能是因為TF-IDF 算法可以將在每個類別中都會出現(xiàn)的噪聲以及海洋背景聲的權(quán)重降低了,使得能表示船只特性的詞匯更為突出.

表2 與DBM 算法性能對比

在第一個實驗中,我們對現(xiàn)在基于深度玻爾茲曼機的水聲識別算法性能和本文提出的算法的正確率進行對比.如表2所示,本文提出的算法相對基于深度玻爾茲曼機的水聲識別算法有比較明顯的提升,證明了本文提出的特征表示方法是很有價值的,可以達到深度學習模型提取特征的效果.

本文選擇了3 種分類器進行對比,結(jié)果見表3,輸入的都是TF-IDF 特征,根據(jù)3 種分類器的正確率,最終選擇了多層感知機作為末端分類器.可以看出多層感知機的分類準確率要高于其他兩個分類器,所以本文選擇多層感知機作為末端分類器.

表3 不同分類器的分類正確率對比

分類器的正確率也會受詞匯庫的規(guī)模影響,如圖3所示,在詞匯庫規(guī)模超過600 之后,識別的正確率有降低的趨勢.可能是因為聲音的頻譜圖比現(xiàn)實中的更抽象,600的詞匯庫規(guī)模已經(jīng)可以有效地表示水聲目標,達到比較高的正確率

圖3 不同詞匯規(guī)模對模型性能的影響對比

4 結(jié)論與展望

本文針對水聲目標識別問題,提出了一種基于改進視覺化詞袋模型的算法,該算法通過視覺化詞袋方法提取出了頻譜圖中的統(tǒng)計信息作為高階表示,并且使用了自然語言處理中常用的詞頻-逆文件頻率方法來調(diào)整特征的權(quán)重,能夠更有效地利用重要的視覺特征,降低環(huán)境聲以及噪聲的影響,并在ShipEar 數(shù)據(jù)集上取得了92.53%的平均準確率,相較于現(xiàn)在效果最好的DBM 算法有了顯著的提升,滿足了現(xiàn)實應(yīng)用場景的準確率需求.本文提出的算法的思路可以廣泛運用于音頻分類的領(lǐng)域.

猜你喜歡
詞匯特征模型
一半模型
本刊可直接用縮寫的常用詞匯
一些常用詞匯可直接用縮寫
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
如何表達“特征”
本刊可直接用縮寫的常用詞匯
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 久久大香伊蕉在人线观看热2 | 孕妇高潮太爽了在线观看免费| 精品久久香蕉国产线看观看gif| 亚洲AV成人一区国产精品| 99久久精品免费观看国产| 亚洲无码日韩一区| 新SSS无码手机在线观看| 久久9966精品国产免费| 国产成人精品免费视频大全五级| 最新国产在线| 亚洲性影院| 午夜福利免费视频| 久久久亚洲色| 婷婷六月激情综合一区| 久久久久久高潮白浆| 亚洲AV电影不卡在线观看| 国产精品一线天| 中文字幕人妻无码系列第三区| www.av男人.com| 国产v精品成人免费视频71pao| 成年人久久黄色网站| 国产欧美精品一区aⅴ影院| 亚洲国内精品自在自线官| 视频二区亚洲精品| 国产99热| 亚洲午夜综合网| 亚洲综合一区国产精品| 黄色不卡视频| 九色视频线上播放| 激情网址在线观看| 国产91视频观看| a级高清毛片| 欧美啪啪网| 亚洲欧美日韩动漫| 成人蜜桃网| 日本一区二区三区精品国产| 国产欧美性爱网| 国产在线91在线电影| 国产伦精品一区二区三区视频优播| 97影院午夜在线观看视频| 国产XXXX做受性欧美88| 久久伊人久久亚洲综合| 免费人成网站在线观看欧美| 国产福利2021最新在线观看| 日韩成人午夜| 欧美一级高清视频在线播放| 91久久精品日日躁夜夜躁欧美| 在线免费看片a| 久久国产精品娇妻素人| 亚洲精品不卡午夜精品| 57pao国产成视频免费播放| 91网址在线播放| 国产91丝袜在线播放动漫| 中文字幕自拍偷拍| 亚洲无码精彩视频在线观看| 97国产精品视频自在拍| 国产精品自在在线午夜区app| www精品久久| 免费久久一级欧美特大黄| 欧美自慰一级看片免费| 日韩av无码DVD| 亚洲欧美人成电影在线观看| 精品国产电影久久九九| 中文字幕无码av专区久久| 天天综合天天综合| 亚洲视频在线观看免费视频| 欧美在线视频不卡第一页| 国产91丝袜在线观看| 欧美成人一区午夜福利在线| 国产呦精品一区二区三区网站| 久久亚洲天堂| 亚洲精品va| 色婷婷亚洲综合五月| 欧美成人看片一区二区三区| 一区二区三区精品视频在线观看| 夜夜操国产| 色视频久久| 国产欧美日韩va另类在线播放| 天天婬欲婬香婬色婬视频播放| 日本爱爱精品一区二区| 在线欧美国产| 成人免费网站在线观看|