付同強(qiáng), 胡 橋, 劉 鈺, 鄭惠文
基于優(yōu)化二維變分模態(tài)分解與遷移學(xué)習(xí)的水下目標(biāo)識(shí)別方法
付同強(qiáng)1, 3, 胡 橋1, 2, 3, 劉 鈺1, 3, 鄭惠文1, 3
(1. 西安交通大學(xué) 機(jī)械工程學(xué)院, 陜西 西安, 710049; 2. 西安交通大學(xué) 機(jī)械制造系統(tǒng)工程國(guó)家重點(diǎn)實(shí)驗(yàn)室, 陜西 西安, 710049; 3. 西安交通大學(xué) 陜西省智能機(jī)器人重點(diǎn)實(shí)驗(yàn)室, 陜西 西安, 710049)
由于海洋環(huán)境的復(fù)雜多變性, 使得傳統(tǒng)的水聲目標(biāo)識(shí)別方法應(yīng)用于水下目標(biāo)智能識(shí)別具有一定的局限性。基于單一域特征構(gòu)建的數(shù)據(jù)集難以表征目標(biāo)信號(hào)的全局信息, 傳統(tǒng)機(jī)器學(xué)習(xí)與深度學(xué)習(xí)方法對(duì)小樣本目標(biāo)的泛化能力低。針對(duì)復(fù)雜海洋環(huán)境下傳統(tǒng)水下目標(biāo)識(shí)別方法精度和效率不高的難題, 文中提出了基于優(yōu)化二維變分模態(tài)分解(2D-VMD)與遷移學(xué)習(xí)的水下目標(biāo)識(shí)別方法。該方法通過小波變換獲得水下目標(biāo)時(shí)頻圖, 并采用優(yōu)化2D-VMD方法自適應(yīng)選取有效模態(tài), 實(shí)現(xiàn)目標(biāo)有效模態(tài)與噪聲模態(tài)的分離, 完成了時(shí)頻圖的去噪并提取了圖像經(jīng)典的紋理特征進(jìn)行對(duì)比分析。最后通過采用遷移學(xué)習(xí)的策略, 實(shí)現(xiàn)了基于InceptionV3的模型遷移驗(yàn)證, 完成了水下目標(biāo)小樣本數(shù)據(jù)集下的分類識(shí)別。結(jié)合ShipsEar中5類水下目標(biāo)的分類測(cè)試試驗(yàn), 結(jié)果表明: 基于優(yōu)化2D-VMD與遷移學(xué)習(xí)的水下目標(biāo)識(shí)別方法具有良好的特征提取與去噪能力, 同時(shí)兼顧了水下目標(biāo)識(shí)別的精度與效率要求, 為海洋裝備智能目標(biāo)探測(cè)與識(shí)別提供了理論與技術(shù)支撐。
水下目標(biāo)識(shí)別; 時(shí)頻分析; 二維變分模態(tài)分解; 遷移學(xué)習(xí)
水下目標(biāo)輻射噪聲信號(hào)產(chǎn)生機(jī)理復(fù)雜, 聲源繁多且集中, 頻譜組成多樣, 輻射噪聲強(qiáng)度較大[1]。但是, 由海洋湍流以及海水靜壓力效應(yīng)等引起的海洋環(huán)境噪聲, 其頻譜成分覆蓋整個(gè)頻帶并隨各類因素不斷變化, 使得水聲信號(hào)十分復(fù)雜[2], 嚴(yán)重干擾了信號(hào)特征提取, 制約了聲吶系統(tǒng)對(duì)水下目標(biāo)的檢測(cè)與識(shí)別性能。隨著航行器減振降噪和隱身性能日益提高, 如何對(duì)水下目標(biāo)實(shí)現(xiàn)高效、準(zhǔn)確的辨識(shí)成為了水聲技術(shù)領(lǐng)域亟待解決的熱點(diǎn)問題[3]。
目標(biāo)信號(hào)的特征提取對(duì)于信號(hào)分類至關(guān)重要, 傳統(tǒng)信號(hào)的特征提取分為時(shí)域特征與頻域特征2類, 2類方法都是通過時(shí)域或頻域的單一變換提取特征信息, 在這方面已有大量研究[4-8]。然而單一維度的信號(hào)特征是一種“靜態(tài)”指標(biāo), 表達(dá)信息不全面, 通過特征變換之后喪失了信號(hào)原有的表達(dá)能力, 不易被人們直觀理解, 語義信息缺乏, 導(dǎo)致以此為訓(xùn)練樣本設(shè)計(jì)的分類器難以有很高的精度。為此, 有關(guān)學(xué)者嘗試通過引進(jìn)時(shí)間與頻率尺度下的綜合信息來進(jìn)行特征表達(dá), 這方面較為成功的是信號(hào)時(shí)頻圖的提取[9-10]。但是通過空間變換獲得的時(shí)頻圖涵蓋了原有一維信號(hào)中的噪聲, 會(huì)影響有用信號(hào)的表達(dá)。為此, 文中提出了利用互信息(mutual information, MI)作為評(píng)價(jià)參數(shù), 結(jié)合樹分解方法與相似度度量實(shí)現(xiàn)二維變分模態(tài)分解(two-dimensional variational mode decomposition, 2D-VMD)自適應(yīng)選取有效模態(tài)的過程, 對(duì)時(shí)頻圖進(jìn)行去噪處理, 增強(qiáng)了有用信號(hào)的表征能力。機(jī)器學(xué)習(xí)方法近年來一直廣泛應(yīng)用于水下目標(biāo)識(shí)別, 而采用傳統(tǒng)圖像特征變換結(jié)合機(jī)器學(xué)習(xí)對(duì)目標(biāo)時(shí)頻圖進(jìn)行識(shí)別的準(zhǔn)確率難以突破瓶頸得到提升, 無法滿足水下目標(biāo)識(shí)別高精度的要求, 而采用深度學(xué)習(xí)的方法則可以很好地解決這個(gè)問題。
隨著大數(shù)據(jù)時(shí)代的到來以及計(jì)算機(jī)性能的提升, 利用深度學(xué)習(xí)方法實(shí)現(xiàn)圖像分類、目標(biāo)檢測(cè)與自然語言處理在各個(gè)領(lǐng)域得到了廣泛應(yīng)用, 其中最具代表性的是卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)[11-12]。CNN模型可以依靠自身的結(jié)構(gòu)對(duì)圖像進(jìn)行特征提取, 具有良好的泛化能力。但基于深度學(xué)習(xí)實(shí)現(xiàn)水下目標(biāo)識(shí)別需要大量訓(xùn)練數(shù)據(jù), 而由于水下目標(biāo)信號(hào)實(shí)航測(cè)試難度大、周期長(zhǎng)以及獲取數(shù)據(jù)成本較高, 因此, 尚未有大規(guī)模水下目標(biāo)信號(hào)樣本數(shù)據(jù)集為深度學(xué)習(xí)提供支持。另外, 采用深度學(xué)習(xí)雖然可以獲得很高的準(zhǔn)確率, 但模型訓(xùn)練時(shí)間長(zhǎng), 不滿足水下目標(biāo)識(shí)別高效率的要求。而遷移學(xué)習(xí)作為深度學(xué)習(xí)的一個(gè)分支領(lǐng)域, 可以在相似的任務(wù)上進(jìn)行知識(shí)遷移以解決樣本不足的問題, 在保證高準(zhǔn)確率的同時(shí)大幅度節(jié)省訓(xùn)練時(shí)間[13]。因而, 遷移學(xué)習(xí)已被應(yīng)用于圖像識(shí)別的許多領(lǐng)域[14-15], 在水下目標(biāo)識(shí)別領(lǐng)域, 朱兆彤等[16]利用預(yù)訓(xùn)練好的CNN實(shí)現(xiàn)了對(duì)聲吶圖像的自動(dòng)識(shí)別。文中采用遷移在ImageNet上表現(xiàn)優(yōu)異的Inception V3作為預(yù)訓(xùn)練模型, 提取瓶頸層的特征向量, 遷移瓶頸層及其之前的網(wǎng)絡(luò)結(jié)構(gòu), 移除深層結(jié)構(gòu), 重新搭建分類層實(shí)現(xiàn)瓶頸層特征的分類。
小波變換是一個(gè)時(shí)間和頻率的局部變換, 通過伸縮和平移對(duì)信號(hào)進(jìn)行多尺度細(xì)化分析, 實(shí)現(xiàn)時(shí)間(空間)頻率的局部化分析, 最終達(dá)到高頻處時(shí)間細(xì)分, 低頻處頻率細(xì)分, 能自動(dòng)適應(yīng)時(shí)頻信號(hào)分析的要求。





計(jì)算信號(hào)梯度的二范數(shù), 估計(jì)各模態(tài)的頻帶帶寬, 構(gòu)造如下的變分問題





利用二范數(shù)下的Parseval/Plancherel傅里葉等距變換, 將式(7)和式(8)變換到頻域求解



2D-VMD將輸入信號(hào)分解為一系列有限帶寬的模態(tài)子信號(hào), 模態(tài)信號(hào)的數(shù)目由分解參數(shù)決定, 但值需要人為設(shè)定, 導(dǎo)致分解具有偶然性和隨機(jī)性,值不同則2D-VMD分解產(chǎn)生的模態(tài)數(shù)不同, 用于重構(gòu)時(shí)頻圖的有效模態(tài)也不同, 對(duì)時(shí)頻圖的去噪效果不一。因此, 如何合理設(shè)定值以及選取有效模態(tài)是2D-VMD時(shí)頻圖去噪的關(guān)鍵步驟。文中提出一種結(jié)合二元樹分解方法與相似度度量相結(jié)合的優(yōu)化2D-VMD方法, 可以實(shí)現(xiàn)值的自確定, 并自適應(yīng)地選取有效模態(tài)重構(gòu)時(shí)頻圖, 完成時(shí)頻圖的去噪。
優(yōu)化2D-VMD方法具體步驟如下。

步驟1)中集合、和的具體作用:用于存儲(chǔ)信號(hào)分解過程中的模態(tài)信號(hào), 分解完成后中的信號(hào)即為有效模態(tài);,用于存儲(chǔ)信號(hào)分解過程中的待分解信號(hào)和殘差信號(hào)。在分解過程中,,不斷進(jìn)行步驟3)所述的更新。
優(yōu)化2D-VMD水下目標(biāo)時(shí)頻圖去噪流程如圖1所示。


圖1 優(yōu)化2D-VMD流程圖

優(yōu)化2D-VMD算法步驟3)的具體流程如圖2所示。


圖2 優(yōu)化2D-VMD步驟3)流程圖



CNN是圖像處理任務(wù)中最強(qiáng)大的一類深度神經(jīng)網(wǎng)絡(luò)。CNN由不同層的計(jì)算單元組成, 基本的計(jì)算單元可以分為卷積層、池化層和全連接層3種類型。如圖3所示, 通過卷積操作對(duì)輸入圖像進(jìn)行特征提取, 之后進(jìn)行池化操作, 再對(duì)卷積層輸出的特征圖進(jìn)行降維以減少計(jì)算量。卷積與池化操作交替重復(fù)出現(xiàn), 網(wǎng)絡(luò)層數(shù)越深模型的特征提取能力越強(qiáng)。深層特征是對(duì)淺層特征的進(jìn)一步抽象, 最終將原始圖像映射至類別可分的高維空間, 然后在全連接層通過特征加權(quán)將輸入特征映射至類別空間實(shí)現(xiàn)分類。

圖3 卷積神經(jīng)網(wǎng)絡(luò)典型結(jié)構(gòu)
深度CNN模型結(jié)構(gòu)復(fù)雜, 參數(shù)量大, 因此訓(xùn)練周期長(zhǎng), 需要規(guī)模龐大的樣本數(shù)據(jù)集, 訓(xùn)練成本高, 遷移學(xué)習(xí)則可以很好地解決這個(gè)問題。

Yosinski等[13]已經(jīng)證明CNN網(wǎng)絡(luò)結(jié)構(gòu)具有良好的可遷移性, 即CNN淺層結(jié)構(gòu)在不同的任務(wù)上具有特征提取的相似性, 可以實(shí)現(xiàn)對(duì)不同數(shù)據(jù)集的特征提取, 不同任務(wù)之間的差異主要體現(xiàn)在深層網(wǎng)絡(luò)中。因此可以遷移至其他數(shù)據(jù)集中預(yù)訓(xùn)練好的網(wǎng)絡(luò), 保留其淺層結(jié)構(gòu), 凍結(jié)遷移層的參數(shù), 重新搭建適合自己任務(wù)的深層結(jié)構(gòu)形成新的訓(xùn)練模型。
InceptionV3模型[8]是Google 2014 年發(fā)布的GoogLeNet的改進(jìn)版本。GoogLeNet采用模塊化的思想, 在同一層級(jí)上運(yùn)行具備多個(gè)尺寸的卷積核, 所有子層的輸出最后會(huì)被級(jí)聯(lián)起來, 并傳送至下一個(gè) Inception模塊; 去除了最后的全連接層, 使用全局平均池化層來代替, 極大地減少了參數(shù)數(shù)目; 并利用1×1卷積核實(shí)現(xiàn)降維以節(jié)約計(jì)算成本。InceptionV3模型一個(gè)最重要的改進(jìn)是分解(factorization), 將7×7分解成2個(gè)一維的卷積(1×7, 7×1), 3×3分解成(1×3, 3×1), 如圖4所示, 既可以加速計(jì)算, 又使得網(wǎng)絡(luò)深度進(jìn)一步增加, 增加了網(wǎng)絡(luò)的非線性。
VGG Net、ResNet與GoogLe Net在ImageNet競(jìng)賽中均取得了不錯(cuò)的成績(jī), 相比之下, InceptionV3模型需要訓(xùn)練的參數(shù)更少, 網(wǎng)絡(luò)層數(shù)更深, 取得的準(zhǔn)確率更高, 如表1[19]所示。

表1 ImageNet 競(jìng)賽中部分模型對(duì)比
InceptionV3模型采用多尺度卷積提取不同維度的特征, 同時(shí)使用圖4所示的3種不同級(jí)聯(lián)架構(gòu)進(jìn)行特征組合。因此InceptionV3模型對(duì)于輸入圖像有非常強(qiáng)大的特征提取能力, 故采用模型微調(diào)的方法, 遷移InceptionV3模型的特征提取層, 保留線性回歸層作為瓶頸層, 重新構(gòu)建全連接層與softmax層形成新的模型對(duì)水下目標(biāo)進(jìn)行識(shí)別。基于InceptionV3模型遷移學(xué)習(xí)的水下目標(biāo)識(shí)別策略如圖5所示。
采用ShipsEar公開數(shù)據(jù)庫(kù)[20]對(duì)提出的優(yōu)化2D-VMD與遷移學(xué)習(xí)的水下目標(biāo)智能識(shí)別方法進(jìn)行了驗(yàn)證, 該數(shù)據(jù)庫(kù)目前記錄了11類水下船舶的90組數(shù)據(jù), 選取其中的客船、摩托艇、漁船、挖泥船和遠(yuǎn)洋客輪5類水下目標(biāo)進(jìn)行了驗(yàn)證。

圖4 Inception V3中的Inception模塊

圖5 基于InceptionV3遷移學(xué)習(xí)的水下目標(biāo)識(shí)別策略
ShipsEar數(shù)據(jù)庫(kù)記錄的水下目標(biāo)數(shù)據(jù)當(dāng)中含有不同程度的噪聲, 從而干擾目標(biāo)辨識(shí)。采用“小波包分解+小波閾值去噪+低通濾波”的方式對(duì)原始音頻進(jìn)行了預(yù)處理。采用小波包分解將原始數(shù)據(jù)處理為8個(gè)子信號(hào), 對(duì)每個(gè)子信號(hào)進(jìn)行小波閾值消噪, 然后用子信號(hào)重構(gòu)目標(biāo)數(shù)據(jù)。史拓等[21]指出水下目標(biāo)輻射噪聲有效信息主要集中在低頻段, 故對(duì)小波包重構(gòu)數(shù)據(jù)設(shè)計(jì)低通濾波器濾除高頻噪聲, 預(yù)處理結(jié)果如圖6所示。

圖6 水下目標(biāo)預(yù)處理前后對(duì)比
圖6為水下漁船目標(biāo)信號(hào)預(yù)處理前后對(duì)比, 從圖6(a)和(b)可以看出, 原始目標(biāo)信號(hào)在時(shí)域雜亂無章、無明顯規(guī)律, 且包含大量隨機(jī)噪聲覆蓋整個(gè)頻域。而從圖6(c)和(d)可以看出, 經(jīng)過預(yù)處理的時(shí)域目標(biāo)數(shù)據(jù)顯示出了類周期性的規(guī)律傾向, 線譜分量突出, 隨機(jī)噪聲得到有效去除。因此, 提出的數(shù)據(jù)預(yù)處理方法可以很好地壓制隨機(jī)噪聲, 對(duì)于水下目標(biāo)數(shù)據(jù)去噪是切實(shí)有效的。
對(duì)預(yù)處理后的水下目標(biāo)進(jìn)行cmor3-3小波變換, 得到小波時(shí)頻圖如圖7所示。

圖7 預(yù)處理水下目標(biāo)時(shí)頻圖
從圖7可以看出, 小波時(shí)頻圖可以綜合表征水下目標(biāo)在時(shí)間與頻率尺度下的全局信息, 線譜分量表征清晰, 目標(biāo)在不同時(shí)間包含各頻率成分的變化情況可以直觀地體現(xiàn)在時(shí)頻圖中。但是由于預(yù)處理之后水下目標(biāo)信號(hào)中仍含有隨機(jī)噪聲, 導(dǎo)致生成的時(shí)頻圖質(zhì)量不高, 因此對(duì)時(shí)頻圖的去噪勢(shì)在必行。

圖8 時(shí)頻圖優(yōu)化2D-VMD模態(tài)信號(hào)差異優(yōu)選
圖8中紅點(diǎn)為優(yōu)選得到用于重構(gòu)時(shí)頻圖的模態(tài)信號(hào), 黑點(diǎn)為丟棄的噪聲模態(tài)。從圖8可以看出, 同一類目標(biāo)信號(hào)時(shí)頻圖進(jìn)行優(yōu)化2D-VMD具有一定的波動(dòng)性, 使得不同時(shí)頻圖分解得到的模態(tài)信號(hào)與原時(shí)頻圖的MI值不一致。50個(gè)樣本共得到250個(gè)模態(tài)信號(hào), 其中用于重構(gòu)的模態(tài)為110個(gè), 大部分的模態(tài)被視為噪聲丟棄, 對(duì)圖7所示水下漁船目標(biāo)時(shí)頻圖進(jìn)行優(yōu)化2D-VMD重構(gòu)得到的結(jié)果如圖9所示。

圖9 優(yōu)化2D-VMD水下目標(biāo)時(shí)頻圖重構(gòu)
對(duì)比圖7與圖9可以看出, 采用優(yōu)化2D- VMD重構(gòu)可以加強(qiáng)原時(shí)頻圖中的線譜等有效特征, 并且很好地去除了時(shí)頻圖中的噪聲, 信息表征更加清晰, 證明了該方法對(duì)于水下目標(biāo)去噪的可行性與有效性。另外, 不同的水下目標(biāo)含噪聲程度不同, 因此進(jìn)行去噪質(zhì)量評(píng)價(jià)的閾值也不同。對(duì)于所選5類水下目標(biāo)時(shí)頻圖模態(tài)信號(hào)的差異優(yōu)選情況如圖10所示。

圖10 5類水下目標(biāo)優(yōu)化2D-VMD模態(tài)信號(hào)差異優(yōu)選


表2 不同類別水下目標(biāo)優(yōu)化2D-VMD產(chǎn)生有效模態(tài)的比例
對(duì)ShipsEar中的客船、摩托艇、漁船、挖泥船和遠(yuǎn)洋客輪5類水下目標(biāo)進(jìn)行上述的預(yù)處理、小波變換以及優(yōu)化2D-VMD重構(gòu)得到每類1 024個(gè)樣本。劉超等[22]提出不同類型的艦船輻射噪聲“聲紋圖”紋理特征具有較好的類間相似性和類類可分性。將未經(jīng)處理的水下目標(biāo)原時(shí)頻圖、優(yōu)化2D-VMD、局部二值模式(local binary patterns, LBP)紋理特征圖采用前文所述的遷移策略進(jìn)行分類辨識(shí), 圖7所示的目標(biāo)時(shí)頻圖經(jīng)過LBP特征提取得到紋理特征圖, 如圖11所示。

圖11 時(shí)頻LBP紋理特征圖
時(shí)頻圖的數(shù)據(jù)標(biāo)注并不影響水下目標(biāo)在時(shí)頻域特征的表達(dá), 故進(jìn)行時(shí)頻紋理特征提取時(shí)省略其標(biāo)注。由圖11可知, 時(shí)頻紋理圖可以較好得恢復(fù)原目標(biāo)信號(hào)中的線譜特征, 但由于噪聲的干擾會(huì)產(chǎn)生大量“亂紋”, 嚴(yán)重影響有效信息的表達(dá)。
運(yùn)行訓(xùn)練環(huán)境: Intel(R)Core(TM)i5-6300HQ CPU@2.30GHz 2.30GHz, 內(nèi)存4+16GB。訓(xùn)練程序在window10 系統(tǒng)下以TensorFlow1.10為開發(fā)環(huán)境的Jupyter Notebook下運(yùn)行。設(shè)置學(xué)習(xí)率為0.001, 訓(xùn)練過程中采用蒙特卡洛交叉驗(yàn)證: 共訓(xùn)練5輪, 每輪訓(xùn)練1000次, 每次隨機(jī)抽取256張圖片進(jìn)行訓(xùn)練, 其中80%作為訓(xùn)練集, 20%作為驗(yàn)證集。訓(xùn)練結(jié)束后隨機(jī)抽取256張圖片用作測(cè)試集。
對(duì)3類數(shù)據(jù)集的訓(xùn)練取5輪平均結(jié)果如圖12所示。由圖12可知, 訓(xùn)練1 000次后3類訓(xùn)練模型均已收斂, 但收斂速度有所不同, 原時(shí)頻圖訓(xùn)練模型收斂最快, 5次平均訓(xùn)練時(shí)長(zhǎng)588 s; 優(yōu)化2D-VMD重構(gòu)時(shí)頻圖訓(xùn)練模型收斂速度次之, 平均訓(xùn)練時(shí)長(zhǎng)1427 s; LBP時(shí)頻紋理特征圖訓(xùn)練模型收斂速度最慢, 平均訓(xùn)練時(shí)長(zhǎng)1460 s。三者隨機(jī)驗(yàn)證的準(zhǔn)確率均正比于模型收斂速度, 原時(shí)頻圖訓(xùn)練模型5次測(cè)試集平均準(zhǔn)確率為98.7%, 優(yōu)化2D-VMD重構(gòu)時(shí)頻圖為96.3%, LBP時(shí)頻紋理特征圖為82.3%, 證明遷移策略對(duì)于水下目標(biāo)信號(hào)識(shí)別是行之有效的。

圖12 3類數(shù)據(jù)集訓(xùn)練情況對(duì)比
3類數(shù)據(jù)集訓(xùn)練的模型優(yōu)劣程度不同, 說明每種數(shù)據(jù)集不同類別的類內(nèi)以及類間距離不同, 因此采用T-SNE降維對(duì)不同數(shù)據(jù)集下的5類水下目標(biāo)進(jìn)行可視化, 其結(jié)果如圖13所示。

圖13 3類數(shù)據(jù)集T-SNE可視化
圖13中類別1~5分別表示水下客船、摩托艇、漁船、挖泥船和遠(yuǎn)洋客輪目標(biāo)。T-SNE方法將水下目標(biāo)時(shí)頻圖映射為二維點(diǎn)集, 通過比較相同或不同類別點(diǎn)簇的距離可以衡量數(shù)據(jù)的可分性情況, 是一種直觀的數(shù)據(jù)可視化方法。
文中利用小波變換獲取水下目標(biāo)時(shí)頻圖構(gòu)建分類數(shù)據(jù)集, 提出了一種優(yōu)化2D-VMD方法對(duì)水下目標(biāo)進(jìn)行去噪。采用基于InceptionV3模型的遷移學(xué)習(xí)方法進(jìn)行目標(biāo)分類。試驗(yàn)結(jié)果表明, 文中提出的優(yōu)化2D-VMD方法可以自適應(yīng)地實(shí)現(xiàn)水下目標(biāo)去噪, 增強(qiáng)線譜等特征對(duì)水下目標(biāo)信號(hào)的表征能力; 采用基于InceptionV3的遷移策略能有效實(shí)現(xiàn)小樣本數(shù)據(jù)下深度CNN模型的訓(xùn)練, 在短時(shí)間內(nèi)達(dá)到較高的準(zhǔn)確率; 優(yōu)化2D-VMD與遷移學(xué)習(xí)結(jié)合, 比傳統(tǒng)聲紋特征訓(xùn)練遷移模型有更快的收斂速度, 準(zhǔn)確率提高14%以上, 兼顧水下目標(biāo)識(shí)別高精度與高效率的要求, 證明了優(yōu)化2D-VMD與遷移學(xué)習(xí)在水下目標(biāo)識(shí)別領(lǐng)域應(yīng)用的有效性, 為水下目標(biāo)識(shí)別提供了一種新的思路。但由于2D-VMD存在模態(tài)中心頻率隨機(jī)初始化的問題, 導(dǎo)致重構(gòu)的時(shí)頻圖丟失了部分類別表征信息, 降低了數(shù)據(jù)的可分性。在進(jìn)行特征增強(qiáng)的同時(shí)保留目標(biāo)類別的可分性依據(jù)將是下一步的研究方向, 但相比傳統(tǒng)的紋理特征提取, 優(yōu)化2D-VMD在信息表征方面更具優(yōu)勢(shì)。
[1] 何春艷. 水下目標(biāo)瞬態(tài)輻射噪聲分析與評(píng)價(jià)[D]. 哈爾濱: 哈爾濱工程大學(xué), 2013.
[2] 陶篤純. 艦船噪聲節(jié)奏的研究(Ⅰ)——數(shù)學(xué)模型及功率譜密度[J]. 聲學(xué)學(xué)報(bào), 1983, 8(2): 65-76.Tao Du-chun. Study on the Ship’s Noise Rhythm (Ⅰ)——Mathematical Model and Power Spectral Density[J].Chinese Journal of Acoustics, 1983, 8(2): 65-76.
[3] 孫昕, 張世海, 翟東民. 水下航行器輻射噪聲的仿真實(shí)現(xiàn)[J]. 水雷戰(zhàn)與艦船防護(hù), 2017, 25(2): 66-69.Sun Xin, Zhang Shi-hai, Zhai Dong-min. Simulation Realization of Radiated Noise from Underwater Vehicles[J]. Digital Ocean & Underwater Warfare, 2017, 25(2): 66-69.
[4] 王曉峰, 王炳和, 相敬林. 基于艦船輻射噪聲時(shí)-頻分析與線譜提取[J]. 電聲技術(shù), 2005(11): 61-63.Wang Xiao-feng, Wang Bing-he, Xiang Jing-lin. Time-Frequency Analysis of Ship-Radiated Noise and Line Spectrum Extraction Based on STFT[J]. Audio Engineering, 2005(11): 61-63.
[5] 莊瑞, 趙云冬. 一種提取水中目標(biāo)水聲信號(hào)時(shí)頻特征的方法[J]. 艦船電子工程, 2018, 38(3): 135-136, 158.Zhuang Rui, Zhao Yun-dong. A Method for Extracting the Time-frequency Characteristics of Underwater Acoustic Signals in Water[J]. Ship Electronic Engineering, 2018, 38(3): 135-136, 158.
[6] Hemminger T L, Pao Y H. Detection and Classification of Underwater Acoustic Transients Using Neural Networks[J]. IEEE Transactions on Neural Networks, 1994, 5(5): 712-718.
[7] Shyu H C, Sun Y S. Underwater Acoustic Signal Analysis by Multiscaling and Multitranslation Wavelets[J]. Proceedings of SPIE-The International Society for Optical Engineering, 1998, 3391: 628-636.
[8] 章新華, 王驥程, 林良驥. 基于小波變換的艦船輻射噪聲特征提取[J]. 聲學(xué)學(xué)報(bào), 1997, 22(2): 139-137.Zhang Xin-hua, Wang Ji-cheng, Lin Liang-ji. Feature Extraction of Ship Radiated Noise Based on Wavelet Transform[J]. Chinese Journal of Acoustics, 1997, 22(2): 139-137.
[9] 李啟飛, 吳芳, 韓蕾蕾. 基于 AlexNet 遷移學(xué)習(xí)的磁異常信號(hào)檢測(cè)方法[J]. 水下無人系統(tǒng)學(xué)報(bào), 2020, 28(2): 162-167.Li Qi-fei, Wu Fang, Han Lei-lei. Magnetic Anomaly Signal Detection Method Based on AlexNet Transfer Learning[J]. Journal of Unmanned Undersea Systems, 2020, 28(2): 162-167.
[10] 王維剛. 基于時(shí)頻圖像識(shí)別的旋轉(zhuǎn)機(jī)械多特征融合故障診斷方法研究[D]. 哈爾濱: 哈爾濱工業(yè)大學(xué), 2016.
[11] Aysum S, Hasan S. Deep Convolutional Neural Network-based Automatic Classification of Neonatalhip Ultrasound Images: a Novel Data Augmentation Approach with Speckle Noise Reduction[J]. Ultrasound in Medicine & Biology, 2019, 46(3): 735-749.
[12] 洪禮聰. 基于時(shí)頻圖像和卷積神經(jīng)網(wǎng)絡(luò)的尾水管渦帶狀態(tài)識(shí)別[D]. 武漢: 武漢大學(xué), 2018.
[13] Yosinski J, Clune J, Bengio Y, et al. How Transferable are Features in Deep Neural Networks?[C]//Advances in Neural Information Processing Systems 27. [S.l.]: NIPS, 2014.
[14] Fischer W, Moudgalya S S, Cohn J D, et al. Sparse Coding of Pathology Slides Compared to Transfer Learning with Deep Neural Networks[J]. BMC Bioinformatics, 2018, 19(S18): 489.
[15] 王斐, 吳仕超, 劉少林. 基于腦電信號(hào)深度遷移學(xué)習(xí)的駕駛疲勞檢測(cè)[J]. 電子與信息學(xué)報(bào), 2019, 41(9): 2264-2272. Wang Fei, Wu Shi-chao, Liu Shao-lin. Driver Fatigue Detection through Deep Transfer Learning in an Electroencephalogram-based System[J]. Journal of Electronics & Information Technology, 2019, 41(9): 2264-2272.
[16] 朱兆彤, 付學(xué)志, 胡友峰. 一種利用遷移學(xué)習(xí)訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)的聲吶圖像識(shí)別方法[J]. 水下無人系統(tǒng)學(xué)報(bào), 2020, 28(1): 89-96.
Zhu Zhao-tong, Fu Xue-zhi, Hu You-feng. A Sonar Image Recognition Method Using Transfer Learning to Train Convolutional Neural Networks[J]. Journal of Unmanned Undersea Systems, 2020, 28(1): 89-96.
[17] Dragomiretskiy K, Zosso D. Two-Dimensional Variational Mode Decomposition[C]//Energy Minimization Methods in Computer Vision and Pattern Recognition. Switzerland: Springer, 2015: 197-208.
[18] Szegedy C, Vanhoucke V, Ioffe S, et al. Rethinking the Inception Architecture for Computer Vision[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, USA: IEEE, 2016: 2818-2826.
[19] Chollet F. Keras: The Python Deep Learning Library[EB/OL]. Keras [2020-04-16]. https://keras.io.
[20] Santos-Dominguez D, Torres-Guijarro S, Cardenal-Lopez A, et al. ShipsEar: An Underwater Vessel Noise Database[J]. Applied Acoustics, 2016, 113: 64-69.
[21] 徐智, 唐剛, 劉偉, 等. 基于變分模態(tài)分解參數(shù)優(yōu)化的地震隨機(jī)噪聲去除方法[J]. 北京化工大學(xué)學(xué)報(bào)(自然科學(xué)版), 2019, 46(5): 60-68.Xu Zhi, Tang Gang, Liu Wei, et al. Seismic Random Noise Removal Method Based on Optimization of Variational Mode Decomposition Parameters[J]. Journal of Beijing University of Chemical Technology(Natural Science Edition), 2019, 46(5): 60-68.
[22] 史拓, 陳艷靜. 艦船輻射噪聲特性的模擬與仿真[J]. 軍民兩用技術(shù)與產(chǎn)品, 2016(4): 61-62.Shi Tuo, Chen Yan-jing. Simulation and Simulation of Radiated Noise Characteristics of Warships[J]. Dual Use Technologies & Products, 2016(4): 61-62.
1. 謝少榮, 劉堅(jiān)堅(jiān), 張丹. 復(fù)雜海況無人艇集群控制技術(shù)研究現(xiàn)狀與發(fā)展. 2020, 28(6).
2. 嚴(yán)良濤, 項(xiàng)曉麗. 基于GA-KPCA的特征選擇在水下目標(biāo)識(shí)別中的應(yīng)用. 2020, 28(1).
3. 朱兆彤, 付學(xué)志, 胡友峰. 一種利用遷移學(xué)習(xí)訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)的聲吶圖像識(shí)別方法. 2020, 28(1).
4. 趙國(guó)貴, 梁紅, 陸禹, 等. 基于多參量聯(lián)合特征的水下小目標(biāo)分類識(shí)別. 2019, 27(6).
5. 杜雪, 廖泓舟, 張勛. 基于深度卷積特征的水下目標(biāo)智能識(shí)別方法. 2019, 27(3).
6. 胡橋, 劉鈺, 趙振軼, 等. 水下無人集群仿生人工側(cè)線探測(cè)技術(shù)研究進(jìn)展. 2019, 27(2).
7. 何心怡, 高賀, 盧軍, 等. 逆合成孔徑成像在魚雷真假目標(biāo)識(shí)別中的應(yīng)用及展望. 2017, 25(4).
Underwater Target Identification Method Based on Optimized 2D Variational Mode Decomposition and Transfer Learning
FU Tong-qiang1, 3, HU Qiao1, 2, 3, LIU Yu1, 3, ZHENG Hui-wen1, 3
(1. Mechanical Engineering School, Xi’an Jiaotong University, Xi’an 710049, China; 2. Mechanical Engineering System National Key Laboratory, Xi’an Jiaotong University, Xi’an 710049, China; 3. Shaanxi Province Intelligent Machine Laboratory, Xi’an Jiaotong University, Xi’an 710049, China)
Intelligent identification of underwater targets using the traditional underwater acoustic target identification method has limitations owing to the complexity and variability of marine environments. The data sets that are constructed based on single-domain features cannot be used to characterize the global information of the target signal and the traditional machine learning and deep learning methods demonstrate a low generalization ability for small sample targets. To solve the problem of low accuracy and efficiency of traditional underwater acoustic target identification methods in complex marine environments, an underwater target identification method based on optimized two-dimen- sional variational mode decomposition(2D-VMD) and transfer learning is proposed herein. This method obtains the time-frequency map of the underwater target by wavelet transform and then uses the optimized 2D-VMD method to adaptively select the effective mode to achieve the separation of the target effective mode and the noise mode. The denoising of the time-frequency map is completed, and the classic texture features of the image are extracted for comparative analysis. Finally, through the transfer learning strategy being adopted, the model transfer learning verification based on InceptionV3 is realized, and the classification and identification for small sample data set of underwater targets are completed. Combined with the classification test experiment of five types of underwater targets in ShipsEar, the results show that: the underwater target identification method based on optimized 2D-VMD and transfer learning shows good feature extraction and denoising capabilities while taking into account the accuracy of underwater target identification and efficiency requirements. Moreover, it provides theoretical and technical support for the detection and identification of intelligent targets of marine equipment.
underwater target identification; time-frequency analysis; two-dimensional variational mode decomposition; transfer learning
TN911.73; TB566
A
2096-3920(2021)02-0153-11
10.11993/j.issn.2096-3920.2021.02.004
付同強(qiáng), 胡橋, 劉鈺, 等. 基于優(yōu)化二維變分模態(tài)分解與遷移學(xué)習(xí)的水下目標(biāo)識(shí)別方法[J]. 水下無人系統(tǒng)學(xué)報(bào), 2021, 29(2): 153-163.
2020-05-22;
2020-09-01.
國(guó)家自然科學(xué)基金重大項(xiàng)目(61890961); 裝備預(yù)研領(lǐng)域基金項(xiàng)目(61404160503, 61402070304); 陜西省重點(diǎn)研發(fā)計(jì)劃重點(diǎn)項(xiàng)目資助(2018ZDXM-GY-111); 中央高校基本科研業(yè)務(wù)費(fèi)資助(xjjgf2018005).
付同強(qiáng)(1997-), 男, 在讀碩士, 主要研究方向?yàn)樗轮悄芨兄夹g(shù).
(責(zé)任編輯: 許 妍)