999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于端到端深度學(xué)習(xí)的聲源特征清晰化方法

2023-11-14 05:29:30馮羅一徐中明張志飛李貞貞
振動(dòng)與沖擊 2023年21期
關(guān)鍵詞:深度方法模型

馮羅一,昝 鳴,徐中明,張志飛,李貞貞

(重慶大學(xué) 機(jī)械與運(yùn)載工程學(xué)院,重慶 400044)

隨著數(shù)據(jù)采集技術(shù)和計(jì)算性能的不斷提高,各種聲源識(shí)別算法不斷發(fā)展。聲源識(shí)別的波束形成算法主要包括傳統(tǒng)波束形成(conventional beamforming,CB)[1],自適應(yīng)波束形成[2],正交波束形成[3],函數(shù)波束形成[4]、廣義逆波束形成[5]、反卷積波束形成[6]等。文獻(xiàn)[7-8]對(duì)這些方法進(jìn)行了綜述。近年來(lái),深度學(xué)習(xí)[9]在圖像識(shí)別領(lǐng)域取得了迅速的進(jìn)展。與傳統(tǒng)的基于數(shù)學(xué)和物理模型的方法不同,基于深度學(xué)習(xí)的方法利用深度神經(jīng)網(wǎng)絡(luò),從數(shù)據(jù)中學(xué)習(xí)到的特征表示來(lái)獲得輸入輸出的復(fù)雜映射關(guān)系,從而可以繞過(guò)特定問(wèn)題的復(fù)雜描述。除此之外,深度學(xué)習(xí)模型的計(jì)算速度遠(yuǎn)高于傳統(tǒng)方法。深度學(xué)習(xí)模型在訓(xùn)練過(guò)程中所有的操作都包含在神經(jīng)網(wǎng)絡(luò)內(nèi)部,不再像傳統(tǒng)機(jī)器學(xué)習(xí)的流程那樣分成多個(gè)模塊處理,因此將其稱為端到端深度學(xué)習(xí)。

隨著深度學(xué)習(xí)模型的發(fā)展和其適用性的提高,深度學(xué)習(xí)在振動(dòng)聲學(xué)領(lǐng)域有了廣泛的應(yīng)用[10-12]?;谏疃葘W(xué)習(xí)的聲源識(shí)別方法主要可歸納為兩類:基于網(wǎng)格的方法和無(wú)網(wǎng)格的方法[13]。對(duì)于基于網(wǎng)格的方法,Ma等[14]構(gòu)建了卷積神經(jīng)網(wǎng)絡(luò),將聲源平面上的多個(gè)聲源識(shí)別為聲壓分布圖。這是首次將深度學(xué)習(xí)與波束形成算法相結(jié)合進(jìn)行聲源識(shí)別的研究。Xu等[15]使用密集連接卷積神經(jīng)網(wǎng)絡(luò)(densely connected convolutional networks,DenseNet)從互譜矩陣(cross spectrum matrix,CSM)生成聲壓分布圖。該方法可實(shí)現(xiàn)單個(gè)頻率下最多25個(gè)聲源的高分辨率識(shí)別。為了提高基于網(wǎng)格的方法的精度,Lee等定義了一個(gè)新的目標(biāo)函數(shù),該函數(shù)依賴網(wǎng)格點(diǎn)和聲源之間相對(duì)位置關(guān)系來(lái)構(gòu)建目標(biāo)地圖,其中通過(guò)更精細(xì)網(wǎng)格點(diǎn)與預(yù)測(cè)強(qiáng)度之間的最小誤差來(lái)確定準(zhǔn)確聲源位置,并運(yùn)用編碼器-解碼器結(jié)構(gòu)的全卷積神經(jīng)網(wǎng)絡(luò)(fully convolutional network,FCN),實(shí)現(xiàn)了高分辨率多聲源識(shí)別。之后Lee等[16]將類似方法拓展到球面陣列的應(yīng)用中。對(duì)于無(wú)網(wǎng)格方法,Kujawski等[17]使用了一個(gè)20層的殘差神經(jīng)網(wǎng)絡(luò)(residual network,ResNet),用3個(gè)輸出單元來(lái)估計(jì)單個(gè)聲源的坐標(biāo)和強(qiáng)度。在此基礎(chǔ)上,為了提高低頻情況的精度,Lee等[18]定義了一個(gè)頻率加權(quán)損失函數(shù)和一個(gè)更深層次的DenseNet。他們利用與Kujuswki等相同的訓(xùn)練數(shù)據(jù),實(shí)現(xiàn)了單聲源識(shí)別。為了使用無(wú)網(wǎng)格方法識(shí)別多聲源,Castellini等[19]通過(guò)構(gòu)建5個(gè)不同的多層感知器模型,提出了與類似的無(wú)網(wǎng)格方法來(lái)實(shí)現(xiàn)3個(gè)聲源的定位任務(wù)。由于聲源的數(shù)量決定了神經(jīng)網(wǎng)絡(luò)輸出層的大小,無(wú)網(wǎng)格方法只能識(shí)別已知數(shù)量的聲源。與基于網(wǎng)格的方法相比,無(wú)網(wǎng)格方法直接預(yù)測(cè)聲源的坐標(biāo)和強(qiáng)度,無(wú)需依賴網(wǎng)格點(diǎn)獲得預(yù)測(cè)結(jié)果。

上述方法中采用的訓(xùn)練數(shù)據(jù)主要分為兩種:CSM,包括非冗余形式和傳統(tǒng)波束形成地圖(conventional beamforming map,CB Map)。CSM的尺寸由所采用陣列的傳聲器數(shù)目決定,因此使用CSM作為輸入必須預(yù)先確定傳聲器數(shù)目。CB Map的尺寸由網(wǎng)格點(diǎn)數(shù)目決定,因此不需要提前確定傳聲器數(shù)目。然而,當(dāng)傳聲器數(shù)目減少時(shí),CB Map的聲源特征不再明顯。因此,當(dāng)使用較多傳聲器數(shù)陣列得到的數(shù)據(jù)訓(xùn)練得到一個(gè)深度學(xué)習(xí)模型,用來(lái)預(yù)測(cè)較少傳聲器數(shù)陣列得到的CB Map時(shí),精度會(huì)下降。為了克服實(shí)際應(yīng)用中所使用陣列的限制,增強(qiáng)深度學(xué)習(xí)聲源識(shí)別方法的通用性,本文提出基于U-Net模型的陣列轉(zhuǎn)換方法(array converted method,ACM),提升深度學(xué)習(xí)無(wú)網(wǎng)格識(shí)別方法(deep learning grid-free method,DL-GFM)的識(shí)別精度。首先使用18通道陣列CB Map作為輸入、64通道陣列CB Map作為目標(biāo)訓(xùn)練U-Net模型,然后使用訓(xùn)練好的模型對(duì)于不同頻率和不同聲源數(shù)目的輸入評(píng)估模型的預(yù)測(cè)性能,并且對(duì)于三聲源情況通過(guò)DL-GFM方法觀察ACM方法對(duì)其性能的提升情況,最后通過(guò)1個(gè)、2個(gè)、3個(gè)聲源的試驗(yàn)驗(yàn)證提出ACM方法的有效性和可行性。

1 理論方法

1.1 傳統(tǒng)波束形成

波束形成是一種基于相控麥克風(fēng)陣列的方法,其通過(guò)對(duì)每個(gè)麥克風(fēng)采樣的聲壓進(jìn)行空間濾波。來(lái)自真實(shí)聲源方向的信號(hào)增強(qiáng),其他方向的信號(hào)減弱,形成“主瓣”和“旁瓣”,從而得到聲源分布信息。傳統(tǒng)波束形成CB的算法過(guò)程可以描述如下,其過(guò)程示意圖如圖1所示。

圖1 傳統(tǒng)波束形成示意圖

假設(shè)麥克風(fēng)陣列通道數(shù)為M,位于xm(m=1,2,…,M),麥克風(fēng)位置測(cè)得的聲壓pm和在xs(s=1,2,…,S)位置的聲源強(qiáng)度q的關(guān)系可以表示為

pm=qg(xs-xm)

(1)

式中,g(xs-xm)為轉(zhuǎn)向向量。文獻(xiàn)[20]中有4種可供選擇的轉(zhuǎn)向矢量公式,本文中為了將除聲源位置的所有其他位置的信號(hào)都盡可能地減弱,采用了其中的Formulation III的形式,表示為

(2)

式中:k為波數(shù);rs,0=|xs-x0|,rs,m=|xs-xm|分別為聲源位置xs與參考位置x0和麥克風(fēng)位置xm之間的距離,x0設(shè)置為傳聲器陣列中心

(3)

將式(1)寫(xiě)成向量形式為

p=qg

(4)

直接波束形成器的目標(biāo)就是在聲源位置xs上確定聲源強(qiáng)度q,即求解式(4)。通過(guò)解最小化問(wèn)題

(5)

得到以下形式的最小二乘解

(6)

式(6)可以重新整理之后獲得功率意義的波束形成結(jié)果

(7)

式(7)為傳統(tǒng)波束形成,將由此方法得到的矩陣圖像稱為CB Map。式中:C=ppH為麥克風(fēng)測(cè)量的聲壓得到的CSM;上標(biāo)“H”為共軛轉(zhuǎn)置。

在穩(wěn)定聲場(chǎng)中,首先對(duì)自譜和互譜進(jìn)行平均處理。因?yàn)樽宰V中包含了陣列麥克風(fēng)的自通道噪聲且其中沒(méi)有任何相位信息,對(duì)波束形成過(guò)程沒(méi)有幫助,因此除去CSM的自譜,即除去矩陣對(duì)角線,處理過(guò)程可表示為

(8)

本文使用針對(duì)64通道Vogel螺旋陣列和18通道扇形輪陣列兩種陣列形式來(lái)進(jìn)行研究,其傳聲器分布圖如圖2所示。在傳聲器間距接近的情況下,18通道陣列的孔徑0.38 m小于64通道陣列孔徑1 m,這是導(dǎo)致兩者CB性能差異的主要原因。將兩種陣列的傳統(tǒng)波束形成結(jié)果簡(jiǎn)稱為CB Map_64和CB Map_18。

圖2 陣列分布形式

1.2 深度學(xué)習(xí)無(wú)網(wǎng)格方法

本文中以三聲源為例介紹一種基于ResNet-50-V2[21-22]的深度學(xué)習(xí)無(wú)網(wǎng)格方法DL-GFM,其中只關(guān)注聲源位置,不關(guān)注聲源強(qiáng)度。ResNet-50-V2來(lái)源于是殘差神經(jīng)網(wǎng)絡(luò)ResNet的一種包含50層卷積層的優(yōu)化結(jié)構(gòu)。ResNet的出現(xiàn)解決了使用深度神經(jīng)網(wǎng)絡(luò)模型架構(gòu)時(shí)梯度爆炸和梯度消失的問(wèn)題,在此之后才出現(xiàn)了更深層(可達(dá)上千層)的神經(jīng)網(wǎng)絡(luò),在分類和回歸任務(wù)上的表現(xiàn)相比之前已知的架構(gòu)更加優(yōu)異。

ResNet的結(jié)構(gòu)與普通卷積神經(jīng)網(wǎng)絡(luò)相比,多了快捷連接??旖葸B接中輸入數(shù)據(jù)可以并行地從輸入層流向輸出層,因此在輸出中,前一層的映射與卷積處理后的數(shù)據(jù)相加,進(jìn)而ResNet只學(xué)習(xí)輸入和輸出之間的殘差。殘差映射的過(guò)程可描述為

(9)

式中:F為需要被學(xué)習(xí)的殘差映射;X為卷積層的輸入;wi,b分別為卷積層的權(quán)重和偏置;Ws為一個(gè)線性投影矩陣,用來(lái)匹配與卷積層結(jié)果相加的維數(shù)。式(9)中代表了殘差學(xué)習(xí)的兩種不同方式,區(qū)別在于式(9)上式為恒等映射,在維數(shù)匹配的情況下可以實(shí)現(xiàn);式(9)下式的方式由于增加了卷積過(guò)程從而增加了參數(shù)數(shù)量,解決了維數(shù)不匹配的問(wèn)題。He等研究中對(duì)兩種方式的區(qū)別、處理方式和性能做了具體的分析,感興趣的讀者可以進(jìn)行閱讀。其中ResNet-50-V2中運(yùn)用的full pre-activation結(jié)構(gòu),可以加快模型的訓(xùn)練速度、提高精度,并且更有效地避免過(guò)擬合的問(wèn)題。

圖3所示為DL-GFM方法的主要過(guò)程。DL-GFM方法首先使用麥克風(fēng)陣列采集多通道數(shù)據(jù),然后通過(guò)傳統(tǒng)波束形成算法獲得CB Map,將其作為輸入訓(xùn)練好的ResNet-50-V2模型獲得3個(gè)聲源的坐標(biāo)輸出,分別為a1,b1,a2,b2,a3,b3。訓(xùn)練過(guò)程中采用均方誤差(mean square error,MSE)作為損失函數(shù),ADAM[23]作為訓(xùn)練算法更新網(wǎng)絡(luò)的參數(shù)。ResNet-50-V2模型的構(gòu)建與訓(xùn)練在Python Keras庫(kù)中進(jìn)行。

圖3 DL-GFM方法主要過(guò)程

表1所示為模型訓(xùn)練的數(shù)據(jù)集設(shè)置,包括波束形成過(guò)程的關(guān)鍵參數(shù)、數(shù)據(jù)集大小。本文使用的訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)主要通過(guò)Acoupipe[24]和Acoular[25]生成。后文U-Net模型的訓(xùn)練所采用的數(shù)據(jù)集的區(qū)別在于將兩種通道數(shù)的CB Map分別作為輸入和目標(biāo),即替換了聲源坐標(biāo)作為輸出。除此之外,兩者訓(xùn)練算法和損失函數(shù)均一致。

表1 數(shù)據(jù)集設(shè)置

1.3 陣列轉(zhuǎn)換法

本文使用CB Map_18作為輸入、CB Map_64作為輸出,使用U-Net模型訓(xùn)練陣列轉(zhuǎn)換器,故將此方法命名為陣列轉(zhuǎn)換法ACM。使用ACM可以使得用在一定頻率下采用18通道陣列達(dá)到使用64通道陣列的效果,進(jìn)而利用DL-GFM方法進(jìn)行更精準(zhǔn)的識(shí)別。

U-Net模型是一種全卷積神經(jīng)網(wǎng)絡(luò)FCN,最早由Ronneberger等[26]提出,用于生物醫(yī)學(xué)圖像語(yǔ)義分割。因其形狀與字母“U”相似,故被命名為“U-Net”。這種全卷積模型相比于帶全連接層的神經(jīng)網(wǎng)絡(luò)模型可以接受任意大小的圖像輸入,并且采用了上采樣的方法來(lái)恢復(fù)圖像,從而可以實(shí)現(xiàn)像素到像素更精細(xì)的預(yù)測(cè)。常用的上采樣方式是轉(zhuǎn)置卷積。采用矩陣乘法的方式簡(jiǎn)介轉(zhuǎn)置卷積的原理。假設(shè)輸入圖像的尺寸為4×4,卷積核大小為3×3,如式(10)和式(11)所示

(10)

(11)

令步長(zhǎng)為1,則輸出大小為2×2,如式(12)所示

(12)

其中,

(13)

同理可得,由卷積核滑移到不同位置之后點(diǎn)乘得出y2,y3,y4。將Input和Output分別按行展開(kāi)為x=[x1x2x3x4x5x6x7x8x9x10x11x12x13x14x15x16]T和y=[y1y2y3y4]T,則卷積過(guò)程可以表示為

y=Ax

(14)

式中,A為卷積核在輸入圖像上的滑移運(yùn)算過(guò)程,可用稀疏矩陣表示為

(15)

其中每一行向量表示在一個(gè)位置的卷積操作,“0”填充表示卷積核未覆蓋到的區(qū)域。轉(zhuǎn)置卷積的操作式(14)的逆運(yùn)算,可以表示為

x=ATy

(16)

U-Net模型架構(gòu)如圖4所示,其組成為編碼器-解碼器結(jié)構(gòu)。編碼器網(wǎng)絡(luò)由多個(gè)通道組成的特征圖通過(guò)一系列卷積運(yùn)算與訓(xùn)練過(guò)的濾波器進(jìn)行分層計(jì)算,旨在從CB Map_18中生成具有空間代表性的特征。本文使用修正線性單元(rectified linear unit,ReLU)作為激活函數(shù),可表示為

圖4 U-Net模型架構(gòu)

(17)

此處卷積過(guò)程可以定義為

(18)

解碼器網(wǎng)絡(luò)旨在將編碼器部分生成的空間表示轉(zhuǎn)換為目標(biāo)圖CB Map_64。解碼層中的特征圖通過(guò)轉(zhuǎn)置卷積逐漸放大。轉(zhuǎn)置卷積通過(guò)對(duì)輸入特征圖進(jìn)行適當(dāng)?shù)奶畛浜涂绮讲僮?最后通過(guò)網(wǎng)絡(luò)末端的1×1卷積層獲得64×64的預(yù)測(cè)圖。圖4中箭頭代表跳躍連接,目的是將下采樣的特征圖和上采樣的特征圖合并,增強(qiáng)恢復(fù)圖像的特征。

本文中結(jié)構(gòu)與文獻(xiàn)[26]中的區(qū)別在于:①圖像尺寸分別為224×224×3與64×64×1,為了加快訓(xùn)練速度,將卷積核數(shù)減半;②ACM方法是回歸任務(wù),所以在輸出層用ReLU代替Softmax作為激活函數(shù),且用MSE函數(shù)替代其中的帶邊界權(quán)值的損失函數(shù)。

2 仿真結(jié)果

2.1 預(yù)測(cè)表現(xiàn)

在U-Net模型的訓(xùn)練中,只使用了3聲源的訓(xùn)練數(shù)據(jù),即模型只“見(jiàn)過(guò)”3聲源的CB Map,因此所有不是3聲源的CB Map對(duì)于訓(xùn)練好的模型來(lái)講都是未見(jiàn)場(chǎng)景,包括單聲源和雙聲源。為了體現(xiàn)模型的泛化性能,用未知聲源數(shù)目的CB Map進(jìn)行仿真試驗(yàn),觀察預(yù)測(cè)結(jié)果,仿真與試驗(yàn)信息處理流程圖如圖5所示。

圖5 信息處理流程圖

圖6、圖7分別展示了1~3個(gè)和4~8個(gè)聲源的CB Map通過(guò)ACM方法的預(yù)測(cè)表現(xiàn),包括輸入圖(input)、預(yù)測(cè)圖(prediction)、目標(biāo)圖(target)。其中:“*”為聲源實(shí)際位置;“×”為DL-GFM方法的預(yù)測(cè)位置;“input”為CB Map_18;“prediction”為ACM方法清晰化后的成像圖;“target”為CB Map_64;N為聲源數(shù)目;f為頻率。從圖6中可以觀察到,ACM方法對(duì)于CB Map_18具有明顯的清晰化效果,并且預(yù)測(cè)圖與目標(biāo)圖接近。具體表現(xiàn)在低頻時(shí)減小了主瓣寬度;中頻時(shí)減小主瓣寬度進(jìn)而能有效地分離多聲源;高頻時(shí)減小主瓣寬度并降低旁瓣水平甚至消除旁瓣,這是CB Map_64中沒(méi)有達(dá)到的效果。這說(shuō)明U-Net模型“智慧地”將圖中的旁瓣當(dāng)作無(wú)用信息,因此在進(jìn)行上采樣恢復(fù)圖像時(shí),直接忽略旁瓣從而達(dá)到了消除旁瓣的效果。DL-GFM的識(shí)別結(jié)果在選取的頻率下都是準(zhǔn)確的,只在圖6(f)中的弱聲源位置出現(xiàn)了少許偏差。

(a) N=1,f=537 Hz,input

值得一提的是,對(duì)于3個(gè)及以上的聲源數(shù)目,ACM方法也有良好的表現(xiàn)。從圖7中可以觀察到,對(duì)于3個(gè)以上聲源的情況,預(yù)測(cè)圖與目標(biāo)圖相比主瓣寬度稍大,聲源特征分離不夠明顯,但是相對(duì)于輸入圖有明顯的提升,同時(shí)繼續(xù)展現(xiàn)出良好的旁瓣消除性能。如圖7(j)所示,當(dāng)聲源數(shù)目達(dá)到8個(gè)時(shí),預(yù)測(cè)結(jié)果出現(xiàn)了較大偏差。說(shuō)明本文中訓(xùn)練的U-Net模型在更多聲源數(shù)目上的表現(xiàn)有局限性,但總體表現(xiàn)良好。可以推測(cè)通過(guò)更多數(shù)目的訓(xùn)練數(shù)據(jù)集可以提升ACM方法的聲源識(shí)別范圍。

2.2 誤差評(píng)估

本文中使用平均絕對(duì)誤差(mean absolute error,MAE)(EMA)作為評(píng)估訓(xùn)練好的模型性能的指標(biāo),可表示為

(19)

圖8展示了在不同聲源數(shù)目和頻率下ACM方法的誤差表現(xiàn),首先可以觀察到隨著頻率的增大MAE值逐漸降低,說(shuō)明ACM方法的中高頻表現(xiàn)優(yōu)于低頻。同時(shí)可以看出隨著聲源數(shù)目的增大MAE值隨之增加,這個(gè)差距主要體現(xiàn)在1 608 Hz以下的低頻段。在中高頻段,MAE誤差幾乎沒(méi)有差距。綜上所述,在只用3聲源數(shù)據(jù)集訓(xùn)練的情況下,U-Net模型擁有很好的泛化能力,并且在中高頻段表現(xiàn)更加出色。

圖8 ACM方法總體性能

圖9展示了使用經(jīng)過(guò)ACM方法處理之后,DL-GFM方法的預(yù)測(cè)性能。以3聲源情況為例展示結(jié)果。圖9中曲線的命名代表訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)進(jìn)行波束形成時(shí)所使用的陣列。例如,“DNN_64-18_ACM”代表訓(xùn)練數(shù)據(jù)使用64通道陣列,測(cè)試數(shù)據(jù)使用18通道陣列并且使用ACM方法之后的評(píng)估結(jié)果。對(duì)比“DNN_64-18_ACM”和“DNN_64-18”可以看出,使用ACM方法之后MAE誤差大幅降低,說(shuō)明ACM方法對(duì)于CB Map的處理效果十分顯著。與“DNN_18-18”相比,在整個(gè)頻段上,使用ACM方法的誤差幾乎都低于DNN_18-18,并在858~2 037 Hz頻段效果較明顯,但與“DNN_64-64”在429~858 Hz的低頻段相比仍有一定差距。這說(shuō)明ACM方法優(yōu)于專門用對(duì)應(yīng)陣列的CB Map數(shù)據(jù)訓(xùn)練的DL-GFM方法。

圖9 DL-GFM方法總體性能

值得一提的是,本文工作中使用的硬件配置是型號(hào)為NVIDA QUADRO P4000的GPU。其訓(xùn)練一個(gè)DL-GFM方法中的ResNet-50-V2模型的時(shí)間大約30 h,而訓(xùn)練ACM方法中的U-Net模型只需要大約2 h。因此使用ACM方法既提高了深度學(xué)習(xí)無(wú)網(wǎng)格方法DL-GFM的精度,在不同的陣列測(cè)試中又無(wú)需多次訓(xùn)練模型,在實(shí)際應(yīng)用中具有很強(qiáng)的實(shí)用性。除此之外,本文中根據(jù)測(cè)試數(shù)據(jù)中的表現(xiàn)設(shè)置MAE=0.06為DL-GFM方法的合格閾值,即只有當(dāng)MAE≤0.06時(shí)才被認(rèn)為準(zhǔn)確識(shí)別出了全部聲源坐標(biāo)。據(jù)此判斷ACM方法對(duì)于3聲源的有效頻段在1 072 Hz以上。

3 試驗(yàn)驗(yàn)證

仿真結(jié)果表明ACM方法能夠消除旁瓣,降低主瓣寬度,提高CB Map的聲源特征清晰程度,進(jìn)而可以提升DL-GFM方法的識(shí)別精度。為了進(jìn)一步驗(yàn)證該方法的有效性和可行性,進(jìn)行了聲源識(shí)別試驗(yàn)。試驗(yàn)測(cè)量中采用了Brüel &Kj?r公司的18通道扇形輪式陣列,集成Brüel &Kj?r4951型傳聲器,試驗(yàn)設(shè)置如圖10所示。

圖10 試驗(yàn)設(shè)置

圖10中聲源平面到陣列平面距離為0.5 m,3個(gè)聲源坐標(biāo)分別為:聲源1中心是(0,0.2,0.5)m,聲源2中心是(0.2,0,0.5)m、聲源3中心是(-0.2,-0.1,0.5)m。此處3個(gè)聲源刻意避免設(shè)置在陣列中心對(duì)應(yīng)位置,以排除設(shè)置位置帶來(lái)的偶然性。聲源采用受白噪聲激勵(lì)的小型揚(yáng)聲器模擬點(diǎn)聲源。采樣頻率為16 384 Hz,采樣時(shí)間為10 s。通過(guò)控制開(kāi)啟揚(yáng)聲器的個(gè)數(shù)來(lái)分別布置單聲源、雙聲源、三聲源的場(chǎng)景。

圖11~圖13分別展示了不同頻率下單聲源、雙聲源、三聲源的試驗(yàn)結(jié)果,包括輸入圖CB Map_18和ACM預(yù)測(cè)圖。圖例與圖6、圖7中一樣。采集到的信號(hào)獲得CB Map之后輸入DNN_64獲得預(yù)測(cè)結(jié)果。結(jié)合圖11~圖13按照頻率由低到高觀察。

圖11 單聲源試驗(yàn)結(jié)果

圖12 雙聲源試驗(yàn)結(jié)果

圖13 三聲源試驗(yàn)結(jié)果

如圖11~圖13所示,512 Hz的預(yù)測(cè)結(jié)果中3種試驗(yàn)結(jié)果都類似,輸入圖中一個(gè)“大主瓣”被分離成了3個(gè)主瓣,DL-GFM識(shí)別出了錯(cuò)誤位置。在輸入圖類似的情況下,U-Net模型容易識(shí)別成訓(xùn)練數(shù)據(jù)中的三聲源場(chǎng)景,導(dǎo)致低頻時(shí)ACM和DL-GFM方法效果較差;1 024 Hz的單聲源預(yù)測(cè)圖減小了主瓣,并且基本準(zhǔn)確地識(shí)別出了聲源位置;雙聲源預(yù)測(cè)圖中明顯觀察到兩個(gè)聲源,但產(chǎn)生了較大旁瓣,導(dǎo)致DL-GFM沒(méi)有正確識(shí)別聲源位置;三聲源預(yù)測(cè)圖中有兩個(gè)清晰主瓣和一個(gè)“渾濁”主瓣,同時(shí)聲源位置也被準(zhǔn)確識(shí)別;2 048 Hz的3種聲源數(shù)目的輸出圖相較于低頻時(shí)ACM清晰化效果和DL-GFM位置識(shí)別精度都有較大的提升;4 096 Hz的輸入圖中出現(xiàn)了較大的旁瓣,很容易被DL-GFM識(shí)別為弱聲源,而3種試驗(yàn)結(jié)果都完全清除了旁瓣同時(shí)減小了主瓣寬度;8 192 Hz是在試驗(yàn)采樣頻率下的最大分析頻率,可以看到在3種聲源數(shù)目的情況的輸入圖中都出現(xiàn)了密集的旁瓣,其大小與聲源主瓣寬度相當(dāng)。最終預(yù)測(cè)結(jié)果成功清除了所有旁瓣,并且聲源預(yù)測(cè)位置與實(shí)際位置接近重合。

綜上所述,試驗(yàn)結(jié)果驗(yàn)證了提出ACM方法的可行性,其作為前處理過(guò)程與DL-GFM方法結(jié)合,具有高精度的聲源位置識(shí)別效果。但與仿真結(jié)果一致,其在低頻段表現(xiàn)出了局限性,這在今后的研究中仍需繼續(xù)關(guān)注。

4 結(jié) 論

本文提出了一種基于端到端深度學(xué)習(xí)模型U-Net 的陣列轉(zhuǎn)換法ACM,將18通道陣列的傳統(tǒng)波束形成結(jié)果轉(zhuǎn)換為64通道陣列的傳統(tǒng)波束形成結(jié)果,實(shí)現(xiàn)了成像圖的清晰化,其旁瓣消除效果優(yōu)于目標(biāo)圖CB Map_64。相比于DNN_64-18和DNN_18-18,明顯提升了深度學(xué)習(xí)無(wú)網(wǎng)格方法DL-GFM的精度,增強(qiáng)了已訓(xùn)練模型的陣列通用性。1個(gè)、2個(gè)、3個(gè)聲源的驗(yàn)證試驗(yàn)證明了提出方法的有效性和可行性。結(jié)論如下:

(1) 在只有三聲源訓(xùn)練數(shù)據(jù)集的情況下,ACM方法在1~8個(gè)聲源范圍內(nèi)均有良好的清晰化效果,但在多于3個(gè)聲源時(shí)表現(xiàn)有一定的局限性。

(2) 在本文使用的兩種陣列條件下,對(duì)于三聲源的情況,ACM方法在中高頻段清晰化效果好于低頻段,并將DL-GFM方法有效頻率下限提升到1 072 Hz左右。

猜你喜歡
深度方法模型
一半模型
深度理解一元一次方程
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
深度觀察
深度觀察
深度觀察
3D打印中的模型分割與打包
用對(duì)方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
主站蜘蛛池模板: 亚洲欧美日韩成人在线| 日本日韩欧美| 天堂中文在线资源| 国产精品99久久久久久董美香| 国产福利不卡视频| 97超碰精品成人国产| 欧美一区二区精品久久久| 久草网视频在线| 天堂岛国av无码免费无禁网站| 99国产精品国产| 91在线播放免费不卡无毒| 久久黄色毛片| 日韩欧美国产精品| 激情影院内射美女| 全午夜免费一级毛片| 亚洲手机在线| 99国产在线视频| 国产美女在线免费观看| 日韩天堂网| 日本精品一在线观看视频| 国产精品毛片一区视频播| 国产成人亚洲精品无码电影| 人妻丰满熟妇αv无码| 毛片久久网站小视频| 成年A级毛片| 国产精品性| 中文字幕欧美成人免费| 国产不卡网| 国产福利2021最新在线观看| 亚洲av片在线免费观看| 欧美一级高清视频在线播放| 中文字幕乱码中文乱码51精品| 一区二区三区四区精品视频| 全色黄大色大片免费久久老太| 成年网址网站在线观看| 日韩午夜福利在线观看| 国产日韩精品欧美一区喷| 亚洲人成影视在线观看| 狠狠色成人综合首页| 日韩成人免费网站| 国产欧美综合在线观看第七页| 国产精品久久久久久久久久久久| 久久黄色一级视频| 亚洲人人视频| 无码区日韩专区免费系列| 人妖无码第一页| 国产精品任我爽爆在线播放6080| 国产欧美又粗又猛又爽老| 免费无码一区二区| 久久久久国色AV免费观看性色| 亚洲综合激情另类专区| 日本高清有码人妻| 国产欧美视频一区二区三区| 日本在线欧美在线| 亚洲天堂啪啪| 亚洲人成网站观看在线观看| 好吊日免费视频| 九色国产在线| 亚洲第一区欧美国产综合| 熟女日韩精品2区| 五月天久久综合国产一区二区| 亚洲六月丁香六月婷婷蜜芽| 欧美第一页在线| 婷婷亚洲视频| 一本久道久综合久久鬼色| 久久美女精品| 黄片在线永久| 亚洲日本韩在线观看| 亚洲高清无在码在线无弹窗| 亚洲无线视频| 毛片免费高清免费| 国产成人精品综合| 一区二区自拍| 91精品国产91久无码网站| 91精品国产无线乱码在线| 日本人又色又爽的视频| 欧美一级在线| 国内精品91| 久久久久国产精品熟女影院| 免费视频在线2021入口| 国产国产人成免费视频77777| аⅴ资源中文在线天堂|