999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種低信噪比條件下的高可懂度的語音增強算法

2016-11-08 08:42:15馬建芬張雪英
計算機應用與軟件 2016年10期
關鍵詞:方法

孟 欣 馬建芬 張雪英

(太原理工大學計算機科學與技術學院 山西 太原 030024)

?

一種低信噪比條件下的高可懂度的語音增強算法

孟欣馬建芬*張雪英

(太原理工大學計算機科學與技術學院山西 太原 030024)

研究表明,增強后的語音與純凈語音相比,會存在兩種不同類型的畸變:放大畸變和衰減畸變,而放大畸變對語音可懂度的影響較大。傳統的語音增強算法大多不能有效提高語音增強后的可懂度,因為這些算法僅使用最小均方誤差的方法來限制這兩種畸變,從而抑制噪聲,提高語音的質量,但忽略了不同的畸變類型對可懂度的影響不同。提出一種基于子空間的提高可懂度的語音增強算法,使用先驗信噪比及增益矩陣來判斷語音畸變的類型。同時注意到,在估計先驗信噪比時會存在估計誤差:高估和低估,而高估會產生放大畸變,對可懂度造成較大的影響。先對高估先驗信噪比(小于-10dB)的增益矩陣進行修正,然后再對幅度譜畸變大于0dB及6.02dB的語音進行不同的限制。實驗表明,所提出的算法能夠有效增強語音的可懂度。

子空間語音可懂度語音畸變先驗信噪比增益矩陣

0 引 言

語音增強所關心的問題是改善加噪語音的感性性能,目的是提高加噪語音的質量和可懂度。在長時間聽一段語音時,聽者的疲勞度會增加,提高語音質量可以降低聽者的疲勞度。所以到目前為止,很多算法(包括譜減法、維納濾波算法、統計模型算法及子空間法)都致力于提高語音的質量,且它們都能在一定程度上提高語音的質量。但它們都不能有效地提高語音的可懂度[1],因為它們都是使用最小均方誤差的方法來抑制噪聲。實際上,增強后的語音與純凈語音相比存在兩種畸變:放大畸變和衰減畸變。放大畸變指的是語音增強后的幅度譜大于相對應的純凈語音的幅度譜;衰減畸變正相反,指的是語音增強后的幅度譜小于相對應的純凈語音的幅度譜。研究表明[2],不同的畸變類型對可懂度的影響不同。最小均方誤差的方法把放大畸變和衰減畸變混在一起計算平均誤差,忽略了不同的畸變類型給可懂度帶來的影響。

近年來,很多研究都致力于通過減少語音畸變來提高語音增強的性能,包括改進的子空間法[3]、改進的譜減法[4]、改進的維納濾波算法[5]、基于統計的方法(包括使用壓縮感知[6]和非負矩陣分解[7]等)以及深度神經網絡(DNN)的方法[8]。文獻[3-5]是基于傳統子空間法、譜減法和維納濾波方法的改進,這些方法能在一定程度上提高語音的可懂度,但均只考慮了放大畸變大于6.02dB時對可懂度的影響。經實驗驗證,這些方法只有在實驗數據量較少時能夠提高少量加噪語音的平均可懂度,在實驗數據較多時并沒有明顯提高語音的平均可懂度。而文獻[6-8]中的方法雖然采用了先進的技術,但復雜度明顯提高且可懂度并沒有很大程度提高。

本文利用“直接判決”法[10,11]估計先驗信噪比,在估計先驗信噪比時會存在兩種不同類型的誤差[9,12]:高估和低估。高估指的是使用增強算法時估計的先驗信噪比高于理想條件下的先驗信噪比,低估指使用增強算法估計時先驗信噪比低于理想條件下的先驗信噪比。在文獻[9]中采用聚類的方法減少“直接判決”法引入的高估和低估,但復雜度也明顯提高。在文獻[12]中通過限制先驗信噪比小于-10db區域的高估同樣能有效提高語音的可懂度。

為了減少復雜度,本文提出了一種改進的基于子空間的方法。但不同于文獻[3-5]中的方法,本文討論了所有放大畸變對可懂度的影響,并采用文獻[12]中的方法,對先驗估計信噪比進行修正,從而獲得更高可懂度的語音增強算法。在實驗中使用大量的實驗數據證明本文提出的算法能夠更有效提高可懂度。

1 子空間語音增強算法

假設噪音信號為x,純凈語音信號為s,噪聲信號為n,且s與n互不相關,即:

x=s+n

(1)

其中x、s、n都是K維的信號矢量。

定義:

(2)

其中R·表示相應的信號矢量的協方差矩陣。對Σ進行特征分解:

ΣV=VΛΣ

(3)

式中V和ΛΣ分別代表Σ的特征向量和特征值。此處假設Σ的特征值按照λΣ(1)≥λΣ(2)≥…≥λΣ(k)排序,估計語音信號子空間的維度定義為:

(4)

(5)

條件:

(6)

通過特征值分解以及代換處理[13,14],可以得到第m幀的增益矩陣的第k個對角線元素為:

(7)

其中μ可以通過如下公式計算得到[15]:

(8)

其中μ0=4.2,s0=6.25。SNRdB(k,m)為第m幀第k個譜分量的信噪比,記相應的后驗信噪比為γ(k,m),則SNRdB(k,m)=10lgγ(k,m),其中:

(9)

記先驗信噪比為ξ(k,m),可以由“直接判決”法[10,11]計算:

(10)

其中:a表示平滑系數,一般為0.8~1,此處取0.98。

2 修 正

在估計先驗信噪比時,存在高估和低估,文獻[9,12]中對高估和低估產生的區域及其對可懂度產生的影響進行了實驗說明。通過對比真實信噪比和先驗信噪比的值,得出在小于-10dB時,高估的情況較多。并通過試聽測試,對比說明了高估時對可懂度的影響較大。

本文充分利用該技術,先對本算法的增益矩陣進行修正,即通過文獻[12]的人工引入偏差方法對先驗信噪比小于-10dB區域的增益矩陣進行修正,來提高可懂度:

gw(k,m)=(1-B)·g(k,m)+B20lg(ξ(k,j))<-10dB

(11)

其中,B為引進的修正系數。在本文中,分別對B取0.1、0.2、0.3、0.5、0.6、0.7、0.9,結果顯示B取0.2時得到的效果最好。

3 高可懂度算法

設第m幀第k個譜分量的純凈信號與增強信號比為:

(12)

將式(12)進行推導:

(13)

根據不同的放大區域對幅度譜進行限制:

(14)

實驗中,根據不同放大倍數對ρ(k,m)進行了從0.5~1的以0.05為增幅的遞增取值,共進行了10×10,即100組實驗。根據實驗顯示,當0.5

(15)

(16)

根據本文所述的思路,可以通過如下步驟得到增強后的語音信號:

(1) 計算出后驗信噪比γ(k,m),見式(9);

(2) 計算出系數μ,見式(8);

(3) 計算出修正高估后增益矩陣的第m幀第k個對角元素gw(k,m),見式(7)和式(11);

(4) 估計先驗信噪比ξ(k,m),見式(10);

(5) 估計純凈信號與噪音信號比SNRs/e,見式(13);

4 實驗結果及分析

本文使用Matlab仿真驗證語音可懂度算法的增強效果。噪聲信號來源于Noisex-92噪聲庫中的4種噪音,分別為babble、car、street、train。純凈句子語音信號來自IEEE句子語音庫的全部720組句子,純凈輔音信號來自IEEE輔音庫的全部30組輔音。純凈語音及噪音的采樣率均為8KHz,量化精度為16bit。

研究表明,經過增強算法增強過的語音與加噪未增強的語音相比,可懂度會降低,最好的情況就是持平,且子空間法是所有增強算法中效果最好的一種增強算法[1]。所以本文選用子空間法和加噪未增強與本文的增強算法進行對比。

本文對720組純凈句子語料分別在信噪比為-5dB,0dB及5dB的情況下進行加噪。在同一組信噪比條件下,分別使用加噪未增強、子空間算法和本文算法對加噪語音進行處理。同一種信噪比下的同一種類型噪聲經過同一種降噪處理可以得到1種測試條件,再將這種測試條件下的720組句子的客觀可懂度的平均值作為最終的可懂度值。這樣的測試條件共有3×4×3,即36種。本文對30組純凈輔音語料分別在-15、-10、-5及5dB的情況下進行加噪。與句子相同,在同一組信噪比條件下,分別使用加噪未增強、子空間算法和本文算法對加噪語音進行處理。這樣,測試條件共有4×4×3,即48種。

〗本文的可懂度測試采用NCM(歸一化協方差法)[17]。該方法對于句子來說,與主觀可懂度評價的相關度系數值r=0.89,標準偏差σe=0.07。相關系數值越大,說明與主觀可懂度評價越相近,評價越精確。對于輔音來說,與主觀可懂度評價的相關系數值r=0.77,標準差σe=0.08。相對于PESQ來說,對于句子而言,該方法整體優于PESQ,對于輔音而言,該方法與PESQ持平,所以最終選擇NCM方法。

句子和輔音的客觀評價結果分別如表1、表2所示。

表1 句子NCM值

表2 輔音NCM值

NCM值越大,可懂度越高。由表1和表2可以看出,對高估先驗信噪比進行修正,對不同放大區域進行分段限制對于信噪比較低,尤其是信噪比為負值的加噪語音影響較大,這也進一步驗證了猜想。與傳統的子空間方法相比,本文提出的算法能夠在負信噪比時較大程度提高語音的可懂度,且與加噪未增強的噪音相比,可懂度也明顯提高。

5 結 語

本文首先論述了現今很多算法都是利用最小均方誤差的方法進行語音增強,忽略了不同語音畸變區域對可懂度的影響,繼而闡述了不同畸變區域對可懂度的影響不同。在估計先驗信噪比時,會存在高估和低估,所以首先對小于-10 dB區域內的增益矩陣高估進行修正。為了驗證猜想,在頻域上約束子空間的特征分解法的基礎上,使用先驗信噪比和增益矩陣對不同的語音畸變區域(大于0 dB和大于6.02 dB)分段進行了限制。經過Matlab實驗仿真結果可知,本文提出的算法確實能夠有效地減小先驗信噪比高估,降低畸變對語音的影響,提高了語音的可懂度。

[1] Hu Y,Loizou P C.A comparative intelligibility study of single-microphone noise reduction algorithms[J].Journal of the Acoustical Society of America,2007,122(3):1777-1786.

[2] Loizou P C,Kim G.Reasons why current speech-enhancement algorithms do not improve speech intelligibility and suggested solutions[J].IEEE Transactions on.Audio,Speech and Language Processing,2011,19(1):47-56.

[3] 劉鵬,馬建芬.具有較高可懂度的子空間語音增強算法[J].計算機工程與設計,2013,34(7):2619-2622.

[4] Yang Y X,Ma J F.Speech Intelligibility Enhancement Using Distortion Control[J].Advanced Materials Research,2014,912-914:1391-1394.

[5] 郭利華,馬建芬.具有高可懂度的改進的維納濾波的語音增強算法[J].計算機應用與軟件,2014,31(11):155-157.

[6] Sharma P,Abrol V,Sao A K.Supervised speech enhancement using compressed sensing[C]//Communications (NCC),2015 Twenty First National Conference on.IEEE,2015:1-5.

[7] Kwon K,Shin J W,Sonowat S,et al.Speech enhancement combining statistical models and NMF with update of speech and noise bases[C]//Acoustics, Speech and Signal Processing (ICASSP), 2014 IEEE International Conference on. IEEE,2014:7053-7057.

[8] Xu Y,Du J,Dai L R,et al.A Regression Approach to Speech Enhancement Based on Deep Neural Networks[J].Audio,Speech and Language Processing,IEEE/ACM Transactions on,2015,23(1):7-19.

[9] Djendi M,Scalart P.Reducing over- and under-estimation of the a priori SNR in speech enhancement techniques[J].Digital Signal Processing,2014,32:124-136.

[10] 張亮,龔衛國.一種改進的維納濾波語音增強算法[J].計算機工程與應用,2010,46(26):129-131.

[11] Lu Y,Loizou P C.Speech enhancement by combining statistical estimators of speech and noise[C]//Proceedings of IEEE International Conference on Acoustics,Speech and Signal Processing,2010:4754-4757.

[12] Chen F,Loizou P C.Impact of SNR and gain-function over- and under-estimation on speech intelligibility[J].Speech Communication,2012,54(2):272-281.

[13] 武奕峰,賈海蓉,郭欣.用子空間提高有色噪聲背景下的語音質量[J].太原理工大學學報,2015,46(2):192-195.

[14] 陳國明,趙力,鄒采榮.窄帶噪聲下的子空間語音增強算法[J].應用科學學報,2007,25(3):243-246.

[15] Hu Y,Loizou P C.A generalized subspace approach for enhancing speech corrupted by colored noise[J].Speech and Audio Processing,IEEE Transactions on,2003,11(4):334-341.

[16] Loizou P C,Ma J.Extending the articulation index to account for non-linear distortions introduced by noise-suppression algorithms[J].Journal of the Acoustical Society of America,2011,130(2):986-995.

[17] Ma J,Hu Y,Loizou P C.Objective measures for predicting speech intelligibility in noisy conditions based on new band-importance functions[J].Journal of the Acoustical Society of America,2009,125(5):3387-3405.

ASPEECHENHANCEMENTALGORITHMWITHHIGHINTELLIGIBILITYUNDERLOWSNRCONDITION

MengXinMaJianfen*ZhangXueying

(CollegeofComputerScienceandTechnology,TaiyuanUniversityofTechnology,Taiyuan030024,Shanxi,China)

Researchshowsthatcomparedwithpurespeech,therewillbetwotypesofdistortioninenhancedspeech:theamplifierdistortionandtheattenuationdistortion,andtheamplifierdistortionhasabiggerinfluenceonthespeechintelligibility.Mostoftraditionalspeechenhancementalgorithmscannoteffectivelyimprovetheintelligibilityafterthespeechbeingenhanced,becausetheyonlyusetheminimummeansquareerrormethodtolimitthesetwokindsofdistortionsforsuppressingnoiseandimprovingthequalityofthespeech,butneglectthedifferentdistortionshavingdifferenteffectsonintelligibility.Thispaperproposesasubspace-basedspeechenhancementalgorithmwhichcanimprovetheintelligibility,itusespriorisignal-to-noiseratio(SNR)andgainmatrixtojudgethetypeofspeechdistortion.Atthesametime,itisnoticedthatwhenestimatingtheprioriSNR,thereistheestimationerror:overestimationandunderestimation.Theoverestimationwillproduceamplifierdistortion,andhasabiginfluenceontheintelligibility.WefirstcorrectthegainmatrixoftheoverestimatedprioriSNR(lessthan-10dB),andthenmakedifferentrestrictionsonthespeecheswithamplitudespectrumdistortiongreaterthan0dBand6.02dBseparately.Experimentalresultsshowthattheproposedalgorithmcaneffectivelyenhancetheintelligibilityofthespeech.

SubspaceSpeechintelligibilitySpeechdistortionPrioriSNRGainmatrix

2015-06-23。國家自然科學基金項目(61371193)。孟欣,碩士生,主研領域:語音信號處理。馬建芬,教授。張雪英,教授。

TP

ADOI:10.3969/j.issn.1000-386x.2016.10.032

猜你喜歡
方法
中醫特有的急救方法
中老年保健(2021年9期)2021-08-24 03:52:04
高中數學教學改革的方法
河北畫報(2021年2期)2021-05-25 02:07:46
化學反應多變幻 “虛擬”方法幫大忙
變快的方法
兒童繪本(2020年5期)2020-04-07 17:46:30
學習方法
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
最有效的簡單方法
山東青年(2016年1期)2016-02-28 14:25:23
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 国产一级做美女做受视频| 特级毛片8级毛片免费观看| 国产精品无码AV中文| 亚洲日韩高清在线亚洲专区| 国产91视频免费| 免费无码AV片在线观看中文| 伊人婷婷色香五月综合缴缴情| jizz在线观看| 国产一区二区三区夜色| 一级福利视频| 欧美亚洲一区二区三区导航 | 一级毛片免费不卡在线视频| 国产在线麻豆波多野结衣| 中文字幕日韩丝袜一区| a欧美在线| 免费va国产在线观看| 福利国产微拍广场一区视频在线| 爱爱影院18禁免费| 亚洲国产天堂在线观看| 色偷偷男人的天堂亚洲av| 国产精品亚洲一区二区三区z| 国产不卡网| 国产制服丝袜91在线| 少妇露出福利视频| 中文字幕乱码中文乱码51精品| 亚洲国产91人成在线| 久久久91人妻无码精品蜜桃HD| 黄色网在线| 思思热在线视频精品| 3344在线观看无码| 又黄又湿又爽的视频| 日本午夜精品一本在线观看 | 久久大香伊蕉在人线观看热2| 99久久性生片| a国产精品| 中文字幕在线不卡视频| 久久成人18免费| 国产乱子伦精品视频| 激情综合网址| 国产精品综合久久久 | 三上悠亚一区二区| 国产麻豆aⅴ精品无码| 露脸国产精品自产在线播| 色综合日本| 激情無極限的亚洲一区免费| 97视频免费在线观看| 国产日本视频91| 999在线免费视频| 国产乱码精品一区二区三区中文 | 久久久久久久久18禁秘| 女人一级毛片| 日韩欧美一区在线观看| 色婷婷综合在线| 久久免费成人| 伊人中文网| 日韩精品专区免费无码aⅴ| 亚洲国产成人久久精品软件 | 日本久久久久久免费网络| 欧美无遮挡国产欧美另类| 国产久操视频| 国产精品综合色区在线观看| 免费不卡视频| 午夜毛片免费看| 欧美日韩午夜| 99久久精品视香蕉蕉| 一本综合久久| 狠狠躁天天躁夜夜躁婷婷| 免费一看一级毛片| 美女无遮挡免费网站| 亚洲无码日韩一区| 日本欧美中文字幕精品亚洲| www.亚洲一区| 啊嗯不日本网站| 亚洲国产第一区二区香蕉| 天天摸天天操免费播放小视频| 国产一区成人| 久久人午夜亚洲精品无码区| 中文字幕天无码久久精品视频免费 | 另类欧美日韩| 亚洲欧美不卡中文字幕| 色首页AV在线| 国产内射一区亚洲|