999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于神經網絡的說話人識別實驗設計

2020-10-30 08:23:20瑤,曉,b
實驗室研究與探索 2020年9期
關鍵詞:信號實驗

楊 瑤, 陳 曉,b

(南京信息工程大學a.電子與信息工程學院;b.江蘇省大氣環境與裝備技術協同創新中心,南京210044)

0 引 言

說話人識別是通過對說話人語音信號分析自動確定說話人是誰的過程[1-2]。由于語音特征的特殊性,很難在目前實驗中看到關于語音的案例或實驗。然而,語言在極大程度上增加了人們的交流互動,深入語音信號的研究也越來越受到人們的關注[3]。神經網絡是由若干個神經元組成的一個錯綜復雜的網絡系統,是一種既有多層式的,又不斷向前進行反饋的網絡,廣泛運用于各個方面,很強的非線性能力、容錯能力、泛化能力和自適應能力,且其是通過逆傳播算法來實現的,所以又被稱為誤差逆向傳播神經網絡[4]。神經網絡的研究范圍較廣,體現了許多學科結合交叉的特點。而人工智能課程實驗,可以幫助學生更好地探討人工智能算法和系統的運行和實現過程。目前高校在教學過程中,都相對比較重視實際動手的操作能力,只有開展相對的實驗課程,讓學生更好地參與到整個教學過程中,主動思考,從而提高學習能力和創新能力[5]。

本文設計了說話人的語音識別實驗,采用BP 神經網絡對語音信號進行分類。實驗過程中采取實驗者的訓練語音和測試語音,先對輸入語音進行預處理,提取特征參數MFCC,BP 算法對語音特征向量進行訓練,進而獲得有效的網絡權值[6]。用訓練好的BP 神經網絡對說話人的語音歸類,從而識別出說話人身份。實驗時既可用訓練好的網絡直接進行說話人識別的驗證性實驗,也可作為創新性實驗,由學生自行設計并編程實現神經網絡來進行說話人識別。實驗訓練和測試樣本也可以由學生自行采集完成。

1 實驗基本原理

1.1 說話人識別原理

表示語音信號個性的特征參數有LPCC、LPC、MFCC和DWTC[7]。對語音信號可以通過兩方面進行分析:①時域過程中的語音信號。運用短時間內的能量函數判斷一段語音信號中有、無聲音的區間,判斷該聲音的清濁。②結合以上幾個特征參數判斷語音信號起始點和終止點的位置,進行對能量的門限調整,就是實現對各端點進行檢測的過程。而后,在頻域的范圍內對語音進行分析處理,則需要分析信號的頻譜值、倒譜值、功率譜值以及將不同頻率的振幅中最高的那個點進行連接;并且在頻域過程中,實驗經常采用通過帶通濾波器的方法和對其進行傅里葉的變換方法進行分析處理[8]。

說話者身份確認的實驗過程就是從說話者的一段語音中,提取出表現其特征的參數,將參數進行一定的處理分析,從而得出測試者的身份。根據實驗者聲音處理的目的不同,可以分為對實驗者的辨認和對實驗者的確認,一個說話者的識別系統可以分成①訓練過程,②測試過程,如圖1 所示。

圖1 說話人識別典型結構

1.1.1 數據預處理

首先將語音信號數字化,隨后對輸入的語音信號進行預加重、去噪、分幀、加窗以及端點檢測等處理[9]。

(1)預加重。為了使參與實驗的語音信號更加穩定,處于高低的頻率之間,也可以減少噪聲所帶來的影響。

(2)分幀。將一大段信號分解成一小段一小段的操作過程,稱這一小段為“幀”,通常情況下幀的長度為(10 ~30)×106s[10]。

(3)加窗。使信號能夠在一定的范圍內,讓整個語音系統的語音信號更加連續,并且在進行加窗的操作后,讓原本沒有周期的語音信號能夠表現出部分的周期特征。對可移動的有限長度窗口進行加權。

(4)檢測端點。端點檢測主要分兩步走,①先通過一定的操作方法分割出語音信號中無聲、有聲部分;②選取有聲部分片段作為處理的實驗對象,根據語音信號的個性特征進行判斷,從而確定其起始點和終止點。

1.1.2 提取MFCC參數

提取特征[11]的任務是去掉所輸入語音信號里無用的冗余信息,并從輸入的一段說話人語音信號中提取可代表其個性特征的參數,本文主要涉及的特征參數是梅爾倒譜系數(Mel Frequency Cepstrum Coefficient,MFCC)[12]。MFCC的提出是以聽覺的模型為基礎,不同于LPCC和LPC,且根據研究表明,MFCC參數的性能是超越LPCC的。實驗提取MFCC主要過程[13]為:①用mel 濾波器進行實驗需要的處理步驟,將各系數進行歸一處理;②對倒譜的提升窗口也歸一;③由輸入語音信號實施起始點和最終點;④處理大段語音信號,分成一小部分的語音片段,并求各部分的參數;⑤合并參數的一階差分值和所求值;⑥取出合適范圍內的MFCC系數。

MFCC特征區分于其他倒譜特征的顯著特點是其擁有不均勻劃分的頻率軸,MFCC 系數的計算步驟如下[14]:①先輸入待實驗的語音;②提取的實驗者待測試的信號,對其進行預加重、分幀、加窗處理;③對一小段一小段的信號進行傅里葉變換從而得到語音信號的線性頻譜值;④對上一步所求的頻譜通過mel 濾波器組生成mel頻譜,并且對其進行平方求值,則能夠得到能量譜的值,用K 帶通濾波器進行實驗步驟,得出其輸出功率譜為X(K);⑤MFCC參數的求解是通過對其做反離散余弦變換,M一般取12 ~16。

1.2 BP神經網絡算法原理

BP神經網絡[15-16]就是將輸入的信號通過中間隱含層對輸出層所做出的反應。BP 算法主要由工作信號的正向傳播和誤差信號的反向傳播組成[17]。

(1)正向傳遞工作信號過程。輸入的語音信號經過前兩層的處理,將結果傳到輸出層,倘若輸出的實際值與期望值不一致時,則轉向誤差的逆傳播。

(2)誤差信號逆傳播過程。將其輸出層得出的輸出結果反饋給輸入層和隱含層,并把產生的誤差分給所有的神經元,主要目的是為了反復求權值和閾值,直至它與BP算法求出的誤差相對應。

設輸入節點、隱含層節點、輸出層節點分別用j、k、i表示,計算權值和偏置的表達式如下:

根據梯度下降法原理,前兩層的權值和偏置可表示為:

實驗時構建BP神經網絡需要對網絡參數進行設置,從而完成訓練過程。實驗過程為:

(1)網絡初始化。第1 層表示樣本各分量的值。令3 層的節點數表示為m、l、n,并且各兩層之間連接的權值設為wjk、wki,使第1 個輸入的初始閾值為a,輸出的閾值為b。

隱含層

(2)隱含層輸出。設輸入的數據為x,且前兩層之間的可連接權值為wjk,隱含層閾值為a,則該層的輸出相當于輸入的數據經

(3)輸出層輸出。設后兩層之間的連接權值為wki,閾值為b,根據上述所求的輸出,從而計算最后一層的輸出

(4)網絡錯誤率的計算。由上述的步驟可得出輸出的預測值,并設定此網絡輸出的期望值為Y,網絡所產生的錯誤率

(5)更新權值。根據步驟(4)所產生的數據不斷地更迭計算網絡間的連接權值

(6)更新閾值。根據錯誤率計算網絡各節點的閾值

(7)返回(2)。進行不斷地循環,直至該網絡計算的錯誤率符合原本所要達到的要求。

2 實驗方案設計

2.1 實驗步驟

(1)利用已建立好的語音庫,主要包括p 個實驗者的q遍錄音,前r遍用于訓練,后q-r遍用于測試。

(2)將語音數據的幅度進行歸一化操作,整合到[-1,1]之間,對常數的取值進行設置,并于計算過零率、計算短時能量、調整能量門限后,進行端點檢測的步驟,找出語音信號的起始點和終止點,從而完成對語音數據的預處理。

(3)將mel濾波器組系數歸一化,對倒譜進行處理,增強其窗口,不斷地穩定參數的高階、中階和低階的分量,從而增加參數的各方面性能。

(4)通過預加重濾波器對語音信號進行分幀,將一大段的語音信號分為多個小段的信號,對每一小段的信號進行參數求值,合并了一階參數和參數本身,去掉高低兩個值,進行刪選,從而提取出符合范圍內特征參數MFCC的值。

(5)對訓練后的數據進行疊加,把第i 份訓練數據組織為x,對每個輸出進行編碼,每個類別用N個數字來表示,并且定義神經網絡和設置神經網絡的輸入范圍,從而開始對train 文件夾中的語音進行訓練,并且訓練幀的類型分類,從而建立語音模板庫。

(6)讀入test 文件夾下的語音文件,計算幀的長度,提取MFCC參數的特征值并進行歸一化處理,每1幀可算出24 維度特征,對每1 幀求類別并得到每幀的類型,通過對這一類別進行索引,從而可得到這一類別的幀數,幀數的得票越多,就為哪一實驗者的語音信號。

2.2 測試結果

在Matlab 軟件中導入mytrain. m 和mytest. m 函數,并對mytest.m函數開啟運行操作,訓練train 文件下的語音文件載入時都可以被系統識別出各個語音所屬人的身份。實驗過程中則需要用train 文件夾中的語音進行訓練,通過訓練完成后對test 下的語音文件進行測試環節。

2.2.1 訓練部分

BP網絡訓練設置如下:

hiden =15;

net =newff(pr,[hiden,typenum],{'logsig','purelin'},

'trainrp');net.trainParam.goal =1e-4;

net.trainParam.epochs =3000;

即迭代次數3 000 次,誤差目標為10-4,利用train 函數訓練BP神經網絡。本文所構建的BP 網絡是由24個輸入、15 個隱藏和7 個輸出組成,并且選擇Sigmoid激活函數。

選擇訓練p個人的各自r 段語音,仿真訓練結果如圖2 所示。繪制出訓練的錯誤率曲線如圖3 所示。

圖2 說話者訓練樣本界面

圖3 訓練誤差曲線

由圖3 可知,信號經過3 000 次迭代,誤差為0.080 219,且接近于0。本次測試的梯度為0.001 267,錯誤識別率為0,如圖4 所示。

2.2.2 實驗數據

利用alltest.m計算該系統的準確率,實驗結果如表1 所示。

由表1 可知,BP神經網絡適用于小范圍內語音數量的計算,所采取的數據庫越大,則其準確率越低,失真度就會隨之增加。

圖4 誤差梯度和錯誤識別率

表1 系統準確率

3 結 語

設計了基于神經網絡的說話人識別實驗,利用MFCC和BP神經網絡進行識別的操作過程。由實驗結果可知,這兩者的結合可以有效縮小識別的時間,從而大大提高了識別率,說話人的身份識別獲得了較好的效果。通過實驗的設計和完成,可以讓學生更深入的了解說話人識別的整體流程,也可以讓學生更加靈活地理解神經網絡的工作原理,從而提高學生的動手能力。

猜你喜歡
信號實驗
記一次有趣的實驗
微型實驗里看“燃燒”
信號
鴨綠江(2021年35期)2021-04-19 12:24:18
完形填空二則
做個怪怪長實驗
孩子停止長個的信號
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
基于LabVIEW的力加載信號采集與PID控制
一種基于極大似然估計的信號盲抽取算法
主站蜘蛛池模板: 久久久久青草大香线综合精品 | 国产精品网址在线观看你懂的| 亚洲综合经典在线一区二区| 91精品久久久久久无码人妻| 日本a级免费| 青青草a国产免费观看| 黄色在线不卡| 欧美va亚洲va香蕉在线| 999国产精品永久免费视频精品久久| 欧美中文字幕无线码视频| 久久综合伊人77777| 青青草久久伊人| 精品成人一区二区三区电影| 国产欧美日韩另类| 免费va国产在线观看| 精品视频在线观看你懂的一区| 日韩天堂在线观看| 欧美日韩一区二区在线播放| 精品国产成人国产在线| 亚洲午夜福利在线| 中文字幕欧美成人免费| 91综合色区亚洲熟妇p| 日韩精品一区二区三区视频免费看| 伊人久久大线影院首页| 国产一级毛片网站| 69免费在线视频| 无码中字出轨中文人妻中文中| 亚洲精品福利网站| 国产福利微拍精品一区二区| 亚洲乱码视频| 99久久免费精品特色大片| 国产美女91视频| 片在线无码观看| 在线观看国产网址你懂的| av一区二区无码在线| 免费观看国产小粉嫩喷水 | 国产丝袜无码一区二区视频| 国产精品福利导航| 精品三级网站| 亚洲色欲色欲www在线观看| 毛片a级毛片免费观看免下载| 经典三级久久| 久爱午夜精品免费视频| 亚洲h视频在线| 狠狠做深爱婷婷综合一区| 国产精品手机在线观看你懂的| 精品视频一区二区观看| 五月天在线网站| 六月婷婷精品视频在线观看| 中文无码日韩精品| 日本三级欧美三级| 亚洲狼网站狼狼鲁亚洲下载| 免费三A级毛片视频| 国产精品播放| 亚洲成人高清在线观看| 日本免费精品| 日本免费新一区视频| 国产精品成人AⅤ在线一二三四| 成人字幕网视频在线观看| 亚洲成人在线免费| 国产成人8x视频一区二区| 国产美女久久久久不卡| 午夜不卡福利| 国产一区二区三区日韩精品| 伊人丁香五月天久久综合| 亚洲最猛黑人xxxx黑人猛交| 全免费a级毛片免费看不卡| 亚洲AⅤ无码国产精品| www.91中文字幕| 成人福利在线视频免费观看| 99视频在线观看免费| 97免费在线观看视频| 国产精品浪潮Av| 激情亚洲天堂| 亚洲精品在线91| 国产精品手机在线观看你懂的 | 久久黄色免费电影| 日日碰狠狠添天天爽| 久夜色精品国产噜噜| 国产在线高清一级毛片| 久久精品国产999大香线焦| 香蕉国产精品视频|