高麗++王敬華++戴上平++吳德鈺++王婷婷++鄭世玨

摘要:人類智能技術的發展已深入到各個領域。實現人與機器之間的自然通信是當今科學技術發展的主流,本系統通過語音識別與合成技術,嵌入以語音交互為核心的科大迅飛人工智能開放平臺,面向各大高校學生群體,設計出符合高校實驗員與學生之間的語音對話庫,實現了高校虛擬實驗員的語音對話系統,推進了高校實驗教學的發展。
關鍵詞:高校虛擬實驗員;語音識別與合成;語音對話;語音數據庫
中圖分類號:TP391.42 文獻標識碼:A 文章編號:1007-9416(2017)10-0164-02
隨著以計算機多媒體技術、網絡通信技術為核心的信息技術在教育教學領域的普及應用,學習資源內容和形式越來越豐富。教學方式不再局限于傳統的課堂教學,網絡教學也越來越廣泛。但是隨著研究的不斷深入,基于計算機網絡開展學習的也暴露出不足的地方,如:交互界面形式單一;交互手段單一;學生也缺乏身臨其境的感覺等等。于是,如何將虛擬教師技術應用于三維虛擬學習環境中,使網絡在線學習在虛擬教師的指導下進行,從而進一步增強教學互動,提高學生的學習積極性,成為重要的研究課題。
在二十世紀五十年代,美國貝爾實驗室首先研究出了可以識別十個英文數字的語音識別系統,揭開了語音研究的新篇章[1]。二十世紀六十年代,人工網絡的發展奠定了神經網絡在語音識別中的地位[2]。在美國,較早從事虛擬教師技術研究的是佛羅里達州立大學教授貝勒[3][4]。在我國,則以科大訊飛等為代表的機構在語音研究中取得了較為領先的產品效果。正是因為語音技術的發展,“虛擬人”概念應運而生[5]。清華大學研究了基于人工智能情感的機器人控制體系,浙江大學則研究了虛擬人物構造[6],從而奠定了本文的研究基礎。
本文通過研究語音識別與合成技術,以科大訊飛提供的API作為支撐,將語音識別與合成技術應用到當今高校教育中,打破傳統人機交互模式,實現了高校虛擬實驗員智能語音對話系統,使得高校實驗員的工作以及高校學生的培養更加人性化,極大減輕我國高校實驗員在指導學生進行重復的基礎實驗過程中繁重的勞動。本文以《多媒體技術與應用》課程實驗為示范,設計三維虛擬實驗員實驗教學過程。
1 語音識別技術及科大迅飛語音API
語音技術中的關鍵技術主要有語音識別技術和語音合成技術。語音識別技術主要是通過計算機將聲音識別成相應文本文字。語音合成技術是將文本信息通過語音的形式表達出來。通過語音識別與合成技術可以實現計算機的智能化、人性化,從而達到更好的人機交互效果。
科大訊飛的 API接口在實際的項目應用中具有良好的編程接口設計,可降低系統各部分的相互依賴和單元間的耦合度,提高內存單元的內聚性,從而提高系統的維護性和擴展性[2]。本文選用了科大訊飛API,作為系統語音識別與轉換技術支持,通過網絡直接訪問科大迅飛平臺,調用其 API 數據庫,實現文字與語音之間的轉化。
語音識別算法目前主要采用的有動態時間規整,隱馬爾可夫模型,以及高斯混合模型三種。
2 三維虛擬實驗員教學環境的整體架構
本系統整體框架如圖1所示。結合本科生《多媒體技術與應用》課程,進行語義分析,再通過BM算法結合語料庫進行對話匹配,匹配成功后,將匹配的文本轉化為語音輸出。
3 語音數據庫
語音對話數據庫主要針對《多媒體技術與應用》課程實驗的情況進行數據庫的設計及構造。在建立之前進行相關調研活動,整合歸納出對應數據模型。
4 語音系統
語音輸入采用的是麥克風對聲音信息進行采集,將原來的模擬信號數據轉化成數字末信號,傳入到計算機中。語音輸入階段會進行前期的預處理[7][8]。預處理后的語音數據經過特征參數提取,得到詞條的模型。同時將語音信號生成的處理后的模板進行測試匹配,得到最終的文本文字,進行語音識別。語音識別的原理框圖如圖2所示。
5 實驗結果
在某一特定條件下,輸入語音長度為3s左右,噪音20dB以下,帶寬10Mbps,標準普通話,音量40dB以上,本系統進行的語音識別和響應時間測試。測試結果如圖3所示,橫坐標表示實驗組數,縱坐標為測試時間,共10組實驗數據。
根據這10組數據可得,其平均語音識別時間為0.82899s,平均語音回應時間為1.59066s。由此可見,基本達到預期的設計效果。
6 結語
在三維虛擬環境中,構建具有情感的大學虛擬實驗員外觀形象,是高校信息化建設的有效結果。本文主要通過虛擬實驗員較為逼真的表現性、真實的操作性、實時的反應性、一定的情感性,利用語音識別技術與學生進行交流溝通,取得了良好的教學效果。
參考文獻
[1]熊飛.嵌入式語音識別算法的研究與實現[D].太原理工大學,2008.
[2]于雷.基于google Speech-API的簡單語音對話系統的實現[D].華南理工大學,2012.
[3]潘志庚,楊宏偉,劉箴.虛擬智能體情感研究綜述[J].計算機輔助設計與圖形學學報,2007,19(12):1509-1516.
[4]蘇紹勇,陳繼明,潘金貴.虛擬環境中行為建模技術研究[J].計算機科學,2007,34(2):270-273.
[5]羅冠,郝重陽,張雯,等.虛擬人技術研究綜述[J].計算機工程,2005,31(18):7-9.
[6]王志良.人工情感[M].北京:機械工業出版社,2009.
[7]曾旎,鄭世玨,周駿,朱峰.一種高校虛擬輔導員智能語音對話系統的設計與實現[J].電腦知識與技術,2017,13(9):175-177.
[8]李秀珍.語音識別算法及應用技術研究[D].重慶大學,2010.endprint