楊立東 焦慧媛



摘 要:虛擬現實技術(VR)的飛速發展使雙耳聽覺研究越來越深入,如何快速準確地獲取個性化頭部相關傳遞函數HRTF成為研究熱點。介紹了HRTF獲取關鍵技術研究現狀,總結出HRTF的4種獲取方式:實驗測量法、數學建模法、數據庫匹配法和主觀選擇法,并闡述各方法的基本原理。將各方法進行對比,指出HRTF獲取工作中需解決的問題和未來研究方向。
關鍵詞:虛擬現實技術(VR);HRTF;實驗測量法;數學建模法;數據庫匹配法;主觀選擇法
DOI:10. 11907/rjdk. 181758
中圖分類號:TP3-05文獻標識碼:A文章編號:1672-7800(2019)001-0034-06
Abstract:The rapid development of virtual reality technology makes the study of binaural hearing deeper and deeper. How to quickly and accurately obtain a personalized head-related transfer function (HRTF) has become a hot spot for scholars in various countries. This article gives a detailed introduction to the research status of HRTF access to key technologies, and summarizes four main acquisition methods of HRTF based on the current development trends: experimental measurement method, mathematical modeling method, database matching method and subjective selection method. The basic principle of the method is described. The advantages and disadvantages of the current methods are compared. Finally, the issues that need to be resolved in the HRTF acquisition work and future research directions are pointed out.
0 引言
虛擬現實(Virtual Reality,VR)的不斷發展掀起了VR技術應用浪潮,越來越多的人希望通過VR設備獲得更加逼真的現實感受。2018年1月的國際消費類電子產品展覽會(International Consumer Electronics Show,簡稱CES)上,HTC公司推出了一款新的VR(Virtual Reality)設備——VIVE Pro虛擬現實系統。在4月份的新品發布會上,HTC公司又推出與之對應的操控手柄,配置了兩個支持Steam VR的追蹤器2.0,這一改進的VIVE Pro設備已正式投入商業生產與線下銷售中。2018年5月,上海位視達信息科技有限公司率先啟動了朗文WTE英語VR教室項目,通過VR眼鏡給孩子們營造一個立體的虛擬動畫世界,引導孩子進行角色扮演,生動活潑地完成課堂學習,對教學方法改革進行了探索和創新。VR技術是通過計算機仿真,給用戶提供虛擬視覺、聽覺、觸覺等多種感知,用戶通過感官感知虛擬環境中的物體以獲得如同現實中真實感的一門熱門技術。其中,虛擬視覺和虛擬聽覺可為用戶提供超過80%的空間感知,是目前虛擬技術研究的重點。虛擬聽覺空間技術(Virtual Auditory Space, VAS)就是根據人類聽覺特征,通過雙聲道播放系統再現聲源空間信息的技術,它與決定人耳空間聽覺能力的頭部相關傳遞函數(Head-Related Transfer Function, HRTF)密切相關。因此,研究HRTF獲取關鍵技術是合成虛擬空間聲音的重要組成內容,也是推動未來VR工作深入發展的關鍵。
1 HRTF簡介
HRTF是自由聲場中從聲源到雙耳的頻域傳輸函數,它的時域表示為頭相關脈沖響應( Head Related Impulse Response,HRIR),兩者都表達了人體生理結構對聲波的綜合濾波效果[1],HRTF和HRIR是進行雙耳定位研究的重要內容。HRTF的函數表達式為:
其中,[PL]、[PR]分別表示人雙耳獲取的頻域復數聲壓,[P0]為在頭部不存在情況下,聲源到達近似頭部中心處的頻域復數聲壓,[P0]滿足空間點聲源的格林函數:
對不同被試者進行HRTF獲取時,[PL]和[PR]測量點的選取位置可以不同。可定義[PL]和[PR]是到達雙耳鼓膜處的聲壓,也可定義為到達耳道口與鼓膜間任意截面處的聲壓,甚至還可定義為將耳道入口封閉時封口處的聲壓。但由于耳道口和鼓膜之間的傳輸是一維的,因而對于不同測量點,[PL]和[PR]計算得到的 HRTF 可以相互轉換。
HRTF是聲源到頭部中心距離[r](當[r]>1.2m 時,一般認為是遠場測量,這時[r]對HRTF的影響可忽略不計)、聲源位置與頭部中心之間的仰角[θ]、方位角[φ]和聲源頻率[f]的函數,可以表示為[H(r,θ,φ,f)]。同時,HRTF是一個個性化函數,它與測試者的生理結構和尺寸密切相關,對不同的測試者進行測量會得到不同的HRTF值。
2 HRTF獲取方式
國內外學者對HRTF的獲取進行了深入研究,主要獲取方式有實驗測量法、數學建模法、數據庫匹配法和主觀選擇法4種。
2.1 實驗法測量HRTF
2.1.1 實驗法回顧
HRTF的測量工作最早可追溯到1947年,Wiener[2]基于球頭模型測量了相應的HRTF。1983年,Kuhn & Guernsey[3]根據KEMAR人工頭模型測量得出HRTF數據。那時測量的HRTF數據較少,并且是基于頭部模型測得,所測數據準確意義上并未稱為“頭部相關傳遞函數”。直到1989年,Wightman和Kistler[4]測量得到10名真人(6女4男)的HRTF數據,并構建出HRTF估計模型,“頭部相關傳遞函數”概念被廣泛應用,HRTF的測量工作開始逐漸展開。
1994年,美國MIT實驗室將KEMER人工頭作為實驗對象,左耳使用DB-61小型耳廓,右耳使用DB-65大型耳廓,MLS序列作為測量信號,測量得到空間710個方向的雙耳數據[5]。這是一個被公開的HRTF數據庫,此后被廣泛應用于聲學研究中。密歇根大學在1999年測量23名男性、22名女性HRTF數據,包括33項人體測量數據,但此數據庫在當時未公開[6]。2000年以后,通過實驗法獲取HRTF的工作更加深入,美國加利福尼亞大學在2001年率先公開了基于真人受試者的CIPIC數據庫,被試者由27個男性、16個女性以及2個平均人工頭組成,此數據庫除測量得到空間25個水平角、50個高度角共1 250個數據外,還記錄了真人被試頭部、耳部、軀干共27個人體測量參數[7]。此數據庫是目前為止應用最廣泛的公開數據庫,各國HRTF的研究都是在此數據庫上展開。日本東北大學在2002年利用封閉耳道法測量得到3名被試者頭部上半部分區域的共454個位置的HRTF[8]。2006年,法國IRCAM室內聲學小組測量得到51名被試在水平角0°~360°,仰角-45°~90°范圍內共187個位置的HRTF[9]。
20世紀初,我國東南大學開始HRTF的研究工作,但其主要是在美國Wisconsin大學測量的數據上進行研究[10]。由于中國人與國外被試在身體外形、生理參數上存在一定差異,基于國外HRTF數據庫的研究結果在實際應用中往往會出現一定誤差,因此基于我國被試的HRTF測量成為當時研究的重點。2002年清華大學的趙自立[11]提出在普通室內環境下測量HRTF的總體設計方案。真正開展中國人頭HRTF測量工作的是華南理工大學謝菠蓀教授[12]負責的聲學研究小組,其在2006年對52名中國被試(26名男性、26名女性)進行測量,以MLS序列為測試信號,得到中國人樣本的空間493個方向的HRTF數據,這是中國第一個統計意義上的HRTF數據庫。2007年,中科院聲學所與北京大學視覺與聽覺信息處理國家重點實驗室合作,設計出測量距離可調整的HRTF測量系統,實驗在中科院全消聲室中進行,以BDMS1-040528便捷式脈沖發生器為發聲源,KEMER人工頭為被試對象,測量了聲源距離人工頭8個距離(20cm、30cm、40cm、50cm、75cm、100cm、130cm、160cm)下的HRTF數據[13]。2014年3月北京大學言語聽覺研究中心對KEMER人工頭進行頭部、耳廓、軀干的分離實驗,測量了6個距離(20、30、40、50、75、100cm),以每個距離為半徑的球面上的793個點的3種結構化函數,得出頭相關傳遞函數是頭、軀干、耳廓分別作用結果的疊加[14]。上述對HRTF的測量都是在一個測試信號和預先設定好的空間方位角上進行的,測量過程十分耗時,對于未測量空間角的HRTF值仍需要進行插值計算。據此,東南大學楊飛然[15]在2014年提出了動態測試HRTF的構想:聲源不斷發送信號,被試者以均勻角速度旋轉,從而獲取整個水平面方位角的HRTF。2017年華南理工大學聲學研究所設計了近場頭相關傳遞函數多聲源快速測量系統,將多個聲源利用支撐桿固定在半徑1.25m圓環的不同仰角處,通過上下移動和轉動座椅,改變被試者位置,通過伸縮支撐桿改變聲源空間距離,使測量單個距離下的HRTF數據時間縮短至20min左右,在一定誤差范圍內保證其測量精度。這是目前為止HRTF測量效率最高的系統,為今后HRTF的獲取提供了便利[16]。
2.1.2 實驗法測量HRTF原理
HRTF測量過程是一個線性時不變系統,如果把發聲端信號看作輸入信號[x(t)],無干擾下雙耳接收信號看作[y(t)],實際雙耳接收端信號看作[z(t)],傳輸過程中的干擾信號為[n(t)],那么求解HRTF即是求解[x(t)]與[y(t)]之間的傳遞函數[h(t)]。整個測量過程原理如圖1所示。
2.2 數值計算法獲得HRTF
2.2.1 數值計算法
由于實驗測量獲取HRTF的方法對實驗環境和實驗器材要求較高,近20年來,逐漸出現了通過數值計算獲取HRTF的方法。數值計算法一般分為兩步:首先構造合適的計算模型,然后根據一定的數學方法計算獲得需要的HRTF。1998年,Martens[18]構造出鋼球模型用于計算HRTF,2002年加州大學戴維斯分校使用頭部和軀干的“雪人模型”獲得近似HRTF[19]。這兩種模型是前期對人體形態的簡單模擬,均可通過求解波動方程或亥姆霍茲方程的方法獲得HRTF。另外還可通過掃描人工頭計算獲取HRTF。2001年,Katz[20]掃描獲得B&K4128C人工頭模型,通過邊界元法計算獲取HRTF,其計算頻率達到6kHz。2003年,Otani在Katz[21]研究的基礎上,得出快速邊界元法計算HRTF的方法。Kahana[22]在2007年掃描得到KEMAR人工頭和6個耳廓的尺寸模型,同樣利用邊界元法計算得到HRTF,此時其計算頻率提升到14kHz。2003 年杜克大學的TIAN Xiao等[23]提出使用時域有限差分法結合完全匹配層方法計算球模型和KEMAR人工頭的HRTF,上述兩種方法主要是基于近似模型的計算,后來逐漸出現了對真人頭部進行掃描獲取計算頭模型的方法。2004年,Fels[24]等研究了兒童生長變化與HRTF之間的關系,用相機拍下兒童(4~6歲)頭部模型,提取其頭部三維信息后用邊界元方法計算得出兒童的HRTF。2014年,Meshram等[25]研究出自適應矩形分解方法模擬聲波的傳輸過程,使HRTF的計算在8核臺式機上的時間縮短至20多分鐘。
我國在HRTF建模計算上的研究有:2010年,西北工業大學根據GB/2428-1998標準構造出一個橢球模型用于計算HRTF[26]。2012年,華南理工大學芮元慶[27]設計出簡化的橢球頭部-耳廓計算模型,分別得到KEMER人工頭和6名真人的計算模型,利用快速邊界元法計算其HRTF。2014年,陳嘉衍[28]提出用聲學互易原理加快邊界元法計算速度。同年,西北工業大學唐玲[29]通過光掃描獲取了中國人BHead210標準頭模三維模型,并計算得到其HRTF。數值計算法對于構造模型的準確性要求較高。2016年中國聲學會議上提出了一種更為準確的耳廓測量方法,此方法利用計算機軟件處理,其中使用了法蘭福參考平面,使頭部建模更加準確[30]。
實際計算HRTF時,根據式(16)先求出邊界上的聲壓值,然后將其帶入式(15)求出空間任意位置處的聲壓[P(r,r0,f)],最后將其帶入格林函數式(2)中,即可求得任意空間位置處的HRTF。其后,對于HRTF的計算方法大多是在傳統邊界元法的基礎上進行改進,添加其它算法,如多級算法、球諧函數多級展開法等,快速降低邊界元算法的計算復雜度。
2.3 數據庫匹配與主觀選擇獲得HRTF
2.3.1 數據庫匹配與主觀選擇方法回顧
實驗測量和數值計算獲得HRTF的方法在時間和成本上消耗很大,不同人HRTF的頻譜特征不同,要想實際利用HRTF生產聲學產品并保證其可行性,需要測量或計算不同人的HRTF,這顯然非常耗時且不切實際。因此,快速準確地尋找和獲取個性化HRTF的方法是研究的重點和熱點。
數據庫匹配法和主觀選擇法目前研究的結果主要是獲得近似化HRTF,這與實驗法和數值計算法獲取準確的HRTF不同。數據庫匹配法是快速獲取HRTF的主流方法,其原理是使用統計分析的方法建立人體生理參數與HRTF模型之間的匹配關系。1998年,Brown[31]提出HRTF結構模型,將人體對聲源的濾波過程劃分為頭部、軀干、耳廓3部分綜合濾波,分別定制各部分濾波器,調整濾波器參數以獲得個性化HRTF。Jin[32]在2000年使用主成分分析法對HRTF數據進行降維,將HRTF分解為7個基函數和權重系數的線性組合,此方法獲得的HRTF有較好的定位效果。Zotkin[33]在2003年通過比較被試者與已知數據庫對象的耳部7個生理參數,選擇已知數據庫中合適的HRTF作為被試者中高頻段的HRTF。CS Fahn[34]同年提出了一種空間聚類方法,將HRTF幅度譜進行分類,獲取每一類下的代表HRTF,則空間任意方向的HRTF值都可由這些代表HRTF值合成。印度尼西亞大學的Hugeng[35]、Wahab[36]分別在2010年和2015年使用主成分分析法對HRIR、HRTF進行重構,得出時域和頻域下的重構性能最佳模型與代表性人體形態參數。華南理工大學在2013年改進了Zotkin的生理參數匹配法,利用譜失真評價和相關分析方法使7個匹配生理參數降為3個[37]。2016年大連理工大學的袁康[38]提出對水平角和垂直角進行主成分分析,獲取不同測量者在不同角度下的主成分系數值,從而獲取個性化HRTF。
主觀選擇法是獲取HRTF的又一類方法。2003年,Seeber[39]提出在水平面上進行主觀聽覺測試實驗,但只是對前半水平面的部分位置進行測量,結果僅滿足少量的HRTF。Iwaya[40]在2006年使用DOMISO方法從大量非個性化HRTF中選出需要的HRTF,但其只使用了組內循環比較準則。大連理工大學汪林、殷福亮等[41]在DOMISO方法的基礎上,為快速選擇出被試者的個性化HRTF,提出了一種基于競賽方式的主觀選擇方法。2016年袁康[38]提出對距離、水平角、高度角建模,通過調節模型參數進行主觀試聽實驗獲得HRTF。主觀選擇法與數據庫匹配方法相比研究較少,主要原因是空間模擬聲播放受環境影響較大且其空間聽覺判斷具有隨機性,如何較好地解決這一問題是主觀方法能否真正得到應用的關鍵。
2.3.2 主成分分析法(PCA)原理
在使用主成分分析法時,主要對HRTF頻域和HRIR時域進行分析,基本原理為:將HRTF的頻域或HRIR的時間域進行劃分,將其看成一組隨機向量[X=[x(1),x(2),?,][x(N)]T],且[x(1)],[x(2)]…[x(N)]之間是相關的,通過K-L變換后形成的向量[Y]的各分量間互不相關,此時向量[Y]對向量[X]的近似均方誤差值最小,表明生成頻譜或波形最重要的部分保留了下來。去掉次要部分,即僅需一部分基向量和對應的主元系數,即可恢復原始的HRTF或HRIR數據。
基于主成分分析法獲得HRTF的過程分為標準化、主成分分析、重構3個步驟。HRTF在空間位置[(θ,φ)]處的幅值表示為[Dij],[i]表示被試者序號,[j]為頻率序號,頻率為[fj]時,HRTF的幅值可表示為:
3 選擇方法比較
本文對4種選擇方法進行分析,并對其優缺點進行總結和比較,見表1。
4 結語
本文闡述了常用的4種個性化HRTF獲取方法及關鍵技術,除此之外,還有頻率標度法、物理模擬法等也可獲得近似的HRTF值。近幾年來,關于HRTF的研究獲得了很大突破,但在一些方面仍然存在一些需要深入研究和探討的課題,主要表現在:
(1)傳統測量法獲得HRTF費時費力,基于動態測量的方法暫露頭角,但是基于多聲源播放時信號之間多重散射以及聲源角度與間隔分布應予以研究。
(2)數值計算法的前提是建立頭部-軀干模型,數據庫匹配法也與人體參數有關。因此,開發更加簡單準確的人體參數測量方法,是未來提升這兩種方法下HRTF準確性的重點研究方向。
(3)現有對HRTF進行線性分解的方法多是分解成二階獨立矢量,而高階矢量分解更能體現空間的離散性,是未來HRTF線性分解的發展方向之一。
(4)目前數據庫匹配原理僅研究得出某些參數與HRTF之間存在密切關系,但是人體參數具體影響HRTF的哪些頻段、各參數之間相互作用是否對HRTF造成影響、不同頻率下參數的選擇種類和數量,都是解決數據庫匹配的熱點問題。
(5)主觀選擇方法應在主觀評價指標上進行深入研究,比如評價指標種類、數量、評價方法等。另外,由于被試對聲源方位的判斷存在隨機性和不確定性,還應補充整個實驗操作,比如著重研究人體心理因素和視覺因素對HRTF的影響,包括影響因子種類、數量等。
綜上所述,HRTF可以通過不同的獲取方式得到,每種方式具有不同的優缺點,研究HRTF新的獲取方式以及解決HRTF獲取工作中存在的問題,對未來HRTF在虛擬現實中的應用具有重要意義。
參考文獻:
[1] MASTERSON C, KEARNEY G, GORZEL M, et al. HRIR order reduction using approximate factorization[J]. IEEE Transactions on Audio Speech & Language Processing, 2012, 20(6):1808-1817.
[2] WIENER F M. Sound diffraction by rigid spheres and circular cylinders[J]. Journal of the Acoustical Society of America, 1947, 19(3):444-451.
[3] KUHN G F, GUERNSEY R M. Sound pressure distribution about the human head and torso[J]. Journal of the Acoustical Society of America, 1983, 73(1):95-96.
[4] WIGHTMAN F L,KISTLER D J. Headphone simulation of free-field listening. II: psychophysical validation[J]. Journal of the Acoustical Society of America, 1989, 85(2):868-878.
[5] GARDNER B. HRTF measurements of a KEMAR dummy-head microphone[J]. MIT Media Lab. Perceptual Computing-Technical Report, 1994(280):1-7.
[6] MIDDLEBROOKS J C. Virtual localization improved by scaling nonindividualized external-ear transfer functions in frequency[J]. Journal of the Acoustical Society of America, 1999, 106(1):1493-1510.
[7] ALGAZI V R, DUDA R O, THOMPSON D M, et al. The CIPIC HRTF database[C].Applications of Signal Processing to Audio and Acoustics, 2001 IEEE Workshop on the. IEEE, 2001:99-102.
[8] TAKANE S, ARAI D, MIYAJIMA T, et al. A database of head-related transfer functions in whole directions on upper hemisphere[J]. Acoustical Science & Technology, 2002, 23(23):160-162.
[9] ROOM ACOUSTICS TEAM OF IRCAM. HRTF database[EB/OL]. [2006-08-20]. http://www.ircam.fr/equipes/salles/listen/index.html
[10] 吳鎮揚, 王衛斌. 基于小波變換奇異性檢測的HRTF(與頭部關聯的傳遞函數)消噪處理[J]. 生物物理學報, 1997, 13(3):473-478.
[11] 趙自力. 虛擬三維聲音合成的實驗研究[D]. 北京:清華大學, 2002.
[12] 謝菠蓀, 鐘小麗, 饒丹,等. 頭相關傳輸函數數據庫及其特性分析[J]. 中國科學:物理學 力學 天文學, 2006, 36(5):464-479.
[13] 龔玫, 肖崢, 曲天書,等. 近場頭相關傳輸函數的測量與分析[J]. 應用聲學, 2007, 26(6):326-334.
[14] 吳璽宏, 呂振洋, 高源,等. 近場結構化頭相關傳輸函數的測量與分析[J]. 數據采集與處理, 2014, 29(2):180-185.
[15] 楊飛然. 頭相關傳遞函數測試新方法[J]. 應用聲學, 2014(3):263-264.
[16] 余光正, 劉昱, 謝菠蓀. 近場頭相關傳輸函數的多聲源快速測量系統設計與驗證[J]. 聲學學報, 2017(3):348-360.
[17] 李平友. 用最長序列測量揚聲器的脈沖響應[J]. 應用聲學, 1993(1):11-16.
[18] DUDA R O, MARTENS W L. Range dependence of the response of a spherical head model[J]. Journal of Acoustical Society of America, 1998, 104(5):3048-3058.
[19] ALGAZI V R, DUDA R O, DURALSWAMI R, et al. Approximating the head-related transfer function using simple geometric models of the head and torso[J]. Journal of the Acoustical Society of America, 2002, 112(1):2053-2064.
[20] KATZ B F G. Boundary element method calculation of individual head-related transfer function, rigid model calculation[J]. Journal of the Acoustical Society of America, 2001, 110(5 Pt 1):2440-2441.
[21] OTANI M, ISE S. A fast calculation method of the head-related transfer functions for multiple source points based on the boundary element method[J]. Acoustical Science & Technology, 2003, 24(5):259-266.
[22] KAHANA Y, NELSON P. Boundary element simulations of the transfer function of human heads and baffled pinnae using accurate geometric models[J]. Journal of Sound & Vibration, 2007, 300(3):552-579.
[23] XIAO T, LIU Q H. Finite difference computation of head-related transfer function for human hearing[J]. Journal of the Acoustical Society of America, 2003, 113(5):2434-2435.
[24] FELS J, BUTHMANN P, VORL?NDER M. Head-related transfer functions of children[J]. Acta Acustica United with Acustica, 2004, 90(5):918-927.
[25] MESHRAM A, MEHRA R, YANG H, et al. P-HRTF: efficient personalized HRTF computation for high-fidelity spatial sound[C].IEEE International Symposium on Mixed and Augmented Reality. IEEE, 2014:53-61.
[26] 汪遠東, 曾向陽, 陳幸幸. 近場頭相關傳遞函數的數值計算與特性分析[J]. 應用聲學, 2010, 29(3):189-195.
[27] 芮元慶. 個性化近場頭相關傳輸函數的計算與分析[D]. 廣州:華南理工大學, 2013.
[28] 陳嘉衍, 謝菠蓀, 劉昱,等. 互易和邊界元法計算頭相關傳輸函數的穩定性及其改進[C]. 中國聲學學會全國聲學學術會議, 2014.
[29] 唐玲, 付中華. 中國人標準頭模BHead210的頭相關傳遞函數數值計算[J]. 聲學技術, 2014(3):237-242.
[30] 吳銳興, 余光正. 基于3D掃描圖像的耳廓生理尺寸參數測量[C].全國聲學學術會議,2016.
[31] BROWN C P, DUDA R O. A structural model for binaural sound synthesis[J]. Speech & Audio Processing IEEE Transactions on, 1998, 6(5):476-488.
[32] JIN C, LEONG P, LEUNG J, et al. Enabling individualized virtual auditory space using morphological measurments[C]. IEEE Workshop on,2000:235-238.
[33] ZOTKIN D N, HWANG J, DURAISWAINI R, et al. HRTF personalization using anthropometric measurements[C].Applications of Signal Processing To Audio and Acoustics, 2003 IEEE Workshop on. IEEE, 2003:157-160.
[34] FAHN C S, LO Y C. On the clustering of head-related transfer functions used for 3-D sound localization[J]. Journal of Information Science & Engineering, 2003, 19(1):141-157.
[35] HUGENG, GUNAWAN D, WAHAB W. Effective preprocessing in modeling head-related impulse responses based on principal components analysis[J]. Signal Processing An International Journal, 2010, 4(4):201-212.
[36] HUGENG, WAHAB W, GUNAWAN D. A new selection method of anthropometric parameters in individualizing HRIR[J]. Telkomnika, 2015, 13(3):301-307.
[37] 劉雪潔, 鐘小麗. 改進的頭相關傳輸函數生理參數匹配法[C]. 中國聲學學會青年學術會議, 2013.
[38] 袁康. 個性化頭相關傳遞函數研究[D]. 大連:大連理工大學, 2016.
[39] SEEBER B, FASTL H.Subjective selection of non-individual head-related transfer functions[C]. Proceedings of the 2003 International Conference on Auditory Display.Boston,MA,USA, 2003: 259-262.
[40] IWAYA Y. Individualization of head-related transfer functions with tournament-style listening test: Listening with others ears[J]. Acoustical Science & Technology, 2006, 340(6):24-31.
[41] 汪林, 殷福亮, 陳喆. 3D聲場合成中近似個性頭相關傳遞函數的主觀選擇方法[J]. 信號處理, 2009, 25(7):1097-1102.
(責任編輯:杜能鋼)