999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于空間自適應哈希算法的并行雙音頻指紋技術

2022-12-31 00:00:00黃一英鄧開發鄔春學
計算機應用研究 2022年7期

摘 要:針對非法音頻拷貝的檢索跟蹤性能問題進行研究,提出了一種基于新哈希的并行雙音頻指紋方法。為了提高檢測片段的完整性,應用了并行的特性,通過沃爾什—哈達瑪轉換生成兩組實時并行的指紋;通過新哈希方法對兩組指紋進行相似性計算;最后檢索時讓并行的兩組指紋進行匹配,合并得到最終結果。實驗結果表明,該方法不僅對采用不同方法處理的音頻具有良好的魯棒性,能穩定地表征音頻整體特性,與所考慮的其他方法相比,所提出的方法在匹配段完整性方面有所提高。

關鍵詞:音頻指紋;并行雙音頻;沃爾什—哈達瑪轉換;空間自適應哈希算法;頻譜分割

中圖分類號:TP391.42 文獻標志碼:A

文章編號:1001-3695(2022)07-024-2076-05

doi:10.19734/j.issn.1001-3695.2021.12.0672

基金項目:國家自然科學基金資助項目(2018YFC0810204)

作者簡介:黃一英(1997-),女(通信作者),廣西玉林人,碩士研究生,主要研究方向為數字多媒體等(1964393024@qq.com);鄧開發(1965-),男,湖北荊州人,教授,博士,主要研究方向為光信息與計算機處理等;鄔春學(1964-),男,湖北人,教授,博士,主要研究方向為物聯網技術及應用等.

Parallel dual audio fingerprinting based on spatially adaptive hashing algorithms

Huang Yiying1?,Deng Kaifa2,Wu Chunxue1

(1.School of Optical-Electrical amp; Computer Engineering,University of Shanghai for Science amp; Technology,Shanghai 200093,China;2.School of Art amp; Design,Shanghai University of Engineering Science,Shanghai 201620,China)

Abstract:Aiming at the retrieval and tracking performance of illegal audio copies,this paper proposed a new hash-based parallel dual audio fingerprinting method.Firstly,to improve the integrity of the detected fragments,it applied the parallel feature and Walsh-Hadamard transformation to generate two sets of real-time parallel fingerprints.Then,it computed the similarity between the two sets of fingerprints by the new hashing method.Finally,during retrieval,it matched the parallel two sets of fingerprints and merged to obtain the final result.The experimental results show that the proposed method has good robustness for audio adopted different methods,and can stable characterize the overall characteristics of audio.Compared with the other methods,the proposed method has improved in terms of matching period of integrity.

Key words:audio fingerprint;parallel dual audio;Walsh-Hadamard transformation;spatial adaptive hash matching(SAH);spectrum segmentation

0 引言

在數字媒體時代,人們都在尋求媒體資源的多效組合。例如,當今全世界特別知名的TikTok,作為一個開放多媒體平臺,不僅深受人們喜歡,其資源傳播過程中還可以促進國際文化交流。在TikTok平臺上可以快速創造并發表或者搜尋各種藝術作品,尤其是音樂創意短視頻,但是也會引起很多問題。例如二次非法復制傳播[1,歌曲版權侵權就是一個典型的例子。因此,為了應對這一系列音頻數據的非法使用與惡意傳播,有關保護原創音頻和非法使用數據的音頻指紋技術應運而生2,3。保證音頻數據版權的典型技術有音頻指紋4~8和音頻水印9,10。其中,音頻指紋技術在數字媒體安全領域和版權管理方面得到了廣泛的應用11~17

為了滿足音頻指紋技術的實際應用[18,提出了多種研究方法19,20,其中,最主要的部分是音頻指紋提取。音頻指紋提取框架如圖1所示,圖中的步驟是提取流程,其每條線延伸出來的就是目前各自的研究方法,而研究最多的是特征提取這一部分。其中,標記為紅色字體的即為本文的研究方法(參見電子版)。通常這些特征會使用分類器技術映射到一個更簡潔的表示(如隱含馬爾可夫模型(HMM)或量化技術等)。

Philips公司開發了一種經典的魯棒性指紋識別系統,后繼有很多基于Phillips二值指紋的研究工作,對指紋提取方法進行了改進或者對其搜索算法進行了研究[21。與Philips不同,Wang[22提出了基于光譜峰信息的Shazam音頻指紋系統,該系統將光譜中一對相鄰的局部峰的相關信息存儲為指紋,它對于速度變化和整體音高變化等弱破壞性行為是健壯的。Baluja等人[23提出通過小波變換提取音頻指紋。Ouali等人[24提出劃分頻譜區域,通過計算閾值以上的能量點的絕對數量作為存儲信息的方法,由于其指紋數量超過48維,導致該方法對存儲空間有更高的要求,索引速度下降,對于一些大型數據集的影響更甚。文獻[1]中選擇合適的局部模態峰值作為特征點,對以特征點為中心的矩形塊進行處理,通過低頻DCT系數作為指紋特征。文獻[25]則將四邊形按照特定的規則進行分割,提出一種基于四邊形的指紋算法。文獻[26]提出音頻頻譜尺度不變特征變換(SIFT),通過局部哈希進行最近鄰匹配。文獻[1,25,26]在環境(速度、節奏、音高)變化中有很強的魯棒性,但在指紋存儲和索引速度方面表現不夠良好。Malekesmaeili等人[1選擇固定模式的局部峰值作為特征點1,對特征點上輸入的矩形塊進行處理,提取出 143 維低頻 DCT系數作為指紋信息。Zhang 等人[26對音頻頻譜進行尺度不變特征變換(SIFT),生成 128 維 SIFT 特征,并通過局部敏感哈希進行最近鄰匹配。Sonnleitner等人[25將峰四邊形按照特定的規則進行分割,提出基于aquad 的指紋算法。Liang等人[27提出的并行雙音頻指紋在匹配段的完整性方面具有顯著優勢,本文在該研究的基礎上加入魯棒性的哈希方法進行研究。

針對傳統音頻指紋匹配速度慢以及存儲空間高的問題,在文獻[27]的研究基礎上,提出了一種增強現有音頻指紋性能的指紋方法。首先,引用文獻[27]中提出的沃爾什—哈達瑪轉換原理將音頻信號進行分組,以達到并行的目的,其指紋提取過程如圖2所示,將提取的音頻指紋存儲在數據庫中,然后再對其進行相似性計算。在相似度計算過程中,本文采用了一種新的哈希方法——空間自適應哈希(SAH)來比較音頻內容之間的相似度[28,通過漢明距離計算來驗證所生成哈希碼之間的相似性。為了證明該算法的優越性,本文采用現有方法對匹配時間和性能進行了比較測試。實驗結果表明,與其他索引方法相比,該方法提高了檢索的準確性、查全率等性能指標;在魯棒性方面,并行雙指紋方法效果顯著。

1 方法概述

1.1 沃爾什—哈達瑪轉換原理

哈達瑪變換是一種廣義傅里葉變換(Fourier transforms),在近年來的視頻編碼標準中,哈達瑪變換多被用來計算SATD(一種視頻殘差信號大小的衡量)。沃爾什函數是一組矩形波,取值為1和-1,本文對其進行哈達瑪排列。沃爾什—哈達瑪變換的公式為

沃爾什—哈達瑪變換主要能針對頻譜做快速的分析,其具有能量集中的特點。利用其矩陣變換特點,若原始數據分布越均勻,則轉換后的數據越集中,并且不會丟失信息量。最低階的哈達瑪矩陣表示為

最高階(2n階)哈達瑪矩陣遞推公式為

哈達瑪矩陣的最大優點在于它具有簡單的遞推關系,即高階矩陣可用兩個低階矩陣的克羅內克積(Kronecker product)求得。本文利用八階哈達瑪矩陣H8,它是一個標準的對稱正交矩陣,通過其矩陣快速變換算法可以提高計算速度。H8如圖3所示。

1.2 譜圖生成

音頻頻譜圖生成整體流程如圖4所示。

音頻譜圖生成主要分為四部分。首先輸入音頻信號,然后對音頻信號進行加窗,接著采用短時傅里葉變換計算,最后生成頻譜圖。完整流程如圖5所示。

本文將音頻采樣至8 kHz,然后用漢明窗口(長度為24 ms)來計算短時傅里葉變換并生成頻譜,把不大于220 Hz的頻率信息擯棄,避免頻率能量過低對其他頻段造成干擾,每4 ms計算一次。

1.3 譜圖的區域劃分

為了更好地進行頻譜區域劃分,首先對采集到的音頻進行能量閾值檢測,然后過濾掉能量低于有效閾值的幀,并將其標記為無用幀。將250幀的譜圖矩陣作為計算對象,持續時間為1 s(時間太短可能會導致矩陣中信息缺失,無法相互區分)。然后,將250幀的頻譜矩陣劃分成8×8個區域,時間分割為0.125每等分(總時長1 s),頻帶之比設為1:1:1:1:2:2:4:4。這樣劃分的依據是低頻會比高頻區域包含更多的信息,低頻區域的詳細劃分可以減少信息的偏差。對每個區域劃分后,得到8×8矩陣A,如圖6所示。

1.4 沃爾什變換和并行雙指紋生成

對矩陣A進行八階沃爾什—哈達瑪變換,獲得新的矩陣S8×8。

由哈達瑪變換的性質可知,矩陣S8×8的第一個元素必須為最大值,即為原始矩陣的64個數字之和。將矩陣S8×8的每兩行相加以得到一個子矩陣Sr4×8,并將每相鄰兩列相加得到一個子矩陣Sr8×4。

將判別閾值t4×8、t8×4分別設置為除第一個元素外矩陣Sr4×8、Sr8×4中其余31個數的算術平均值。

將矩陣Sr4×8、Sr8×4中大于或等于判別閾值的值寫為1,其余為0。因為Sr4×8和Sr8×4的第一個元素是最大值,所以寫入的值總是等于1。分別重寫矩陣Sr4×8的第一個元素為0,矩陣Sr8×4的第一個元素為1,這樣就可以區分兩個矩陣,不同框架對應的兩個矩陣之間的交集將始終為空集。

經過重寫之后得到兩個長度為1 s的二進制子指紋,如式(9)(10)所示。這兩個子指紋矩陣以32位二進制值的形式存儲,以減少存儲空間占用,由于兩個指紋的第一個元素不同,因此存儲在同一個數據庫中不會發生交叉。對剩余的頻譜矩陣重復這個過程,獲得兩組在時間上并行且彼此沒有交集的32位二進制音頻指紋。

1.5 指紋的存儲和匹配

指紋存儲和匹配過程如圖7所示,主要步驟如下:a)指紋由并行的兩組32位二進制子指紋組成,存儲在哈希表中,將這些值作為哈希值;b)存儲的信息由音頻ID和指紋的第一幀(幀偏移)組成;c)設置列表以匹配音頻ID和音頻名稱。

算法1和2描述了文獻[28]構建哈希表和通過SAH(spatial adaptive hash matching)計算相似度的實現。

算法1 創建空間自適應哈希表格的算法

輸入:數據維度n,數據數量N,哈希碼長度l,哈希函數的數量M。

輸出:H=[h(j)i1,h(j)i2,…,h(j)il],i=1,…,n;j=1,…,M。

for j=1,…,M

從均勻空間R初始化一個隨機散列函數w(j)n×l ;

for i=1,…,n

計算輸入向量x(i)的平均值μ(i)x;

for j=1,…,M

Zl×l =x(i)l×n·w(j)n×l -sum (w(j)n×l ×μ(i)x,axis=0);

hl×l=T(Zl×l),將hl×l存入哈希表H中

算法2 SAH相似度計算算法

輸入:查詢指紋q。

輸出:指紋f,相似性最高q。

訪問哈希表格H;

for j=1,…,M

計算輸入向量q的平均值uq;

h(q)j:=ql×nw(j)n×l -sum(w(j)n×l×uq,axis=0);

for i=1,…,n

for j=1,…,m

計算h(q)j和h(j)i之間的漢明距離;

返回指紋f,最小漢明距離;

SAH算法可以提高檢索速度。文獻[28]驗證了SAH的性能,表1展示了三種檢索方法的性能比較。其中,空間自適應哈希算法(SAH)的平均檢索時間為10 ms,是FFMAP的1/23,Quad-based的1/63,本文應用SAH的性能,再加上并行的穩健雙音頻指紋進行融合研究創新。

2 實驗結果與分析

2.1 魯棒性實驗分析

為了能夠穩定地從數據庫中準確識別出原始音頻,檢驗該算法的魯棒性,分別從兩個方面驗證該方法的魯棒性。獲取300首歌曲作為數據集進行實驗,并將其與文獻[15]提供的基于Landmark的指紋系統進行比較。

本實驗選取的數據集是一檔歌手節目(《我是歌手》第八季)的比賽歌曲,主要包括音樂、人聲,音樂庫由300個音頻片段構成,總時長30 h,加上210個3 s長的短音頻集,即實驗數據由兩部分組成:a)300個音頻片段組成的音頻庫,時長達30 h;b)210個3 s長的短音頻集作為查詢集。其中,所有的音頻片段有四種形式的轉變(T1、T2、T3、T4代表四種不同的轉換形式),如表2所示。其中,實驗中使用的所有數據參數分別為音頻采樣率8 kHz,幀長度24 ms,幀移位4 ms。

本文用精度來評價算法性能,表示被分為正例的示例中實際為正例的比例。所用的指標定義如下:

a)true positive(TP),即正類預測為正類數,在本文中表示為真正被檢測為重復的數據記錄。

b)true negative(TN),即正類預測為負類數,在本文中表示為檢測到非重復的數據記錄。

c)1 positive(FP),即負類預測為正類數,在本文中表示為數據不在索引片段中但被檢測為重復的記錄。

d)精確度,正確檢測的片段占所有檢測到的索引片段的比例,定義為

precision=TPTP+FP(11)

e)準確率,正確檢測到的片段占索引片段總數的比例,定義為

accuracy=TPTP+TN+FP(12)

f)召回率,正確檢測到的片段與實際正確索引總數的比例,定義為

recall=TPTP+TN(13)

g)平均檢測時間(average hit),正確檢測到片段的平均長度。

假設兩個音頻指紋長度之和為N位,未匹配的比特數為n,h(n)代表原始音頻指紋的哈希值,ht(n)代表位置音頻指紋的哈希值,則誤碼率可表示為

實驗結果如表3所示,其中,Parallel+SAH表示新哈希方法的并行雙音頻指紋;LM表示基于Landmark的指紋;single表示只提取一組雙指紋的測試方式。索引的結果為音頻重復段的開始時間到結束時間。

實驗可視化結果如圖8所示。可以看出,Parallel+SAH的檢索準確率、召回率相比于LM指紋系統要高。其中,總體準確率平均提高了3.1%,圖8(a)中兩種方式的精確度一直保持在100%;在音頻干擾較弱的情況下,single識別結果僅略優于LM的指紋系統,隨著噪聲的增加,single的準確度顯著降低且效果低于Parallel+SAH。在平均檢測時間方面,如圖8(d)所示,LM系統檢測到的重復段完整性較差,而Parallel+SAH能夠很好地匹配重復片段的完整性,檢測性能更加準確。與single相比, Parallel+SAH在檢測速度下降的情況下,一定程度上提高了檢測結果的魯棒性;與LM系統相比,Parallel+SAH在索引精度性能方面表現良好,也更有效地匹配了整個音頻片段,匹配結果在完整性方面有明顯的優勢。

為了解決準確率、召回率的單點值局限性,得到一個全局性能的指標,引入mAP值,即均值平均精度作為衡量檢測精度的指標,其計算公式為

由圖8的準確率和召回率得到的mAP值如圖9所示。其中,本文Parallel+SAH的mAP值為0.63,LM的mAP值為0.53,Single方法的mAP值為0.52。從實驗結果可以看出,雖然三種方法的性能曲線有交疊,但是Parallel+SAH方法的性能在絕大多數情況下比其他單一的方法要好。

選取50種不同的音頻數據作為實驗樣本,分別是流行音樂(10首)、雷鬼(10首)、新元素(10首)、鋼琴曲(10首)、爵士(10首),截取時長全都為12 s,過濾掉一些無用音頻片段,保存重要信息。它們的處理方式及實驗結果如表4所示。

從表4實驗數據可以看出,在應用本文算法和文獻[29]算法對未進行音頻處理,所得到的音頻指紋誤碼率均為0,能相對良好地識別原始音頻。在經過不同方法編碼處理后,與原信號相比,本文方法的誤碼率最高為0.056,最低為0.000 5,平均低于文獻[29]提出的誤碼率閾值(0.25)。因此,可以認為本文算法能夠良好地從數據庫中檢索出原始音頻,魯棒性效果較好。

2.2 噪聲攻擊實驗結果分析

信噪比(signal noise ratio,SNR)是衡量原始音頻信號與噪聲比的指標,定義為

圖10是原始音頻在噪聲攻擊環境下的實驗結果。如圖10(a)所示,在10~50 dB的信噪比范圍內,精度最終都會達到100%,在信噪比為5 dB下,三種算法精度都沒達到100%,但三種方法的性能相似。針對原始音頻對速度進行操縱,操縱速度分別為95%和110%。在圖10(b)中,Parallel+SAH在所有情況下都顯示出近100%的精確度,性能較優;圖10(c)中,在速度為110%的情況下,Parallel+SAH在所有情況下都近似實現了100%的檢測率。

2.3 可區分性實驗分析

為了證明該方法的可區分性,本節選取四首不同類型的音頻數據,該數據選取結構為16 bit,單聲道,44.1 kHz。分別是流行音樂(“For forever,”)、雷鬼(“瘋人院”)、新元素(“新世界”)、鋼琴曲(“天空之城”)。對音頻先進行初始化處理,再采用本文的音頻指紋算法提取音頻指紋。

表5是選取的四首樂曲對其音頻指紋和數據庫中進行搜索匹配的實驗數據結果。結果表明,音頻指紋之間的指紋距離越小,誤碼率越小;相反,若音頻指紋之間的誤碼率越大,則音頻指紋之間的區分性越大,即能夠明顯區分不同類型的音頻。表5數據顯示,最大的指紋距離達到了0.80,最小的也達到了0.42,高于文獻[29]中提出的最低值0.35。所以本文算法在不同音頻之間具有良好的可區分性,對不同音頻數據具有可靠的區分度。

3 結束語

本文提出了一種基于并行的穩健雙音頻指紋識別和新哈希相結合的方法,該方法在通過沃爾什變換生成并行的兩組指紋(二進制編碼)的基礎上,在相似度計算過程中采用了一種新的哈希方法來比較音頻內容,達到了降低存儲空間和提高檢索速度的目的。實驗結果表明,該算法不僅在匹配段完整性方面具有更良好的匹配精度,而且對采用不同噪聲攻擊的音頻具有良好的魯棒性。但其應用具有局限性,眾所周知,有情感的演講是人類交流的特殊方式之一,而人工智能技術的情感識別是不可或缺的。未來的工作可以以反映音頻內容特征的哈希方法為基礎,將這種方式應用到人工智能下一步以及更具體實際應用之中。

參考文獻:

[1]Malekesmaeili M,Ward R K.A local fingerprinting approach for audio copy detection[J].Signal Processing,2014,98(5):308-321.

[2]Jégou H,Delhumeau J,Yuan Jiangbo,et al.BABAZ:a large scale audio search system for video copy detection[C]//Proc of IEEE International Conference on Acoustics,Speech and Signal Processing.Piscataway,NJ:IEEE Press,2012:2369-2372.

[3]Mehmood Z,Qazi K A,Tahir M,et al.Potential barriers to music fingerprinting algorithms in the presence of background noise[C]//Proc of the 6th Conference on Data Science and Machine Learning Applications.Piscataway,NJ:IEEE Press,2020:25-30.

[4]Cano P,Batle E,Kalker T,et al.A review of algorithms for audio fingerprinting[C]//Proc of IEEE Workshop on Multimedia Signal Processing.Piscataway,NJ:IEEE Press,2002:169-173.

[5]Seo J S.An asymmetric matching method for a robust binary audio fingerprinting[J].IEEE Signal Processing Letters,2014,21(7):844-847.

[6]Yang Guang,Chen Xiao’ou,Yang Deshun.Efficient music identification by utilizing space-saving audio fingerprinting system[C]//Proc of IEEE International Conference on Multimedia amp; Expo.Washington DC:IEEE Computer Society,2014:1-6.

[7]Sharma G,Umapathy K,Krishnan S.Trends in audio signal feature extraction methods[J].Applied Acoustics,2020,158(1):107020.

[8]Kelkoul,H,Zaz Y,Tribak H,et,al.A robust combined audio and video watermark algorithm against cinema piracy[C]//Proc of the 6th International Conference on Multimedia Computing and Systems.2018.

[9]Hu H T,Hsu L Y.Robust,transparent and high-capacity audio watermarking in DCT domain[J].Signal Processing,2015,109(4):226-235.

[10]Milas I,Radovic B,Jankovic D.A new audio watermarking method with optimal detection[C]//Proc of the 5th Mediterranean Conference on Embedded Computing.2016:116-119.

[11]Fan Yong,Feng Shuang.Notice of violation of IEEE publication principles:a music identification system based on audio fingerprint[C]//Proc of the 4th International Conference on Applied Computing and Information Technology/the 3rd International Conference on Computational Science/Intelligence and Applied Informatics.2016:363-367

[12] Vadwala A Y,Suthar K A,Karmakar Y A,et al.Intelligent android voice assistant—a future requisite[J].International Journal of Engineering Development and Research,2017,5(3):337-339.

[13]Radha V ,Vimala C.A review on speech recognition challenges and approaches[J].International Journal of Engineering Research amp; Technology,2012,2(1):1-7.

[14]Desai N,Dhameliya K.Feature extraction and classification techniques for speech recognition:a review[J].International Journal of Emerging Technology and Advanced Engineering,2013,3(12):367-371.

[15]Ellis D.Robust landmark-based audio fingerprinting[EB/OL].(2012-05-12).http://labrosa.ee.columbia.edu/~dpwe/resources/matlab/fingerprint/.

[16]Byrd D,Crawford T.Problems of music information retrieval in the real world[J].Information Processing amp; Management,2002,38(2):249-272.

[17]Delp E J,Wong P W.Security,steganography,and watermarking of multimedia contents[C]//Proc of International Society for Optical Engineering.2006.

[18]劉紅梅.基于音頻指紋技術的樂曲節拍識別系統[J].微型電腦應用,2021,37(7):137-139,143.(Liu Hongmei.Music beat recognition system based on audio fingerprint technology[J].Microcomputer Applications,2021,37(7):137-139,143.)

[19]張秋余,許福久,趙振宇.基于DT-CWT和SVD的魯棒音頻水印算法[J].華中科技大學學報:自然科學版,2021,49(9):23-29.(Zhang Qiuyu,Xu Fujiu,Zhao Zhenyu.Robust audio watermarking algorithm based on DT-CWT and SVD[J].Journal of Huazhong University of Science and Technology:Natural Science Edition,2021,49(9):23-29.)

[20]劉嘉琪,劉貝麗,彭韜,等.基于區塊鏈的音頻版權存證模型[J].計算機科學,2021,48(S1):438-442.(Liu Jiaqi,Liu Beli,Peng Tao,et al.Blockchain based audio copyright deposit model[J].Computer Science,2021,48(S1):438-442.)

[21]Pogorilyi O,Fard M,Taylor D, et al.Landmark-based audio fingerprinting system applied to vehicle squeak and rattle noises[J].Noise Control Engineering Journal,2020,68(2):113-124.

[22]Wang A.An industrial-strength audio search algorithm[EB/OL].(2003-10-27).https://www.ee.columbia.edu/~dpwe/papers/Wang03-shazam.pdf.

[23]Baluja S,Covell M.Audio fingerprinting:combining computer vision amp; data stream processing[C]//Proc of IEEE International Conference on Acoustics.Piscataway,NJ:IEEE Press,2007:213-216.

[24]Ouali C,Dumouchel P,Gupta V.A robust audio fingerprinting method for content-based copy detection[C]//Proc of the 12th International Workshop on Content-Based Multimedia Indexing.Piscataway,NJ:IEEE Press,2014:1-6

[25]Sonnleitner R,Widmer G.Robust quad-based audio fingerprinting[J].IEEE/ACM Trans on Audio Speech amp; Language Proces-sing,2016,24(3):409-421.

[26]Zhang Xiu,Zhu Bilei,Li Linwei,et al.SIFT-based local spectrogram image descriptor:a novel feature for robust music identification[J].EURASIP Journal on Audio Speech amp; Music Processing,2015(1):article No.6.

[27]Liang Tianyu,Chen Xianhong,Xu Can,et al.Parallel double audio fingerprinting[C]//Proc of the 11th International Symposium on Chinese Spoken Language Processing.Piscataway,NJ:IEEE Press,2018:344-348.

[28]Son H S,Byun S W,Lee S P.A robust audio fingerprinting using a new hashing method[J].IEEE Access,2020,8:172343-172351.

[29]Jiang Yuantao,Wu Chunxue,Deng Kaifa,et al.An audio fingerprin-ting extraction algorithm based on lifting wavelet packet and improved optimal-basis selection[J].Multimedia Tools and Applications,2019,78(21):30011-30025.

[30]Cotton C V,Ellis D P W.Audio fingerprinting to identify multiple vi-deo of an event[C]//Proc of IEEE International Conference on Acoustics,Speech and Signal Processing.Piscataway,NJ:IEEE Press,2010:2386-2389.

主站蜘蛛池模板: 一本大道无码高清| 国产女人喷水视频| 99人体免费视频| 97精品国产高清久久久久蜜芽| 久久国产精品77777| 亚洲色图欧美在线| 亚洲成人一区在线| 国内精自视频品线一二区| 天天色天天操综合网| 国产屁屁影院| 亚洲欧美成人网| 欧美a在线视频| 亚洲成人网在线播放| 久久亚洲国产一区二区| 久久精品无码一区二区国产区| 五月婷婷亚洲综合| 99re热精品视频国产免费| 国产主播一区二区三区| 日本一区中文字幕最新在线| 国产女人在线视频| 国产成人精品亚洲77美色| 欧美在线导航| 久久亚洲天堂| 青青久在线视频免费观看| 免费观看亚洲人成网站| 人妻丰满熟妇αv无码| 天天综合网在线| 久久婷婷五月综合97色| 国产无码精品在线| 欧美一级一级做性视频| 国产不卡网| 欧美激情第一区| 亚洲欧美不卡| 免费看a级毛片| 久草视频精品| 日韩AV无码免费一二三区| 人妻熟妇日韩AV在线播放| 91九色国产porny| 国产后式a一视频| 中文字幕1区2区| 免费观看精品视频999| 婷婷在线网站| av无码一区二区三区在线| 911亚洲精品| 国产香蕉国产精品偷在线观看| 国产福利不卡视频| 成人国产免费| 日韩精品专区免费无码aⅴ| 国产第二十一页| 国产麻豆精品久久一二三| 久久一本日韩精品中文字幕屁孩| 凹凸精品免费精品视频| 美女视频黄又黄又免费高清| 91福利国产成人精品导航| 呦女亚洲一区精品| 在线精品亚洲国产| 日本五区在线不卡精品| 欧洲高清无码在线| 欧美日本视频在线观看| 狠狠躁天天躁夜夜躁婷婷| 婷五月综合| 国产丝袜无码一区二区视频| 成年人国产网站| 国产女人在线视频| 欧美日韩精品一区二区在线线 | 欧美在线三级| 在线va视频| 国产精品免费p区| 精品国产网站| 激情無極限的亚洲一区免费| 欧美五月婷婷| 91成人精品视频| 久久国产精品国产自线拍| 亚洲国产欧美国产综合久久| 九九久久精品免费观看| 亚洲女人在线| 99久久精彩视频| 国产成人三级| 91久久偷偷做嫩草影院电| 97se亚洲| 久久精品这里只有精99品| 91久久夜色精品国产网站|