鄧萬宇,張 倩,屈玉濤
(西安郵電大學 計算機學院,陜西 西安 710000)
基于ELM-AE的二進制非線性哈希算法
鄧萬宇,張 倩,屈玉濤
(西安郵電大學 計算機學院,陜西 西安 710000)
21世紀是數(shù)據(jù)信息時代,移動互聯(lián)、社交網(wǎng)絡、電子商務大大拓展了互聯(lián)網(wǎng)的疆界和應用領域,由此而衍生的各類數(shù)據(jù)呈爆炸式增長,使得傳統(tǒng)的數(shù)據(jù)分析手段已無法進行有效的數(shù)據(jù)分析。為了有效解決大規(guī)模圖像數(shù)據(jù)的高效檢索問題,滿足大規(guī)模圖像數(shù)據(jù)庫的實際應用需求,提出一種基于快速極限學習機自編碼(ELM-AE)的哈希二進制自編碼算法。算法通過ELM-AE對數(shù)據(jù)樣本進行優(yōu)化,提升了圖像檢索的效率;通過二進制哈希實現(xiàn)高維圖像數(shù)據(jù)向低維的二進制空間的映射和重表,提高了圖像檢索的精度和效率;此外,通過非線性激勵函數(shù)解決了線性函數(shù)在處理非線性數(shù)據(jù)時的局限。實驗結果表明,基于ELM的二進制自編碼哈希算法在運行時間等方面有著良好的表現(xiàn),取得了良好的檢索效率和精確度。
哈希學習;自編碼;極限學習機;圖像檢索;機器學習
隨著數(shù)據(jù)信息時代的到來,移動通信、社交網(wǎng)絡、電子商務大大拓展了互聯(lián)網(wǎng)的疆界和應用領域,由此而衍生的各類數(shù)據(jù)呈爆炸式增長。在各類數(shù)據(jù)中,圖像由于攜帶信息豐富、表現(xiàn)形式直觀等特點,成為人類傳播信息中最為有效的媒介之一,在科學研究、人類生活、工業(yè)生產(chǎn)等諸多領域占據(jù)著重要地位。例如,一項針對社交網(wǎng)站Facebook的調查顯示,用戶在短短七天內就上傳了7.5億幅圖像,而Facebook開放至今已經(jīng)累積了2 400億幅圖像。此外,圖像編碼方式的不同、圖像本身的非內容修改(如添加字幕或嵌入數(shù)字水印等)以及圖像的再版等因素,導致網(wǎng)絡上出現(xiàn)了很多重復的圖像,這給圖像檢索增加了難度。因此,面對圖像數(shù)據(jù)規(guī)模的爆炸式增長,如何針對大規(guī)模圖像進行快速而準確的檢索,是眾多圖像處理與挖掘任務的先決條件。
為滿足大規(guī)模圖像數(shù)據(jù)庫的實際應用需求,解決圖像檢索面臨的難題,主要方法有兩種[1]:提取有效的圖像特征,降低圖像特征冗余;將圖像特征轉化為緊湊的表現(xiàn)形式,實現(xiàn)用少量的數(shù)據(jù)即可表現(xiàn)原圖像中的重要信息,從而實現(xiàn)圖像快速精確的相似性檢索。
近年來,哈希學習算法[2-7]由于其優(yōu)越的計算和存儲性能,受到了學者們的廣泛關注。哈希學習主要通過保持數(shù)據(jù)的相似性信息,將原始的空間數(shù)據(jù)映射到低維的漢明空間,得到緊致的哈希碼。通過計算漢明距離,能快速返回相似性結果;同時,只需要存儲哈希碼而非原始數(shù)據(jù),存儲空間大大降低。例如:局部敏感哈希(Local Sensitive Hashing,LSH)[8]可以很好地保持樣本之間的相似性,但是,由于其哈希函數(shù)是隨機選取而不是通過數(shù)據(jù)學習得出的,因此,其準確率很低,不能滿足現(xiàn)實需求。之后,根據(jù)LSH的缺點提出了譜哈希(Spectral Hashing,SpH)[9],但是SpH對于新來的樣本,需要通過假設數(shù)據(jù)分布符合一個超矩形平面,才能得到哈希碼。在現(xiàn)實應用中,數(shù)據(jù)一般不會符合這種假設,因此實用效果差。在SpH的基礎上,又提出了迭代量化方法(Iteration Quantization,ITQ)[10]。通過迭代量化的方式,克服了正交投影帶來的缺陷。
文中以大數(shù)據(jù)時代下的圖像檢索為應用背景,提出一種二進制的哈希自編碼模型。通過該模型生成圖像緊湊的哈希二進制表示,從而在盡量保證檢索準確度的前提下減少檢索的時間開銷,以達到圖像檢索在精度和效率方面的良好性能。
哈希學習(Learning to hash)起源于數(shù)據(jù)庫領域,并于2007年由Hinton等[11]引入到機器學習領域。隨著大數(shù)據(jù)時代對實時性要求的不斷提高,哈希學習逐漸成為機器學習和數(shù)據(jù)挖掘領域的研究熱點。
局部敏感哈希[8]是最為經(jīng)典的哈希方法之一。局部敏感哈希算法認為至少存在一個投射矩陣可以將相近的數(shù)據(jù)點映射到相同的桶中。局部敏感哈希使用多個不同的投射矩陣將樣本映射到隨機的方位。通過這種方式,使得與查詢樣本相似的樣本會以很高的概率映射到相同的桶中。局部敏感哈希方法不僅能保持數(shù)據(jù)樣本之間的相似關系,而且計算速度很快。但是,由于哈希函數(shù)是隨機選取而不是通過數(shù)據(jù)學習得出的,因此,其準確率很低,不能滿足現(xiàn)實需求。
為了克服LSH的種種缺陷與不足,Weiss提出了譜哈希[9]。SpH第一次定義了什么是好的哈希碼,即每個哈希碼中0和1應各占50%,不同的哈希碼彼此之間應該是正交的。同時,SpH提出得到以上定義的編碼與圖分割問題等價,而圖分割問題是一個NP-hard難題。通過對初始問題進行譜松弛,SpH把問題變成了一個拉普拉斯譜圖分解問題。利用主成分分析方法,求得矩陣前k個最小的特征向量,并將其作為哈希學習的映射矩陣。在量化階段,將映射后的向量用0進行閾值化操作獲得最終的二進制碼。SpH在平衡和正交限制下只求出了樣本的哈希碼,并未求得哈希函數(shù)。對于新來的樣本,需要通過假設數(shù)據(jù)分布符合一個超矩形平面,才能得到哈希碼。在現(xiàn)實應用中,數(shù)據(jù)一般不會符合這種假設,因此實用效果差。
之后,Gong等提出了迭代量化[10]。在SpH的基礎上,采用迭代量化的形式,學習一個旋轉矩陣,來修正投影方法和減小量化誤差。ITQ分為兩個階段:第一階段,采用類似SpH的方式學習一個投影矩陣W;第二階段,采用一種二進制量化的方式,迭代學習一個矩陣R和最后的哈希碼B。對于一個新來的樣本,將其分別乘以W和R,得到映射后的向量,然后對其進行0閾值化處理得到哈希碼。ITQ通過迭代量化的方式,克服了正交投影帶來的缺陷,取得了不錯的效果。
Autoencoder[12-13]網(wǎng)絡結構包括輸入層、隱含層和輸出層,其輸入層維數(shù)與輸出層維數(shù)D相等。也就是說,Autoencoder通過學習一個恒等函數(shù)hω,b(x)≈x,可以實現(xiàn)樣本特征的重新表述。那么,當設置隱含層神經(jīng)元的數(shù)目小于D時,即可實現(xiàn)輸入層到隱含層的數(shù)據(jù)降維。為了進一步提高網(wǎng)絡的學習特征能力,受人類視覺系統(tǒng)多級信息處理機制啟發(fā),可通過增加隱含層,形成深度學習模型,提取樣本更加本質的特征。傳統(tǒng)的BP算法無法實現(xiàn)深度模型的學習,Autoencoder采用無監(jiān)督訓練方式進行訓練學習。
極限學習機自編碼[14]具備極限學習機輸入?yún)?shù)隨機賦值、無需迭代優(yōu)化等優(yōu)點,同時具有自編碼的功能。與傳統(tǒng)極限學習機(Extreme Learning Machine,ELM)[15-16]相同的是,ELM-AE也具有三層網(wǎng)絡結構:輸入層、隱含層和輸出層;不同的是,ELM-AE的目標輸出與輸入相同(如圖1所示)。
設隱含層的節(jié)點數(shù)為L,輸入層與輸出層的節(jié)點數(shù)為D,根據(jù)源數(shù)據(jù)的維度和隱含層的節(jié)點數(shù),可以將ELM-AE分為如下三種情況:
(1)壓縮:表示特征向量從高維的數(shù)據(jù)空間映射到低維的特征空間;
(2)稀疏:表示特征向量從較低維的數(shù)據(jù)空間映射到較高維的特征空間;
(3)等維:表示特征向量從數(shù)據(jù)空間映射到維度相等的特征空間。
根據(jù)ELM理論,輸入層與隱含層之間的參數(shù)a=[a1,a2,…,aL],b=[b1,b2,…,bL]分別為正交隨機權重與偏移,隱含層節(jié)點的輸出可表示為:
j=g(a·x+b)
aTa=I,bTb=1
當L (1) 其中,J=[j1,j2,…,jn]為隱含層輸出矩陣,其神經(jīng)網(wǎng)絡如圖1所示。 圖1 ELM-AE神經(jīng)網(wǎng)絡 首先,構建一個廣義上的自編碼模型:定義一個編碼器h(x),將真實的向量X∈RD映射到一個真實的碼向量Z∈RL(L 然而,這里討論構建的是一個二進制哈希自編碼模型。對于二進制自編碼來說,其整個自編碼過程可描述為: (1)通過連續(xù)地輸入特征向量到編碼器中,編碼器通過哈希函數(shù)h(x)將特征向量映射到L位的二進制編碼向量Z∈{0,1}L; (2)對二進制編碼Z∈{0,1}L進行優(yōu)化; (3)將優(yōu)化過的二進制編碼向量輸入到解碼器當中,解碼器通過解碼函數(shù)f(z)將二進制編碼向量映射回特征向量,從而實現(xiàn)對特征向量的重建。 (2) 其中,X=(x1,x2,…,xN)為高維的數(shù)據(jù)集。 稱上述自編碼模型為二進制非線性哈希自編碼。其目標函數(shù)可以表示為: (3) 這是通常情況下的最小二乘誤差。對于二進制哈希自編碼模型,由于其編碼器輸出的編碼為二進制,使得目標函數(shù)變得不平滑,而優(yōu)化這個非平滑函數(shù)是很困難的NP計算。 處理高維數(shù)據(jù)的方式之一是對其進行降維,通過學習以獲得低維的模型。這些高維數(shù)據(jù)通常包含許多冗余,其本質維數(shù)往往比原始的數(shù)據(jù)維數(shù)要小得多,因此高維數(shù)據(jù)的處理問題可以通過相關的降維方法減少一些不太相關的數(shù)據(jù),從而降低它的維數(shù),然后用低維數(shù)據(jù)的處理辦法進行處理。 綜上所述,稱上述模型為基于ELM-AE的二進制非線性哈希自編碼模型(簡稱ELM-AE-Hash)。 (4) 值得注意的是,這里的編碼是二進制,使用二次罰函數(shù)(或使用增廣拉格朗日函數(shù)代替),隨著μ的逐漸增加,下述目標函數(shù)逐漸最小化,最終達到最佳。 (5) 由于在自編碼模型中,編碼器函數(shù)h與解碼器函數(shù)f成對出現(xiàn),進而將其看作一個整體,對二進制編碼Z和(h,f)實現(xiàn)交替優(yōu)化,具體可分為兩步: (1)固定二進制編碼Z,優(yōu)化(h,f):對于每一個L位的哈希函數(shù)h(xn)(試圖將X映射到最佳的二進制編碼Z)和解碼器函數(shù)f(zn)(試圖將二進制編碼Z重建回X),可以獲得L+1個獨立的問題; (2)固定(h,f),優(yōu)化二進制編碼Z:將N個數(shù)據(jù)向量分離開來考慮。原數(shù)據(jù)向量xn的最優(yōu)編碼向量應更好地接近h(xn)的預測值,從而更好地重建數(shù)據(jù)向量xn。 從上述兩個步驟可以看出輔助坐標法的優(yōu)點:單個步驟是合理且容易解決的;并且它們還表現(xiàn)出顯著的并行性。在迭代過程中,允許編碼器和解碼器不匹配,這是由于編碼器的輸出不等于解碼器的輸入,但是它們由Z來協(xié)調。隨著μ的增加,這種不匹配度是逐漸降低的。算法歸結如下: 算法1:ELM-AE-Hash算法。 輸入:XD×N=(x1,x2,…,xN); 初始化:(使用ELM-AE對X進行初始優(yōu)化) ZL×N=(z1,z2,…,zN)∈{0,1}LN Step1: forμ=0<μ1<…<μ forl=1,2,…,L 利用SVM訓練hl中的參數(shù),并得到二進制編碼Z 解碼器f(Z)將二進制編碼Z重建回X' Step 2: forn=1,2,…,N 終止:Z不再改變且Z=h(X') 返回:h,Z=h(X') 其中,由于模型中的二進制特性,這里的μ值,不需要趨近無限大,算法可以收斂到一個局部最小的有限μ值。 本次實驗通過在映射空間上對漢明距離使用KNN[18-19]算法,設定合適的近鄰值,得到最佳的準確率。使用的三個基準數(shù)據(jù)集均為常用的圖像檢索的數(shù)據(jù)集,分別為: (1)CIFAR[20]包含60 000個32*32的彩色圖像,共有10類(如圖2所示)。實驗中忽略其標簽,并使用N=50 000個圖像作為訓練集,10 000個圖像作為測試集。并從每個圖像中提取D=320維的GIST特征[21]; (2)NUSWIDE[22]包含N=269 648個高分辨率的彩色圖像,使用161 789個作為訓練數(shù)據(jù)集,107 859個圖像作為測試集,并從每個圖像中提取D=128維的小波特征[21]; (3)SIFT-1M[23]包含N=1 000 000個高分辨率的彩色圖像訓練數(shù)據(jù)集和10 000個測試圖像,每一張圖像通過D=128維SIFT特征表示。 圖2 CIFAR數(shù)據(jù)集 對于二進制編碼Z的位數(shù)L,最佳的位數(shù)應該在8~32之間,對此區(qū)間內的自編碼模型進行實驗,其準確率如圖3所示。 圖3 不同二進制位數(shù)下ELM-AE-Hash算法精度 由圖3可以看出,當L越大時,準確率越高,圖像檢索越為精確。但是,隨著二進制編碼位數(shù)的增大,在圖像存儲方面會消耗更多的存儲空間,所以這里的二進制位數(shù)不易過大。文中的所有實驗均設定L=16,在此基礎上對算法進行各個場景下的實驗評估。 通過兩個具體的實驗對模型從不同的角度進行了全面分析,驗證算法的性能。 如上述提到的,在此哈希自編碼模型中,編碼器函數(shù)(哈希函數(shù))使用非線性的sigmoid函數(shù)(h(X)=S(Wx))。為了說明使用非線性哈希函數(shù)的必要性,構建一個對比模型,將非線性哈希函數(shù)h更換為線性函數(shù)h(X)=σ(Wx)(其中σ(t)為階躍函數(shù),當t≥0時,σ(t)=1;當t<0時,σ(t)=0)。對這兩個模型分別使用KNN,其精度變化趨勢如圖4所示。 由圖4可見,設置KNN算法中的近鄰個數(shù),k={50,60,70,80,90,100}。分別對不同k值下非線性模型和線性模型進行精度的計算。可以看出,隨著k值的增加,不同激勵函數(shù)下的哈希模型準確率均呈下降趨勢,這是由于KNN算法本身的特性[24]所決定的。但是,對于每一個不同的近鄰值k都有:擁有非線性激勵函數(shù)的模型精確度高于線性激勵函數(shù)模型,并且優(yōu)勢明顯。同時,由于線性函數(shù)本身所固有的局限性,采用非線性的編碼器函數(shù)h(x)和相應的解碼器函數(shù)f(z),使得非線性的自編碼模型適用于更多情況下的數(shù)據(jù)樣本集。 圖4 不同激勵函數(shù)下ELM-AE-Hash的精度 實驗中,將ELM-AE-Hash算法與其他經(jīng)典圖像檢索算法進行性能比較。比較算法包括:迭代優(yōu)化(ITQ)、主成分分析(PCA)[25]以及二進制因子分析法(BFA)[26]。性能比較指標包括準確率(%)和運行時間(s)。圖5和圖6分別展示了ELM-AE-Hash與其他各算法的準確率和運行時間對比。 圖5 ELM-AE-Hash算法與其他算法的精度對比 圖6 ELM-AE-Hash算法與其他算法的運行時間對比 從圖5可以看出,在準確率方面,隨著近鄰值k的增加,各個算法的準確率均呈下降趨勢;但是,在每一個k值下,ELM-AE-Hash模型的準確率均高于其他算法,并且優(yōu)勢較為顯著。這是由于ELM-AE-Hash模型采用了MAC來實現(xiàn)算法的優(yōu)化,遵循了二進制約束,而ITQ和PCA算法并未考慮遵循二進制約束;并且,使用ELM-AE對樣本數(shù)據(jù)集進行優(yōu)化,降低了數(shù)據(jù)樣本集的冗余,從而全面地提高了模型的精確度。 在時間運行方面,固定一切可變因素,采用相同配置的計算機、同版本的編譯軟件MATLAB R2014a,以及相同的數(shù)據(jù)集,連續(xù)收集10次各個算法的運行時間。從圖6可以看出:ELM-AE-Hash模型的運行時間在37~46 s之間,平均值為42.3 s;PCA算法的運行時間在43~56 s之間,平均值為48.8 s;ITQ算法的運行時間在45~55 s之間,平均值為50.8 s;BFA模型的運行時間在47~63 s之間,平均值為52.9 s。由此可知,文中所設計實現(xiàn)的哈希模型在運行時間方面優(yōu)于其他幾種圖像檢索算法。 文中基于ELM-AE提出了一種新型的非線性二進制哈希自編碼檢索模型。通過ELM-AE對圖像樣本進行優(yōu)化,降低數(shù)據(jù)冗余,提升圖像檢索模型的效率;其次,通過二進制哈希自編碼實現(xiàn)高維圖像數(shù)據(jù)向低維二進制空間的映射和重表,提升了圖像檢索的精度;同時,使用非線性哈希函數(shù)解決了線性函數(shù)在處理復雜數(shù)據(jù)時的局限性的問題。實驗評估表明,對于大規(guī)模數(shù)據(jù),提出的ELM-AE-Hash模型不僅有較高的圖像檢索效率,同時具有較高的檢索精度。 [1] 嚴靈毓.面向圖像檢索的感知哈希算法研究[D].武漢:華中科技大學,2014. [2] Wang Q,Zhang D,Si L.Semantic hashing using tags and topic modeling[C]//International ACM SIGIR conference on research and development in information retrieval.[s.l.]:ACM,2013:213-222. [3] Wang Q,Si L,Zhang Z,et al.Active hashing with joint data example and tag selection[C]//International ACM SIGIR conference on research & development in information retrieval.[s.l.]:ACM,2014:405-414. [4] Kong W. Double-bit quantization for hashing[C]//AAAI conference on artificial intelligence.[s.l.]:[s.n.],2004:137-138. [5] Lin G,Shen C,Suter D,et al.A general two-step approach to learning-based hashing[C]//IEEE international conference on computer vision.[s.l.]:IEEE,2013:2552-2559. [6] 楊 垚.面向多示例數(shù)據(jù)檢索的哈希方法研究[D].濟南:山東大學,2016. [7] 趙玉鑫.多媒體感知哈希算法及應用研究[D].南京:南京理工大學,2009. [8] Gionis A,Indyk P,Motwani R.Similarity search in high dimensions via hashing[C]//International conference on very large data bases.[s.l.]:Morgan Kaufmann Publishers Inc.,2000:518-529. [9] Weiss Y,Torralba A,Fergus R.Spectral hashing[C]//Conference on neural information processing systems.Vancouver,British Columbia,Canada:[s.n.],2008:1753-1760. [10] Gong Y,Lazebnik S,Gordo A,et al.Iterative quantization:a procrustean approach to learning binary codes for large-scale image retrieval[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2013,35(12):2916-2929. [11] Salakhutdinov R,Hinton G.Semantic hashing[J].International Journal of Approximate Reasoning,2009,50(7):969-978. [12] Hinton G E,Osindero S,Yw T.A fast learning algorithm for deep belief nets[J].Neural Computation,2006,18(7):1527-1554. [13] 曲建嶺,杜辰飛,邸亞洲,等.深度自動編碼器的研究與展望[J].計算機與現(xiàn)代化,2014(8):128-134. [14] Huang G B,Zhu Q Y,Siew C K.Extreme learning machine:theory and applications[J].Neurocomputing,2006,70(1-3):489-501. [15] 鄧萬宇,鄭慶華,陳 琳,等.神經(jīng)網(wǎng)絡極速學習方法研究[J].計算機學報,2010,33(2):279-287. [16] 鄧萬宇,楊麗霞.基于Spark的OS-ELM并行化算法[J].西安郵電大學學報,2016,21(2):101-104. [17] Carreira-Perpián M A,Wang W.Distributed optimization of deeply nested systems[C]//AISTATS.[s.l.]:[s.n.],2014. [18] Hastie T,Tibshirani R.Discriminant adaptive nearest neighbor classification[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,1996,18(6):607-616. [19] Yang Y,Pedersen J O.A comparative study on feature selection in text categorization[C]//Fourteenth international conference on machine learning.[s.l.]:Morgan Kaufmann Publishers Inc.,1997:412-420. [20] Krizhevsky A.Learning multiple layers of features from tiny images[D].Toronto:University of Toronto,2009. [21] Oliva A,Torralba A.Modeling the shape of the scene:a holistic representation of the spatial envelope[J].International Journal of Computer Vision,2001,42(3):145-175. [22] Jeyakumar V,Rubinov A M,Wu Z Y.Non-convex quadratic minimization problems with quadratic constraints:global optimality conditions[J].Mathematical Programming,2007,110(3):521-541. [23] Jegou H,Douze M,Schmid C.Product quantization for nearest neighbor search[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(1):117-128. [24] 耿麗娟,李星毅.用于大數(shù)據(jù)分類的KNN算法研究[J].計算機應用研究,2014,31(5):1342-1344. [25] Price A L,Patterson N J,Plenge R M,et al.Principal components analysis corrects for stratification in genome-wide association studies[J].Nature Genetics,2006,38(8):904. [26] Carreira-Perpinan M A,Raziperchikolaei R.Hashing with binary autoencoders[C]//IEEE conference on computer vision and pattern recognition.[s.l.]:IEEE,2015:557-566. ABinaryNonlinearHashingAlgorithmwithELMAuto-encoders DENG Wan-yu,ZHANG Qian,QU Yu-tao (School of Computer,Xi’an University of Posts and Telecommunications,Xi’an 710000,China) The field of Internet applications is so expandable because of the development of mobile Internet,social network and e-commerce in the data information age of 21 century that the various types of data are in explosive growth,which make the traditional data analysis ineffective.In order to effectively solve the problem of retrieval of image with large scale and meet the application requirements of large scale image database,a binary nonlinear hashing algorithm based on Extreme Learning Machine Auto-Encoders (ELM-AE) is proposed.It optimizes the data sample by ELM-AE and raises the efficiency of image retrieval.Through binary hashing to implement the mapping from high-dimensional image data to low-dimensional binary space,the retrieval accuracy and efficiency are improved.In addition,nonlinear retrieval problem is solved by nonlinear activation function.The experimental results show that the proposed algorithm achieves good retrieval efficiency and accuracy with good performance in operation time and other aspects. hashing learning;auto-encoders;extreme learning machine;image retrieval;machine learning TP399;TP391.4 A 1673-629X(2017)12-0061-06 10.3969/j.issn.1673-629X.2017.12.014 2016-12-15 2017-04-20 < class="emphasis_bold">網(wǎng)絡出版時間 時間:2017-08-01 國家自然科學基金資助項目(61572399);陜西省青年科技新星資助項目(2013KJXX-29) 鄧萬宇(1979-),男,博士,教授,研究方向為數(shù)據(jù)挖掘、機器學習;張 倩(1992-),女,碩士,研究方向為數(shù)據(jù)挖掘、機器學習。 http://kns.cnki.net/kcms/detail/61.1450.TP.20170801.1556.062.html

2 基于ELM-AE的二進制非線性哈希算法及其優(yōu)化
2.1 基于ELM-AE的二進制非線性哈希算法模型構建


2.2 模型優(yōu)化

3 實驗結果與分析


3.1 激勵函數(shù)對模型性能的影響

3.2 ELM-AE-Hash算法與其他算法的性能比較


4 結束語