999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于數據降維與精確歐氏局部敏感哈希的k近鄰推薦方法

2017-11-15 06:02:45郭喻棟郭志剛
計算機應用 2017年9期
關鍵詞:用戶方法

郭喻棟,郭志剛,陳 剛,魏 晗

(信息工程大學 信息系統工程學院,鄭州 450002)(*通信作者電子郵箱20374042@qq.com)

基于數據降維與精確歐氏局部敏感哈希的k近鄰推薦方法

郭喻棟,郭志剛*,陳 剛,魏 晗

(信息工程大學 信息系統工程學院,鄭州 450002)(*通信作者電子郵箱20374042@qq.com)

針對基于k近鄰的協同過濾推薦算法中存在的評分特征數據維度過高、k近鄰查找速度慢,以及評分冷啟動等問題,提出基于數據降維與精確歐氏局部敏感哈希(E2LSH)的k近鄰協同過濾推薦算法。首先,融合評分數據、用戶屬性數據以及項目類別數據,將融合后的數據作為輸入對堆疊降噪自編碼(SDA)神經網絡進行訓練,取神經網絡編碼部分最后一個隱層的值作為輸入數據的特征編碼,完成非線性降維。然后,利用精確歐氏局部敏感哈希算法對降維后的數據建立索引,通過檢索得到目標用戶或目標項目的相似近鄰。最后,計算目標與近鄰之間的相似度,利用相似度對近鄰的評分記錄加權得到目標用戶對目標項目的預測評分。在標準數據集上的實驗結果表明,在冷啟動場景下,均方根誤差比基于局部敏感哈希的推薦算法(LSH-ICF)平均降低了約7.2%,平均運行時間和LSH-ICF相當。表明該方法在保證推薦效率的前提下,緩解了評分冷啟動問題。

信息推薦;堆疊降噪自編碼器;精確歐氏局部敏感哈希;數據降維;冷啟動

0 引言

隨著互聯網的飛速發展,人們在互聯網平臺上的活動越來越頻繁,信息推薦在網絡中發揮的作用也越來越重要。在電子商務領域,商品推薦根據客戶的注冊信息、商品信息以及客戶對商品的反饋信息等分析客戶的偏好,模擬銷售人員向其提供商品購買建議,從而提高電子商務交易量。在社交網絡領域,好友推薦系統能夠為用戶建立復雜的人際關系網絡圖譜,向用戶推薦可能認識的好友或群體,擴展用戶的交際圈,最終提高用戶對于社交平臺的滿意度。在網絡媒體領域,由于新聞資訊數量呈爆炸式增長,廣大讀者受到了信息過載問題的困擾,新聞推薦通過分析讀者的行為記錄(瀏覽、分享、點贊、評論等),識別讀者的興趣點,向他們推薦其感興趣的內容,在讀者目的不明確的情況下,大大提高了其信息獲取的效率,緩解了信息過載問題。

基于k近鄰的推薦算法[1-3]是一種常用的推薦模型,可以分為基于用戶近鄰的推薦算法和基于項目近鄰的推薦算法。基于用戶近鄰的推薦算法主要分為以下步驟:根據用戶的特征計算兩兩用戶之間的相似度;針對目標用戶,找到與之最相似的用戶近鄰集合;在估計目標用戶對某一項目的評分時,利用近鄰集合中用戶對該項目的評分,通過相似度加權,來預測目標用戶的評分。

基于項目近鄰的推薦算法與基于用戶近鄰的推薦算法原理大致相同,區別在于基于項目近鄰的推薦算法通過計算項目之間的相似度來完成預測和推薦。兩種方法的適用場合不同,在實際應用中,需要結合具體的場景進行選擇。在一些系統中,項目的數量較為穩定且遠遠小于用戶的數量,此時計算項目之間的相似度更節省時間,適合采用基于項目近鄰的推薦算法。但是還有一些系統,如新聞推薦系統和微博推薦系統,項目的更新速度要遠遠高于系統中用戶的更新速度,且數量也要遠遠超過用戶的數量,此時適合選擇基于用戶近鄰的推薦算法。因此需要具體問題具體分析,根據系統的實際需要選取合適的推薦算法。

k近鄰推薦算法的關鍵在于評分特征提取和相似度計算。基礎算法將原始高維稀疏的評分作為用戶和項目的特征,采用余弦相似度進行計算,最后根據相似度最高的k個近鄰進行評分預測和推薦。這種方法存在空間消耗大、相似度計算不精確、相似近鄰選取效率低等缺點。近年來,國內外學者針對上述關鍵點進行了不同的改進。在特征提取方面,文獻[4-6]分別采用主成分分析(Principle Component Analysis, PCA)和奇異值分解(Singular Value Decomposition, SVD)對數據進行降維,提高相似度計算速度和相似近鄰選取效率,但是PCA降維方法假設評分數據之間是線性的,而實際中的數據可能是非線性的。在相似度計算方面,經典的相似度計算方法有余弦相似度、皮爾森相關系數和修正的余弦相似度等[7],后續工作大都在這些基礎上改進,文獻[8]對相似度加權方法進行改進,文獻[9]對項目屬性相似度和評分相似度進行動態組合,文獻[10]引入Tanimoto系數進行相似度計算,這些改進能夠提高評分預測的準確率,但都是在原始評分特征上進行的,特征降維以后,這些相似度計算方法便不再適用。另外,上述方法沒有考慮評分冷啟動問題(在評分數據過于稀疏或沒有評分數據時,無法進行準確推薦),且在推薦過程中仍然需要大量的相似度計算,不能真正提高推薦效率。

針對上述問題,本文融合了評分數據、用戶屬性數據和項目類別數據,采用堆疊降噪自編碼(Stack Denoising Auto-encoder, SDA)神經網絡對上述數據進行非線性降維,引入精確歐氏局部敏感哈希(Exact Euclidean Local-Sensitive Hash, E2LSH)快速檢索算法進行相似近鄰檢索,并改進了相似度計算方法,在保證推薦效率的前提下,緩解了評分冷啟動問題。

1 相關理論

1.1 堆疊降噪自編碼網絡

降噪自編碼器(Denoising Auto-Encoder, DAE)是由Vincent等[11]提出的一種由輸入層、隱藏層和輸出層組成的三層神經網絡,輸出層是對輸入層的重構,輸入層到隱藏層是編碼器,隱藏層到輸出層是解碼器。DAE向輸入層數據中加噪,在學習過程中去噪,這樣能夠消除干擾特征提取的噪聲,學習到的特征更具有代表性。SDA是一種特殊的深度神經網絡[12],其網絡結構可認為是對稱的,前半部分從輸入層到中間層逐層編碼,后半部分從中間層到輸出層逐層解碼,因此通常網絡層數為2L+1,如圖1所示。

圖1 SDA神經網絡結構

SDA的第l層隱層到下一層和第2L-l+1層隱層到下一層構成一對編解碼器,編碼函數和解碼函數分別如式(1)和式(2)所示:

hl+1=fl(Wlhl+bl)

(1)

h2(L+1)-l=gl(W2L-l+1h2L-l+1+b2L-l+1)

(2)

其中:f(·)和g(·)分別為編碼器和解碼器函數,通常采用sigmoid函數,其自變量為網絡參數W和b。Wl是第l層與上一層之間的權重,Wl和W2L-l+1互為轉置,由編碼器和解碼器共享,稱為一對捆綁權重[12]。hl和h2L-l+1分別是編碼器和解碼器的輸入向量,bl和b2L-l+1是偏置向量。

SDA的訓練過程分為預訓練和微調兩個階段。預訓練將每一對編碼器和解碼器都當作一個DAE進行訓練,通過隨機梯度下降法最小化單個DAE的損失函數,如式(3)所示,得到預訓練參數。微調階段利用預訓練參數作為網絡的初始化參數,通過后向傳播算法最小化損失函數,如式(4)所示,得到最終的網絡參數。在這種深度神經網絡結構下,在預訓練階段,每一個DAE可以看作是一種無監督的預訓練過程,依次進行。由于當前DAE的輸入是前面DAE的隱層值,因此,只有當前面的DAE訓練好后,才能開始當前DAE的訓練。具體的訓練步驟將在第2章中詳細闡述。

C(hl,h2(L+1)-l)=-hlln(h2(L+1)-l)+

(1-hl)ln(1-h2(L+1)-l)

(3)

C(x,x′)=xln(x′)+(1-x)ln(1-x′)

(4)

x′=g1°…°gL°fL°…°f1(x″)

(5)

其中:C(hl,h2(L+1)-l)是預訓練階段的損失函數,C(x,x′)是微調階段的損失函數,x″是加噪后的輸入,hl是網絡第l層的數據,當l=0時,hl分和h2(L+1)-l分別為整個網絡的輸入x和輸出x′。

1.2 精確歐氏局部敏感哈希算法

局部敏感哈希(Local-Sensitive Hash, LSH)算法是一種近似近鄰搜索策略[13],能夠得到近似卻高效的候選結果,這往往比低效精確的策略更具實際意義。LSH的基本思想是以較大的碰撞概率保證空間中的相似點哈希到同一個哈希桶中,同時過濾掉不相似的點以減少相似性計算,從而快速檢索到相似近鄰。E2LSH是對LSH的一種改進[14],通過基于p穩態分布的LSH函數對數據進行哈希表示,使相似的數據哈希到同一個桶中的概率更高。

位置敏感哈希函數族是LSH算法的基礎,是根據一組由點域S到數集域U的映射函數定義的,用E={e:S→U}表示。隨機選取哈希函數族E中的一個,對于數據點t,v∈Rd,如果滿足下列條件,則E即為位置敏感哈希函數族。

若‖t-v‖P1;

若‖t-v‖>d2,則P[e(t)=e(v)]

其中,P[·]表示t和v的哈希值取等時的概率,0

ea,b(v)=?(a·v+b)/w」

(6)

其中:a是從R上的p穩態分布中隨機取樣構成的d維向量,b是從[0,w]上的均勻分布中隨機取樣得到的隨機數,?·」表示向下取整。函數e將d維向量v映射成一個整數,作為該向量的哈希值。由p穩態分布的定義可知,向量v在a方向上的投影av與‖av‖pX同分布,X服從p穩態分布。哈希函數ea,b(v)的幾何意義如圖2所示,a方向上的實線以w為間隔進行分割,將投影a·v+b所處的間隔作為向量v的哈希值。

圖2 基于p穩態分布的哈希函數幾何意義

(7)

(8)

2 基于數據降維和E2LSH的k近鄰推薦算法

本章首先給出基于數據降維和E2LSH的k近鄰推薦算法基本流程,然后對其中的關鍵技術逐一進行詳細闡述。

2.1 基本流程

本文方法的基本流程如圖3所示,對基礎k近鄰推薦算法進行了改進,主要包括數據降維、相似近鄰檢索和評分預測三部分。

圖3 本文方法基本流程

1)數據降維。通過SDA神經網絡對評分數據和用戶/項目標簽數據融合后所形成的高維稀疏向量進行非線性降維,得到低維稠密的用戶/項目特征向量。

2)相似近鄰檢索。利用精準歐氏局部敏感哈希算法為降維后的數據構建索引,通過檢索得到目標用戶或項目的近似近鄰集合。

3)評分預測。計算目標用戶或項目與相似近鄰之間的相似度,利用相似近鄰的評分記錄,通過相似度加權來預測未知評分。

2.2 基于神經網絡的數據降維

在計算用戶或項目之間的相似度時,若采用原始評分作為特征,隨著推薦系統中用戶數和項目數的不斷增多,特征維度將急劇增加,從而降低運算效率,甚至造成維數災難,因此對評分數據進行降維十分必要。傳統的PCA和SVD降維是一種線性模型,而推薦系統中的數據可能是非線性的,因此本文引入自編碼神經網絡作為一種非線性降維方法。自編碼神經網絡有深層和淺層之分,前者能夠擬合更復雜的函數,降維后得到的特征更具有代表性[16]。所以本文采用深層網絡——SDA對評分數據和標簽數據進行非線性降維。訓練步驟如下:

1)確定SDA的網絡結構,設置輸入層維數、隱藏層個數、各隱藏層維數以及各層的加噪比例。然后融合評分數據和用戶/項目標簽數據,對數據加噪后以向量的形式作為SDA的輸入。

圖4 SDA訓練過程

2)訓練第一層DAE,即圖4(a)中輸入層N維,隱層N1維的DAE,利用式(1)和式(2)計算網絡的輸出值,通過隨機梯度下降法最小化損失函數,如式(3)所示。

3)將第一層DAE的隱層數據作為第二層DAE的輸入,按照步驟2)中的方法訓練第二層DAE。以此類推,訓練多層DAE。

4)將多層DAE展開成深度網絡的結構,分為編碼和解碼兩部分,如圖4(b)所示。利用步驟2)、3)中得到的權值對深度網絡進行參數初始化。

5)將輸入數據作為深度網絡的整體輸入,通過經典的后向傳播算法對網絡參數進行微調,如圖4(c)所示。將編碼部分最后一個隱層的值保留(即維度為N3的隱藏層的值),作為輸入數據的特征編碼。

2.3 基于E2LSH的相似近鄰選擇

針對傳統的基于余弦相似度來計算近鄰用戶的方法存在計算量大、耗時長的缺點,本文采用E2LSH算法實現相似近鄰的快速檢索。在進行用戶/項目的相似近鄰檢索時,以用戶為例,根據索引鍵搜索目標用戶u的特征向量所在的L個哈希桶,將這些桶中用戶的并集作為目標用戶的近似近鄰集。具體實現方法如下:

1)初始化函數φ(v)=(e1(v),e2(v),…,ek(v)),φ(v)將用戶特征向量v哈希成k個整數,連成一個k維向量。其中,e(·)由式(6)給出,不同的ei(·)和ej(·)彼此隨機獨立產生。

2)隨機獨立的選取L個φ(·)函數,為每個用戶生成L個k維哈希向量,對應L個哈希表。

圖5 索引構建示意圖

圖5中,每個用戶的特征向量對應高維空間的一個點,根據索引鍵(Value,Index)將該點分別存入L個哈希表中的其中一個桶。按照此法將所有數據點存入哈希桶,同一個桶中的點索引鍵相同,從而完成索引構建。

4)在對目標用戶進行檢索時,根據目標用戶的索引鍵,找到該用戶所在的L個哈希桶。將這些桶中的所有用戶取出,去掉重復的用戶,剩下的即為目標用戶的相似近鄰。

2.4 相似度計算

本文在余弦相似度的基礎上,為了消除差異較大的相似近鄰對后續預測評分計算的干擾,對相似度計算公式進行改進,以項目相似度計算為例,改進前后的具體計算方法分別如式(8)和式(9)所示:

(8)

(9)

其中:α和β分別表示兩個項目的特征向量,sim(α,β)表示兩個項目之間的相似度,q表示特征維度的大小,αi和βi分別表示特征向量的第i個元素,當sim(α,β)>0時,說明兩個項目較為相似,否則說明二者差別較大。當某一項目與目標項目差別較大時,該項目對目標項目的評分預測貢獻意義不大,因此本文將它們的相似度置為0,從而減小異類項目對評分預測的干擾。類似地,在計算用戶a與用戶b之間的相似度時,在消除不同用戶平均評分不同的差異的同時,也排除異類用戶對目標用戶評分預測的干擾。

2.5 評分預測

在利用E2LSH得到用戶/項目的相似近鄰后,需要根據相似近鄰的評分來預測未知評分。評分預測分為基于用戶的評分預測和基于項目的評分預測,計算公式分別如式(10)、(11)所示。對于基于用戶的方法,由于每個用戶的評分習慣不同,例如有的用戶習慣評分較高,有的用戶則習慣評分較低,因此在評分預測在用戶的評分均值的基礎上進行。基于項目的評分預測是利用同一用戶已評價過的項目來預測未評價過的項目,因此不存在這個問題,可直接通過相似度加權進行評分預測。

(10)

(11)

3 實驗結果及分析

3.1 實驗數據

本文使用MovieLens100K數據集,該數據集包含943名用戶對1 682個項目的100 000條真實評分記錄,同時包含用戶和項目的屬性信息。本文設計了熱啟動和冷啟動兩種場景:在熱啟動場景下,將數據集分為兩部分,80%用作訓練集,20%用作測試集;在冷啟動場景下,訓練集和測試集都為原始數據集的20%。實驗采用5折交叉驗證的平均值作為最終結果。

3.2 評價指標

評分預測的準確率通常采用均方根誤差(Root Mean Square Error, RMSE)計算,誤差越小表示評分預測越準確。230對于測試集Test中的用戶u和項目i,定義為:

(12)

3.3 實驗設置與結果分析

3.3.1 實驗參數設置

本文結合SDA降維和E2LSH近鄰檢索技術,改進了相似度計算方法,分別實現了基于用戶的k近鄰推薦和基于項目的k近鄰推薦,對比實驗包括傳統的協同過濾推薦[8]和其他基于數據降維的推薦[4,6](基于PCA和基于SVD的推薦)。經過大量實驗測試,在保證各算法相對公平的條件下,各算法參數設置如下:降維后的特征維度大小統一設置為25,DAE實驗中,加噪程度為0.2,梯度下降的學習率為0.8,迭代次數為15。SDA隱藏層設置為三層,節點數分別為300,25,25,三層的加噪程度分別為0.2,0.3,0.3,梯度下降的學習率為0.8,迭代次數為15。E2LSH算法參考文獻[14]進行參數設置,哈希表的個數L設置為20,因為該值過小導致檢索精度不夠,該值過大導致空間浪費且檢索精度并不會顯著提高。g(v)中哈希函數h(v)的個數k取5,h(v)中w值取經驗值4。

3.3.2 實驗結果分析

圖6顯示了相似度計算方法對不同算法的影響,其中受相似度計算影響較大的兩種算法為基于SVD降維的項目近鄰推薦(記為SVD-ICF)和基于PCA降維的項目近鄰推薦方法(記為PCA-ICF)。采用原始數據、DAE降維和SDA降維后的數據以及文獻[14]的方法計算得到的近鄰相似度都大于0,因而不受影響。這是由于采用線性降維方法在提取特征時,特征向量的元素出現負值,導致計算相似近鄰時不夠穩定和準確,這種情況可以通過本文所提出的相似度計算方法進行彌補,通過消除相似度過低的近鄰對評分預測的干擾,僅考慮相似度更高的近鄰,性能得到較大提升。

圖6 相似度計算對實驗結果的影響

圖7(a)(b)兩圖分別顯示了在熱啟動和冷啟動場景下,基于項目的不同推薦算法的準確率對比。在熱啟動場景下,各算法RMSE相差不大,改進相似度后的線性降維算法PCA-ICF和SVD-ICF的RMSE最小,文獻[14]的方法(LSH-ICF)、非線性降維算法DAE-ICF、本文方法與基本的ICF算法相當,本文方法略好。在冷啟動場景下,算法的預測準確率較于熱啟動有所下降,降維后比降維前的算法準確率高,本文方法較其他算法提升較為明顯,這是由于本文算法融入了項目的類別信息。

圖7 基于項目的推薦算法準確率對比

類似的,圖8(a)、(b)分別顯示了在熱啟動和冷啟動場景下,基于用戶的各種推薦算法的準確率對比。在熱啟動場景下,各算法準確率差異不大。在冷啟動條件下,文獻[14]的方法(LSH-UCF)準確率略高于基于SVD降維的方法(SVD-UCF),基非線性降維算法的準確率明顯高于其他基于線性降維的算法,由于本文方法結合用戶的屬性信息,故在冷啟動場景下準確率最高。

圖9顯示了不同推薦算法的平均運行時間對比。圖中對比了三種有代表性的推薦算法在平均運行時間上的差異。ICF利用高維稀疏的原始評分數據進行推薦,平均運行時間最長;其次是PCA-CF,利用降維后的數據進行推薦,縮短了平均運行時間;平均運行時間最短的是本文方法和文獻[14]的方法(LSH-ICF),兩種方法利用E2LSH檢索到相似近鄰后,僅需計算目標與近鄰之間的相似度,無需計算所有用戶或項目兩兩之間的相似度,從而提高了算法效率。與LSH-ICF相比,本文方法在冷啟動場景下的準確率更高,RMSE指標平均降低了約7.2%。

4 結語

本文提出一種基于SDA數據降維與E2LSH的信息推薦方法,該方法將高維稀疏的用戶-項目評分數據與用戶屬性、項目類別數據融合后作為SDA深度神經網絡的輸入,通過迭代訓練得到低維稠密的用戶特征和項目特征。然后利用E2LSH算法對降維后的用戶或項目特征構建索引,通過檢索得到目標用戶或目標項目的相似近鄰。最后根據目標用戶或項目與相似近鄰之間的相似度,通過相似度加權來預測用戶對項目的評分。實驗結果表明,本文提出的數據降維方法能夠較好的提取原始評分數據中的有效信息,在降低數據維度的同時提高評分預測準確度,尤其是在冷啟動場景下優勢較為明顯。另外,本文結合E2LSH檢索算法能夠快速找到目標的相似近鄰,運行效率較高。但是本文僅考慮了推薦準確率和運行效率,實際中推薦性能還受到推薦結果新穎度和覆蓋率的影響。通常情況下,準確率提高會導致新穎度和覆蓋率下降,因此,如何利用多策略推薦方法,在保證準確率的同時提高新穎度和覆蓋率是推薦算法的一個難點,也是未來研究工作的一個重點。

圖8 基于用戶的推薦算法準確率對比

圖9 不同推薦算法平均運行時間對比

References)

[1] MEHTA S J, JAVIA J. Threshold based KNN for fast and more accurate recommendations [C]// Proceedings of the 2015 IEEE 2nd International Conference on Recent Trends in Information Systems. Piscataway, NJ: IEEE, 2015: 109-113.

[2] YANG C, YU X, LIU Y. Continuous KNN join processing for real-time recommendation [C]// Proceedings of the 2014 IEEE International Conference on Data Mining. Washington, DC: IEEE Computer Society, 2014: 640-649.

[3] ZHU T, LI G, PAN L, et al. Privacy preserving collaborative filtering for KNN attack resisting [J]. Social Network Analysis and Mining, 2014, 4(1): 1-14.

[4] 李遠博,曹菡.基于PCA降維的協同過濾推薦算法[J].計算機技術與發展,2016,26(2):26-30.(LI Y B, CAO H. Collaborative filtering recommendation algorithm based on PCA dimension reduction [J]. Computer Technology and Development, 2016, 26(2): 26-30.)

[5] 郁雪,李敏強.一種結合有效降維和K-means聚類的協同過濾推薦模型[J].計算機應用研究,2009,26(10):3718-3720.(YU X, LI M Q. Collaborative filtering recommendation model based on effective dimension reduction andK-means clustering [J]. Application Research of Computers, 2009, 26(10): 3718-3720.)

[6] 林建輝,嚴宣輝,黃波.基于SVD與模糊聚類的協同過濾推薦算法[J].計算機系統應用,2016,25(11):156-163.(LIN J H, YAN X H, HUANG B. Collaborative filtering recommendation algorithm based on SVD and fuzzy clustering [J]. Computer Systems & Applications, 2016, 25(11): 156-163.)

[7] SARWAR B, KARYPIS G, KONSTAN J, et al. Item-based collaborative filtering recommendation algorithms [C]// Proceedings of the 10th International Conference on World Wide Web. New York: ACM, 2001: 285-295.

[8] WANG B, LIAO Q, ZHANG C. Weight based KNN recommender system [C]// Proceedings of the 2013 5th International Conference on Intelligent Human-Machine Systems and Cybernetics. Washington, DC: IEEE Computer Society, 2013,2: 449-452.

[9] 吳月萍,鄭建國.改進相似性度量方法的協同過濾推薦算法[J].計算機應用與軟件,2011,28(10):7-8.(WU Y P, ZHENG J G. Collaborative filtering recommendation algorithm on improved similarity measure method [J]. Computer Applications and Software, 2011, 28(10): 7-8.)

[10] 文俊浩,舒珊.一種改進相似性度量的協同過濾推薦算法[J].計算機科學,2014,41(5):68-71.(WEN J H, SHU S. Improved collaborative filtering recommendation algorithm of similarity measure [J]. Computer Science, 2014, 41(5): 68-71.)

[11] VINCENT P, LAROCHELLE H, BENGIO Y, et al. Extracting and composing robust features with denoising autoencoders [C]// Proceedings of the 25th International Conference on Machine Learning. New York: ACM, 2008: 1096-1103.

[12] BENGIO Y, LAMBLIN P, POPOVICI D, et al. Greedy layer-wise training of deep networks [EB/OL]. [2016- 12- 05]. http://papers.nips.cc/paper/3048-greedy-layer-wise-training-of-deep-networks.pdf.

[13] ANDONI A, INDYK P. Near-optimal hashing algorithms for approximate nearest neighbor in high dimensions [C]// Proceedings of the 47th Annual IEEE Symposium on Foundations of Computer Science. Washington, DC: IEEE Computer Society, 2006: 459-468.

[14] 李紅梅,郝文寧,陳剛.基于精確歐氏局部敏感哈希的協同過濾推薦算法[J].計算機應用,2014,34(12):3481-3486.(LI H M, HAO W N, CHEN G. Collaborative filtering recommendation algorithm based on exact Euclidean locality-sensitive hashing [J]. Journal of Computer Applications, 2014, 34(12): 3481-3486.)

[15] 周杰,李弼程,唐永旺.基于關鍵證據與E2LSH的增量式人名聚類消歧方法[J].情報學報,2016,35(7):714-722.(ZHOU J, LI B C, TANG Y W. Incremental clustering method based on key evidence and E2LSH for person name disambiguation [J]. Journal of the China Society for Scientific and Technical Information, 2016, 35(7): 714-722.)

[16] 鄧俊鋒,張曉龍.基于自動編碼器組合的深度學習優化方法[J].計算機應用,2016,36(3):697-702.(DENG J F, ZHANG X L. Deep learning algorithm optimization based on combination of auto-encoders [J]. Journal of Computer Applications, 2016, 36(3): 697-702.)

[17] 冷亞軍,梁昌勇,陸青,等.基于近鄰評分填補的協同過濾推薦算法[J].計算機工程,2012,38(21):56-58.(LENG Y J, LIANG C Y, LU Q, et al. Collaborative filtering recommendation algorithm based on neighbor rating imputation [J]. Computer Engineering, 2012, 38(21): 56-58.)

RecommendationmethodbasedonknearestneighborsusingdatadimensionalityreductionandexactEuclideanlocality-sensitivehashing

GUO Yudong, GUO Zhigang*, CHEN Gang, WEI Han

(CollegeofInformationSystemEngineering,InformationEngineeringUniversity,ZhengzhouHenan450002,China)

There are several problems in the recommendation method based onknearest neighbors, such as high dimensionality of rating features, slow speed of searching nearest neighbors and cold start problem of ratings. To solve these problems, a recommendation method based onknearest neighbors using data dimensionality reduction and Exact Euclidean Locality-Sensitive Hashing (E2LSH) was proposed. Firstly, the rating data, the user attribute data and the item category data were integrated as the input data to train the Stack Denoising Auto-encoder (SDA) neutral network, of which the last hidden layer values were used as the feature coding of the input data to complete data dimensionality reduction. Then, the index of the reduced dimension data was built by the Exact Euclidean Local-Sensitive Hash algorithm, and the target users or the target items were retrieved to get their similar nearest neighbors. Finally, the similarities between the target and the neighbors were calculated, and the target user’s similarity-weighted prediction rating for the target item was obtained. The experimental results on standard data sets show that the mean square error of the proposed method is reduced by an average of about 7.2% compared with the recommendation method based on Locality-Sensitive Hashing (LSH-ICF), and the average run time of the proposed method is the same as LSH-ICF. It shows that the proposed method alleviates the rating cold start problem on the premiss of keeping the efficiency of LSH-ICF.

information recommendation; Stack Denoising Auto-encoder (SDA); Exact Euclidean Locality-Sensitive Hashing (E2LSH); data dimensionality reduction; cold start

2017- 03- 22;

2017- 05- 22。

國家社會科學基金資助項目(14BXW028)。

郭喻棟(1991—),男,河南孟津人,碩士研究生,主要研究方向: 機器學習、數據挖掘; 郭志剛(1973—),男,河南鄭州人,副教授,碩士,主要研究方向:智能信息處理、機器學習、數據挖掘; 陳剛(1979—),男,湖北黃岡人,講師,博士研究生,主要研究方向:智能信息處理、機器學習、數據挖掘; 魏晗(1981—),女,河南鄭州人,講師,碩士,主要研究方向:智能信息處理、機器學習、數據挖掘。

1001- 9081(2017)09- 2665- 06

10.11772/j.issn.1001- 9081.2017.09.2665

TP391.1

A

This work is partially supported by the National Social Science Foundation of China (14BXW028).

GUOYudong, born in 1991, M. S. candidate. His research interests include machine learning, data mining.

GUOZhigang, born in 1973, M. S., associate professor. His research interests include intelligent information processing, machine learning, data mining.

CHENGang, born in 1979, Ph. D. candidate, lecturer. His research interests include intelligent information processing, machine learning, data mining.

WEIHan, born in 1981, M. S., lecturer. Her research interests include intelligent information processing, machine learning, data mining.

猜你喜歡
用戶方法
學習方法
關注用戶
商用汽車(2016年11期)2016-12-19 01:20:16
關注用戶
商用汽車(2016年6期)2016-06-29 09:18:54
關注用戶
商用汽車(2016年4期)2016-05-09 01:23:12
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
Camera360:拍出5億用戶
創業家(2015年10期)2015-02-27 07:55:08
100萬用戶
創業家(2015年10期)2015-02-27 07:54:39
主站蜘蛛池模板: 国产欧美高清| 四虎成人精品| 日韩欧美中文字幕一本| 色婷婷在线播放| 精品成人一区二区| 中文字幕在线不卡视频| 国产成人8x视频一区二区| 久操线在视频在线观看| 国产自无码视频在线观看| 日韩欧美色综合| 毛片免费观看视频| 国产在线拍偷自揄拍精品| 青青草一区二区免费精品| 国产第一福利影院| 久久久久无码精品国产免费| 九月婷婷亚洲综合在线| 欧美成人午夜影院| 国产激爽爽爽大片在线观看| 亚洲品质国产精品无码| 国产高潮视频在线观看| a在线亚洲男人的天堂试看| 色综合a怡红院怡红院首页| 亚洲全网成人资源在线观看| 美女无遮挡免费视频网站| 日韩午夜伦| 国产va在线观看| 亚洲AⅤ综合在线欧美一区| 亚洲免费人成影院| 亚洲欧洲一区二区三区| 日本福利视频网站| 亚洲第一区精品日韩在线播放| 国产精品女在线观看| 99视频在线免费观看| 国产精品思思热在线| 国产乱人激情H在线观看| 无码高潮喷水在线观看| 欧美亚洲国产精品久久蜜芽| 色AV色 综合网站| 欧美成人影院亚洲综合图| 欧美精品导航| 国产精品任我爽爆在线播放6080| 国产精品99r8在线观看| 欧美日韩一区二区在线免费观看| 2020最新国产精品视频| 9啪在线视频| 欧美成人一区午夜福利在线| 免费观看男人免费桶女人视频| 国产不卡在线看| AV片亚洲国产男人的天堂| 欧美区国产区| 亚洲中文制服丝袜欧美精品| 亚洲天堂.com| 亚洲无码A视频在线| 午夜视频免费试看| 欧美三级自拍| 国内精自线i品一区202| 国产人成在线观看| 色综合狠狠操| 国产精品私拍99pans大尺度| 亚洲精品无码在线播放网站| 免费精品一区二区h| julia中文字幕久久亚洲| 全部无卡免费的毛片在线看| 日本人真淫视频一区二区三区| 亚洲色大成网站www国产| a毛片免费看| 国产18在线| 国产一区免费在线观看| 欧美在线精品怡红院| 国产在线视频导航| 成人免费黄色小视频| 欧美性久久久久| 亚洲第一黄色网址| 国产免费久久精品99re不卡| 亚洲av成人无码网站在线观看| 99视频在线免费观看| 91丝袜在线观看| 99久久人妻精品免费二区| 国产亚洲精品在天天在线麻豆 | 欧美一区二区福利视频| 欧美久久网| 国产白浆视频|