999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于網(wǎng)絡(luò)表示學(xué)習(xí)與深度學(xué)習(xí)的推薦算法研究

2021-08-20 04:53:32王寶亮潘文采
計(jì)算機(jī)工程 2021年8期
關(guān)鍵詞:用戶模型

劉 峰,王寶亮,潘文采

(1.天津大學(xué) 信息與網(wǎng)絡(luò)中心,天津 300072;2.天津大學(xué) 電氣自動(dòng)化與信息工程學(xué)院,天津 300072)

0 概述

隨著互聯(lián)網(wǎng)技術(shù)的高速發(fā)展,人類社會(huì)進(jìn)入了信息爆炸的時(shí)代。為緩解信息過載問題,對(duì)推薦系統(tǒng)的研究迫在眉睫。推薦系統(tǒng)主要根據(jù)用戶行為推薦用戶偏好的內(nèi)容[1],在電子商務(wù)[2]、新聞[3]、短視頻[4]等領(lǐng)域發(fā)揮著重要作用。

用戶-物品推薦是推薦系統(tǒng)比較常見的運(yùn)用,其對(duì)應(yīng)于圖模型中的二部圖。大多數(shù)網(wǎng)絡(luò)表示學(xué)習(xí)法不能直接應(yīng)用在二部圖模型中研究同質(zhì)網(wǎng)絡(luò)問題。網(wǎng)絡(luò)表示學(xué)習(xí)法主要構(gòu)建適合處理節(jié)點(diǎn)類型較多的網(wǎng)絡(luò)知識(shí)圖譜進(jìn)而解決異質(zhì)網(wǎng)絡(luò)問題,而二部圖模型缺乏針對(duì)性。文獻(xiàn)[5]提出基于圖模型的推薦算法可以通過隨機(jī)游走理論解釋,但該算法時(shí)間復(fù)雜度較高且不能體現(xiàn)用戶節(jié)點(diǎn)與物品節(jié)點(diǎn)的差異性。

將網(wǎng)絡(luò)表示學(xué)習(xí)法運(yùn)用到推薦算法中具有較好的效果[6]。傳統(tǒng)網(wǎng)絡(luò)表示學(xué)習(xí)法是根據(jù)一定的假設(shè)構(gòu)造矩陣,保留了網(wǎng)絡(luò)結(jié)構(gòu)信息的矩陣,進(jìn)一步得到節(jié)點(diǎn)的低維特征向量,如LLE[7]、IsoMap[8]、Laplacian Eigenmap[9]等方法。以上算法雖然在小網(wǎng)絡(luò)上具有較好的效果,但時(shí)間復(fù)雜度較高,在大規(guī)模網(wǎng)絡(luò)上應(yīng)用困難。近年來,人們提出用于學(xué)習(xí)圖的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。

推薦算法需考慮用戶與物品大量交互和物品自身屬性的豐富性問題。基于領(lǐng)域的推薦算法相似度表達(dá)簡單;基于矩陣分解的推薦算法相似度表達(dá)沒有考慮到用戶與物品的多維特征;基于協(xié)同過濾的推薦算法不能充分提取信息。因此,利用多維特征提高推薦算法的表示能力已成為需要研究的問題。

本文提出基于網(wǎng)絡(luò)表示學(xué)習(xí)的卷積協(xié)同過濾推薦算法。將二分網(wǎng)絡(luò)分成用戶與物品兩個(gè)同質(zhì)網(wǎng)絡(luò),并在各自網(wǎng)絡(luò)上利用GraphSAGE 模型進(jìn)行訓(xùn)練得到兩類節(jié)點(diǎn)的嵌入表示。在此基礎(chǔ)上,采用外積運(yùn)算得到兩類節(jié)點(diǎn)的關(guān)系矩陣,最終通過卷積神經(jīng)網(wǎng)絡(luò)捕捉特征中每一維的交互關(guān)系完成推薦任務(wù)。

1 本文提出的推薦算法

1.1 GraphSAGE 模型

通過使用GraphSAGE[10]模型完成網(wǎng)絡(luò)表示學(xué)習(xí)的任務(wù)。GraphSAGE 模型用于監(jiān)督式學(xué)習(xí)和非監(jiān)督式學(xué)習(xí),還可以選擇是否使用節(jié)點(diǎn)的屬性進(jìn)行訓(xùn)練。該方法適于解決外部信息多樣的推薦問題,對(duì)于將圖加入到新節(jié)點(diǎn)時(shí)不用重新訓(xùn)練整個(gè)模型,提高算法的泛用性。

GraphSAGE 模型是針對(duì)同質(zhì)圖問題進(jìn)行構(gòu)建的,通過節(jié)點(diǎn)的屬性信息和網(wǎng)絡(luò)結(jié)構(gòu)信息生成節(jié)點(diǎn)的嵌入表示。嵌入表示是每個(gè)節(jié)點(diǎn)學(xué)習(xí)各自的聚合函數(shù),通過該函數(shù)聚合節(jié)點(diǎn)的鄰域信息。該算法的前向傳播分為采樣、聚合、預(yù)測3 個(gè)步驟[10]。

在聚合和預(yù)測時(shí),每階鄰居節(jié)點(diǎn)通過使用不同的函數(shù)聚合鄰居節(jié)點(diǎn)特征,將目標(biāo)節(jié)點(diǎn)特征表示和鄰居節(jié)點(diǎn)聚合屬性連接后通過非線性變換得到目標(biāo)節(jié)點(diǎn)的更新嵌入表示,所有節(jié)點(diǎn)逐層進(jìn)行迭代。該算法提出均值聚合函數(shù)(Mean Aggregator)、LSTM Aggregator、池化聚合函數(shù)(Pooling Aggregator)。均值聚合函數(shù)對(duì)采樣鄰居節(jié)點(diǎn)特征向量的每個(gè)維度求均值,作為目標(biāo)節(jié)點(diǎn)的特征向量;LSTM Aggregator[11]具有較強(qiáng)的數(shù)據(jù)表達(dá)能力,但對(duì)數(shù)據(jù)順序敏感。池化聚合函數(shù)(Pooling Aggregator)通過對(duì)目標(biāo)節(jié)點(diǎn)的鄰居節(jié)點(diǎn)做非線性變換并進(jìn)行池化操作。GraphSAGE 前向傳播算法偽代碼如算法1 所示。

對(duì)于反向傳播部分,采用非監(jiān)督學(xué)習(xí)方式。參考SkipGram 模型,采用基于圖的損失函數(shù)使相鄰節(jié)點(diǎn)有更相似的特征表達(dá),損失函數(shù)如式(1)所示:

其中,zu為節(jié)點(diǎn)u通過GraphSAGE 生成的嵌入表示,節(jié)點(diǎn)ν為節(jié)點(diǎn)u在k層采樣內(nèi)得到的鄰居,σ為sigmoid 函數(shù),Pn為負(fù)采樣的概率分布,Q為負(fù)樣本數(shù)目。

1.2 算法的設(shè)計(jì)與實(shí)現(xiàn)

1.2.1 算法的整體設(shè)計(jì)

對(duì)于用戶與物品二分網(wǎng)絡(luò)的問題,本文算法將二部圖分解成物品與物品的同質(zhì)網(wǎng)絡(luò)和用戶與用戶的同質(zhì)網(wǎng)絡(luò),利用GraphSAGE 模型將用戶的網(wǎng)絡(luò)特征結(jié)構(gòu)和屬性特征融合,得到具有相同維度的嵌入表達(dá)。對(duì)用戶與物品的特征向量進(jìn)行外積運(yùn)算,即通過矩陣表示用戶與物品特征每個(gè)維度之間的關(guān)系。最終通過卷積神經(jīng)網(wǎng)絡(luò)提取物品與用戶的潛在關(guān)系。本文算法流程如圖1 所示。

圖1 本文推薦算法流程Fig.1 Procedure of the proposed recommendation algorithm

在用戶與物品推薦場景下,通常物品和用戶的屬性信息和物品與用戶的交互信息是已知的。在這種環(huán)境下,通過圖的結(jié)構(gòu)來表示它們之間的關(guān)系。用戶和物品節(jié)點(diǎn)是圖的節(jié)點(diǎn),物品與用戶的交互關(guān)系是圖的連邊。通過這些映射就形成了物品與用戶的二部圖模型。假設(shè)推薦場景中包含m個(gè)用戶、n個(gè)物品,用戶節(jié)點(diǎn)集合用U={u1,u2,…,um}表示,物品節(jié)點(diǎn)集合用V={ν1,ν2,…,νn}表示。上述推薦問題對(duì)應(yīng)的用戶-物品二部圖表示為G=(U,V,E,W),E為圖G中所有邊的集合,eij表示節(jié)點(diǎn)ui與νj的連邊;W為圖G中用戶與物品的交互權(quán)重矩陣,wij為圖G中eij對(duì)應(yīng)的權(quán)重。

同質(zhì)網(wǎng)絡(luò)問題包括用戶網(wǎng)絡(luò)和物品網(wǎng)絡(luò)兩部分。以物品網(wǎng)絡(luò)為例,不同的物品有著相似的適用群體,如乒乓球和球拍有很強(qiáng)的關(guān)聯(lián)性。對(duì)于用戶網(wǎng)絡(luò),如果兩個(gè)用戶都是運(yùn)動(dòng)愛好者,則兩者有著相似的愛好。因此,同質(zhì)網(wǎng)絡(luò)也有著深刻的聯(lián)系。

將用戶-物品二部圖分解為兩個(gè)同質(zhì)圖。對(duì)于圖G,定義用戶節(jié)點(diǎn)的一階相似度為:

得到|V|×|V|維的物品相似度矩陣和|U|×|U|維的用戶相似度矩陣,根據(jù)WV和W^U 構(gòu)建用戶同質(zhì)圖GU和物品同質(zhì)圖GV。在使用WU、WV構(gòu)建用戶同質(zhì)圖與物品同質(zhì)圖之前,根據(jù)WU、WV中權(quán)重分布情況適當(dāng)去掉權(quán)重過低的邊,避免噪聲干擾影響后續(xù)計(jì)算結(jié)果。

構(gòu)建用戶及物品屬性特征需考慮用戶及物品的屬性信息類型。對(duì)于結(jié)構(gòu)化數(shù)據(jù),將其中的非離散數(shù)據(jù)離散化,進(jìn)行one-hot 編碼得到特征編碼;對(duì)于非結(jié)構(gòu)化數(shù)據(jù),若為本文信息常使用TF-IDF[12]或LDA 算法[13]進(jìn)行結(jié)構(gòu)化處理,若為音頻、視頻、圖像等信息則使用相對(duì)應(yīng)的深度學(xué)習(xí)方法轉(zhuǎn)化為結(jié)構(gòu)化數(shù)據(jù)。通過GraphSAGE 模型得到的用戶屬性特征矩陣AU、物品屬性特征矩陣AV轉(zhuǎn)換為用戶特征矩陣MU與MV,表示如下:

假設(shè)得到的嵌入表示維度都為t,則可以表示用戶特征矩陣MU∈?m×t和物品特征矩陣MV∈?n×t。

利用外積運(yùn)算得到用戶與物品特征交互矩陣,對(duì)于用戶u 與物品表示用戶u 的特征向量表示物品i 的特征向量,則Mu,i的計(jì)算公式如下:

在協(xié)同過濾中,通常使用矩陣分解表示物品與用戶的關(guān)系并對(duì)物品與用戶的關(guān)系做內(nèi)積,只使用Mu,i中對(duì)角線上的信息。因多層感知機(jī)(Multilayer Perceptron,MLP)算法在理論上可以擬合任何函數(shù)關(guān)系,但是需要大量數(shù)據(jù)進(jìn)行訓(xùn)練。在用戶與物品推薦系統(tǒng)中,每個(gè)用戶的行為信息是有限的,所以本算法未采用直接拼接用戶、物品特征后通過MLP 進(jìn)行學(xué)習(xí)的方案。利用有限數(shù)據(jù)訓(xùn)練的深層網(wǎng)絡(luò)會(huì)降低其性能,且很難保證MLP 收斂到真實(shí)模型。同時(shí)在實(shí)驗(yàn)部分,直接拼接用戶、物品特征不經(jīng)過卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練,直接通過MLP 進(jìn)行對(duì)比實(shí)驗(yàn),進(jìn)一步說明加入卷積神經(jīng)網(wǎng)絡(luò)增強(qiáng)了算法的效果。

本算法使用外積對(duì)物品與用戶的信息交互進(jìn)行建模,并利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,減少了訓(xùn)練所需數(shù)據(jù)量的同時(shí)也減少了模型中需要訓(xùn)練的參數(shù)。

1.2.2 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)

卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)模型中的參數(shù)定義比傳統(tǒng)模型更復(fù)雜,其參數(shù)設(shè)計(jì)的一般規(guī)律可總結(jié)為以下4 個(gè)方面:

1)卷積層一般使用較小的卷積核,卷積核越大,輸出的特征圖越小,難以提取數(shù)據(jù)的特征,而且卷積核越小,相應(yīng)的參數(shù)也越小。

2)卷積步長一般設(shè)置較小,便于更好地提取特征。

3)池化層常使用2×2 的池化窗口。池化層的作用是對(duì)輸入數(shù)據(jù)進(jìn)行空間降維,當(dāng)池化操作過大時(shí),數(shù)據(jù)信息易丟失,最終導(dǎo)致網(wǎng)絡(luò)性能下降。

4)全連接層的層數(shù)一般不宜超過3 層,全連接層數(shù)越多,訓(xùn)練難度越大,越容易造成過擬合和梯度消散。

本模型的CNN 部分如圖2 所示。采用常見的卷積網(wǎng)絡(luò)模型進(jìn)行設(shè)計(jì),為避免丟失過多的結(jié)構(gòu)信息,沒有使用卷積層和池化層將矩陣數(shù)據(jù)壓成一維。模型由3 層全連接層和6 層卷積層組成,卷積核大小均為3×3,步長為1×1。為了使輸入輸出的特征圖大小不變,將進(jìn)行填充操作。每2 層卷積層后加入池化層進(jìn)行最大值池化,池化核大小為2×2,步長為2×2。對(duì)特征圖進(jìn)行下采樣,并在之后2 個(gè)卷積層中將通道數(shù)翻倍,以此類推,在最后的卷積層添加Flatten 層將數(shù)據(jù)壓平并連接MLP 網(wǎng)絡(luò),逐漸將輸出維度縮小到一維。整個(gè)流程用式(7)表示,其中為最終神經(jīng)網(wǎng)絡(luò)的輸出。

圖2 卷積神經(jīng)網(wǎng)絡(luò)示意圖Fig.2 Schematic diagram of convolutional neural network

其中,σ為非線性函數(shù),除最后一層全連接層為sigmoid 激活函數(shù)外,其余所有卷積層與全連接層均使用ReLu 激活函數(shù)。總體的模型參數(shù)如表1所示。

表1 卷積神經(jīng)網(wǎng)絡(luò)部分模型參數(shù)Table 1 Convolutional neural network partial model parameter

1.2.3 損失函數(shù)設(shè)計(jì)

模型損失函數(shù)主要是平方損失函數(shù),定義該函數(shù)的前提是觀察的結(jié)果服從高斯分布。在實(shí)際問題中,用戶與物品的交互信息不一定服從高斯分布。本算法采用二分類的思想,將用戶與物品的關(guān)系采用“0”和“1”表示,0 表示不相關(guān),1 表示相關(guān)表示卷積網(wǎng)絡(luò)的輸出,代表預(yù)測物品i 與用戶u 相關(guān)的可能性。為了使具有概率性的含義,將其取值范圍限制在[0,1],因此在神經(jīng)網(wǎng)絡(luò)的最后一層激活函數(shù)選用sigmoid 函數(shù),使用的損失函數(shù)如式(8)所示:

其中,Y為正采樣集合,Y-為負(fù)采樣集合,yui表示用戶u 與物品i 的聯(lián)系表示卷積網(wǎng)絡(luò)最后的輸出。

最終模型訓(xùn)練時(shí)采用Adam 優(yōu)化算法[14],模型在MLP 部分添加Dropout 層以解決訓(xùn)練過擬合的問題[15],增強(qiáng)模型泛化能力。

2 實(shí)驗(yàn)與結(jié)果分析

2.1 實(shí)驗(yàn)數(shù)據(jù)集

Movielens-100k 數(shù)據(jù)集包含用戶提供的電影評(píng)分?jǐn)?shù)據(jù)。該數(shù)據(jù)集包括10 萬組用戶電影評(píng)分信息,評(píng)分為1~5的整數(shù),以及用戶的性別、年齡等類別標(biāo)簽信息。

Last.fm-2k 數(shù)據(jù)集包括近10 萬組用戶對(duì)歌手的收聽信息,用戶對(duì)某歌手的關(guān)系權(quán)值是用戶對(duì)該歌手所有作品的播放次數(shù),還有1 萬組用戶間好友關(guān)系,以及近20 萬組用戶對(duì)歌手添加的標(biāo)簽信息。Movielens 和Last.fm 的基本統(tǒng)計(jì)信息如表2 所示。

表2 實(shí)驗(yàn)數(shù)據(jù)集信息統(tǒng)計(jì)Table 2 Experimental data set information statistics

2.2 對(duì)比算法

為驗(yàn)證本文算法的有效性,實(shí)驗(yàn)部分選取了具有代表性的ItemKNN[16]、BPR[17]、MF[18]、NeuMF[19]、ConvNCF[20]算法作為對(duì)比算法。

2.3 實(shí)驗(yàn)設(shè)置

實(shí)驗(yàn)在ubuntu-16.04環(huán)境下進(jìn)行,使用python-3.6.5開發(fā),使用的庫包主要為numpy-1.14.3、networkx-2.3、keras-2.0.5、sklearn-0.20.0。

模型訓(xùn)練時(shí)需要提供正負(fù)樣本進(jìn)行學(xué)習(xí),本文對(duì)Movielens 與Last.fm 數(shù)據(jù)集進(jìn)行相同的處理。在排除實(shí)驗(yàn)測試集所需正樣本后,對(duì)考慮每一位用戶,假設(shè)其包含的正樣本數(shù)為n,設(shè)定負(fù)采樣系數(shù)為ns。對(duì)于該用戶將從其沒有發(fā)生過交互的物品集中隨機(jī)抽取ns×n個(gè)物品作為負(fù)樣本,保證對(duì)于每個(gè)用戶其正負(fù)樣本比例都是一樣的,以下實(shí)驗(yàn)數(shù)據(jù)中如沒有特殊說明ns的取值均為4。將全部樣本的90%作為訓(xùn)練集,10%作為驗(yàn)證集。

2.4 實(shí)驗(yàn)指標(biāo)

為驗(yàn)證算法在推薦問題下的性能,選用HR@k與NDCG@k 作為評(píng)價(jià)指標(biāo),以綜合衡量算法結(jié)果在無序評(píng)價(jià)指標(biāo)和有序評(píng)價(jià)指標(biāo)下的性能。

1)召回率

設(shè)R(u)是測試集上為用戶u 產(chǎn)生的推薦列表,T(u)是用戶發(fā)生過交互行為的物品列表。召回率定義為推薦列表中用戶最終發(fā)生交互的物品在測試集中的占比,計(jì)算公式如下:

Re值越大,表示推薦算法的召回率越高。由于Re的值與推薦列表的長度密切相關(guān),因此常寫作Re@k 以直接表明條件設(shè)置,表示為HR@k。

2)歸一化折損累計(jì)增益

歸一化折損累計(jì)增益(Normalized Discounted Cummulative Gain,NDGG)對(duì)推薦結(jié)果在列表中的排名增加了懲罰,計(jì)算公式如下:

其中,reli表示位置i推薦結(jié)果的相關(guān)性,k表示推薦列表的長度。考慮到評(píng)價(jià)指標(biāo)需要衡量推薦算法對(duì)不同用戶的推薦效果,因此提出NDCG 評(píng)價(jià)指標(biāo),對(duì)用戶u 的NDCG@k 的計(jì)算公式如下:

其中,I@K 為推薦算法為某一用戶返回的最佳推薦結(jié)果列表,最終N@k 的計(jì)算公式為:

NDCG 的取值范圍是[0,1],且越接近1,推薦效果越好。

2.5 結(jié)果分析

2.5.1 性能分析

以下實(shí)驗(yàn)數(shù)據(jù)均為5 次獨(dú)立實(shí)驗(yàn)結(jié)果的平均值。本文與對(duì)比算法在Movielens數(shù)據(jù)集上的結(jié)果如表3 所示,在Last.fm 數(shù)據(jù)集上的結(jié)果如表4 所示。根據(jù)實(shí)驗(yàn)數(shù)據(jù)可以看出,本文提出的算法較ItemKNN 算法的性能有顯著提升,而基于神經(jīng)網(wǎng)絡(luò)的NeuMF 算法在Movielens 與Last.fm 上的表現(xiàn)均比傳統(tǒng)方法要好。ConvNCF 算法與本算法都優(yōu)于其他對(duì)比算法,說明利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行協(xié)同過濾是有效的。與ConvNCF算法相比,本文算法在Movielens 數(shù)據(jù)集上將HR@5 提升了1.89 個(gè)百分點(diǎn)、NDCG@5 提升了2.19 個(gè)百分點(diǎn),在Last.fm 數(shù)據(jù)集上將HR@5 提升了1.09 個(gè)百分點(diǎn),NDCG@5 提升了3.32 個(gè)百分點(diǎn)。因此,本算法在用戶-物品二分網(wǎng)絡(luò)的推薦問題上可以提升性能。

表3 對(duì)比算法在Movielens 數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果Table 3 Experiment results of comparison algorithm on Movielens datasets

表4 對(duì)比算法在Last.fm 數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果Table 4 Experiment results of comparison algorithm on Last.fm datasets

2.5.2 聚合器選擇對(duì)算法性能的影響分析

在上述2 個(gè)數(shù)據(jù)集上,Mean、LSTM、Pooling 這3 種聚合器的表現(xiàn)對(duì)比如圖3 所示,其中NG 是NDCG 的縮寫。Pooling 聚合器的性能最好,Mean 聚合器的性能最差,LSTM 聚合器的性能與Pooling 較為接近。由于LSTM 聚合器構(gòu)成鄰居節(jié)點(diǎn)序列時(shí)具有不確定性,因此LSTM 聚合器性能偶爾優(yōu)于Pooling 聚合器性能。LSTM 訓(xùn)練學(xué)習(xí)時(shí)間較長,因此,使用Pooling 聚合器的效果最佳。

圖3 3 種聚合器性能對(duì)比Fig.3 Performance comparison of three aggregators

2.5.3 算法收斂性分析

式(7)是本文推薦算法的基本模型,由于是二分類問題,因此可用“0”和“1”表示是否為推薦的物品。選擇sigmoid 函數(shù)將結(jié)果限制在0 和1 之間得到具體的損失函數(shù),如式(8)通過最小化損失函數(shù)訓(xùn)練模型參數(shù)。

通過實(shí)驗(yàn)驗(yàn)證本模型的收斂性。在訓(xùn)練學(xué)習(xí)過程中,采用早停法避免過擬合現(xiàn)象的發(fā)生。在Movielens數(shù)據(jù)集上訓(xùn)練500 次迭代,實(shí)驗(yàn)結(jié)果如圖4 所示。HR@10 在訓(xùn)練學(xué)習(xí)時(shí)比NDCG@10 更穩(wěn)定。隨著訓(xùn)練次數(shù)的增加,兩者均表現(xiàn)出穩(wěn)定的狀態(tài),因此本算法的收斂性能良好。

圖4 訓(xùn)練損失、HR@10 與NDCG@10 的訓(xùn)練結(jié)果Fig.4 Training loss,HR@10 and NDCG@10 training results

2.5.4 參數(shù)敏感性分析

參數(shù)敏感性是衡量算法的指標(biāo)。本算法主要分析卷積層數(shù)對(duì)推薦效果的影響。將物品與用戶的交互矩陣壓縮成一維向量,采用MLP 替代卷積神經(jīng)網(wǎng)絡(luò),作為卷積神經(jīng)網(wǎng)絡(luò)的消融實(shí)驗(yàn)。調(diào)整卷積神經(jīng)網(wǎng)絡(luò)的層數(shù)使輸出的特征圖尺寸依次為16×16、8×8、4×4、2×2、1×1,將其壓成一維。根據(jù)維度大小設(shè)計(jì)合適的MLP 并完成后續(xù)訓(xùn)練。將上述5 組實(shí)驗(yàn)依次稱為Conv1~Conv5,在上述2 個(gè)數(shù)據(jù)集上完成的實(shí)驗(yàn)結(jié)果如圖5 所示。在協(xié)同過濾學(xué)習(xí)中加入卷積神經(jīng)網(wǎng)絡(luò)比單獨(dú)使用MLP 的效果更好。隨著卷積層數(shù)的增加和特征圖尺寸的縮小,HR@10 與NDCG@10都存在極值點(diǎn),呈現(xiàn)先上升后下降的趨勢。因此,適當(dāng)調(diào)整網(wǎng)絡(luò)層數(shù)與最終保留特征圖的尺寸能獲得最有效的信息。

圖5 卷積層數(shù)的敏感性分析Fig.5 Sensitivity analysis of convolution layers

本文推薦問題是一種二分類問題,其負(fù)采樣較靈活,因此需考慮負(fù)采樣比例對(duì)模型性能的影響。設(shè)置負(fù)采樣系數(shù)ns為2、4、6、8、10。在2 個(gè)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)實(shí)驗(yàn)結(jié)果如圖6 所示。ns為4~6 較為合理。

圖6 訓(xùn)練集負(fù)采樣個(gè)數(shù)的敏感性分析Fig.6 Sensitivity analysis of the number of negative samples in the training set

用戶、物品的節(jié)點(diǎn)嵌入維度也會(huì)影響模型的效果。本實(shí)驗(yàn)將嵌入維度調(diào)整為8、16、32、64。實(shí)驗(yàn)結(jié)果如表5 所示,整體上各項(xiàng)評(píng)價(jià)指標(biāo)隨著維度的增加而增加。增大嵌入維度可以更好地保留有效信息,但當(dāng)維度過大時(shí),訓(xùn)練參數(shù)會(huì)急劇增加,從而導(dǎo)致訓(xùn)練時(shí)間大大增加。在實(shí)際情況下,需要結(jié)合需求選擇合適的維度。

表5 用戶、物品節(jié)點(diǎn)嵌入維度的敏感性分析Table 5 Sensitivity analysis of embedded dimensions of user and item nodes

3 結(jié)束語

本文提出基于網(wǎng)絡(luò)表示學(xué)習(xí)與深度學(xué)習(xí)的推薦算法。將二部圖模型運(yùn)用于網(wǎng)絡(luò)表示學(xué)習(xí)法,將用戶與物品二分網(wǎng)絡(luò)分解為兩個(gè)同質(zhì)網(wǎng)絡(luò)。通過外積運(yùn)算表示用戶與物品特征每一維的關(guān)系矩陣,使用卷積神經(jīng)網(wǎng)絡(luò)捕捉特征中每一維的高階交互關(guān)系。與其他算法相比,在數(shù)據(jù)集上測試的推薦算法召回率和折損率都有相應(yīng)的提升并具有良好的收斂性。下一步將節(jié)點(diǎn)的屬性信息考慮進(jìn)網(wǎng)絡(luò)表示學(xué)習(xí)法,并進(jìn)行對(duì)比實(shí)驗(yàn)研究。

猜你喜歡
用戶模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
關(guān)注用戶
商用汽車(2016年11期)2016-12-19 01:20:16
3D打印中的模型分割與打包
關(guān)注用戶
商用汽車(2016年6期)2016-06-29 09:18:54
關(guān)注用戶
商用汽車(2016年4期)2016-05-09 01:23:12
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
Camera360:拍出5億用戶
100萬用戶
主站蜘蛛池模板: 一级全黄毛片| 亚亚洲乱码一二三四区| 国产精品手机在线播放| 免费一级α片在线观看| 香蕉色综合| 国产精品主播| 国模私拍一区二区| 国产成人AV男人的天堂| 国产乱子伦无码精品小说| 亚洲人成人伊人成综合网无码| AV不卡国产在线观看| 专干老肥熟女视频网站| 91色在线观看| 国产丝袜无码一区二区视频| 久久精品娱乐亚洲领先| 动漫精品中文字幕无码| 国产在线第二页| 久久精品人人做人人爽97| 日韩AV无码一区| WWW丫丫国产成人精品| 亚洲无码视频一区二区三区| av性天堂网| 无码精油按摩潮喷在线播放| 国产成人精品午夜视频'| 在线视频精品一区| 精品国产香蕉在线播出| 91久久精品国产| 亚洲天堂区| 亚洲久悠悠色悠在线播放| a毛片基地免费大全| 午夜毛片免费观看视频 | 亚洲中文字幕在线精品一区| 国产精品高清国产三级囯产AV| 国产精品妖精视频| 国内精品视频| 国产肉感大码AV无码| 久久国产精品77777| 国产在线观看91精品| 九九这里只有精品视频| 亚洲人人视频| 午夜久久影院| 亚洲日韩久久综合中文字幕| 中日无码在线观看| 伊人久综合| 久久亚洲日本不卡一区二区| 国产麻豆va精品视频| 日韩毛片在线视频| 久久国产精品无码hdav| 好吊妞欧美视频免费| 精品夜恋影院亚洲欧洲| 亚洲a级在线观看| 伊人久久青草青青综合| 亚洲男人天堂网址| 亚洲一区第一页| 日本精品视频| 亚洲乱强伦| 亚洲黄色视频在线观看一区| 亚洲妓女综合网995久久| 国产免费自拍视频| 亚洲美女操| 久青草免费视频| 无码'专区第一页| 六月婷婷激情综合| 亚洲欧美另类日本| 日韩在线成年视频人网站观看| 国产超薄肉色丝袜网站| 午夜激情婷婷| 色噜噜狠狠色综合网图区| 91在线免费公开视频| 尤物午夜福利视频| 色哟哟国产精品| 九九九九热精品视频| 国产jizz| 乱系列中文字幕在线视频| 男女男精品视频| 无码电影在线观看| 亚洲午夜国产片在线观看| 国产白浆在线| 最新亚洲av女人的天堂| 国产尤物在线播放| 色婷婷在线播放| 国产第二十一页|