999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

DCN模型在電商廣告轉(zhuǎn)化率預(yù)估中的應(yīng)用

2019-07-12 08:28:44王曉陽劉峰
電子技術(shù)與軟件工程 2019年9期
關(guān)鍵詞:特征實驗模型

文/王曉陽 劉峰

1 引言

截至2018年12月,我國網(wǎng)民規(guī)模達(dá)8.29億,普及率達(dá)59.6%,較2017年底提升3.8個百分點,全年新增網(wǎng)民5653萬;我國手機(jī)網(wǎng)民規(guī)模達(dá)8.17億,網(wǎng)民通過手機(jī)接入互聯(lián)網(wǎng)比例高達(dá)98.6%。隨著互聯(lián)網(wǎng)發(fā)展,網(wǎng)絡(luò)在線廣告的投放也隨之越來越多。雖然當(dāng)前互聯(lián)網(wǎng)盈利模式多樣性,但互聯(lián)網(wǎng)廣告仍然是不可忽視的大筆收入來源。無論是國外FaceBook,Amazon還是國內(nèi)百度,淘寶,騰訊,京東等等大型互聯(lián)網(wǎng)公司在不經(jīng)意間為用戶推送著各式各樣的網(wǎng)絡(luò)廣告。無論對于展示廣告或搜索廣告來說,只有優(yōu)質(zhì)廣告的推送才能較好的平衡用戶、廣告主和平臺三方之間的關(guān)系。在保證用戶體驗的同時,讓廣告主的ROI(投資回報率)以及平臺收益最大化是電商平臺廣告的最終目標(biāo)。

圖1:CVR模型訓(xùn)練流程

目前Amazon已開始進(jìn)攻推薦廣告業(yè)務(wù)。根據(jù)此前披露的Q2財報顯示,亞馬遜2018年二季度總營收同比增速為39%。廣告業(yè)務(wù)營收22億美元,同比大增132%,而今年一季度的同比增速高達(dá)139%。廣告業(yè)務(wù)營收增速明顯高于公司整體營收增速。據(jù)此前發(fā)布的《2018中國互聯(lián)網(wǎng)廣告發(fā)展報告》顯示,2018 年我國互聯(lián)網(wǎng)廣告總收入達(dá)到 3,694 億元人民幣,較上一年增長24.2%。因此推薦廣告在電商領(lǐng)域的價值不言而喻。

2 相關(guān)工作

廣告投放從平臺的收益考慮通常的做法是對候選集的廣告根據(jù)預(yù)期收益排序?qū)㈩A(yù)期收益最高的一部分廣告進(jìn)行投放。大部分廣告實行按照點擊次數(shù)收費(Cost per Click,CPC),按照行為計費(Cost per Action,CPA)的計費模式情況下,并不能確定得到廣告收益,因此通常需要對目標(biāo)廣告的點擊率(CTR)或轉(zhuǎn)化率(CVR)進(jìn)行預(yù)估。而這些預(yù)估通常是推薦系統(tǒng)的主要任務(wù),推薦系統(tǒng)一般經(jīng)過召回和排序兩個階段。召回階段是根據(jù)用戶長期和短期興趣以及歷史行為,從上百億商品中挑選出幾百個,通過算法模型或指定規(guī)則對商品進(jìn)行粗略排序的過程。排序階段是對召回的商品中使用復(fù)雜模型,分場景對各廣告的轉(zhuǎn)化率進(jìn)行預(yù)估。從而篩選出合適的商品展示給用戶。文獻(xiàn)[6]首次將廣告點擊率預(yù)估由概率估計問題轉(zhuǎn)成回歸問題。提出用邏輯回歸LR(Logistic Regression)來解決廣告點擊率預(yù)估問題,將廣告原有特性,以及所在場景提取為該廣告的特征,從而對廣告點擊率進(jìn)行預(yù)測。文獻(xiàn)[7]使用FM(Factorization Machine)解決數(shù)據(jù)稀疏的情況下,特征的組合問題。隨后,針對各個文獻(xiàn)[8]FFM(Field-aware Factorization Machines)以及文獻(xiàn)[9]針對Facebook的社交廣告點擊率預(yù)估研究,提出了迭代決策樹算法GBDT(Gradient Boost Decision Tree)+LR等模型。最初,F(xiàn)M模型和FFM模型使用隱向量的內(nèi)積來建模組合特征,但只能做二階交叉特征。隨著DNN模型在自然語言處理,計算機(jī)視覺等領(lǐng)域的成果越來越顯著,但是DNN學(xué)到的是非線性的高階特征,沒有明確的物理含義。于是Google提出了DCN(Deep & Cross Network)模型,有效解決上述問題。隨著深度學(xué)習(xí)的發(fā)展成熟,目前在廣告推薦業(yè)務(wù)中,各大公司也都逐漸用深度學(xué)習(xí)模型替代了機(jī)器學(xué)習(xí)模型,DCN以及DIN(Deep Interest Network of CTR)和DIΕN(Deep Interest Εvolution Network)等等。LR模型作為簡單的模型,也普遍應(yīng)用在各大互聯(lián)網(wǎng)公司,作為線上模型使用。模型復(fù)雜度小,可有效降低系統(tǒng)耗時,增強實時性。但是需要大量的人工特征組合。

3 算法模型

3.1 問題描述

圖2:邏輯回歸圖形表示

本文研究的在線廣告轉(zhuǎn)化率預(yù)估是指:輸入用戶查詢及其他相關(guān)信息(用戶年齡、性別以及歷史購買行為等等),經(jīng)過廣告轉(zhuǎn)化率預(yù)估系統(tǒng)架構(gòu),輸出每一則廣告商品發(fā)生購買的概率。CVR預(yù)估總體流程如圖1所示。

在整個訓(xùn)練過程中需要考慮算法模型是否簡單高效,性能上是否滿足要求,訓(xùn)練數(shù)據(jù)是否足夠充分以及特征的選取是否有效等。

3.2 邏輯斯諦回歸模型原理

邏輯斯蒂回歸是最常見的機(jī)器學(xué)習(xí)方法之一。在cvr預(yù)估問題中已得到廣泛的研究。

邏輯斯諦分布(Logistic Distribution):設(shè)X是隨機(jī)變量,X服從邏輯斯蒂分布是指X具有下列分布函數(shù)和密度函數(shù):

式中u為位置參數(shù),r>0為形狀參數(shù)。

其分布函數(shù)即邏輯斯諦函數(shù),圖形是一條S形曲線,特點:以點(u,1/2)為中心對稱,曲線在中心附近增長速度較快,在兩端增長速度較慢,形狀參數(shù)越小,曲線在中心附近增長的越快。

對于電商廣告中的轉(zhuǎn)化率預(yù)估而言,是一個典型的分類問題。邏輯斯諦回歸(LogisticRegression)模型是一種分類模型。由條件概率P(Y|X)表示,形式為參數(shù)化的邏輯斯諦分布。

對于任意的輸入x,通過計算其對應(yīng)的式(3)和式(4)的結(jié)果,邏輯斯諦回歸比較兩個條件概率值,將其分到概率值較大的一類中。

邏輯回歸是廣義的線性模型,可以用如圖2表示。

該模型簡單且成熟,訓(xùn)練參數(shù)便于解釋和理解,訓(xùn)練結(jié)果相對較準(zhǔn)確。在大規(guī)模稀疏性特征方面建模時表達(dá)能力往往較弱,不能自動學(xué)習(xí)到特征之間的非線性關(guān)系。因此隨著深度學(xué)習(xí)的成功落地,越來越多的深度神經(jīng)網(wǎng)絡(luò)模型被應(yīng)用到實際的廣告變現(xiàn)業(yè)務(wù)中,支撐企業(yè)的生存和發(fā)展。

3.3 DCN模型原理

DCN(Deep & Cross Network) 模型在互聯(lián)網(wǎng)廣告點擊率預(yù)估中得到了廣泛應(yīng)用,其模型構(gòu)可以用如圖3表示。

DCN模型包括三部分:嵌入堆疊層、并行的深層網(wǎng)絡(luò)與交叉網(wǎng)絡(luò),最后是組合輸出層。

嵌入和堆疊層:對于類別特征one-hot后會產(chǎn)生超高維度的特征空間,因此為了減少維數(shù)空間而采用嵌入過程將二值特征轉(zhuǎn)換為連續(xù)的稠密向量。

交叉網(wǎng)絡(luò):由多個交叉層組成,每層使用以下公式產(chǎn)生交叉特征。

其中,xl,xl+1分別表示來自第l和第(l+1)交叉層的輸出;w,b均是參數(shù);隨著l的增加,可產(chǎn)生高階交叉特征,彌補了FM算法只能產(chǎn)生二階交叉特征的缺點。

深層網(wǎng)絡(luò):是一個全連接的前饋神經(jīng)網(wǎng)絡(luò)。每層使用以下公式得出隱層的輸出。

其中:Wl,bl是深度層參數(shù),hl+1,hl分別是第l和l+1層的輸出隱向量,f(.)是激活函數(shù)

最終經(jīng)過組合輸出層,將交叉層和深層的輸出拼接后,作為標(biāo)準(zhǔn)邏輯回歸的輸入,最終輸出概率值。

DCN模型其輸入包括稀疏、稠密特征以及embedding特征。其最大的特點是對于稀疏數(shù)據(jù)具有很好的學(xué)習(xí)能力。對于本文研究的廣告轉(zhuǎn)化率預(yù)估問題,其數(shù)據(jù)具有高維稀疏、正負(fù)樣本比例相差較大,類別分布不均衡等特點。使用DCN模型不僅可以自動學(xué)習(xí)交叉特征,避免大量人工特征工程;而且也能夠?qū)ο∈钄?shù)據(jù)進(jìn)行有效處理。

4 模型實驗

4.1 實驗數(shù)據(jù)及環(huán)境

本文采用兩個實驗數(shù)據(jù)集:

(1)騰訊移動App廣告轉(zhuǎn)化率預(yù)估數(shù)據(jù)集(以下簡稱:騰訊廣告);

(2)阿里媽媽搜索廣告轉(zhuǎn)化率預(yù)估數(shù)據(jù)集(以下簡稱:阿里廣告)。

以上數(shù)據(jù)集均由三部分組成:用戶特征,廣告特征,以及上下文特征。本文主要介紹模型優(yōu)化,因此特征提取方式不過多介紹。針對不同的類別標(biāo)簽,分別從兩個數(shù)據(jù)集中選取相同數(shù)量的訓(xùn)練集和測試集。如表1所示。

表1:訓(xùn)練集、測試集數(shù)據(jù)分布

表2:模型對比實驗結(jié)果

表3:DCN模型采樣實驗結(jié)果

表4:DCN+數(shù)據(jù)融合實驗結(jié)果

實驗環(huán)境是基于Hadoop-2.7.1的大數(shù)據(jù)處理平臺,用到的組件包括HDFS分布式文件系統(tǒng)、MapReduce離線計算框架、YARN分布式資源管理系統(tǒng)、Hive分布式數(shù)據(jù)倉庫和Spark的MLlib機(jī)器學(xué)習(xí)算法庫,集群規(guī)模為1個Master節(jié)點,3個Slave節(jié)點。

本實驗中DCN模型訓(xùn)練最優(yōu)參數(shù):深層網(wǎng)絡(luò)及交叉層網(wǎng)絡(luò)結(jié)構(gòu)均是3層,每層150個節(jié)點;激活函數(shù)使用Relu,該函數(shù)可以極大地加快收斂速度;優(yōu)化算法采用隨機(jī)梯度下降算法SGD;訓(xùn)練過程采用了批量標(biāo)準(zhǔn)化(Batch normalization)方式優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu),加速網(wǎng)絡(luò)訓(xùn)練;初始化學(xué)習(xí)率設(shè)置0.006。

4.2 實驗過程

為了評價模型實驗效果,本文使用業(yè)界常用的AUC(Area Under Curve)[16]指標(biāo)。AUC為ROC(Receiver Operating Characteristics)曲線下的面積,反映分類器的好壞。一個完美分類器的AUC為1.0,而隨機(jī)猜測的AUC為0.5。訓(xùn)練過程中損失函數(shù)使用的是交叉熵代價函數(shù)。

4.2.1 單模型實驗

本文使用的兩個廣告數(shù)據(jù)集均為稀疏數(shù)據(jù)。為了驗證DCN模型比LR模型能更好處理高維稀疏數(shù)據(jù),對兩者進(jìn)行了單模型對比實驗。實驗結(jié)果如下:

由表2可以看出,在兩個數(shù)據(jù)集上DCN模型都表現(xiàn)出優(yōu)于LR模型的預(yù)估效果。同時為了進(jìn)一步驗證在訓(xùn)練過程兩個模型的收斂速度,本文對兩個模型訓(xùn)練過程的loss變化做了如下對比;DCN是深層模型較LR淺層模型能學(xué)出對訓(xùn)練過程具有指導(dǎo)意義更充分的高階交叉特征信息。

從圖4中可以看出兩個模型的loss整體下降趨勢是一致的,但在起始和最終DCN的loss要明顯小于LR模型的loss,這更直觀的說明對于同樣的數(shù)據(jù)分布,DCN模型的訓(xùn)練效果優(yōu)于LR模型。

4.2.2 采樣實驗

當(dāng)訓(xùn)練數(shù)據(jù)正負(fù)樣本分布過于不平衡時,會嚴(yán)重影響模型訓(xùn)練效果。因此,本文對數(shù)據(jù)集進(jìn)行了不同比例的采樣,最終確定使得模型效果最佳的采樣策略。本文實驗了在兩個數(shù)據(jù)集上的多種正負(fù)樣本比例時DCN模型的效果,其中每個采樣比例做了三次實驗,AUC取平均值。實驗結(jié)果如表3所示。

實驗結(jié)果表明,隨著負(fù)樣本比例增大,AUC總體呈現(xiàn)下降趨勢,在正負(fù)樣本為1:1的情況下,AUC達(dá)到最大值。同時也對正樣本進(jìn)行了重采樣,實驗結(jié)果出現(xiàn)了過擬合現(xiàn)象,訓(xùn)練集上loss直線下降,測試集上確明顯上升。

4.2.3 數(shù)據(jù)融合實驗

經(jīng)過上述單模型實驗以及采樣實驗,AUC在一定程度上得到了提高。但是采樣實驗在保證訓(xùn)練樣本平衡時會丟失大量有效信息,模型上線后的效果會很不理想。因此,本文為保證信息不丟失,提出了DCN模型加數(shù)據(jù)融合的方案。在廣告轉(zhuǎn)化率預(yù)估中,最大的問題就是樣本過于稀疏。而DCN模型作為深度神經(jīng)網(wǎng)絡(luò)是需要大量的訓(xùn)練樣本才能得到更好的訓(xùn)練效果。在實際的廣告轉(zhuǎn)化率預(yù)估中,往往會因為預(yù)估的場景不同,而分為不同的廣告位。例如購物車和商品詳情頁中推薦的商品列表往往因為場景不同,模型提取的訓(xùn)練數(shù)據(jù)特征不同,導(dǎo)致推薦的商品列表有較大差異。單廣告位數(shù)據(jù)集相對更少,使得在深度學(xué)習(xí)中模型收斂效果很差。因此,在本實驗中,選用所有廣告位通過數(shù)據(jù)融合方式作為訓(xùn)練數(shù)據(jù),驗證集采用單廣告位數(shù)據(jù),最終的實驗結(jié)果是所有廣告位結(jié)果的加權(quán)和。

圖3:DCN網(wǎng)絡(luò)圖形表示

圖4:LR和DCN訓(xùn)練過程loss變化

由表4可以看出,兩個數(shù)據(jù)集上數(shù)據(jù)融合效果比單模型實驗都有所提升。由此可以看出在不同的場景推薦位,其數(shù)據(jù)分布對模型訓(xùn)練的影響要小于訓(xùn)練樣本數(shù)據(jù)量大小對模型的效果。

5 結(jié)論

本文首先對互聯(lián)網(wǎng)廣告發(fā)展進(jìn)行了概述,簡述了推薦系統(tǒng)流程以及目前CVR預(yù)估中常用模型,詳細(xì)介紹了LR和DCN模型基本原理;然后提出了DCN+數(shù)據(jù)融合的改進(jìn)方法;最后通過單模型實驗,采樣實驗以及數(shù)據(jù)融合實驗,驗證了DCN+數(shù)據(jù)融合的有效性。同時在Hadoop集群上實現(xiàn)了數(shù)據(jù)并行化,加速了模型訓(xùn)練過程。

猜你喜歡
特征實驗模型
一半模型
記一次有趣的實驗
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
如何表達(dá)“特征”
做個怪怪長實驗
不忠誠的四個特征
抓住特征巧觀察
3D打印中的模型分割與打包
NO與NO2相互轉(zhuǎn)化實驗的改進(jìn)
主站蜘蛛池模板: 国产亚洲欧美在线视频| 久久青草免费91观看| 人人看人人鲁狠狠高清| 朝桐光一区二区| 色欲综合久久中文字幕网| 九九热免费在线视频| 国产视频大全| 天天激情综合| 亚洲不卡网| 国产乱子伦无码精品小说| 国产精品天干天干在线观看| 国产免费一级精品视频| 免费在线不卡视频| 国产成人精品日本亚洲| 激情综合图区| 在线国产91| 成人福利在线免费观看| 国产精品视频导航| 性色生活片在线观看| 亚洲精品男人天堂| 九九久久精品免费观看| 无码中文字幕精品推荐| 精品无码专区亚洲| 欧美成人第一页| 欧洲免费精品视频在线| 国产Av无码精品色午夜| 精品国产香蕉在线播出| 亚洲一级毛片| 国产主播福利在线观看| 亚亚洲乱码一二三四区| 亚洲欧州色色免费AV| 波多野结衣一二三| 22sihu国产精品视频影视资讯| 一本色道久久88| 日韩精品亚洲精品第一页| 亚洲制服丝袜第一页| 五月婷婷亚洲综合| 国产亚洲精品资源在线26u| 婷婷激情亚洲| 亚洲天堂视频在线播放| 日韩欧美视频第一区在线观看 | 狠狠色丁香婷婷| 午夜三级在线| 亚洲美女一区| 欧美日韩高清| 亚洲天堂网视频| 久久青草视频| av色爱 天堂网| 综合色在线| 亚洲国产一成久久精品国产成人综合| 国产69囗曝护士吞精在线视频| 国内精品视频区在线2021| 四虎影视国产精品| 成人伊人色一区二区三区| 99久久精品免费看国产免费软件| 日韩免费成人| 欧美精品v| 香蕉网久久| 国产精品美女自慰喷水| 国内99精品激情视频精品| 国产av一码二码三码无码| 国产96在线 | 免费毛片全部不收费的| 久久久久夜色精品波多野结衣| 精品1区2区3区| 狠狠色综合久久狠狠色综合| 亚洲国产精品日韩欧美一区| 中文无码伦av中文字幕| 欧美激情首页| 孕妇高潮太爽了在线观看免费| 1769国产精品免费视频| 亚洲妓女综合网995久久| 欧美成人一级| а∨天堂一区中文字幕| 毛片久久网站小视频| 天天做天天爱夜夜爽毛片毛片| 久热精品免费| 成色7777精品在线| 久久无码免费束人妻| 看你懂的巨臀中文字幕一区二区| 国产va免费精品| 91精品啪在线观看国产60岁 |