








收稿日期:2022-03-07;修回日期:2022-04-21" 基金項(xiàng)目:國家重點(diǎn)研發(fā)計(jì)劃資助項(xiàng)目(2019YFC0507800);北京市自然科學(xué)基金資助項(xiàng)目(4172016)
作者簡介:韓忠明(1972-),男(通信作者),山西人,教授,博導(dǎo),博士,主要研究方向?yàn)樯鐣?huì)計(jì)算(hanzhongming@btbu.edu.cn);王宇航(1999-),女,湖南益陽人,碩士研究生,主要研究方向?yàn)閯?dòng)態(tài)網(wǎng)絡(luò)表示學(xué)習(xí);毛雅俊(1972-),女,山西人,講師,博士,主要研究方向?yàn)閿?shù)據(jù)挖掘、復(fù)雜網(wǎng)絡(luò);陳福宇(1997-),男,天津人,碩士研究生,主要研究方向?yàn)閿?shù)據(jù)挖掘.
摘 要:快速、準(zhǔn)確的數(shù)字貨幣交易預(yù)測在應(yīng)對(duì)交易風(fēng)險(xiǎn)、促進(jìn)交易等方面具有重要意義,利用比特幣的交易用戶評(píng)價(jià)可將比特幣交易建模為具有連續(xù)時(shí)間特性的動(dòng)態(tài)網(wǎng)絡(luò),交易預(yù)測可轉(zhuǎn)換為動(dòng)態(tài)網(wǎng)絡(luò)的鏈接預(yù)測問題。為更有效預(yù)測比特幣交易,針對(duì)現(xiàn)有的圖神經(jīng)網(wǎng)絡(luò)方法忽略了及時(shí)反饋網(wǎng)絡(luò)中產(chǎn)生的新信息的重要性,難以準(zhǔn)確完成比特幣交易預(yù)測的問題,提出一種新的基于圖神經(jīng)網(wǎng)絡(luò)的模型用于比特幣交易預(yù)測。該方法通過時(shí)間注意力機(jī)制聚合用戶的鄰域信息,并引入了一種新穎的信息反饋機(jī)制,更充分地利用網(wǎng)絡(luò)信息。實(shí)驗(yàn)在兩個(gè)真實(shí)數(shù)據(jù)集上進(jìn)行,結(jié)果表明,改進(jìn)的模型比最好的對(duì)比模型在AUC、AP和F1指標(biāo)下分別高出約7%、6%和22%,能對(duì)比特幣交易進(jìn)行更準(zhǔn)確的分析預(yù)測。
關(guān)鍵詞:比特幣;交易預(yù)測;圖神經(jīng)網(wǎng)絡(luò);嵌入學(xué)習(xí)
中圖分類號(hào):TP391"" 文獻(xiàn)標(biāo)志碼:A""" 文章編號(hào):1001-3695(2022)12-005-3562-06
doi:"" 10.19734/j.issn.1001-3695.2022.03.0218
Bitcoin trading prediction based on graph neural network
Han Zhongminga,b, Wang Yuhangc, Mao Yajuna, Chen Fuyuc
(a.School of International Economics amp; Management, b.Beijing Key Laboratory of Big Data Technology for Food Safety, c.School of Computer Science amp; Engineering, Beijing Technology amp; Business University, Beijing" 100048," China)
Abstract:
Rapid and accurate prediction of digital currency transactions is of great significance to deal with transaction risks and promote transactions, the Bitcoin transaction can be modeled as a dynamic network with continuous time characteristics by using the user evaluation of Bitcoin transaction, and the transaction prediction can be transformed into a link prediction pro-blem of dynamic network. In order to predict Bitcoin transactions more effectively and to solve the problem that existing graph neural network methods ignored the importance of timely feedback of new information generated in the network, which made it difficult to accurately predict Bitcoin transactions, this paper proposed a new model based on graph neural networks for Bitcoin transaction prediction. It aggregated user’s neighborhood information through time attention mechanism and introduced a novel information feedback mechanism to make full use of network information. Experiments on two real datasets show that the improved model is about 7%, 6% and 22% higher than the best comparison model under AUC, AP and F1 indexes respectively, and can make more accurate analysis and prediction of Bitcoin transactions.
Key words:Bitcoin; transaction prediction; graph neural network; embedding learning
0 引言
憑借匿名、免稅和免監(jiān)管等特點(diǎn),比特幣吸引了大量的用戶,成為交易規(guī)模和交易額最大的數(shù)字貨幣。比特幣巨大的交易規(guī)模和價(jià)格波動(dòng)在給投資者帶來利益的同時(shí)也存在著巨大的風(fēng)險(xiǎn),例如用戶可能遇到不可靠的交易對(duì)手、比特幣交易平臺(tái)中存在市場操縱等情況。Chen等人[1]基于Mt.Gox比特幣交易所的研究指出比特幣的價(jià)格存在巨大波動(dòng)的一個(gè)非常重要的因素正是平臺(tái)上存在嚴(yán)重的市場操縱現(xiàn)象。因此,準(zhǔn)確預(yù)測比特幣交易、有效地向用戶推薦潛在的交易對(duì)手等,不僅有助于提高比特幣交易的成功率、降低交易風(fēng)險(xiǎn),還有利于提高交易監(jiān)管效率。
為跟蹤用戶交易歷史,同時(shí)幫助用戶降低交易風(fēng)險(xiǎn),許多比特幣交易平臺(tái)提供了交易用戶評(píng)價(jià)功能,即交易用戶可對(duì)交易對(duì)手進(jìn)行評(píng)價(jià),這為分析比特幣交易提供了數(shù)據(jù)基礎(chǔ)。由于用戶生成的評(píng)價(jià)記錄了用戶交易歷史,是這些比特幣交易平臺(tái)的重要組成部分,平臺(tái)上的用戶在選擇交易對(duì)手之前通常會(huì)查看或?qū)Ρ冗@些評(píng)價(jià),并以此為基礎(chǔ)選擇可靠的交易對(duì)手來減少交易風(fēng)險(xiǎn)。所以這些比特幣交易平臺(tái)上的評(píng)價(jià)是平臺(tái)上的用戶選擇與誰進(jìn)行交易的重要參考條件,對(duì)預(yù)測平臺(tái)上用戶之間的交易有著重要的價(jià)值。
具體來說,交易用戶評(píng)價(jià)代表了用戶間的交易關(guān)系,利用比特幣的交易用戶關(guān)系可以構(gòu)建比特幣交易網(wǎng)絡(luò),利用用戶評(píng)價(jià)可對(duì)用戶未來的交易進(jìn)行預(yù)測,該問題即為比特幣交易網(wǎng)絡(luò)上的鏈接預(yù)測問題。本文根據(jù)比特幣交易用戶評(píng)價(jià)數(shù)據(jù)集對(duì)比特幣交易建模,通過提取每一次評(píng)價(jià)的雙方對(duì)象和時(shí)間來構(gòu)建具有連續(xù)時(shí)間特性的動(dòng)態(tài)交易網(wǎng)絡(luò),其中用戶作為網(wǎng)絡(luò)中的節(jié)點(diǎn),存在評(píng)價(jià)的兩個(gè)節(jié)點(diǎn)(即用戶)之間建立一條連邊,最終構(gòu)成如圖1所示的比特幣交易網(wǎng)絡(luò),帶有箭頭的邊表示在t時(shí)刻下帶有評(píng)分f的一次交易,黃色的邊表示預(yù)測的潛在用戶交易(參見電子版)。本文中,在已知交易行為的基礎(chǔ)上,預(yù)測在下一時(shí)刻哪些用戶之間可能存在交易被稱為比特幣交易預(yù)測,即動(dòng)態(tài)交易網(wǎng)絡(luò)上的鏈接預(yù)測。
近年來,網(wǎng)絡(luò)表示學(xué)習(xí)技術(shù)得到了較大的發(fā)展,在鏈接預(yù)測等下游任務(wù)上已經(jīng)取得了很多成功,并廣泛運(yùn)用在不同的領(lǐng)域,如在推薦系統(tǒng)中的個(gè)性化推薦[2],在社交網(wǎng)絡(luò)中推薦熟人或相似用戶[3],在生物領(lǐng)域中用來發(fā)現(xiàn)可以發(fā)生相互作用的蛋白質(zhì)[4]等。本文利用由Kumar等人[5]創(chuàng)建的兩個(gè)分別關(guān)于Bitcoin-OTC (簡稱OTC)和Bitcoin-Alpha(簡稱Alpha)比特幣交易平臺(tái)的交易用戶評(píng)價(jià)數(shù)據(jù)集,通過動(dòng)態(tài)網(wǎng)絡(luò)表示學(xué)習(xí)方法實(shí)現(xiàn)平臺(tái)上的比特幣交易預(yù)測。為此本文提出一種新的專注于動(dòng)態(tài)網(wǎng)絡(luò)表示學(xué)習(xí)的圖神經(jīng)網(wǎng)絡(luò)方法,結(jié)合網(wǎng)絡(luò)的結(jié)構(gòu)信息,通過節(jié)點(diǎn)與其鄰域之間的相互影響更好地學(xué)習(xí)節(jié)點(diǎn)的嵌入表示。
1 相關(guān)工作
網(wǎng)絡(luò)可以分為靜態(tài)網(wǎng)絡(luò)和動(dòng)態(tài)網(wǎng)絡(luò)兩種,在真實(shí)世界中,網(wǎng)絡(luò)幾乎都是動(dòng)態(tài)的、隨時(shí)間而演變的。一般地,動(dòng)態(tài)網(wǎng)絡(luò)有兩種表達(dá)形式:a)由一系列按一定時(shí)間間隔分割的靜態(tài)網(wǎng)絡(luò)快照組成的集合,即G={G1,G2,…,GT},其中Gt表示t時(shí)刻的網(wǎng)絡(luò)快照,Gt=(Vt,Et)∈G,Vt表示t時(shí)刻的節(jié)點(diǎn)集合,Et表示t時(shí)刻的邊集合;b)由帶時(shí)間戳的連續(xù)時(shí)間事件按時(shí)間戳非遞減順序排序后組成的序列,即G={x(t1),x(t2),…},其中0≤t1≤t2≤…,x(tk)表示由一個(gè)(有向的)帶時(shí)間戳的時(shí)間邊緣eij表示的節(jié)點(diǎn)i和j在tk時(shí)刻的一次交互事件,一對(duì)節(jié)點(diǎn)之間可能不止一條邊,所以從技術(shù)上講,該方法可表示一個(gè)多重圖。
網(wǎng)絡(luò)表示學(xué)習(xí)是指通過學(xué)習(xí)網(wǎng)絡(luò)中的信息得到每個(gè)節(jié)點(diǎn)唯一的表示向量,這些表示向量可作為輸入,應(yīng)用于許多網(wǎng)絡(luò)分析任務(wù)中,如鏈接預(yù)測、節(jié)點(diǎn)分類、社團(tuán)發(fā)現(xiàn)等。早期的工作僅考慮靜態(tài)網(wǎng)絡(luò)表示學(xué)習(xí),如HOPE[6]等基于矩陣分解的方法;DeepWalk[7]方法通過隨機(jī)游走獲取節(jié)點(diǎn),借鑒自然語言處理方法的思路學(xué)習(xí)節(jié)點(diǎn)表示,能夠捕獲網(wǎng)絡(luò)中的隱藏信息;SDNE[8]運(yùn)用深度學(xué)習(xí)的方法,借助自編碼器實(shí)現(xiàn)網(wǎng)絡(luò)表示學(xué)習(xí),學(xué)習(xí)到的表示向量能夠捕捉網(wǎng)絡(luò)的局部和全局結(jié)構(gòu)。然而與現(xiàn)實(shí)生活中的大多數(shù)網(wǎng)絡(luò)一樣,比特幣交易網(wǎng)絡(luò)是動(dòng)態(tài)的,挖掘其中的變化特征尤為關(guān)鍵,而靜態(tài)網(wǎng)絡(luò)表示學(xué)習(xí)難以滿足需求,因此動(dòng)態(tài)網(wǎng)絡(luò)表示學(xué)習(xí)是研究關(guān)鍵。
現(xiàn)有的動(dòng)態(tài)網(wǎng)絡(luò)表示學(xué)習(xí)方法很多都是靜態(tài)網(wǎng)絡(luò)表示學(xué)習(xí)方法的擴(kuò)展,大多是基于靜態(tài)網(wǎng)絡(luò)快照而展開的研究,如Liben-Nowell等人[9]忽略時(shí)間戳,用靜態(tài)網(wǎng)絡(luò)快照表示動(dòng)態(tài)網(wǎng)絡(luò),并遵循一種簡單的聚合方法獲取所有快照的鄰接矩陣的并集,然后使用靜態(tài)網(wǎng)絡(luò)的方法學(xué)習(xí)動(dòng)態(tài)網(wǎng)絡(luò)的嵌入表示;Hisano等人[10]在采用不同的聚合方法的基礎(chǔ)上也使用了類似的方法。這類方法在動(dòng)態(tài)網(wǎng)絡(luò)表示學(xué)習(xí)的發(fā)展前期提出,相對(duì)都比較簡單,使用的聚合方法容易丟失很多信息,在預(yù)測準(zhǔn)確性上存在一定的問題,且忽略了時(shí)間信息,在時(shí)間信息非常重要時(shí)可能表現(xiàn)不佳。文獻(xiàn)[11, 12]基于上述方法進(jìn)行了改進(jìn),先獨(dú)立地對(duì)每個(gè)快照上的節(jié)點(diǎn)使用靜態(tài)方法來學(xué)習(xí)節(jié)點(diǎn)特征,然后將這些特征按不同的權(quán)重聚合為一個(gè)特征向量,雖然這類方法相較于之前的方法有了一定的進(jìn)步,但是計(jì)算成本可能會(huì)很高。
Zhou等人[13]使用時(shí)間信息作為正則化器,對(duì)連續(xù)快照上的每個(gè)節(jié)點(diǎn)的嵌入施加平滑性約束來學(xué)習(xí)嵌入表示;Yu等人[14]提出了一種通過分解方法將時(shí)間依賴性合并到嵌入的方法中;Gujral等人[15]針對(duì)經(jīng)過較長時(shí)間后需要較多時(shí)間來更新張量分解的問題,提出了增量更新的方法;Bian、Mahdavi等人[16,17]將靜態(tài)網(wǎng)絡(luò)上的隨機(jī)游走方法運(yùn)用在動(dòng)態(tài)網(wǎng)絡(luò)上,Bian等人[16]首先在第一個(gè)快照?qǐng)D上生成隨機(jī)游走,然后在每個(gè)快照上使用metapath2vec[18]方法,為受到影響的節(jié)點(diǎn)生成隨機(jī)游走,并重新計(jì)算這些節(jié)點(diǎn)的嵌入表示;Sajjad等人 [19]提出了一種在重用之前的快照中的有效隨機(jī)游動(dòng)的同時(shí),為新的快照生成無偏隨機(jī)游動(dòng)的算法。雖然在學(xué)習(xí)每個(gè)快照上的特性時(shí)使用隨機(jī)游走方法對(duì)特性的聚合比較有用,但這類方法在一定程度上忽略了動(dòng)態(tài)網(wǎng)絡(luò)中時(shí)間的進(jìn)化給節(jié)點(diǎn)的嵌入表示帶來的影響,可能無法捕捉到節(jié)點(diǎn)的進(jìn)化和時(shí)間模式。
上述動(dòng)態(tài)網(wǎng)絡(luò)表示學(xué)習(xí)方法基于動(dòng)態(tài)網(wǎng)絡(luò)的每個(gè)時(shí)間片上,但直接將靜態(tài)表示算法單獨(dú)應(yīng)用在快照上的表現(xiàn)往往不盡如人意[20],很難有效地捕獲比特幣交易網(wǎng)絡(luò)的連續(xù)時(shí)間特征,對(duì)準(zhǔn)確預(yù)測比特幣交易有很大的影響。
圖神經(jīng)網(wǎng)絡(luò)是一種有代表性的處理圖結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)[21],近年來,隨著神經(jīng)網(wǎng)絡(luò)在圖像處理和自然語言領(lǐng)域上取得的突出成績,基于圖神經(jīng)網(wǎng)絡(luò)的動(dòng)態(tài)網(wǎng)絡(luò)表示學(xué)習(xí)方法取得了較大發(fā)展。Nguyen等人[22]提出了一個(gè)將時(shí)間依賴性合并到由連續(xù)時(shí)間事件序列表示的動(dòng)態(tài)網(wǎng)絡(luò)嵌入中的框架,通過限制轉(zhuǎn)移概率在模型中加入了連續(xù)時(shí)間,讓模型可以學(xué)習(xí)動(dòng)態(tài)網(wǎng)絡(luò)的動(dòng)態(tài)性;Seo等人[23]提出了一個(gè)可以預(yù)測結(jié)構(gòu)化序列數(shù)據(jù)的深度學(xué)習(xí)模型GCRN,使用CNN和RNN來辨識(shí)網(wǎng)絡(luò)圖的空間結(jié)構(gòu)和尋找其動(dòng)態(tài)模型;Zuo等人[24]通過使用節(jié)點(diǎn)的鄰居形成的序列來建模節(jié)點(diǎn)的演變過程,利用霍克斯過程[25]捕獲歷史鄰居對(duì)當(dāng)前鄰居形成序列的影響,從而得到節(jié)點(diǎn)的嵌入表示,并采用注意力機(jī)制學(xué)習(xí)歷史鄰居對(duì)當(dāng)前鄰居的影響權(quán)重;Pareja等人[26]為捕捉網(wǎng)絡(luò)圖序列背后的動(dòng)態(tài)性,提出了一種通過RNN進(jìn)化GCN參數(shù)的方法來捕捉其動(dòng)態(tài)性;Trivedi等人[27]提出了一種歸納式學(xué)習(xí)的算法,即不再學(xué)習(xí)節(jié)點(diǎn)的固定表示,而是學(xué)習(xí)表示節(jié)點(diǎn)方法;Rossi等人[28]提出了一個(gè)用于動(dòng)態(tài)網(wǎng)絡(luò)表示學(xué)習(xí)的編碼器框架TGN,其基于帶時(shí)間戳的連續(xù)時(shí)間事件序列,根據(jù)節(jié)點(diǎn)的交互創(chuàng)建節(jié)點(diǎn)的壓縮嵌入表示;由于基于連續(xù)時(shí)間事件序列的動(dòng)態(tài)網(wǎng)絡(luò)表示學(xué)習(xí)方法的關(guān)鍵是將時(shí)間信息融入了模型中,Kazemi等人[29]提出了一種與模型無關(guān)的時(shí)間模型time2vec,其作用是將時(shí)間轉(zhuǎn)換成向量的形式,并且得到的向量很容易合并到其他模型中。
雖然這些方法在獲取動(dòng)態(tài)網(wǎng)絡(luò)的更多信息上(無論是拓?fù)浣Y(jié)構(gòu)信息還是時(shí)間信息)做了不同改進(jìn),并取得了一定的效果,但是幾乎都忽略了節(jié)點(diǎn)與其鄰域之間相互傳遞信息的問題,即很多方法在每一次產(chǎn)生交互時(shí)僅考慮了通過聚合節(jié)點(diǎn)的鄰域信息來更新節(jié)點(diǎn)的嵌入,卻沒有在節(jié)點(diǎn)產(chǎn)生新信息時(shí)及時(shí)地將新信息反饋給其鄰域,這可能會(huì)導(dǎo)致網(wǎng)絡(luò)中的節(jié)點(diǎn)獲取信息不及時(shí)的問題,從而將降低節(jié)點(diǎn)表示向量的時(shí)效性,進(jìn)而可能會(huì)降低其應(yīng)用在比特幣交易預(yù)測任務(wù)上的準(zhǔn)確性。
虛擬貨幣被頻繁用于洗錢、詐騙、賭博等非法交易中,其資金路徑隱秘性很強(qiáng)而難以監(jiān)管[30],因此,準(zhǔn)確的實(shí)時(shí)用戶交易預(yù)測或?qū)χ付ㄓ脩暨M(jìn)行交易預(yù)測是很有必要的。本文首先通過時(shí)間注意力機(jī)制聚合節(jié)點(diǎn)的時(shí)域信息,避免了嵌入表示可能陳舊的問題,再引入了一種信息反饋機(jī)制,根據(jù)最新信息更新節(jié)點(diǎn)鄰域的狀態(tài),最終提高模型實(shí)現(xiàn)比特幣用戶交易預(yù)測的準(zhǔn)確性。
2 連續(xù)時(shí)間交易動(dòng)態(tài)網(wǎng)絡(luò)表示學(xué)習(xí)
比特幣交易網(wǎng)絡(luò)是一種典型的動(dòng)態(tài)網(wǎng)絡(luò),網(wǎng)絡(luò)的邊具有連續(xù)時(shí)間特征,為準(zhǔn)確預(yù)測比特幣的未來交易,本文提出了一種基于連續(xù)時(shí)間動(dòng)態(tài)網(wǎng)絡(luò)表示學(xué)習(xí)的比特幣交易預(yù)測(conti-nuous time dynamic network representation learning based Bitcoin transaction prediction, TBit-L)模型來為用戶交易建模,旨在通過已知的用戶交易數(shù)據(jù)對(duì)未來的用戶交易進(jìn)行預(yù)測。
在現(xiàn)有的動(dòng)態(tài)網(wǎng)絡(luò)表示學(xué)習(xí)方法中,當(dāng)節(jié)點(diǎn)i和j在t時(shí)刻發(fā)生了交互時(shí),大多數(shù)方法是利用兩個(gè)節(jié)點(diǎn)在t時(shí)刻的交互信息來計(jì)算節(jié)點(diǎn)的嵌入表示,更先進(jìn)的工作則額外地考慮了通過使用節(jié)點(diǎn)的鄰域信息來獲取更多與節(jié)點(diǎn)相關(guān)的信息。本文提出的TBit-L模型不僅考慮了節(jié)點(diǎn)的鄰域信息對(duì)節(jié)點(diǎn)的影響,還考慮了節(jié)點(diǎn)的最新信息對(duì)其鄰域節(jié)點(diǎn)的影響,通過學(xué)習(xí)節(jié)點(diǎn)與其鄰域之間的相互作用得到更有效的節(jié)點(diǎn)嵌入。
2.1 相關(guān)定義
a)比特幣交易網(wǎng)絡(luò)。比特幣交易網(wǎng)絡(luò)定義為由一系列帶時(shí)間戳的連續(xù)時(shí)間事件序列表示的動(dòng)態(tài)網(wǎng)絡(luò)G={x(t1),x(t2),…},其中x(tk)表示在tk時(shí)刻發(fā)生的一對(duì)節(jié)點(diǎn)的交互事件,為方便書寫,下文中省略了tk的下標(biāo)k;V={x1,x2,…,xn}表示用戶節(jié)點(diǎn)的集合,其中xi表示用戶i,亦為節(jié)點(diǎn)i。
b)時(shí)變節(jié)點(diǎn)嵌入。EMB(t)={emb1(t),…,embn(t)(t)}表示所有在t時(shí)刻進(jìn)行了交易的節(jié)點(diǎn)利用其交易信息得到的嵌入表示集合,其中n(t)表示在t時(shí)刻進(jìn)行了交易的節(jié)點(diǎn)數(shù)量。例如,假設(shè)在t時(shí)刻,節(jié)點(diǎn)i與j進(jìn)行了交易,TBit-L模型則會(huì)使用其交易信息計(jì)算得到節(jié)點(diǎn)i和j的時(shí)變嵌入表示embi(t)和embj(t)。
c)節(jié)點(diǎn)嵌入。Z(t)={z1(t),…,zp(t)(t)}表示所有在t時(shí)刻進(jìn)行了交易的節(jié)點(diǎn)及其鄰域節(jié)點(diǎn)的最終嵌入表示集合。其中,交易節(jié)點(diǎn)p(p∈[1,n(t)])最終的嵌入表示zp(t)是通過結(jié)合其鄰域信息和時(shí)變節(jié)點(diǎn)嵌入embp(t)得到,然后通過將交易節(jié)點(diǎn)的最新信息反饋至其鄰域得到其鄰域節(jié)點(diǎn)最終的嵌入表示。其中:EMB(t)∈Euclid ExtraaBpn(t)xd,Z(t)∈Euclid ExtraaBpp(t)xd,d表示節(jié)點(diǎn)的嵌入表示的維度,且p(t)≥n(t)。
2.2 模型架構(gòu)
TBit-L模型由嵌入模塊、時(shí)間注意力模塊和信息反饋模塊組成。在比特幣交易網(wǎng)絡(luò)中,每一次交互對(duì)應(yīng)的節(jié)點(diǎn)都有一個(gè)相關(guān)的交互信息Afr,即交互特征mr(表示評(píng)論的向量)、節(jié)點(diǎn)特征nodefr和交互時(shí)間信息tfr。TBit-L模型將交互信息作為輸入,得到節(jié)點(diǎn)的嵌入zr,即zr=M(Afr),其中M表示TBit-L模型;最后利用嵌入計(jì)算節(jié)點(diǎn)間可能存在嵌入的概率pr。嵌入模塊使用節(jié)點(diǎn)產(chǎn)生的交互信息計(jì)算節(jié)點(diǎn)的時(shí)變嵌入embr;時(shí)間注意力模塊通過聚合節(jié)點(diǎn)的時(shí)域信息得到節(jié)點(diǎn)最終的嵌入表示zr,有效地避免了節(jié)點(diǎn)的嵌入表示可能陳舊的問題;信息反饋模塊引入了一種信息反饋機(jī)制,以及時(shí)地將節(jié)點(diǎn)的最新信息反饋給它的鄰域節(jié)點(diǎn),使其鄰域節(jié)點(diǎn)能及時(shí)獲取到最新信息,并以此更新狀態(tài),使得到的節(jié)點(diǎn)嵌入能擁有較好的時(shí)效性,從而可提高模型完成比特幣用戶交易預(yù)測任務(wù)的準(zhǔn)確性。為了便于書寫,本文大部分地方省略了下標(biāo)r。TBit-L模型的總體架構(gòu)如圖2所示。
2.2.1 嵌入模塊
如圖2左部所示,比特幣交易網(wǎng)絡(luò)由一系列帶時(shí)間戳的連續(xù)時(shí)間事件序列表示。為提高TBit-L模型的訓(xùn)練效率,本文基于t-Batch批處理方法[29]對(duì)模型進(jìn)行訓(xùn)練,使其能在從數(shù)據(jù)的順序性中得到學(xué)習(xí)的同時(shí),還能夠?qū)崿F(xiàn)高效的并行處理。
為結(jié)合網(wǎng)絡(luò)圖G中的拓?fù)浣Y(jié)構(gòu)信息,TBit-L模型利用網(wǎng)絡(luò)中節(jié)點(diǎn)的拓?fù)湫畔槊恳粋€(gè)節(jié)點(diǎn)i生成了對(duì)應(yīng)的節(jié)點(diǎn)特征nodefi參與模型的訓(xùn)練。具體地,本文定義了一個(gè)帶權(quán)鄰居矩陣AWnxn,其中元素AW[i,j]=k表示節(jié)點(diǎn)i與j有過k次交易。將矩陣AWnxn通過多層感知機(jī)MLP進(jìn)行壓縮,得到一個(gè)新的矩陣AW′nxm(m≤n)作為節(jié)點(diǎn)的特征矩陣, AW′nxm的第i行AW′[i]表示節(jié)點(diǎn)i的節(jié)點(diǎn)特征nodefi,即nodefi=AW′[i]。
由于用戶評(píng)價(jià)是[-10,10]的整數(shù)值評(píng)分,故本文采用one-hot編碼方式對(duì)評(píng)分進(jìn)行編碼,并將其作為網(wǎng)絡(luò)圖G中的邊特征mt(i,j)。為更好地使用比特幣用戶交易的時(shí)間信息,本文將每次交易的時(shí)間戳通過time2vec[29]進(jìn)行編碼,并將其作為交易的時(shí)間特征。
嵌入模塊通過結(jié)合在t時(shí)刻的交易節(jié)點(diǎn)i和j的節(jié)點(diǎn)特征nodefi(t)、nodefj(t),邊特征mt(i,j)和時(shí)間特征tfi(t)分別計(jì)算節(jié)點(diǎn)的時(shí)變嵌入表示embi(t)、embj(t)。計(jì)算方式具體如下:
embi(t)=GRU(Afi(t),zi(t-1))(1)
embj(t)=GRU(Afj(t),zj(t-1))(2)
Afi(t)=[nodefi(t)‖nodefj(t)‖mt(i,j)‖tfi(t)](3)
Afj(t)=[nodefj(t)‖nodefi(t)‖mt(i,j)‖tfj(t)](4)
其中:‖是串聯(lián)運(yùn)算符,以與節(jié)點(diǎn)i的相關(guān)符號(hào)為例,Afi(t)表示將節(jié)點(diǎn)i的節(jié)點(diǎn)特征、邊特征(交互特征)和時(shí)間特征串聯(lián)拼接而得到的一個(gè)新向量,zi(t-1)表示節(jié)點(diǎn)i在上一時(shí)刻(即t-1時(shí)刻)最終得到的嵌入表示。將得到的新向量Afi(t)和節(jié)點(diǎn)i在t-1時(shí)刻的最終嵌入表示向量zi(t-1)作為循環(huán)神經(jīng)網(wǎng)絡(luò)GRU的輸入,最后輸出得到節(jié)點(diǎn)i在t時(shí)刻的時(shí)變嵌入embi(t)。由于交易發(fā)生在節(jié)點(diǎn)i與j之間,所以tfi(t)= tfj(t)。
2.2.2 時(shí)間注意力模塊
在動(dòng)態(tài)網(wǎng)絡(luò)中,有些節(jié)點(diǎn)可能會(huì)長期處于不活動(dòng)的狀態(tài),即這些節(jié)點(diǎn)在長時(shí)間里未產(chǎn)生交互。類似地,比特幣交易網(wǎng)絡(luò)中可能存在一種情況:在用戶離開比特幣交易平臺(tái)很長一段時(shí)間后,他有了新的關(guān)注點(diǎn)、新的興趣,故當(dāng)其重返平臺(tái)產(chǎn)生交互時(shí),現(xiàn)有的嵌入表示很可能已經(jīng)不再能準(zhǔn)確且有效地表達(dá)其意圖。因此,如何更新該用戶的嵌入表示尤為關(guān)鍵。由于節(jié)點(diǎn)在時(shí)域上的重要鄰居能在很大程度上影響節(jié)點(diǎn),并反應(yīng)與之相關(guān)的信息,所以在用戶離開平臺(tái)一段時(shí)間后,通過聚合用戶的時(shí)域鄰居信息能夠有效幫助更新其嵌入表示。
具體地,當(dāng)節(jié)點(diǎn)i在t時(shí)刻產(chǎn)生了交互時(shí),嵌入模塊會(huì)計(jì)算其時(shí)變嵌入,然后時(shí)間注意力模塊會(huì)使用時(shí)間注意力機(jī)制聚合節(jié)點(diǎn)i在t時(shí)刻下的時(shí)域NTi(t)內(nèi)的鄰居節(jié)點(diǎn)信息,并結(jié)合其時(shí)變嵌入得到節(jié)點(diǎn)i最終的嵌入表示,從而保證節(jié)點(diǎn)嵌入的有效性和準(zhǔn)確性,具體計(jì)算方式如下:
zi(t)=T_Attention(embi(t),tfe(i,k)(t′),zk(t),mask)(5)
其中:k∈NTi(t);zi(t)表示結(jié)合節(jié)點(diǎn)i的時(shí)域信息和時(shí)變嵌入最終得到的節(jié)點(diǎn)i的嵌入表示;tf(t)表示時(shí)間特征;e(i,k)表示節(jié)點(diǎn)i和其鄰居節(jié)點(diǎn)k最近的一次交易,則tfe(i,k)(t′)表示節(jié)點(diǎn)i與其鄰居k在最近交易t′(t′≤t)時(shí)刻進(jìn)行交易的時(shí)間特征。時(shí)間注意力機(jī)制的掩碼mask通過一層新的權(quán)重將時(shí)間鄰域NTi(t)中關(guān)鍵的鄰居選擇出來,用于信息聚合。
根據(jù)定義可知zi(t)和embi(t)是不同的嵌入表示,zi(t)為結(jié)合節(jié)點(diǎn)i本身的信息以及其時(shí)域信息等,得到的節(jié)點(diǎn)i的最終嵌入表示,embi(t)則為在聚合時(shí)間鄰域信息之前計(jì)算得到的節(jié)點(diǎn)i的時(shí)變嵌入表示。zi(t)的初始值由隨機(jī)初始化得到,在計(jì)算過程中,embi(t)由zi(t-1)參與計(jì)算得到。
2.2.3 信息反饋模塊
考慮到在節(jié)點(diǎn)產(chǎn)生新信息時(shí)應(yīng)及時(shí)將節(jié)點(diǎn)的最新信息反饋到其鄰域,以保證其鄰居節(jié)點(diǎn)能在任意時(shí)刻都包含其最新的信息,TBit-L模型引入了信息反饋機(jī)制。在計(jì)算得到節(jié)點(diǎn)的最終嵌入表示后,信息反饋模塊將節(jié)點(diǎn)的最新信息及時(shí)地反饋給它的鄰居節(jié)點(diǎn),使其鄰居能及時(shí)獲取到關(guān)于該節(jié)點(diǎn)的最新信息,從而根據(jù)新信息及時(shí)地更新嵌入表示。具體地,信息反饋機(jī)制利用節(jié)點(diǎn)的最新信息,通過循環(huán)神經(jīng)網(wǎng)絡(luò)來更新鄰居節(jié)點(diǎn)的嵌入表示。因此,在每一次交易發(fā)生時(shí),交易用戶及其鄰域的嵌入都能根據(jù)最新信息得到更新,進(jìn)而可提高比特幣用戶交易預(yù)測的準(zhǔn)確性。
本文一共提出四種構(gòu)造信息反饋機(jī)制的方法,分別對(duì)應(yīng)四種模型,如圖3所示。其中,(a)TBit-L模型在進(jìn)行信息反饋時(shí)只選取節(jié)點(diǎn)i的重要時(shí)域鄰居節(jié)點(diǎn),并只反饋節(jié)點(diǎn)i的最新交互的時(shí)間特征,且為減少時(shí)間成本,本文選擇直接使用通過時(shí)間注意力模塊所選擇出的重要時(shí)域鄰居節(jié)點(diǎn);(b)Tbit_a-L模型將節(jié)點(diǎn)i的最新交互的時(shí)間特征反饋給其所有鄰居;(c)Tbit_h-L模型將節(jié)點(diǎn)i的最終得到的嵌入表示反饋給其重要時(shí)域鄰居;(d)Tbit_n-L模型將節(jié)點(diǎn)i最終得到的嵌入表示反饋給其所有鄰居。
根據(jù)信息反饋方式的類型,更新節(jié)點(diǎn)的嵌入方式也有四種方式。具體地,節(jié)點(diǎn)i的鄰居k的嵌入更新方式如下:
圖3(a):zk(t)=GRU(tfi(t),zk(t-1)),k∈NTi(t), ∪kNTi(t),其中∪k表示在t時(shí)刻,通過信息反饋模塊,節(jié)點(diǎn)i的嵌入被更新的鄰居節(jié)點(diǎn)集合,NTi(t)表示節(jié)點(diǎn)i在t時(shí)刻的所有鄰居節(jié)點(diǎn)集合,∪kNTi(t)表示∪k包含于NTi(t)。
圖3(b):zk(t)=GRU(tfi(t),zk(t-1)),k∈NTi(t),∪k=NTi(t),其中∪k=NTi(t)表示∪k與NTi(t)相等。
圖3(c):zk(t)=GRU(zi(t),zk(t-1)),k∈NTi(t),∪kNTi(t)。
圖3(d):zk(t)=GRU(zi(t),zk(t-1)),k∈NTi(t),∪k=NTi(t)。
2.3 模型訓(xùn)練過程
TBit-L模型采用批訓(xùn)練方法,利用時(shí)間注意力機(jī)制和反饋機(jī)制為比特幣用戶交易建模。
算法1 TBit-L模型訓(xùn)練過程
AW′n×m←AWn×n; //節(jié)點(diǎn)的特征矩陣
隨機(jī)初始化Z; //初始化節(jié)點(diǎn)的嵌入表示矩陣
emb←0;
for each batch(i,j,m(i,j),t)∈訓(xùn)練集 //m(i,j)為邊特征
n ←負(fù)采樣;
nodefi(t),nodefj(t),nodefn(t)←AW′n×m[i],AW′n×m[j],AW′n×m[n];
tf(t)←t2Vec(t); //將時(shí)間戳轉(zhuǎn)換為向量形式
embi(t)←GRU(nodefi(t),nodefj(t),m(i,j),tf(t),zi(t-1));
embj(t) ←GRU(nodefj(t),nodefi(t),m(i,j),tf(t),zj(t-1));
embn(t) ←GRU(nodefn(t),nodefi(t),m(i,n),tf(t),zn(t-1));
zi(t)←TemporalAttention(i);
zj(t)←TemporalAttention(j);
zn(t)←TemporalAttention(n);
zk∈NTi(t)(t)←info_feedback(i);
zk∈NTj(t)(t)←info_feedback(j); //信息反饋
Pp ←computer(zi(t),zj(t));
Pn ←computer(zi(t),zn(t)); //計(jì)算交互概率
l= BCE(Pp,Pn);
end
3 實(shí)驗(yàn)設(shè)計(jì)與分析
本文利用比特幣交易平臺(tái)OTC和Alpha為跟蹤用戶交易歷史而產(chǎn)生的比特幣交易用戶評(píng)價(jià)數(shù)據(jù)集構(gòu)建了比特幣交易網(wǎng)絡(luò),并基于此實(shí)現(xiàn)了對(duì)用戶交易的建模,驗(yàn)證了TBit-L模型學(xué)習(xí)節(jié)點(diǎn)嵌入表示的能力,并在AUC、AP和F1三個(gè)指標(biāo)上將其完成用戶交易預(yù)測任務(wù)的效果與其他模型進(jìn)行了對(duì)比評(píng)估。OTC(https://snap.stanford.edu/data/soc-sign-bitcoin-otc.html)和Alpha(https://snap.stanford.edu/data/soc-sign-bitcoin-alpha.html)兩個(gè)數(shù)據(jù)集中用戶評(píng)價(jià)為-10~10(包括-10和10,但不包括0,步長為1)的數(shù)值評(píng)分,兩個(gè)數(shù)據(jù)集的時(shí)間跨度均為2010—2016年,在OTC數(shù)據(jù)集中,評(píng)分為正面的比例為89%,在Alpha數(shù)據(jù)集中為93%。兩個(gè)數(shù)據(jù)集的詳細(xì)信息如表1所示。
對(duì)于所有的任務(wù)和數(shù)據(jù)集,本文按70%∶15%∶15%的分割比例[29]來分割數(shù)據(jù)集,即前70%的數(shù)據(jù)用做訓(xùn)練集、隨后的15%數(shù)據(jù)用做驗(yàn)證集,最后的15%數(shù)據(jù)用做測試集。本文分別對(duì)兩個(gè)數(shù)據(jù)集中的所有記錄按照時(shí)間戳非遞減的規(guī)則完成了排序,從而避免了在訓(xùn)練過程中出現(xiàn)數(shù)據(jù)泄露問題。所有實(shí)驗(yàn)結(jié)果是在連續(xù)運(yùn)行5次后取得的平均值。
3.1 對(duì)比模型
為了評(píng)估本文模型的性能,本文將TBit-L模型與兩個(gè)先進(jìn)的動(dòng)態(tài)網(wǎng)絡(luò)表示學(xué)習(xí)方法TGN、Jodie [32]進(jìn)行比較,并與兩個(gè)經(jīng)典模型node2vec[33]和LINE[34]進(jìn)行比較,同時(shí)還與本文通過采用不同的信息反饋機(jī)制構(gòu)造方法所形成的TBit_a-L、TBit_h-L、TBit_n-L模型以及去除了信息反饋模塊的TBit_t-L模型進(jìn)行比較。模型介紹如下:
a)TGN,一種關(guān)注于連續(xù)時(shí)間動(dòng)態(tài)圖的圖神經(jīng)網(wǎng)絡(luò)編碼框架,其采用對(duì)時(shí)間編碼的方式獲取網(wǎng)絡(luò)的時(shí)間信息,并通過聚合節(jié)點(diǎn)的鄰域信息得到節(jié)點(diǎn)的表示向量;
b)Jodie,一個(gè)耦合的遞歸神經(jīng)網(wǎng)絡(luò)模型,其主要針對(duì)二部網(wǎng)絡(luò),在使用兩個(gè)RNN來計(jì)算節(jié)點(diǎn)嵌入的同時(shí),還提出了一種預(yù)測節(jié)點(diǎn)未來軌跡的算法;
c)node2vec,一種綜合考慮了DFS鄰域和BFS鄰域的圖嵌入方法,node2vec_L2模型表示采用L2方法計(jì)算網(wǎng)絡(luò)中邊的特征,node2vec_H表示采用Hadamard方法計(jì)算邊特征;
d)LINE,一種基于鄰域相似假設(shè)的方法,使用BFS構(gòu)造鄰域,考慮了網(wǎng)絡(luò)中的一階相似性和二階相似性;
e)TBit-L,將節(jié)點(diǎn)的最新時(shí)間信息反饋給它的重要時(shí)域節(jié)點(diǎn),對(duì)應(yīng)圖3(a);
f)TBit_a-L,將節(jié)點(diǎn)的最新時(shí)間信息反饋給它的所有鄰居節(jié)點(diǎn),對(duì)應(yīng)圖3(b);
g)TBit_h-L,將節(jié)點(diǎn)最終得到的嵌入表示反饋給它的重要時(shí)域節(jié)點(diǎn),對(duì)應(yīng)圖3(c);
h)TBit_n-L,將節(jié)點(diǎn)最終得到的嵌入表示反饋給它的所有鄰居節(jié)點(diǎn),對(duì)應(yīng)圖3(d);
i)TBit_t-L,無信息反饋部分。
本文提出的五個(gè)模型除了信息反饋模塊不同外,其他部分均相同。
3.2 實(shí)驗(yàn)設(shè)置
本文模型通過PyTorch實(shí)現(xiàn),在時(shí)間注意力模塊中使用節(jié)點(diǎn)在一跳時(shí)間鄰域上的m=10個(gè)重要鄰居節(jié)點(diǎn)執(zhí)行信息聚合,模型中的學(xué)習(xí)率設(shè)為0.000 1,dropout概率設(shè)為0.1,節(jié)點(diǎn)特征、時(shí)間特征和節(jié)點(diǎn)的嵌入表示的維度均為172,邊特征的維度可為大于0的任意維度,批處理的大小設(shè)置為200,epoch的次數(shù)設(shè)置為50[29],并使用早停法防止過擬合,其patience值設(shè)為5,即當(dāng)模型在驗(yàn)證集上的表現(xiàn)連續(xù)5次處于下降的情況時(shí)則停止訓(xùn)練。
3.3 實(shí)驗(yàn)結(jié)果與分析
a)本文在transductive learning(直推式學(xué)習(xí),在訓(xùn)練過程中已經(jīng)用到測試集數(shù)據(jù)(不帶標(biāo)簽)中的信息)和 inductive lear-ning(歸納式學(xué)習(xí),訓(xùn)練集與測試集之間是相斥的)兩種學(xué)習(xí)方法下,分別對(duì)本文提出的五個(gè)模型做了用戶交易預(yù)測實(shí)驗(yàn),且主要在inductive設(shè)置下,與先進(jìn)模型TGN、Jodie以及經(jīng)典模型node2vec、LINE對(duì)比,結(jié)果如表2所示。實(shí)驗(yàn)結(jié)果表明,TBit-L模型在OTC和Alpha兩個(gè)數(shù)據(jù)集上的表現(xiàn)都不錯(cuò),且優(yōu)于其他模型。在Alpha數(shù)據(jù)集上,在transductive 設(shè)置下,TBit-L比TGN模型在AUC、AP和F1指標(biāo)上分別高出約10%、10%和60%;在inductive設(shè)置下,比TGN模型在AUC、AP和F1指標(biāo)下分別高出約6%、6%和56%。在OTC數(shù)據(jù)集上,在transductive 設(shè)置下,TBit-L比TGN模型在AUC、AP和F1指標(biāo)下分別高出約7%、6%和22%;在inductive設(shè)置下,比TGN模型在AUC、AP和F1指標(biāo)下分別高出約6%、5%和21%。
從實(shí)驗(yàn)結(jié)果可以看出,同一個(gè)模型在transductive設(shè)置下的實(shí)驗(yàn)結(jié)果比在inductive設(shè)置下的實(shí)驗(yàn)結(jié)果好,這是因?yàn)樵趖ransductive設(shè)置下的訓(xùn)練過程中用到了不帶標(biāo)簽的測試集數(shù)據(jù)中的信息,而inductive設(shè)置下的訓(xùn)練過程中只用到訓(xùn)練集中數(shù)據(jù)的信息。同時(shí),本文將TBit-L模型與本文提出的另外四個(gè)模型進(jìn)行了對(duì)比,結(jié)果表示TBit-L模型在AUC和AP指標(biāo)下的結(jié)果是最佳的,比另外四個(gè)模型的平均結(jié)果均高于5%左右;在F1指標(biāo)下僅略低于TBit_a-L模型,但由于TBit_a-L模型需要將節(jié)點(diǎn)的最新時(shí)間信息反饋給它的所有鄰居節(jié)點(diǎn),故其在時(shí)間效率上遠(yuǎn)遠(yuǎn)慢于TBit-L模型,且其在AUC和AP指標(biāo)下的實(shí)驗(yàn)結(jié)果并不突出。由結(jié)果還可以看出,本文提出的五種模型的結(jié)果均優(yōu)于對(duì)比的其他模型。兩個(gè)較為經(jīng)典的模型node2vec和LINE的表現(xiàn)較差,其原因可能是在動(dòng)態(tài)網(wǎng)絡(luò)中,這類模型在計(jì)算節(jié)點(diǎn)的嵌入表示時(shí)忽略了時(shí)間特征在動(dòng)態(tài)網(wǎng)絡(luò)的表示學(xué)習(xí)中起著非常重要的作用。
b)本文通過調(diào)整數(shù)據(jù)集的分割比例來驗(yàn)證TBit-L模型的魯棒性。具體地,將訓(xùn)練數(shù)據(jù)集的比例從20%逐步調(diào)整增長至70%,驗(yàn)證數(shù)據(jù)集和測試數(shù)據(jù)集的比例分別為緊接在訓(xùn)練數(shù)據(jù)集后面的15%數(shù)據(jù),這樣做是為了使得測試集數(shù)據(jù)大小相同,從而驗(yàn)證模型在相同測試集數(shù)據(jù)大小下的性能,實(shí)驗(yàn)結(jié)果如圖4所示。
從結(jié)果可以看出,TBit-L模型的性能非常穩(wěn)定,在訓(xùn)練樣本比例從20%逐步調(diào)整增長至70%的數(shù)據(jù)點(diǎn)之間,指標(biāo)AUC和AP的值僅有較小的波動(dòng),總體是趨于平穩(wěn)的,因此TBit-L模型的魯棒性較好。
c)為驗(yàn)證本文模型中信息反饋模塊的重要性,本文設(shè)計(jì)了消融實(shí)驗(yàn)。由前文所知,TBit_t-L模型是通過在TBit-L模型中去除信息反饋模塊得到的,即TBit_t-L模型在執(zhí)行完時(shí)間注意力機(jī)制來聚合節(jié)點(diǎn)的時(shí)間鄰域信息后,不會(huì)將節(jié)點(diǎn)的最新信息反饋給其鄰居節(jié)點(diǎn),其他部分與TBit-L模型無差別。從圖5中可以看出,在transductive和inductive兩種設(shè)置下,無論是在Alpha數(shù)據(jù)集上還是在OTC數(shù)據(jù)集上,TBit-L模型的實(shí)驗(yàn)結(jié)果總比TBit_t-L模型好,這說明在節(jié)點(diǎn)的嵌入表示更新后,及時(shí)地將節(jié)點(diǎn)的最新信息反饋給其鄰居節(jié)點(diǎn)是十分必要的,即TBit-L模型中的信息反饋模塊對(duì)提高模型的性能起著重要的作用。
d)在實(shí)驗(yàn)過程中,為探索模型中信息反饋模塊的最佳構(gòu)造方法,本文做了豐富的對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如圖5所示。如前文所述,TBit_a-L模型是將節(jié)點(diǎn)的最新時(shí)間信息反饋給它的所有鄰居節(jié)點(diǎn);TBit_n-L模型是直接將節(jié)點(diǎn)更新得到的嵌入表示反饋給它的所有鄰居節(jié)點(diǎn);TBit_h-L模型是將節(jié)點(diǎn)更新得到的嵌入表示反饋給它的重要時(shí)間鄰域節(jié)點(diǎn),這些模型的其他部分均與TBit-L模型相同。從圖5可以看出,無論在哪個(gè)數(shù)據(jù)集中,將節(jié)點(diǎn)的最新時(shí)間信息反饋給它的重要時(shí)間鄰域節(jié)點(diǎn)的構(gòu)造方式是最優(yōu)的,因?yàn)樵诒忍貛沤灰拙W(wǎng)絡(luò)中,網(wǎng)絡(luò)是動(dòng)態(tài)的,隨著時(shí)間而演變的,用戶交易的時(shí)間特征以及用戶的時(shí)域鄰居都帶著很重要的信息,對(duì)節(jié)點(diǎn)的嵌入表示起著關(guān)鍵作用。將節(jié)點(diǎn)的最新嵌入信息反饋給其所有鄰居在實(shí)驗(yàn)初期似乎更容易理解,但是通過實(shí)驗(yàn)可以發(fā)現(xiàn),這種構(gòu)造方法不僅會(huì)大大降低模型的效率,還很容易造成信息傳遞的冗余或傳遞不必要的信息,從而導(dǎo)致最終的實(shí)驗(yàn)結(jié)果不理想。從圖6也可以看出,TBit_a-L模型的實(shí)驗(yàn)結(jié)果比TBit-L模型差,并且TBit_t-L模型的實(shí)驗(yàn)結(jié)果幾乎一直都是最差的,這再次證明了TBit-L的信息反饋模塊的重要性,即在更新了節(jié)點(diǎn)的嵌入表示后,將其最新信息反饋給它的鄰居節(jié)點(diǎn)是十分必要的。
4 結(jié)束語
本文將比特幣交易建模為具有連續(xù)時(shí)間特性的動(dòng)態(tài)網(wǎng)絡(luò),把交易預(yù)測轉(zhuǎn)換為動(dòng)態(tài)網(wǎng)絡(luò)的鏈接預(yù)測問題。為了解決交易預(yù)測問題,提出了一種新的基于圖神經(jīng)網(wǎng)絡(luò)的TBit-L模型,TBit-L模型采用時(shí)間注意力機(jī)制聚合用戶的鄰域信息并引入了信息反饋機(jī)制,以及時(shí)地將用戶的最新信息反饋給其鄰域。為了評(píng)估TBit-L模型的效果,使用了兩個(gè)不同的數(shù)據(jù)集進(jìn)行了多角度實(shí)驗(yàn)分析。實(shí)驗(yàn)結(jié)果表明,TBit-L模型不管與基于時(shí)間事件序列表示的模型對(duì)比還是與經(jīng)典的鏈接預(yù)測模型對(duì)比,都有著較為突出的結(jié)果,說明TBit-L模型能夠有效地預(yù)測比特幣交易,這對(duì)促進(jìn)比特幣的交易和監(jiān)管具有重要的意義。
本文模型主要針對(duì)比特幣領(lǐng)域,所以未來的研究方向是嘗試將模型運(yùn)用在其他不同領(lǐng)域的網(wǎng)絡(luò)中,并觀察其實(shí)驗(yàn)效果,根據(jù)實(shí)驗(yàn)結(jié)果對(duì)模型的結(jié)構(gòu)和參數(shù)進(jìn)行調(diào)整,從而使得模型將來能運(yùn)用在多種不同領(lǐng)域中。另外,如何針對(duì)其他數(shù)字貨幣的交易進(jìn)行建模和預(yù)測也是下一步值得研究的問題。
參考文獻(xiàn):
[1]Chen Weili,Wu Jun,Zheng Zibin,et al. Market manipulation of Bitcoin: evidence from mining the Mt.Gox transaction network [C]// Proc of IEEE International Conference on Computer Communications. Piscataway,NJ: IEEE Press,2019: 964-972.
[2]Shi H J M,Mudigere D,Naumov M,et al. Compositional embeddings using complementary partitions for memory-efficient recommendation systems [C]// Proc of the 26th ACM SIGKDD International Confe-rence on Knowledge Discovery amp; Data Mining. New York: ACM Press,2020: 165-175.
[3]Junuthula R R,Xu K S,Devabhaktuni V K. Leveraging friendship networks for dynamic link prediction in social interaction networks [C]// Proc of the 12th International AAAI Conference on Web and Social Media. Palo Alto,CA: AAAI Press,2018: 628-631.
[4]Veselkov K,Gonzalez G,Aljifri S,et al. HyperFoods: machine intelligent mapping of cancer-beating molecules in foods [J]. Scientific Reports,2019,9(1): article number 9237.
[5]Kumar S,Spezzano F,Subrahmanian V S,et al. Edge weight prediction in weighted signed networks [C]// Proc of the 16th IEEE International Conference on Data Mining. Washington DC: IEEE Compu-ter Society,2016: 221-230.
[6]Ou Mingdong,Cui Peng,Pei Jian,et al. Asymmetric transitivity preserving graph embedding [C]// Proc of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM Press,2016: 1105-1114.
[7]Perozzi B,Al-Rfou R,Skiena S. DeepWalk: online learning of social representations [C]// Proc of the 20th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM Press,2014: 701-710.
[8]Wang Daixin,Cui Peng,Zhu Wenwu. Structural deep network embedding [C]// Proc of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM Press,2016: 1225-1234.
[9]Liben-Nowell D,Kleinberg J. The link-prediction problem for social networks [J]. Journal of the American Society for Information Science and Technology,2007,58(7): 1019-1031.
[10]Hisano R. Semi-supervised graph embedding approach to dynamic link prediction [C]// Proc of the 9th Conference on Complex Networks. Cham: Springer,2018: 109-121.
[11]Yao Lin,Wang Luning,Pan Lyu,et al. Link prediction based on common-neighbors for dynamic social network [J]. Procedia Computer Science,2016,83: 82-89.
[12]Zhu Jia,Xie Qing,Chin E J. A hybrid time-series link prediction framework for large social network [C]// Proc of the 23rd International Conference on Database and Expert Systems Applications. Berlin: Springer,2012: 345-359.
[13]Zhou Lekui,Yang Yang,Ren Xiang,et al. Dynamic network embedding by modeling triadic closure process [C]// Proc of the 32nd AAAI Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press,2018: 571-578.
[14]Yu Wenchao,Cheng Wei,Aggarwal C C,et al. Link prediction with spatial and temporal consistency in dynamic networks [C]// Proc of the 26th International Joint Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press,2017: 3343-3349.
[15]Gujral E,Pasricha R,Papalexakis E E. SamBaTen: sampling-based batch incremental tensor decomposition [C]// Proc of SIAM International Conference on Data Mining. 2018: 387-395.
[16]Bian Ranran,Koh Y S,Dobbie G,et al. Network embedding and change modeling in dynamic heterogeneous networks [C]// Proc of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval. New York: ACM Press,2019: 861-864.
[17]Mahdavi S,Khoshraftar S,An Aijun. dynnode2vec: scalable dynamic network embedding [C]// Proc of IEEE International Conference on Big Data. Piscataway,NJ: IEEE Press,2018: 3762-3765.
[18]Dong Yuxiao,Chawla N V,Swami A. Metapath2vec: scalable representation learning for heterogeneous networks [C]// Proc of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM Press,2017: 135-144.
[19]Sajjad H P,Docherty A,Tyshetskiy Y. Efficient representation lear-ning using random walks for dynamic graphs [EB/OL]. (2019-01-22). https://arxiv.org/pdf/1901.01346v2.pdf.
[20]丁鈺,魏浩,潘志松,等. 網(wǎng)絡(luò)表示學(xué)習(xí)算法綜述 [J]. 計(jì)算機(jī)科學(xué),2020,47(9): 52-59. (Ding Yu,Wei Hao,Pan Zhisong,et al. Survey of network representation learning [J]. Computer Science,2020,47(9): 52-59.)
[21]劉佳瑋,石川,楊成,等. 基于異質(zhì)信息網(wǎng)絡(luò)的推薦系統(tǒng)研究綜述 [J]. 信息安全學(xué)報(bào),2021,6(5): 1-16. (Liu Jiawei,Shi Chuan,Yang Cheng,et al. Review of recommendation system based on hetero-geneous information network [J]. Journal of Cyber Security,2021,6(5): 1-16.)
[22]Nguyen G H,Lee J B,Rossi R A,et al. Continuous-time dynamic network embeddings [C]// Proc of International World Wide Web Conference. New York: ACM Press,2018: 969-976.
[23]Seo Y,Defferrard M,Vandergheynst P,et al. Structured sequence modeling with graph convolutional recurrent networks [C]// Proc of the 25th International Conference on Neural Information Processing. Cham: Springer,2018: 362-373.
[24]Zuo Yuan,Liu Guannan,Lin Hao,et al. Embedding temporal network via neighborhood formation [C]// Proc of the 24th ACM SIGKDD International Conference on Knowledge Discovery amp; Data Mining. New York: ACM Press,2018: 2857-2866.
[25]Cao Qi,Shen Huawei,Cen Keting,et al. DeepHawkes: bridging the gap between prediction and understanding of information cascades [C]// Proc of ACM Conference on Information and Knowledge Management. New York: ACM Press,2017: 1149-1158.
[26]Pareja A,Domeniconi G,Chen Jie,et al. EvolveGCN: evolving graph convolutional networks for dynamic graphs[J]. Proceedings of the AAAI Conference on Artificial Intelligence,2020,34(4): 5363-5370.
[27]Trivedi R,F(xiàn)arajtabar M,Biswal P,et al. DyRep: learning representations over dynamic graphs [C]// Proc of International Conference on Learning Representations. 2019.
[28]Rossi E,Chamberlain B,F(xiàn)rasca F,et al. Temporal graph networks for deep learning on dynamic graphs [EB/OL]. (2020-10-09). https://arxiv.org/pdf/2006.10637.pdf.
[29]Kazemi S M,Goel R,Eghbali S,et al. Time2vec: learning a vector representation of time [EB/OL]. (2019-07-11). https://arxiv.org/pdf/1907.05321.pdf.
[30]李暉. 圍剿虛擬貨幣: 半年數(shù)百億未受監(jiān)管資金出境 [N]. 中國經(jīng)營報(bào),2021-10-11 (B05). (Li Hui. Crackdown on virtual currencies: tens of billions of unregulated funds left the country in six months[N]. China Business Journal,2021-10-11 (B05).)
[31]Xu Da,Ruan Chuanwei,Korpeoglu E,et al. Inductive representation learning on temporal graphs [EB/OL]. (2020-02-19). https://arxiv.org/pdf/2002.07962.pdf.
[32]Kumar S,Zhang Xikun,Leskovec J. Predicting dynamic embedding trajectory in temporal interaction networks [C]// Proc of the 25th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM Press,2019: 1269-1278.
[33]Grover A,Leskovec J. node2vec: scalable feature learning for networks [C]// Proc of the 22nd ACM SIGKDD International Confe-rence on Knowledge Discovery and Data Mining. New York: ACM Press,2016: 855-864.
[34]Tang Jian,Qu Meng,Wang Mingzhe,et al. LINE: large-scale information network embedding [C]// Proc of the 24th International Confe-rence on World Wide Web.New York:ACM Press,2015:1067-1077.