中圖分類號:TP391.1 文獻標志碼:A DOI:10. 13705/j. issn.1671-6841.2024092
文章編號:1671-6841(2025)03-0012-07
Research on Fake News Detection in Social Media Based on BGMA Model
WANG Jun1'2,MA Xiaoyue',FU Hongjing'(1. Institute of Big Data Science, Zhengzhou University of Aeronautics , Zhengzhou 450015, China;2.Henan Daily,Zhengzhou ,China)
Abstract: In order to identify fake news on social media platforms timely and accurately,a BGMA fake news detection model was constructed.The BGMA model at first used the BERT model to extract the semantic features of the textual content,and then the GAT model was used to capture the complex associations and dynamic changes between user behaviors. Finall,the two features were weighted and fused by introducing a multi-attention mechanism.The results showed that the detection performance of the BGMA model could improves the accuracy by 4.06% on the PolitiFact dataset and 19.73% on the GossipCop dataset compared with the BERT-LSTM model. Compared with the GCNFC model, the accuracy was improved by 10.59% on the PolitiFact dataset and 10.47% on the GossipCop dataset. The practical test result proved that the BGMA model could effectively combine text and user features and achieve better fake news detection results.
Key words: fake news detection;graph attention network ; multi-head attention
0 引言
隨著元宇宙技術的發展,各級媒體從智能化、融合化,逐步向智慧化平臺發展[1]。社交媒體可以通過算法和數據分析來推薦和呈現用戶感興趣的內容,但這也可能導致信息過濾和信息孤島的問題。虛假新聞披著新聞的外衣,利用網絡和社交媒體實現了更加廣泛與快速的傳播[2]。及時檢測并阻斷虛假新聞,可以有效減慢其擴散速度,預防虛假新聞對公眾產生的不良影響,同時也增強了社交媒體平臺的可靠性和用戶體驗[3]
隨著人工智能技術的迅速發展和模型優化的持續進行,對于虛假新聞檢測的需求變得更加緊迫[4]。傳統方法主要依賴新聞文本進行識別,卻忽略了社交網絡傳播過程中的重要因素。用戶的發文和轉發行為能夠迅速擴大虛假新聞的傳播范圍,進而對虛假新聞的檢測工作產生一定的影響。特別是當用戶頻繁轉發虛假新聞時,他們的信譽度可能會受到損害,從而增加了信息傳播的不可靠性。此外,在社交媒體上,用戶可能會將真實新聞誤標記為虛假新聞,或者將虛假新聞誤認為是真實新聞,從而干擾對虛假新聞的檢測和過濾。用戶的大量轉發行為也會加速虛假新聞的傳播速度,使得虛假信息更快地擴散到更廣泛的受眾中,增加了對虛假新聞檢測和控制的難度。
為提升對虛假新聞識別的準確性,本研究將聚焦用戶轉發行為,并以此為基礎結合文本內容特征構建了BGMA(BERT-GAT-MultiAttn)模型。BGMA模型首先利用BERT模型的強大文本表征能力,從文本內容中提取豐富的語義特征。其次,將用戶行為數據構建為樹形結構,通過GAT模型來捕捉用戶行為之間的復雜關聯和動態變化,從而獲取用戶行為的深層特征。最后,采用多頭注意力機制有效地融合了文本內容特征和用戶行為特征,并根據特征重要性加權,以提升模型的識別準確性和魯棒性。
1相關研究
當前,虛假新聞檢測主要側重于基于內容特征的方法和基于社交上下文特征的方法。基于內容特征的方法主要聚焦于從文本中提煉出各種信息,比如語言特征等,以此來鑒別新聞的真實性。然而,對于那些經過精心偽造、語言流暢且內容看似合理的虛假新聞,這種方法往往難以奏效。而基于社交上下文特征的方法則更加側重于分析新聞在用戶間傳播過程中產生的周邊信息。這些信息包括但不限于用戶特征、社交網絡傳播特征,以及用戶對于新聞或帖子的反饋特征等。通過分析這些信息,BGMA模型能夠深入理解新聞在社交網絡中的傳播規律,以及用戶對新聞的真實態度和看法。
基于社交上下文特征的虛假新聞識別方法通過分析社交媒體帖子間的互動關系來預測新聞可信度,不再模擬讀者理解文本的過程,而是理解其閱讀后的反應。從這些反應信息中提煉影響文本真實性的關鍵因素,通過逆向推理反推新聞真實性,更貼近實際且有效。在構建傳播網絡時,可以根據用戶發布內容與新聞文本的觀點關聯性建立網絡結構,分析用戶評論中的觀點沖突、情緒表達及傳播網絡,進而判斷新聞真實性。同時,關注意見領袖在網絡結構中的作用,能夠更準確地把握新聞傳播的動態和影響力。
學者們提出了不同的方法來利用傳播網絡進行虛假新聞檢測。例如, Wu 等[5]將新浪微博數據視為傳播樹構成的森林,結合用戶上下文信息和推文文本內容進行分類。Ma等[則比較不同傳播樹的結構相似度,捕捉高階傳播模式以區分虛假新聞。為實現早期檢測,Liu等[僅利用用戶上下文信息構建傳播路徑,利用CNN和RNN進行處理。尹鵬博等[8]結合CNN和LSTM分別捕獲用戶特征和文本特征,實現兩種模態信息的有效整合。這些方法在降低數據處理復雜度的同時,提高了虛假新聞檢測的準確性。
現有研究表明,文本內容和用戶行為都是影響虛假新聞檢測的重要特征。學者們也積極對兩者進行結合[9],但在融合這兩種特征時,大多數方法都是采用簡單的拼合方式,往往容易忽略其中的差異對虛假新聞檢測的影響。本文的創新點在于結合圖注意力網絡的特征提取方法,能夠更準確地捕捉傳播網絡中的復雜結構和用戶行為的動態變化,從而更全面地理解社交上下文特征。采用多頭注意力機制對文本內容特征和用戶行為特征進行加權融合,則能夠動態學習兩者之間的重要程度,從而更好地結合文本內容和用戶行為的關鍵信息,有效提升虛假新聞檢測的準確性和效果。
2模型架構
本文結合新聞文本內容和用戶轉發行為構建了基于BGMA的社交媒體虛假新聞檢測模型,結構如圖1所示。該模型通過分析用戶在社交媒體上對新聞內容的轉發行為以及新聞內容本身的特征來判斷該新聞的真假。

模型包含了圖注意力層、全局最大池化層、多頭注意力機制以及線性層,可以分為文本內容特征表示、用戶行為特征表示以及特征融合與分類三個模塊。在前向傳播過程中,節點特征首先通過圖注意力層進行特征聚合和信息傳播,然后通過全局最大池化層將每個圖的節點特征聚合成圖級別的特征表示。在特征融合階段,多頭注意力機制會利用學習到的注意力權重參數對節點特征進行加權融合。最后,經過線性層的變換,特征被映射到與預測類別數相同的維度,再通過輸出層進行處理,并應用log_softmax函數將特征轉換為預測類別的概率分布,從而得到最終的預測結果。這個模型結合了不同層的功能和特性,能夠有效地處理圖數據、提取特征并進行分類預測。
2.1文本內容特征表示模塊
在社交媒體中,某一事件的傳播往往始于新聞內容的發布。新聞內容所包含的原始信息對于判斷該事件是否為虛假新聞至關重要,因此高效利用新聞內容中的隱藏信息可以有效幫助模型辨別新聞真假。為了提取新聞內容的文本特征,本研究選用BERT模型進行處理,模型結構如圖2所示。
BERT模型處理輸入序列時,會將文本轉換為標記(token)的序列,表示為Tok。對于每個序列,BERT都會在開頭添加一個特殊的分類標記[CLS],這個標記在模型處理完整個序列后的隱藏狀態(hiddenstate)會被用作分類任務的聚合表示,記為c 。模型通過嵌入層Embeddingslayer(E)將Tok轉換為向量表示,以便后續處理。然后,多個Trans-former模塊(Trm)堆疊在一起,通過自注意力機制捕獲標記間的依賴關系,并生成每個標記的上下文表示,其中第 Ωn 個輸人標記的隱藏狀態記作 Tn

BERT模型的最終輸人是由標記嵌人(tokenembeddings)、段嵌入(segmentembeddings)和位置嵌人(positionembeddings)三者之和構成的。這樣的設計使得BERT能夠充分利用文本的語義、位置以及句子間的關系等信息,從而在各種下游任務中有優秀的表現[10] 。
在虛假新聞檢測任務中,需要利用在大規模語料上預訓練的詞向量,這些向量已編碼了豐富的語義相似性,因此無須在局部語料上進一步訓練。為了深入捕捉新聞內容與用戶推文之間的語義聯系,本研究采用了預訓練的BERT嵌人技術。在此過程中,選擇表現較好的casedBERT-Large模型,并設定最大輸入序列長度為512個token,以確保新聞內容得到全面而細致的編碼。然而,BERT對序列長度的限制,導致無法直接將多條推文合并編碼。因此,本研究采取了逐條編碼的策略,即單獨對每條推文進行BERT編碼,隨后對這些編碼結果取平均值,以此作為該組推文的綜合語義表示。
2.2用戶行為特征表示模塊
2.2.1樹的構造將用戶行為轉化為新聞傳播圖的形式進行表示,這一傳播圖呈現出樹狀結構的特點。如圖3所示,其中根節點代表新聞文本內容,其他節點代表轉發該新聞的用戶。在構建有向樹的基礎上,本研究將推文與其回應推文之間的關系映射為樹中的父子節點關系。具體而言,首先提取文本特征向量,并將其嵌入到相應的節點中。接著,如果兩個節點之間存在直接的轉發關系,則在它們之間建立連邊。最后,通過父節點指向子節點的方向,明確表示節點間的層級關系。

2.2.2節點更新GAT模型使用鄰接矩陣信息來實現節點之間的注意力機制。在GAT中,每個節點通過學習到的注意力權重來聚合其鄰居節點的特征表示。這些注意力權重是通過計算節點之間的相似度來確定的,其中鄰接矩陣提供了節點之間的連接關系。通過將鄰接矩陣信息與學習到的注意力權重相乘,可以實現對鄰居節點特征的加權聚合,從而更好地捕捉節點之間的關系和重要性[1]
基于GAT模型,節點的特征向量通過迭代更新得到全局特征表示。在更新單個節點時,首先根據不同類型的關系路徑收集鄰居節點的信息,形成鄰居節點的向量表示。隨后,結合這些鄰居節點的信息與自身節點的信息,共同更新該節點的特征表示。最終,新生成的節點信息融合了鄰居信息和自身信息,從而全面反映了推文的傳播特征。
2.2.3邊特征學習在圖3中,邊作為連接節點的橋梁,同樣承載著豐富的信息。邊特征學習旨在提取邊的深層語義表示,以捕捉節點間的復雜關系和相互作用。結合之前的節點更新過程,可以進一步探索邊特征學習的方法。
BGMA模型將邊視為特殊的實體,并賦予其初始的特征向量。這個特征向量可以根據邊的屬性或其連接的兩個節點的特征進行計算得出。接下來,通過GAT模型的注意力機制,對邊特征進行更新。在這個過程中,邊的特征將受到其連接的節點特征的影響,從而學習到節點間關系的深層表示。
為了更全面地捕捉邊的特征,BGMA模型還考慮了圖中可能存在的不同類型的關系路徑。通過聚合這些路徑上的節點信息,可以進一步豐富邊的特征表示,反映節點間不同的交互模式和關系類型。邊特征學習與節點特征更新是相輔相成的,通過不斷更新節點和邊的特征表示,BGMA模型能夠捕獲到圖中更復雜的結構和語義信息,從而實現對圖的全面理解。
2.2.4全局最大池化全局最大池化(globalmaxpooling,GMP)是一種用于聚合節點信息并生成圖級別表示的技術。在圖中,每個節點經過一系列的特征學習和更新過程后,會獲得其對應的特征向量。全局最大池化的目標是將這些節點特征向量聚合成一個單一、緊湊的圖級別特征向量,以便進行圖級別的任務,如圖分類或圖級別的預測。
在BGMA模型中,全局最大池化層的作用是將所有節點的特征向量進行聚合,以捕獲圖的整體信息。具體實現時,全局最大池化層會遍歷圖中所有節點的特征向量,并在每個特征維度上選擇最大值作為該維度的圖級別特征向量。通過這種方式,全局最大池化能夠保留圖中在各個特征維度上最顯著的信息,同時降低特征的維度,便于后續的圖級別任務處理。
全局最大池化的優勢在于它能夠有效地提取圖中的關鍵信息,并忽略一些不重要的細節。通過選擇每個特征維度上的最大值,全局最大池化能夠突出顯示圖中在該特征上最為突出的節點或結構,從而幫助模型更好地理解和表示整個圖。
2.3特征融合與分類模塊
2.3.1多層注意力模塊為了能夠更深入地整合用戶信息與新聞內容,BGMA模型引人了Vaswani等[2]提出的多頭注意力機制。這一機制可以視為單頭注意力機制的擴展和升級,其核心理念是將注意力機制操作分組進行,從而允許模型從多個不同的維度和視角提取和整合特征信息。
通過多頭注意力機制,模型能夠優化全局圖表示的精細度。該機制的核心在于計算特征的注意力分數,并根據這些分數對特征進行加權,確保模型能夠重點關注那些對任務更為關鍵的特征維度。
在數據流動方面,多頭注意力模塊接受全局最大池化后的圖表示作為輸入,然后輸出經過加權處理后的圖級別特征表示。這一輸出特征表示不僅融合了原始圖中的關鍵信息,還通過多頭注意力機制增強了重要特征的影響力,從而提高了模型的表達能力和準確性。
2.3.2線性層線性層在圖表示學習模型中扮演著將經過處理的圖表示映射到分類任務輸出空間的關鍵角色。它接收來自前一層的圖級別特征向量,并通過一系列線性變換,將這些特征映射到與分類任務輸出維度相匹配的空間。這一過程實質上是利用線性層學習到的權重和偏置參數對輸人特征進行加權求和,從而生成每個類別的原始預測分數。
隨后,為了將BERT編碼后的原始分數轉化為更易于理解和使用的概率分布形式,使用softmax函數將分數映射到(0,1)區間內,并確保所有類別的概率之和為1,從而更直觀地反映模型對每個類別的置信程度。最后,為了方便計算損失和進行后續的梯度更新,BGMA模型使用log_softmax函數對概率分布進行取對數操作,得到最終的預測結果。融合后的新聞嵌入被送入一個兩層的多層感知器(MLP),其中兩個輸出神經元代表假新聞和真實新聞的預測概率。在模型訓練階段,采用了二進制交叉熵損失函數,并利用隨機梯度下降(SGD)法進行參數更新,以確保模型能夠有效地學習和優化。
3模型驗證及分析
3.1 數據來源
由于本文所構建的模型不僅需要新聞內容的文本信息,還需要結合用戶行為,因此選用Shu等[3]提供的公開綜合數據集FakeNewsNet進行研究,數據集相關信息如表1所示。

在應用文本表示學習方法之前,要清洗數據中的噪聲和無關信息。同時,為了彌補因無法訪問暫停或刪除賬戶而導致的數據缺失,本研究采用從可訪問用戶中抽取含有相同新聞的方式,以確保新聞傳播分析的準確性。
3.2 研究設計
3.2.1實驗環境本研究使用基于Ubuntu18.04操作系統的工作站作為開發環境,配備NVIDIAGe-ForceRTX3O80 TiGPU和 IntelXeon Silver4214RCPU,搭載CUDA11.1進行深度學習模型訓練。Python3.8作為主要開發語言,提供了豐富的科學計算庫和深度學習框架支持。該環境具備強大的計算性能和優秀的硬件加速能力,為研究提供了穩定、高效的計算支持。
本研究使用了PyTorchGeometric(PyG)工具包,這是一個基于PyTorch深度學習框架的圖神經網絡庫,由文獻[14]于2018年創建。PyG的設計旨在簡化圖數據的處理和建模過程,并為用戶提供豐富的圖神經網絡模型和工具函數。通過PyG能夠更便捷地操作圖數據,利用其提供的各種圖神經網絡模型和工具函數,加快算法設計與優化的過程,并提高圖神經網絡建模的效率和性能。
3.2.2參數設置本文模型訓練的關鍵參數有:批量大小(batch_size)為128;學習率(learning_rate)為0.01;訓練輪數(epochs)為35;權重衰減(weight_de-cay)為0.01。選擇這些參數,旨在優化模型訓練過程,平衡了收斂速度和模型性能之間的關系。通過精心調整這些參數,旨在提高模型在訓練集和測試集上的性能表現,從而為社交媒體虛假新聞檢測任務提供可靠的解決方案。
3.3 評估標準
本文將虛假新聞檢測視為二分類任務,通過混淆矩陣計算準確率、精確率、召回率和 F1 分數等指標,全面評估模型性能。混淆矩陣主要由四個關鍵參數構成,如表2所示。這些參數能夠直觀地反映模型分類的準確性和效果,是評估模型性能不可或缺的參考依據。

準確率 A 是最常用的指標,它衡量模型在所有分類樣本中正確分類的比例。準確率關注的是整體的分類準確性,包括了真陽性和真陰性的數量,其計算表達式為

多數情況下,準確率確實是評估模型分類效果的關鍵指標,其數值越高通常意味著模型性能越佳。然而,準確率的計算涵蓋了正確和錯誤的分類情況,若模型存在較多誤判,高準確率也可能無法真實反映其性能。因此,僅憑準確率不足以全面評估模型的性能。
為了更全面地評價錯誤分類的情況,本文還引入了精確率、召回率和 F1 分數這三個指標。這些指標能夠從不同角度反映模型在分類任務中的表現,幫助我們更深入地了解模型的性能特點。
1)精確率 P 指被模型正確分類為虛假新聞的樣本數 TP 占所有被模型分類為虛假新聞的樣本數的比例。精確率衡量了模型在判斷一個樣本為虛假新聞時的準確性,其表達式為
P=TP/(TP+FP)c
2)召回率 R 指被模型正確分類為虛假新聞的樣本數 TP 占所有虛假新聞樣本數的比例。召回率衡量了模型對虛假新聞的覆蓋度,其表達式為
R=TP/(TP+FN)o
3) F1 分數是精確率和召回率的調和平均數,可以綜合考量模型的準確性和覆蓋度。 F1 分數越高,表示模型在社交媒體虛假新聞檢測任務中越好。其表達式為
F1=(2P×R)/(P+R)
3.4 結果分析
為了全面、深入地評估本文構建模型的有效性,使用以下模型作為對比模型,與本文構建的模型進行比較。
1)TextCNN:結合卷積神經網絡與文本處理技巧,通過卷積操作提取文本中的局部特征,并利用全連接層進行特征整合與分類。
2)BERT-LSTM:深度整合了BERT的預訓練語言表示與LSTM的時序建模能力,通過捕捉文本中的上下文信息和序列依賴關系,有效提升虛假新聞檢測的準確性和效率。
3)BiGCN:BiGCN(bi-directional graph convolu-tionalnetwork)模型對用戶特征進行深度挖掘與融合,通過圖卷積結構和自頂向下的特征提取機制,結合拼接網絡強化特征表示
4)GCNFC:GCNFC(graph convolutional networkwithfullyconnectedlayer)模型在GCN圖卷積神經網絡基礎上引入全連接層,通過GCN提取深層圖特征,全連接層整合并分類,增強特征整合與分類能力,提升虛假新聞檢測準確性與效率。
根據表3和表4研究結果顯示(表中黑體數據為最優結果),基于文本內容的檢測模型TextCNN和BERT-LSTM在不同數據集上表現有所差異。TextCNN雖然在文本特征提取方面有一定優勢,但其精確率和召回率相對較低,影響了整體性能。BERT-LSTM結合了BERT的預訓練語言表示和LSTM的時序建模能力,在PolitiFact數據集上取得了不錯的性能,但在GossipCop數據集上則稍顯遜色。而基于用戶行為的BiGCN和GCNFC模型通過引入圖卷積神經網絡,能夠捕捉用戶之間的傳播關系,從而在一定程度上提升了虛假新聞檢測的準確性。但它們主要依賴于用戶行為信息,對于文本內容的利用相對有限,因此,在數據集差異較大或文本內容對檢測結果影響更為顯著的情況下,BiGCN和GCNFC模型的性能可能會受到一定限制。
本文構建的基于BGMA的虛假新聞檢測模型融合了用戶行為特征與新聞內容特征,經過驗證,該模型在兩個數據集上均展現出優異的表現。與基于內容的模型中表現較好的 BERT-LSTM 模型相比,在PolitiFact數據集上準確率提升 4.06% ,在Gossip-Cop數據集上準確率提升 19.73% 。與基于用戶特征的模型中表現較好的GCNFC模型相比,在Politi-Fact數據集上準確率提升 10.59% ,在GossipCop 數據集上準確率提升 10.47% 。


研究結果表明,相較于僅基于新聞內容特征的分析方法,本文采用的結合用戶行為特征和新聞內容特征的綜合分析策略展現出更為卓越的判別能力。這一結果證明了本文提出的結合用戶行為特征與新聞內容進行新聞真實性分析的可行性和有效性。通過深人剖析用戶在閱讀理解過程中的行為模式,模型能夠更加精準地過濾新聞文本中的信息,有效捕捉那些可能引發爭議的關鍵信息點,從而顯著提升對新聞真實性的判別精確度。
4結語
在信息傳播日益全球化、多樣化的背景下,有效應對虛假新聞的嚴峻挑戰成為亟待解決的問題。本文構建了基于BGMA的虛假新聞檢測模型,模型的核心在于對用戶行為、互動模式以及信息傳播路徑等信息的深人挖掘與分析,同時緊密結合文本內容特征。細致地分析這些數據,可以更全面地理解虛假信息的傳播機制與影響范圍,這不僅有助于識別出關鍵的傳播節點和與之緊密關聯的群體,更為及時制定并實施針對性的應對策略提供了有力支持。
為驗證模型的效果,本文在PolitiFact數據集和GossipCop數據集上進行了詳盡的驗證。研究結果表明,基于BGMA的社交媒體虛假新聞檢測模型在這兩個數據集上都展現出優異的性能,充分證明該方法的有效性和可行性。BGMA模型不僅為虛假新聞爆發期提供了一套有效的應對手段,更為深入理解社交網絡中信息的傳播機制,以及制定更為精準的信息管理策略提供了有益的啟示。但因信息傳播在現實中的動態性和復雜性,模型仍有較大的提升空間,后續仍會進一步優化提升虛假新聞檢測效果。
參考文獻:
[1]王軍.基于元宇宙技術集的智慧媒體技術引擎構建研究[J].新聞愛好者,2022(12):28-31.WANG J. Research on the construction of smart mediatechnology engine based on metauniverse technology set[J].Journalism lover,2022(12):28-31.
[2] 胡舜邦,王琳,劉伍穎.基于預訓練表示和寬度學習的虛假新聞早期檢測[J].大學學報(理學版),2025,57(2):31-36.HU SB,WANGL,LIU W Y.Early detection of fakenews based on pre-training representationand broad learn-ing[J]. Journal of Zhengzhou university(natural scienceedition),2025,57(2):31-36.
[3] 冀源蕊,康海燕,方銘浩.基于Attention與Bi-LSTM的謠言識別方法[J].大學學報(理學版),2023,55(4):16-22.JIY R,KANG H Y,FANG M H. Rumor recognitionmethod basedon attention and Bi-LSTM[J].JournalofZhengzhou university (natural science edition),2023,55(4) : 16-22.
[4] 王軍,崔云燁,張宇航.世界模型研究綜述[J].大學學報(理學版),2024,56(5):1-12.WANGJ,CUI YY,ZHANG Y H.Overview ofworldmodels[J]. Journal of Zhengzhou university(natural sci-ence edition),2024,56(5):1-12.
[5] WUL,SUN PJ,HONG RC,et al. SocialGCN:an effi-cient graph convolutional network based model for socialrecommendation[EB/OL].(2018-11-07)[2024-04-25].http://arxiv. org/abs/1811. 02815.
[6] MA J,GAO W,WONG K F.Detect rumors in microblogProceedings of the 55th Annual Meeting of the Associationfor Computational Linguistics. Stroudsburg:ACL Press,2017,708-717.
[7]LIU Y,WU Y F.Early detection of fake news on socialmedia through propagation path classification with recur-rent and convolutional networks[EB/OL]. (2018-04-25)[2024-04-27]. https://ojs.aai. org/index. php/AAAI/article/view/11268.
[8]尹鵬博,潘偉民,彭成,等.基于用戶特征分析的微博謠言早期檢測研究[J].情報雜志,2020,39(7):81-86.YIN P B,PAN W M,PENG C,et al. Research on earlydetection of weibo rumors based on user characteristics a-nalysis[J]. Journal of intelligence,2020,39(7):81-86.
[9]DOU Y T,SHU K,XIA C Y,et al. User preference-aware fake news detection[C]//Proceedings of the 44thInternational ACM SIGIR Conference on Research andDevelopment in Information Retrieval. New York:ACMPress,2021:2051-2055.
[10]DEVLIN J,CHANG M W,LEE K,et al. BERT: pre-training of deep bidirectional Transformers for languageunderstanding[EB/OL].(2018-10-11)[2024-04-27].https://arxiv. org/pdf/1810. 04805v.
[11] VELICKOVIC P, CUCURULL G, CASANOVA A, et al.Graphattention networks[EB/OL].(2017-10-30)[2024-04-27]. https://arxiv.org/pdf/1710.10903.
[12]VASWANI A,SHAZEER N,PARMAR N,et al. Atten-tion is all you need[C]//Proceedings of the 31st Interna-tional Conference on Neural Information Processing Sys-tems. New York:ACM Press,2017: 6000-6010.
[13]SHUK,MAHUDESWARAND,WANGSH,etal.Fake-NewsNet: a data repository with news content, social con-text,and spatiotemporal information for studying fake newson social media[J].Big data,2020,8(3):171-188.
[14]FEY M,LENSSEN JE. Fast graph representation learn-ing with PyTorch geometric[EB/OL].(2019-03-06)[2024-04-27]. htps://arxiv.org/pdf/1903.02428.