999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于混合特征建模的圖卷積網絡方法

2022-11-30 08:38:06李卓然冶忠林趙海興林晶晶
計算機應用 2022年11期
關鍵詞:語義分類特征

李卓然,冶忠林,趙海興*,林晶晶

基于混合特征建模的圖卷積網絡方法

李卓然1,2,3,4,冶忠林1,2,3,4,趙海興1,2,3,4*,林晶晶1,2,3,4

(1.青海師范大學 計算機學院,西寧 810016; 2.省部共建藏語智能信息處理及應用國家重點實驗室(青海師范大學),西寧 810008; 3.藏文信息處理教育部重點實驗室(青海師范大學),西寧 810008; 4.青海省藏文信息處理與機器翻譯重點實驗室(青海師范大學),西寧 810008)( ? 通信作者電子郵箱h.x.zhao@163.com)

對于網絡中擁有的復雜信息,需要更多的方式抽取其中的有用信息,但現有的單特征圖神經網絡(GNN)無法完整地刻畫網絡中的相關特性。針對該問題,提出基于混合特征的圖卷積網絡(HDGCN)方法。首先,通過圖卷積網絡(GCN)得到節點的結構特征向量和語義特征向量;然后,通過改進基于注意力機制或門控機制的聚合函數選擇性地聚合語義網絡節點的特征,增強節點的特征表達能力;最后,通過一種基于雙通道圖卷積網絡的融合機制得到節點的混合特征向量,將節點的結構特征和語義特征聯合建模,使特征之間互相補充,提升該方法在后續各種機器學習任務上的表現。在CiteSeer、DBLP和SDBLP三個數據集上進行實驗的結果表明,與基于結構特征訓練的GCN相比,HDGCN在訓練集比例為20%、40%、60%、80%時的Micro?F1值平均分別提升了2.43、2.14、1.86和2.13個百分點,Macro?F1值平均分別提升了1.38、0.33、1.06和0.86個百分點。用拼接或平均值作為融合策略時,準確率相差不超過0.5個百分點,可見拼接和平均值均可作為融合策略。HDGCN在節點分類和聚類任務上的準確率高于單純使用結構或語義網絡訓練的模型,并且在輸出維度為64、學習率為0.001、2層圖卷積層和128維注意力向量時的效果最好。

注意力機制;門控機制;雙通道圖卷積網絡;結構特征;語義特征

0 引言

近年來,卷積神經網絡(Convolutional Neural Network, CNN)因具有強大的特征表征能力和不依賴于大量先驗知識的特點而快速發展,并借由其強大的建模能力成為研究熱點。CNN在圖像處理[1-2]、自然語言處理(Natural Language Processing, NLP)[3-4]以及旋轉機械[5-6]等領域明顯提升了各種機器學習任務的性能,然而CNN只能處理具有平移不變性特點的歐氏空間數據,如圖像、語音等,但生活中的許多關系更需要用一種非歐氏空間數據——圖數據——自然地表示,例如社交網絡[7-8]、生物信息網絡[9-10]和交通網絡[11-12]等。不同于圖像等歐氏空間數據,圖數據局部結構各異,不滿足平移不變性,考慮到CNN在圖像識別領域的成功,如何在圖數據上定義CNN成為研究熱點。

Bruna等[13]基于卷積定理于2014年提出了Spectral CNN,模仿CNN特性,通過疊加多層圖卷積,并且為每一層都定義了卷積核和激活函數,構成了圖卷積網絡(Graph Convolutional Network, GCN)。由于GCN時空復雜度較高,隨后Defferrard等[14]于2016年提出了ChebNet,通過將切比雪夫多項式作為卷積核來降低時空復雜度。由于拉普拉斯矩陣的特征值分解復雜度很高,Hammond等[15]為了避免拉普拉斯矩陣的特征值分解,利用切比雪夫多項式的階截斷代替卷積核,將卷積核的建模范圍從整個圖轉換到節點的階鄰居,并減少了卷積核的參數數量。Kipf等[16]使用一階近似ChebNet提出了一種層級傳播方式,每個圖卷積層僅聚合一階鄰居,并且多個圖卷積層可以共享一個卷積核,顯著減少了參數數量;而且隨著層數的增加,可以聚合遠距離鄰節點的信息量越多,不需要進行拉普拉斯矩陣的特征值分解,降低了時間復雜度。這些方法都是在譜域的角度定義圖卷積,而基于空域的方法則出現得更早,并且在后期更受歡迎。早期的圖神經網絡(Graph Neural Network, GNN)要求節點聚合其鄰節點信息達到一個收斂狀態,可能導致節點無法被區分而出現過平滑現象。

在NLP中,節點的文本可以提供豐富的特征信息,不僅可以有效彌補因為結構特征稀疏而導致的訓練不充分問題,還可以豐富節點的特征信息,從而提升分類任務的準確性。現有的圖表示學習算法有一些是基于結構與文本聯合建模的:TADW(Text?Associated DeepWalk)[17]分別學習網絡的結構表示和文本表示,然后將二者通過拼接的方式融入模型;NRNR(Network Representation learning algorithm using the optimizations of Neighboring vertices and Relation model)[18]提出了鄰節點優化的網絡表示學習(Network Representation Learning,NRL),基于知識表示學習中的關系模型對混合特征網絡進行聯合建模;TDNR(Tri?party Deep Network Representation learning using inductive matrix completion)[19]將網絡結構、文本特征和邊的連接確定度等特征融合到RNL框架中,使學習到的表示向量包含了更多的網絡屬性信息;HSNR(Network Representation learning algorithm using Hierarchical Structure embedding)[20]從知識表示的角度引入了多關系建模思想,并將節點之間的關系轉化為知識三元組形式,提出了一種聯合學習模型將節點三元組關系嵌入到網絡表示向量中。

在NRL任務中,通過淺層神經網絡將文本特征和結構特征聯合建模的研究較多,這些研究表明:混合特征建模在下游機器學習任務中的性能更優。但在GNN研究中,結構和文本聯合建模的工作非常少,網絡除了結構特征,節點的文本特征也是一個非常重要的參考特征,研究通過GNN如何將結構和文本特征聯合建模是一項非常具有挑戰性的工作。因此,本文提出一種基于混合特征的圖卷積網絡HDGCN(Hybrid Dual Graph Convolutional Network based on hybrid feature)。首先,將節點的標題作為語義特征并構造語義網絡,將節點間的引用關系作為結構特征構造結構網絡;其次,引入GCN學習網絡中節點的結構特征向量和語義特征向量;然后,使用改進的聚合函數對語義特征進行聚合;最后,基于雙通道圖卷積網絡拼接結構特征向量和語義特征向量。

綜上所述,本文主要工作如下:

1)HDGCN引入注意力機制提升性能,因為注意力機制的學習參數僅與節點特征相關,與圖結構關系不大。GCN學習的參數和圖結構密切相關,每次計算都要更新圖的全部節點,所以在歸納任務中表現一般。根據注意力機制設計聚合函數,計算節點間的權重系數,可以擴展到大規模數據集,增強泛化能力。對于不同度的節點,可以賦予相對應的權重體現最具有影響力的輸入。

2)語義網絡中節點存在部分弱相關鄰節點,可能導致噪聲數據影響HDGCN的訓練效果,本文采用門控機制設計聚合函數控制節點特征信息流向,增強節點的特征表達能力,降低噪聲的干擾。

3)基于語義特征或基于結構特征反映的節點信息不完整,將兩種單特征融合為混合特征,充分利用了兩種特征之間的互補性和多樣性,增強節點表達能力。在三個基準測試數據集上驗證本文模型,實驗結果表明GCN中混合特征比單特征的準確率有明顯提升。

1 相關工作

NRL先將網絡中的節點映射為低維、稠密、實值向量表示,再用于各種機器學習任務。DeepWalk[21]是NRL最著名的工作,它采用隨機游走方法得到節點序列,并將一個序列看作一個句子,序列中的節點元素看作單詞,通過Word2Vec算法將每個頂點表示為一個低維向量。DeepWalk在圖數據上利用自然語言處理方法學習節點表示,但網絡中節點間結構關系比詞上下文關系更復雜,并且通常網絡中的邊包含權重,Word2Vec算法目前不能解決該問題。LINE(Large?scale Information Network Embedding)[22]定義一階相似度和二階相似度代替隨機游走算法。受深度學習啟發,SDNE(Structural Deep Network Embedding)[23]引入深度自編碼器獲得節點的一階和二階相似度。由于DeepWalk不能完整地保留網絡結構信息,Node2Vec[24]優化了隨機游走算法,提出了廣度優先策略和深度優先策略。隨著深度學習的興起,神經網絡應用于圖數據利用end?to?end方式學習節點表示產生了一個新的研究熱點——圖神經網絡(GNN)。

GNN分為基于譜域和空域兩種方法。由于圖數據不具有平移不變性的特點,CNN不能直接應用在圖上,譜圖理論的工作為定義圖卷積提供了方法:先使用傅里葉變換,使節點嵌入從空域轉換到譜域;再利用傅里葉逆變換將節點嵌入轉換到原空間實現圖卷積操作;反復執行圖卷積操作,使節點對鄰居節點的依賴性降低,能很好地完成圖數據中更加復雜的學習任務。文獻[16]中提出了經典的GCN,隨著后續工作對GCN的不斷改進和完善,該模型的基本結構由輸入層、隱藏層和輸出層三部分組成。其中隱藏層由圖卷積層和池化層構成:圖卷積層用來抽取圖上每個節點鄰接節點的特征,池化層通常用來降低特征維度。首先,圖數據經過隱藏層提取每個節點的鄰接節點特征,如果模型中參數太多,而訓練樣本太少,則通過Dropout在每個訓練批次中隨機丟棄一半的隱藏層節點;然后,再對輸出的特征矩陣進行卷積操作;最后,用softmax激活函數將輸出的節點嵌入映射到(0,1)區間,可以看作當前屬于各個分類的概率。將模型輸出結果作為預測值和真實值進行比較獲得誤差,通過反向傳播將誤差從后向前依次傳遞,并求出每一層的誤差作為修改該層參數的依據。循環執行此操作直至收斂或預設的訓練步為止。上述模型都使用原始圖結構來表示節點間的關系,但是,不同節點間可能存在潛在的關系。2018年,Li等[25]提出了一種自適應圖卷積網絡(Adaptive Graph Convolutional neural Network, AGCN)來學習節點之間潛在的關系。同年,Zhuang等[26]針對圖的全局和局部一致性提出了對偶圖卷積網絡(Dual Graph Convolutional Network, DGCN),使用兩個不同的卷積獲得局部一致性和全局一致性,并采用無監督損失對它們同時進行參數更新。2019年,Xu等[27]采用圖小波變換代替圖傅立葉變換,提出了圖小波神經網絡(Graph Wavelet Neural Network, GWNN)。GWNN有兩個優點:無需矩陣分解即可快速得到圖的小波變換;圖小波具有稀疏性和局部性,分類的準確率結果更好,更易于解釋。

基于空域的方法的核心思想是通過定義聚合函數對卷積核建模,迭代式地聚合鄰居節點的特征,進而更新當前節點的特征。2009年,Scarselli等[28]提出了GNN,將循環遞歸函數作為聚合函數,每個節點通過聚合鄰節點信息更新自身表達。2017年,Li等[29]提出了GG?NN(Gated Graph Neural Network),利用門控循環網絡更新節點自身表達,不再要求圖收斂。2016年,DCNN(Diffusion Convolutional Neural Network)[30]將圖卷積看作擴散過程,節點間的信息以一定的概率傳播,相鄰節點間信息傳播概率更高。2017年,Hamilton等[31]提出了GraphSAGE(Graph SAmple and aggreGatE),給出了均值聚合、長短期記憶(Long Short?Term Memory, LSTM)聚合和池化聚合三種聚合函數更新節點狀態。Gilmer等[32]發現所有基于空域的都是節點將鄰節點信息以某種形式聚合來更新節點狀態,旨在將不同的模型集成到一個框架中,因此提出了一個基于空域圖卷積的通用框架MPNN(Modified Probabilistic Neural Network)用于化學分子性質的預測。2017年,Monti等[33]嘗試整合基于非歐空間模型,提出了MoNet框架。2018年,Wang等[34]通過整合若干種自注意力方法,提出了非局部神經網絡(Non Local Neural Network, NLNN),非局部操作將某個位置的隱藏狀態計算為所有可能狀態的特征加權和。Battaglia等[35]提出了圖網絡(Graph Network, GN),它為節點級學習、邊級學習和圖級學習定義了一個更通用的框架。由于鄰節點的影響不同,需要對它們進行區別對待,2018年,Veli?kovi?等[36]引入注意力機制定義聚合函數,通過對周圍節點的表達加權求和更新節點自身表達。同年,Zhang等[37]提出了門控注意網絡(Gated Attention Network, GaAN),它使用一種自注意力機制從不同的注意力頭中收集信息,取代GAT(Graph ATtention)的平均操作。基于空域的方法使節點聚合了大量的周圍節點信息,為了獲得更重要的信息,增強節點特征的表達能力,使下游機器學習任務有更好的效果,引入注意力機制和門控循環單元(Gated Recurrent Unit, GRU)[38]到GNN中。GRU包含重置門和更新門,其中,重置門將新信息與之前的記憶結合,更新門定義了之前記憶與時間步相對應的量。更新門以門控形式控制信息流入,決定了傳遞到下游任務的上游信息的數量,或者兩個時間步之間的信息傳遞數量,緩解了梯度彌散的風險。反之,重置門是一個由0和1作為門控值組成的向量,門控值決定了門控的大小,Hadamard乘積決定了上游信息被遺忘的數量,使用更新門收集當前和之前最終記憶信息,同時相加得到GRU最終的輸出內容。Tree LSTM、Graph LSTM[39]、Sentence LSTM[40]在傳播過程中使用GRU或LSTM[41]等門機制,以減少GNN的計算限制,并減少節點信息在圖結構中的傳播時間。2020年,Li等[42]除了定義注意力機制為聚合函數,還引入門單元到聚合函數。

2 基于混合特征的雙通道圖卷積網絡

圖1 HDGCN框架

2.1 符號和定義

2.2 節點級學習

2.3 特征聚合

1)基于注意力機制的聚合函數。

2)基于GRU的聚合函數。

2.4特征融合

2.5 訓練方法

3 實驗與結果分析

影響分類任務的主要因素是網絡建模能力和基于注意力或門控聚合函數。其中,影響網絡建模效果的因素主要是訓練模型的數據集,權重矩陣的初始化,基本單元中卷積層的維度、學習率,模型中基本單元的個數、激活函數等。

3.1 數據集的選擇

為評估HDGCN的有效性,使用三個引文網絡數據集,包括學術網絡數據集CiteSeer、DBLP(DataBase systems and Logic Programming)和SDBLP(Simplified DataBase systems and Logic Programming),它們的統計數據如表1所示。每個數據集根據關系類型劃分為語義網絡和結構網絡,節點代表文獻。在語義網絡中,節點間連邊關系根據詞共現關系構造,即在每個節點的標題中,如果出現相同的詞,則節點間存在連邊關系;在結構網絡中,節點間連邊關系依據不同文獻之間的引用關系確定。SDBLP是DBLP中刪除引用數小于3的節點,即節點度小于3的節點被刪除。

表1 數據集統計信息

3.2 節點分類

3.2.1對比實驗

1)DeepWalk:一種將隨機游走和Word2Vec相結合的圖結構數據挖掘算法,它能夠學習網絡的隱藏信息,將圖中的節點表示為一個包含潛在信息的向量。

2)LINE:對節點一階相似度和二階相似度進行建模,根據權重對邊進行采樣訓練,可用于大規模有向圖、無向圖以及邊有權重的網絡進行節點表示。

3)Text Feature(TF):將網絡節點的文本內容轉化為共現矩陣,然后使用奇異值分解(Singular Value Decomposition, SVD)去分解該共現矩陣,從而得到一個語義特征向量。

4)DeepWalk+TF:將DeepWalk和TF生成的網絡表示向量按列拼接。

5)GraRep:用低維向量表示圖中節點的向量,并將圖的全局結構信息整合到學習過程。

如表2所示:在CiteSeer中,節點的語義特征在分類任務的準確率優于DeepWalk和LINE;將TF的特征向量與DeepWalk表示向量進行拼接,其準確率優于DeepWalk或文本特征TF;本文提出的HDGCN通過雙通道圖卷積網絡和聚合函數將語義特征融入到網絡的向量表示中,準確率優于DeepWalk+TF,也優于其他對比算法。

表2 不同訓練集比例下的節點分類任務準確率 單位: %

在DBLP中,雖然語義特征隨著訓練集比例的增加,其準確率也越來越優于DeepWalk,但是,將DeepWalk與TF結合得到的結果卻低于DeepWalk或TF。本文提出的HDGCN分類準確率遠優于DeepWalk、LINE、GraRep等算法。

在SDBLP中,基于矩陣分解的高階網絡表示學習GraRep在分類任務中取得了很好的結果。由于SDBLP是稠密圖,語義特征的節點分類準確率最差,所以,將DeepWalk和TF拼接后的分類準確率與DeepWalk相比沒有優勢。通過實驗得到HDGCN分類性能劣于GraRep,原因是稠密圖中,語義特征包含了許多噪聲數據,將其融入網絡的表示向量中會影響分類準確率。

3.2.2消融實驗

如圖2所示,在SDBLP數據集上,基于混合特征訓練的HDGCN的節點分類準確率呈現了先下降后上升的趨勢;但是在CiteSeer和DBLP數據集上,準確率曲線呈現顯著的上升趨勢。主要原因是在稠密圖上:HDGCN借助密集的邊連接可以充分地反映圖的結構特征,但是,語義特征使許多弱關聯鄰節點與中心節點的關系增強甚至成為鄰居節點,作為噪聲數據影響HDGCN反映圖語義特征的有效性,因此,特征融合后的混合特征呈現出下降趨勢。由于DBLP數據集是大規模的稀疏圖,HDGCN受限于其規模不能充分地反映圖的不同特征,準確率的跨度低于SDBLP和CiteSeer數據集。

表3 不同訓練集比例下節點分類任務的Micro?F1和Macro?F1對比 單位: %

圖2 不同訓練集比例下的節點分類準確率變化曲線

3.3 參數影響與選擇

3.3.1卷積核初始化的選擇

由于一般神經網絡在前向傳播時神經元輸出值的方差會不斷增大,為了使網絡中的信息更好地流動,每層輸出方差應該盡量相等,使用Xavier理論上可以保證每層神經元輸入輸出方差一致,避免了所有輸出值都趨向于0。標準正態分布可以將輸入值強行變為標準正態分布,使激活函數值在非線性函數中比較敏感的區域:梯度增大,收斂速度加快。截斷正態分布指定平均值和標準差,但是大于平均值2個標準差的值被刪除且重新選擇。圖3是卷積核初始化方法對模型訓練的影響。如圖3所示,使用Xavier初始化卷積核可以使HDGCN在最少的迭代次數情況下趨于穩定,雖然在DBLP數據集上使用正態分布方法相較于Xavier方法更快地使HDGCN達到穩定狀態,但其準確率均高于使用正態分布和截斷正態分布初始化卷積核情況下取得的準確率。

3.3.2輸出維度的影響

3.3.3學習率的選擇

學習率是通過損失函數的梯度調整指導權重矩陣的超參數。學習率越低,損失函數變化速度越慢。雖然低學習率不影響極小值的選擇,但會延長收斂的時間;學習率太高,梯度下降的幅度可能會超過最優值。另外,學習速率對模型達到最優準確率的速度也有影響。圖5為學習率對訓練的影響,可以看出,CiteSeer和SDBLP數據集上混合網絡對應的學習率為0.001,并且當學習率大于0.001時,混合網絡的分類效果均優于結構網絡和語義網絡。為了避免因梯度下降的幅度過大而錯過最優值,學習率選擇0.001。

圖3 卷積核初始化方法對節點分類準確率的影響

圖4 輸出維度對節點分類準確率的影響

圖5 學習率對節點分類準確率的影響

3.3.4模型層數的選擇

眾所周知,GCN是一個低通濾波器,這種特性可以使信號更加平滑;但這種優勢若不加以控制則過猶不及,因為多次進行信號的平滑操作容易使節點信號趨于一致,喪失節點多樣性的特征,使得以GCN為基礎的下游任務難以進行,這種現象被稱為過平滑(over?smoothing)。

圖6為卷積層數對訓練的影響,可以看出:當卷積層數增加到8后,混合網絡的準確率低于結構網絡的準確率,且隨著層數的增加,HDGCN的準確率逐漸降低,出現過平滑現象;在SDBLP中,卷積層數為8時HDGCN的學習效果最好;當CiteSeer中結構網絡和語義網絡的卷積層數大于2時,分類任務的準確率逐漸降低;受制于DBLP中混合網絡存在大量的噪聲數據,當卷積層數為4時,準確率到達峰值。因為在每個數據集上,混合網絡的分類準確率在卷積層數為2、4、8時均高于結構網絡,并且上述各個網絡的準確率峰值對應的層數最多為8,為了避免過擬合,HDGCN選擇2層卷積層。

3.3.5注意力向量維度的選擇

3.4 節點聚類

本文通過使用K?means類方法對節點進行聚類并且計算歸一化互信息(Normalized Mutual Information, NMI)和調整蘭德指數(Adjusted Rand Index, ARI)測試模型性能,K?means聚類數和節點的類別數相同。節點聚類和分類任務使用相同的模型參數,表4的實驗結果為10次實驗的平均值。由于SDBLP數據集中基于結構特征的節點間聯系緊密,聚類程度較高,但是,基于語義特征的節點間聯系包含了大量的噪聲,可能會影響節點的聚類效果;因此,基于混合特征的節點聚類效果相較于結構特征差距不明顯。DBLP數據集數據量較大且具有較強的稀疏性,它基于結構特征的節點聚類效果明顯弱于SDBLP和CiteSeer;因此,基于混合特征的節點聚類效果比結構特征差。

表4 三種特征在聚類任務下的NMI和ARI對比 單位: %

3.5 特征融合策略

本文將結構特征和文本特征融合為混合特征,融合策略如表5所示:在SDBLP和CiteSeer數據集上,mean作為融合策略時,模型效果最好:在DBLP數據集上,concat作為融合策略效果最好。但是,三種融合策略的結果差異性較小,不是影響模型性能的主要因素。

表5 不同訓練集比例下三種融合方式的節點分類任務準確率 單位: %

3.6 節點分類任務可視化

為了能直觀體現混合特征的優越性,本文通過t?SNE將節點的嵌入表示映射到二維空間,在圖8中,本文驗證了基于混合特征、結構特征以及語義特征的節點嵌入表示,不同的顏色代表不同的研究類別。由圖8可知,混合特征在下游任務中表現出眾,更具體地說,基于混合特征的節點分類任務中,節點之間的相似性較高且相較于語義特征不同類別內的大部分節點具有明顯的邊界,并且對于基于結構特征的節點分類結果中未區分的節點,混合特征按節點所屬類別對其進行分離;基于結構特征的分類任務中,部分節點沒有明顯的區分而緊密地聚集在一起;基于語義特征的分類任務中,由于存在大量的噪聲數據,不同類別的節點之間不但沒有明確的界限,還分散地交叉混合在一起。

圖6 卷積層數對節點分類準確率的影響

圖7 注意力向量維度對節點分類準確率的影響

圖8 CiteSeer數據集上特征嵌入的可視化

4 結語

本文通過構建雙通道圖卷積網絡模型學習混合特征的節點嵌入表示。該模型首先將混合特征分解為兩個單一類型特征:結構特征和語義特征;其次,將結構特征和語義特征作為圖卷積層的輸入抽取每個節點的特征;然后,為了提高模型泛化能力并抽取完整語義特征的節點表示,將基于注意力機制和門控機制的聚合函數作用于基于節點間語義關聯的網絡;最后,將聚合結果按行拼接、共享參數、協同訓練得到下游任務的分類結果。實驗結果表明,本文使用Xavier初始化卷積核;為了避免因梯度下降的幅度過大而錯過最優值,學習率選擇0.001;為了防止發生過平滑現象,設置2層圖卷積;在不同數據集上,嵌入維度分別選擇64和256,注意力向量維度分別選擇128和64。在不同的機器學習任務中,基于HDGCN模型的混合特征節點嵌入的結果明顯優于另外兩種單一的特征類型。增加圖卷積層的數量可以提高圖卷積網絡的性能,如何增加HDGCN的圖卷積層數而且不發生過平滑現象也是一個潛在的研究問題。

[1] LIU Y, LIU S P, WANG Z F. A general framework for image fusion based on multi?scale transform and sparse representation[J]. Information Fusion, 2015, 24: 147-164.

[2] EASLEY G, LABATE D, LIM W Q. Sparse directional image representations using the discrete shearlet transform[J]. Applied and Computational Harmonic Analysis, 2008, 25(1):25-46.

[3] KALCHBRENNER N, GREFENSTETTE E, BLUNSOM P. A convolutional neural network for modelling sentences[C]// Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Stroudsburg, PA: Association for Computational Linguistics, 2014: 655-665.

[4] LE Q, MIKOLOV T. Distributed representations of sentences and documents[C]// Proceedings of the 31st International Conference on Machine Learning. New York: JMLR.org, 2014:1188-1196.

[5] ZHAO M H, ZHONG S S, FU X Y, et al. Deep residual shrinkage networks for fault diagnosis[J]. IEEE Transactions on Industrial Informatics, 2020, 16(7): 4681-4690.

[6] 李濤,段禮祥,張東寧,等. 自適應卷積神經網絡在旋轉機械故障診斷中的應用[J]. 振動與沖擊, 2020, 39(16):275-282, 288.(LI T, DUAN L X, ZHANG D N, et al. Application of adaptive convolutional neural network in rotating machinery fault diagnosis[J]. Journal of Vibration and Shock, 2020, 39(16):275-282, 288.)

[7] KICK E L, McKINNEY L A, McDONALD S, et al. A multiple? network analysis of the world system of nations, 1995-1999[M]// SCOTT J, CARRINGTON P J. The SAGE Handbook of Social Network Analysis. Thousand Oaks, CA: SAGE Publications Ltd, 2014:311-328.

[8] LIAO L Z, HE X N, ZHANG H W, et al. Attributed social network embedding[J]. IEEE Transactions on Knowledge and Data Engineering, 2018, 30(12):2257-2270.

[9] GLIGORIJEVI? V, BAROT M, BONNEAU R. deepNF: deep network fusion for protein function prediction[J]. Bioinformatics, 2018, 34(22):3873-3881.

[10] SU C, TONG J, ZHU Y J, et al. Network embedding in biomedical data science[J]. Briefings in Bioinformatics, 2020, 21(1):182-197.

[11] 楊力川. 基于深度學習的交通標志識別研究綜述[J]. 現代計算機, 2021(15):3-5, 11.(YANG L C. Summary of research on traffic sign recognition based on deep learning[J]. Modern Computer, 2021(15):3-5, 11.)

[12] CUI Z Y, HENRICKSON K, KE R M, et al. Traffic graph convolutional recurrent neural network: a deep learning framework for network?scale traffic learning and forecasting[J]. IEEE Transactions on Intelligent Transportation Systems, 2020, 21(11): 4883-4894.

[13] BRUNA J, ZAREMBA W, SZLAM A, et al. Spectral networks and locally connected networks on graphs[EB/OL]. (2014-04-21)[2021-11-26].https://arxiv.org/pdf/1312.6203.pdf.

[14] DEFFERRARD M, BRESSON X, VANDERGHEYNST P. Convolutional neural networks on graphs with fast localized spectral filtering[C]// Proceedings of the 30th International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2016:3844-3852.

[15] HAMMOND D K, VANDERGHEYNST P, GRIBONVAL R. Wavelets on graphs via spectral graph theory[J]. Applied and Computational Harmonic Analysis, 2011, 30(2):129-150.

[16] KIPF T N, WELLING M. Semi?supervised classification with graph convolutional networks[EB/OL]. (2017-02-22)[2021-11-26]. https://arxiv.org/pdf/1609.02907.pdf.

[17] YANG C, LIU Z Y, ZHAO D L, et al. Network representation learning with rich text information[C]// Proceedings of the 24th International Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2015:2111-2117.

[18] 冶忠林,趙海興,張科,等. 基于多源信息融合的分布式詞表示學習[J]. 中文信息學報, 2019, 33(10):18-30.(YE Z L, ZHAO H X, ZHANG K, et al. Distributed word embedding via multi?source information fusion[J]. Journal of Chinese Information Processing, 2019, 33(10):18-30.)

[19] YE Z L, ZHAO H X, ZHANG K, et al. Tri?party deep network representation learning using inductive matrix completion[J]. Journal of Central South University, 2019, 26(10): 2746-2758.

[20] YE Z L, ZHAO H X, ZHU Y, et al. HSNR: a network representation learning algorithm using hierarchical structure embedding[J]. Chinese Journal of Electronics, 2020, 29(6):1141-1152.

[21] PEROZZI B, AL?RFOU R, SKIENA S. DeepWalk: online learning of social representations[C]// Proceedings of the 20th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2014:701-710.

[22] TANG J, QU M, WANG M Z, et al. LINE: large?scale information network embedding[C]// Proceedings of the 24th International Conference on World Wide Web. Republic and Canton of Geneva: International World Wide Web Conferences Steering Committee, 2015: 1067-1077.

[23] WANG D X, CUI P, ZHU W W. Structural deep network embedding[C]// Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2016: 1225-1234.

[24] GROVER A, LESKOVEC J. node2vec: scalable feature learning for networks[C]// Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2016: 855-864.

[25] LI R Y, WANG S, ZHU F Y, et al. Adaptive graph convolutional neural networks[C]// Proceedings of the 32nd AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2018:3546-3553.

[26] ZHUANG C Y, MA Q. Dual graph convolutional networks for graph?based semi?supervised classification[C]// Proceedings of the 2018 World Wide Web Conference. Republic and Canton of Geneva: International World Wide Web Conferences Steering Committee, 2018: 499-508.

[27] XU B B, SHEN H W, CAO Q, et al. Graph wavelet neural network[EB/OL]. (2019-04-12)[2021-11-26].https://arxiv.org/pdf/1904.07785.pdf.

[28] SCARSELLI F, GORI M, TSOI A C, et al. The graph neural network model[J]. IEEE Transactions on Neural Networks, 2009, 20(1): 61-80.

[29] LI Y J, ZEMEL R, BROCKSCHMIDT M, et al. Gated graph sequence neural networks[EB/OL]. (2017-09-22)[2021-11-26].https://arxiv.org/pdf/1511.05493.pdf.

[30] ATWOOD J, TOWSLEY D. Diffusion?convolutional neural networks[C]// Proceedings of the 30th International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2016:2001-2009.

[31] HAMILTON W L, YING R, LESKOVEC J. Inductive representation learning on large graphs[C]// Proceedings of the 31st International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2017:1025-1035.

[32] GILMER J, SCHOENHOLZ S S, RILEY P F, et al. Neural message passing for quantum chemistry[C]// Proceedings of the 34th International Conference on Machine Learning. New York: JMLR.org, 2017:1263-1272.

[33] MONTI F, BOSCAINI D, MASCI J, et al. Geometric deep learning on graphs and manifolds using mixture model CNNs[C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2017:5425-5434.

[34] WANG X L, GIRSHICK R, GUPTA A, et al. Non?local neural networks[C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018:7794-7803.

[35] BATTAGLIA P W, HAMRICK J B, BAPST V, et al. Relational inductive biases, deep learning, and graph networks[EB/OL]. (2018-10-17)[2021-11-26].https://arxiv.org/pdf/1806.01261.pdf.

[36] VELI?KOVI? P, CUCURULL G, CASANOVA A, et al. Graph attention networks[EB/OL]. (2018-02-04)[2021-11-26].https://arxiv.org/pdf/1710.10903.pdf.

[37] ZHANG J N, SHI X J, XIE J Y, et al. GaAN: gated attention networks for learning on large and spatiotemporal graphs[C]// Proceedings of the Thirty?Fourth Conference on Uncertainty in Artificial Intelligence. Arlington, VA: AUAI Press, 2018: No.139.

[38] CHUNG J, GULCEHRE C, CHO K, et al. Empirical evaluation of gated recurrent neural networks on sequence modeling[EB/OL]. (2014-12-11)[2021-11-26].https://arxiv.org/pdf/1412.3555.pdf.

[39] LIANG X D, SHEN X H, FENG J S, et al. Semantic object parsing with Graph LSTM[C]// Proceedings of the 2016 European Conference on Computer Vision, LNCS 9905. Cham: Springer, 2016:125-143.

[40] ZHANG Y, LIU Q, SONG L F. Sentence?state LSTM for text representation[C]// Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Stroudsburg, PA: Association for Computational Linguistics, 2018:317-327.

[41] HOCHREITER S, SCHMIDHUBER J. Long short?term memory[J]. Neural Computation, 1997, 9(8):1735-1780.

[42] LI X H, WEN L J, QIAN C, et al. GAHNE: graph?aggregated heterogeneous network embedding[C]// Proceedings of the IEEE 32nd International Conference on Tools with Artificial Intelligence. Piscataway: IEEE, 2020:1012-1019.

Graph convolutional network method based on hybrid feature modeling

LI Zhuoran1,2,3,4, YE Zhonglin1,2,3,4, ZHAO Haixing1,2,3,4*, LIN Jingjing1,2,3,4

(1,,810016,;2(),810008,;3,(),810008,;4(),810008,)

For the complex information contained in the network, more ways are needed to extract useful information from it, but the relevant characteristics in the network cannot be completely described by the existing single?feature Graph Neural Network (GNN). To resolve the above problems, a Hybrid feature?based Dual Graph Convolutional Network (HDGCN) was proposed. Firstly, the structure feature vectors and semantic feature vectors of nodes were obtained by Graph Convolutional Network (GCN). Secondly, the features of nodes were aggregated selectively so that the feature expression ability of nodes was enhanced by the aggregation function based on attention mechanism or gating mechanism. Finally, the hybrid feature vectors of nodes were gained by the fusion mechanism based on a feasible dual?channel GCN, and the structure features and semantic features of nodes were modeled jointly to make the features be supplement for each other and promote the method􀆳s performance on subsequent machine learning tasks. Verification was performed on the datasets CiteSeer, DBLP (DataBase systems and Logic Programming) and SDBLP (Simplified DataBase systems and Logic Programming). Experimental results show that compared with the graph convolutional network model based on structure feature training, the dual channel graph convolutional network model based on hybrid feature training has the average value of Micro?F1 increased by 2.43, 2.14, 1.86 and 2.13 percentage points respectively, and the average value of Macro?F1 increased by 1.38, 0.33, 1.06 and 0.86 percentage points respectively when the training set proportion is 20%, 40%, 60% and 80%. The difference in accuracy is no more than 0.5 percentage points when using concat or mean as the fusion strategy, which shows that both concat and mean can be used as the fusion strategy. HDGCN has higher accuracy on node classification and clustering tasks than models trained by structure or semantic network alone, and has the best results when the output dimension is 64, the learning rate is 0.001, the graph convolutional layer number is 2 and the attention vector dimension is 128.

attention mechanism; gating mechanism; dual channel graph convolutional network; structure feature; semantic feature

This work is partially supported by National Key Research and Development Program of China (2020YFC1523300), Natural Science Foundation of Qinghai Province (2021?ZJ?946Q), Middle?Youth Natural Science Foundation of Qinghai Normal University (2020QZR007).

LI Zhuoran, born in 1996, M. S. candidate. His research interests include data mining, graph neural network.

YE Zhongli, born in 1989, Ph. D., associate professor. His research interests include question answering system, network representation learning.

ZHAO Haixing, born in 1969, Ph. D., professor. His research interests include complex network, network reliability.

LIN Jingjing, born in 1986, Ph. D. candidate, lecturer. Her research interests include data mining, hypergraph neural network.

1001-9081(2022)11-3354-10

10.11772/j.issn.1001-9081.2021111981

2021?11?22;

2022?01?12;

2022?01?14。

國家重點研發計劃項目(2020YFC1523300);青海省自然科學基金資助項目(2021?ZJ?946Q);青海師范大學自然科學中青年科研基金資助項目(2020QZR007)。

TP391

A

李卓然(1996—),男,內蒙古烏蘭察布人,碩士研究生,CCF會員,主要研究方向:數據挖掘、圖神經網絡;冶忠林(1989—),男,青海民和人,副教授,博士,CCF會員,主要研究方向:問答系統、網絡表示學習;趙海興(1969—),男,青海湟中人,教授,博士,CCF會員,主要研究方向:復雜網絡、網絡可靠性;林晶晶(1986—),女,甘肅臨洮人,講師,博士研究生,CCF會員,主要研究方向:數據挖掘、超圖神經網絡。

猜你喜歡
語義分類特征
分類算一算
語言與語義
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
抓住特征巧觀察
“上”與“下”語義的不對稱性及其認知闡釋
現代語文(2016年21期)2016-05-25 13:13:44
認知范疇模糊與語義模糊
主站蜘蛛池模板: 成人亚洲天堂| 无码福利日韩神码福利片| 国产成人精品2021欧美日韩| 国产精品欧美在线观看| 日本精品αv中文字幕| 久久精品娱乐亚洲领先| 国产丝袜一区二区三区视频免下载| 伊人精品成人久久综合| 夜夜爽免费视频| 国产毛片高清一级国语 | AV在线天堂进入| 激情爆乳一区二区| 任我操在线视频| 成人午夜网址| 人妻无码中文字幕第一区| 国产一区二区影院| 在线无码九区| 国产在线97| 欧美www在线观看| 国产午夜无码专区喷水| 青青草欧美| 男女男精品视频| 在线观看视频99| 成人福利在线视频| av在线5g无码天天| jijzzizz老师出水喷水喷出| 在线欧美a| 综合天天色| 日韩欧美中文字幕在线韩免费| 亚洲综合色婷婷| 日韩欧美国产中文| 72种姿势欧美久久久久大黄蕉| 国产乱子伦视频在线播放| 人妻中文久热无码丝袜| 成人一区专区在线观看| 欧美高清国产| 国产在线自在拍91精品黑人| 欧美一区二区三区香蕉视| 91精品国产91久久久久久三级| 第九色区aⅴ天堂久久香| 亚洲欧美日韩成人高清在线一区| 一级爆乳无码av| 一本综合久久| 找国产毛片看| 亚洲欧洲日韩国产综合在线二区| 色综合久久88| 亚洲福利一区二区三区| 中国精品久久| 成人午夜网址| 福利片91| 日韩免费无码人妻系列| 日韩国产精品无码一区二区三区 | 成人午夜网址| 在线观看欧美精品二区| 欧美福利在线播放| 天天爽免费视频| 亚洲成人免费看| 福利小视频在线播放| 亚洲国产精品不卡在线| 国产精品久久久久婷婷五月| 精品国产三级在线观看| 精品国产免费观看一区| 怡红院美国分院一区二区| 日本一区二区不卡视频| 欧美一级黄片一区2区| 波多野结衣AV无码久久一区| 亚洲中文字幕久久无码精品A| 精品久久777| 亚洲av无码专区久久蜜芽| 色婷婷综合在线| 美女毛片在线| 亚洲欧美激情小说另类| 精品乱码久久久久久久| 国产日本欧美亚洲精品视| 国产精品99在线观看| 日本精品αv中文字幕| 无码精品一区二区久久久| 国产精品国产三级国产专业不| 亚洲最新地址| 99国产在线视频| 欧美一区二区福利视频| 午夜老司机永久免费看片|