張 路,史艷翠
(天津科技大學(xué)人工智能學(xué)院,天津 300457)
隨著科學(xué)技術(shù)的發(fā)展,互聯(lián)網(wǎng)與人們的日常生活越來越密切,越來越多的用戶開始在互聯(lián)網(wǎng)上發(fā)表個人見解、表達自己的情感和意見。利用情感分析技術(shù)對微博評論或淘寶評價等文本進行分析,可以從中發(fā)現(xiàn)用戶對社會輿論的關(guān)注程度以及對商品的購買喜好,從而為用戶推薦更合適的信息與商品[1]。
情感分析是自然語言處理的一個分支,是指通過制定相關(guān)的規(guī)則和搭建合適的模型對微博評論、淘寶商品評價等帶有情感、意見、看法的文本進行分析處理,進而判斷出這些文本中包含的用戶對于某種事物、產(chǎn)品或服務(wù)所表達出的情感、意見、情緒[2]。目前的情感分析方法主要可以總結(jié)為4 種:基于情感詞典的方法、基于機器學(xué)習的方法、基于深度學(xué)習的方法和基于多策略融合的方法[3]。
傳統(tǒng)的文本情感分析方法主要包括基于情感詞典的方法和基于機器學(xué)習的方法?;谇楦性~典的方法通過對文本中的情感詞賦值,然后計算文本整體的情感得分,判斷文本整體的情感極性[4-6],但該方法需要大量的人工參與?;跈C器學(xué)習的方法則是通過使用機器學(xué)習算法抽取文本的特征,學(xué)習文本的一般性規(guī)律,然后使用這些規(guī)律對未知文本進行預(yù)測,判斷出文本的情感傾向[7-10]。與基于情感詞典的方法相比,使用基于機器學(xué)習的方法進行情感分析的效率更高,但同樣需要人工參與。
隨著深度學(xué)習的興起,研究人員開始嘗試將深度學(xué)習技術(shù)引入文本情感分析領(lǐng)域中,深度學(xué)習技術(shù)在文本情感分析任務(wù)中逐漸占據(jù)主導(dǎo)地位[11-13]。劉龍飛等[14]使用卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)分別對文本的字級別特征和詞級別特征進行處理,并判斷文本的情感極性,兩部分的實驗皆取得了良好的成績,表明CNN 可以用來處理文本信息,適用于情感分類。滕飛等[15]通過改進的長短期記憶網(wǎng)絡(luò)(long short-term memory,LSTM)模型對微博評論進行分析,分類準確率達到96.5%。為了突出文本中部分關(guān)鍵特征的重要性,研究人員提出了注意力機制并將其和神經(jīng)網(wǎng)絡(luò)進行融合。Zhai 等[16]將注意力機制和雙向長短期記憶網(wǎng)絡(luò)(bidirectional long short-term memory,Bi-LSTM)結(jié)合,用于雙語的文本情感分析,并取得了很好的效果。與傳統(tǒng)的文本情感分析方法相比,以上基于深度學(xué)習模型的方法具有更強的適應(yīng)性和擴展性,但這些方法忽略了句法規(guī)則等語言知識在中文文本中的作用。
為了體現(xiàn)語言知識對中文情感分類的重要性,有研究人員將情感詞典融入深度學(xué)習模型中,進而提高情感分析的準確率[17-20]。邱寧佳等[21]將根據(jù)電商評論數(shù)據(jù)集構(gòu)建的3 種情感詞典和神經(jīng)網(wǎng)絡(luò)模型進行融合,提出一種融合了語法規(guī)則的中文情感分類模型,但該模型并沒有將CNN 和Bi-LSTM 很好地結(jié)合起來。張仰森等[22]通過整理現(xiàn)有的情感詞典構(gòu)建了微博情感符號庫,并采用Bi-LSTM 模型對文本進行編碼,獲取文本的語義信息,實驗表明該模型在情感分析上表現(xiàn)良好,但該方法所構(gòu)建的情感符號庫過于復(fù)雜,有一定的難度,且只使用了Bi-LSTM 編碼文本語義信息,模型泛化能力不足。
現(xiàn)有的研究工作表明文本標簽所攜帶的信息對情感分析的結(jié)果有積極作用。Sheng 等[23]定義了一組情感詞典,并將它作為文本的情感標簽。王嫄等[24]利用注意力機制將標簽信息和文本表示進行融合,取得了不錯的結(jié)果。然而,一些數(shù)據(jù)集中只有簡單的標簽類別而沒有給出具體的標簽信息,導(dǎo)致模型不能準確理解標簽代表的具體含義。
相對于只使用單一的機器學(xué)習模型或深度學(xué)習模型進行情感分析,將情感詞典融入機器學(xué)習或深度學(xué)習中進行情感分析更具有優(yōu)勢,取得的效果更好。本文通過融合句法規(guī)則和深度學(xué)習構(gòu)建了情感分析模型,分別使用句法規(guī)則和深度學(xué)習方法提取文本的特征。在深度學(xué)習部分通過結(jié)合注意力機制和門控循環(huán)單元(gate recurrent unit,GRU)模型提取文本的高階特征;在句法規(guī)則部分通過構(gòu)建句法規(guī)則降低文本復(fù)雜度,然后將句法規(guī)則模塊生成的信息與生成的標簽描述信息進行融合,進一步突出情感信息;再將兩部分提取的特征進行融合,最后使用分類器對文本進行情感分類。
本文的主要貢獻如下:
(1)提出了一種融合句法規(guī)則和深度學(xué)習的情感分析模型。該模型通過使用句法規(guī)則降低文本復(fù)雜度,結(jié)合深度學(xué)習在提取文本特征上的優(yōu)勢,在情感分類任務(wù)上取得了較好的結(jié)果。
(2)在模型中使用了改進的GRU 模型,在提取文本上下文信息的同時捕獲了文本中的重點信息,提高了模型的特征表達能力。
(3)構(gòu)建領(lǐng)域標簽描述信息,在模型中引入標簽信息,使用標簽信息為模型帶來全局分類信息,在降低文本復(fù)雜度的同時降低文本中噪聲對訓(xùn)練結(jié)果的影響。
中文文本情感分析是情感分析任務(wù)中的一個子任務(wù),通過對數(shù)據(jù)集進行去停用詞、分詞等預(yù)處理操作將數(shù)據(jù)轉(zhuǎn)為結(jié)構(gòu)化信息,接著將數(shù)據(jù)表示成向量后輸入到構(gòu)建的模型中,得到和文本對應(yīng)的標簽。在本文中,數(shù)據(jù)集D={(xi,yj)}是由N個文本xi以及各個文本相對應(yīng)的標簽yj組成。其中,i∈(1,N),j∈(1,I),N表示數(shù)據(jù)集中文本的數(shù)量,I表示標簽類別的數(shù)量。每個文本的詞向量初始化表示為,其中,n為文本的長度,k為詞向量的維度。經(jīng)過句法規(guī)則處理的文本的詞向量初始化表示為,其中。情感分析的目的是訓(xùn)練一個模型,使其可以對一個新的文本x判斷其情感傾向y。
本文提出的模型整體框架如圖1 所示,模型的整體結(jié)構(gòu)由句法規(guī)則構(gòu)建、特征提取、交互模塊和特征融合組成。模型結(jié)構(gòu)自底向上劃分為5 個部分:輸入層、嵌入層、神經(jīng)網(wǎng)絡(luò)模型層、特征融合層以及輸出層。

圖1 模型整體結(jié)構(gòu)圖Fig. 1 Overall framework of the model
1.2.1 句法規(guī)則構(gòu)建
通過對中文文本的研究可以發(fā)現(xiàn),文本中部分句子的情感傾向代表了文本整體的情感傾向。當文本中出現(xiàn)情感傾向明顯的情感詞時,該情感詞所在分句的情感傾向往往代表了文本整體的情感傾向。當文本中含有總結(jié)詞時,總結(jié)詞所引導(dǎo)的句子總會表明文本的中心思想。當文本中含有轉(zhuǎn)折詞時,一般分為兩種情況:當文本中出現(xiàn)的是甲類轉(zhuǎn)折詞時,該轉(zhuǎn)折詞會改變文本的情感傾向;當文本中出現(xiàn)的是乙類轉(zhuǎn)折詞時,該轉(zhuǎn)折詞起到過渡作用,不會對文本的情感傾向產(chǎn)生影響。
邱寧佳等[21]通過對數(shù)據(jù)集中的情感詞、轉(zhuǎn)折詞和總結(jié)詞進行提煉構(gòu)建3 種詞典:情感傾向詞典、轉(zhuǎn)折詞詞典、總結(jié)詞詞典,然后根據(jù)這3 種詞典設(shè)計句法規(guī)則降低中文文本復(fù)雜度,突出文本情感傾向。本文對上述方法進行優(yōu)化,在大連理工大學(xué)的中文情感詞本體庫的基礎(chǔ)上結(jié)合本文數(shù)據(jù)集的特點構(gòu)建了3類詞典,并根據(jù)這些詞典設(shè)計句法規(guī)則對數(shù)據(jù)集進行處理,保留文本中情感傾向突出的部分,降低文本中噪聲對訓(xùn)練結(jié)果的影響。令x表示中文文本,x'表示經(jīng)過句法規(guī)則處理過的文本。本文設(shè)計的句法規(guī)則如下:
規(guī)則1判斷文本中是否有情感詞典中的情感詞,若文本中所有情感詞的情感傾向全部相同,則直接提取情感詞所在的分句。
規(guī)則2若文本中存在情感極性相反的情感詞,則保留原文本內(nèi)容。
規(guī)則3若文本中不存在情感詞,則判斷文本中是否存在總結(jié)詞,若存在,則保留總結(jié)詞所引導(dǎo)的文本。
規(guī)則4當前3 個規(guī)則都不滿足時,若文本中出現(xiàn)轉(zhuǎn)折詞,則先判定轉(zhuǎn)折詞的類別,再根據(jù)轉(zhuǎn)折詞的類別處理文本。當轉(zhuǎn)折詞是甲類轉(zhuǎn)折詞時,提取轉(zhuǎn)折詞之后的文本;當轉(zhuǎn)折詞是乙類轉(zhuǎn)折詞時,提取該轉(zhuǎn)折詞所在句子之外的所有文本。
規(guī)則5若文本均不符合以上4 條規(guī)則,則直接保留原文本內(nèi)容。
經(jīng)過句法規(guī)則處理后的文本x'相較于原文本x來說通常比較簡短且結(jié)構(gòu)簡單,情感傾向突出,有利于提升中文文本情感分析的效果。
1.2.2 標簽描述信息的生成
對于情感分析任務(wù),標簽對模型的最終表現(xiàn)起著重要的作用。然而,一些數(shù)據(jù)集中只有簡單的標簽類別而沒有給出具體的標簽信息,導(dǎo)致模型不能理解標簽代表的具體含義。另外,一些數(shù)據(jù)集同時包含多個領(lǐng)域內(nèi)的數(shù)據(jù)集,每個領(lǐng)域關(guān)注的內(nèi)容不同。例如同樣是“蘋果”一詞,在手機領(lǐng)域更關(guān)注手機內(nèi)存大小、屏幕好壞,而在水果領(lǐng)域則更關(guān)注水果的味道、新鮮度等。故而即便兩個領(lǐng)域間數(shù)據(jù)的標簽相同,相應(yīng)的標簽描述信息也應(yīng)有所區(qū)別。
針對這些問題,本文提出了一種特定領(lǐng)域的標簽描述信息的生成方法,為每個領(lǐng)域的標簽生成特定的描述信息。將標簽描述信息引入交互模塊中,對標簽信息和文本信息進行融合,進而為模型帶來全局分類信息線索。
合理的標簽描述應(yīng)能準確描述該標簽類別下文本的特點且與其他標簽的描述信息有較大區(qū)別。對于語料庫D包含的所有領(lǐng)域{D1,D2,…,Da},以其中一個領(lǐng)域語料庫Da中的標簽yj為例,構(gòu)建標簽yj的標簽描述信息。為了使標簽yj的標簽描述信息和標簽yj具有較高的相關(guān)性,本文使用詞頻-逆向文件頻率(term frequency-inverse document frequency,TFIDF)算法計算單詞w和標簽yj的相關(guān)性,TF-IDF 算法可以通過統(tǒng)計詞語在文本中出現(xiàn)的次數(shù)判斷該詞語在文本中的重要程度。計算公式為
其中:Tw,yj表示單詞w在語料庫中的重要程度,表示領(lǐng)域語料庫Da中標簽為yj的文本的數(shù)量,yj
aD由領(lǐng)域語料庫Da中標簽為yj的所有文本組成,w為語料庫中的一個單詞,d為中的一個評論文本,fw,d表示單詞w在d中出現(xiàn)的次數(shù),表示領(lǐng)域語料庫中出現(xiàn)單詞w的文本數(shù)量。
為了讓標簽描述信息對其他標簽具有區(qū)分度,需要評估單詞w和所有情感標簽的相關(guān)性,單詞w和所有標簽的相關(guān)性越高,說明單詞w對所有標簽的區(qū)分度越小。計算公式為
其中:Lw,yj表示單詞w在語料庫DL中的重要程度,表示語料庫DL中文本的數(shù)量,DL由領(lǐng)域語料庫中標簽不為yj的所有數(shù)據(jù)組成,dL為DL中的一個評論文本,fw,dL表示單詞w在dL中出現(xiàn)的次數(shù),fw,DL表示語料庫DL中出現(xiàn)單詞w的文本數(shù)量。通過上面兩個公式,即可得到單詞w相對于標簽yj的相關(guān)性分數(shù),為
從式(3)可以看出,當單詞w和標簽yj的相關(guān)性越高時,單詞w相對于標簽yj的相關(guān)性分數(shù)越大,越適合成為標簽yj的描述信息;當單詞w和其他標簽的相關(guān)性越高時,單詞w相對于標簽yj的相關(guān)性分數(shù)越小,越不適合成為標簽yj的描述信息。
選取rw,yj得分最高的M個詞[w1,yj,w2,yj,… ,wM,yj]作為標簽yj的描述,然后使用詞向量矩陣將標簽描述的每個詞嵌入詞向量進而得到領(lǐng)域語料庫Da內(nèi)標簽yj的描述信息的向量表示qa,yj。
同理,通過上述方法得到其他領(lǐng)域內(nèi)標簽yj的標簽描述信息{q1,yj,q2,yj,… ,qg,yj},其中g(shù)為語料庫中領(lǐng)域的數(shù)量,qg,yj為領(lǐng)域g中標簽yj的描述信息的詞向量表示。
最后計算得到其他標簽的表示,得到標簽表示矩陣C∈Rg×m×k,其中m為標簽類別的數(shù)量,g為語料庫中領(lǐng)域的數(shù)量,k為詞向量的維度。
1.2.3 特征提取
為了提高模型提取文本特征的能力,在特征提取模塊中使用Bi-AUGRU 模型[25]。Bi-AUGRU 網(wǎng)絡(luò)模型是以門控循環(huán)神經(jīng)網(wǎng)絡(luò)為基礎(chǔ),使用注意力分數(shù)對門控循環(huán)神經(jīng)網(wǎng)絡(luò)的更新門進行加權(quán),以此在保留門控循環(huán)神經(jīng)網(wǎng)絡(luò)提取文本上下文信息的能力的基礎(chǔ)上,提升了模型提取文本中重點信息的能力。Bi-AUGRU 模型的公式為
其中:xt是文本的向量化表示,zt是AUGRU 的原始更新門,rt是AUGRU 的重置門,z′t是AUGRU 的注意力分數(shù)優(yōu)化后的更新門, ′th和ht-1是AUGRU 的隱藏狀態(tài),為候選隱藏狀態(tài),at是將文本詞向量輸入到注意力機制中得到的注意力分數(shù),其計算公式為
其中:hi為輸入向量,s(hi,q)為打分函數(shù)。
為了進一步提高模型的準確度,將AUGRU 模型雙向化后得到Bi-AUGRU 模型,計算公式為
其中:xt為文本的向量化表示,表示前向傳播時文本的隱層狀態(tài),表示反向傳播時文本的隱層狀態(tài)。將兩種狀態(tài)進行拼接,即可得到文本的雙向語義信息
1.2.4 交互模塊
為了突出標簽描述信息和情感信息對情感分類的作用,使用注意力機制對1.2.2 節(jié)得到的標簽描述信息表示矩陣與情感文本隱藏狀態(tài)表示矩陣進行交互處理,進而得到經(jīng)過標簽信息增幅具有分類指導(dǎo)信息的情感文本的新表示。具體計算公式為
其中:q、k、v為查詢、鍵、值矩陣;C為標簽描述信息的隱層表示,x'為情感文本的隱層表示;Wq、Wk、Wv為可訓(xùn)練的參數(shù)矩陣。dw是k的維度。
1.2.5 特征融合
通過上文得到了文本的兩種隱層表示ht和hq,但兩者的側(cè)重點不同。ht側(cè)重于對文本上下文信息的利用,而hq則更關(guān)注對文本中情感信息和標簽信息的利用。為了在提取到文本特征信息的同時突出文本中的標簽信息和情感信息的作用,本文在特征融合階段將ht和hq進行拼接作為最終的詞向量表示,最終得到文本表示為
將h輸入到全連接層中并引入Dropout 機制防止模型出現(xiàn)過擬合現(xiàn)象。最后使用分類器對文本表示進行分類,得到文本的情感傾向,全連接層的隱藏單元個數(shù)等于分類類別數(shù)。
1.2.6 輸出層
將文本的最終向量表示使用Softmax 函數(shù)生成情感標簽上的概率分布,為
其中:wout和bout為權(quán)重矩陣和偏置。
訓(xùn)練階段使用交叉熵損失函數(shù)對模型進行訓(xùn)練,為
其中:x為目標句子,y為句子真實標簽,y'為預(yù)測的句子標簽,D為整體語料庫。
本文的實驗是在Linux 操作系統(tǒng)下使用Python語言編寫完成的,開發(fā)過程中所使用的深度學(xué)習框架為TensorFlow,實驗所使用GPU 為RTX 1080。
采用的實驗數(shù)據(jù)為online_shopping_ 10_cats 數(shù)據(jù)集,該數(shù)據(jù)集共62 774 條電商購物評論數(shù)據(jù),數(shù)據(jù)分為兩類:一類為積極評論數(shù)據(jù),共有31 728 條;一類為消極評論數(shù)據(jù),共有31 046 條。數(shù)據(jù)集包含牛奶、酒店、衣服、熱水器等10 個領(lǐng)域,具體分布見表1。本文對數(shù)據(jù)集進行進一步處理,根據(jù)數(shù)據(jù)集包含的領(lǐng)域數(shù)量和標簽數(shù)量為每個領(lǐng)域內(nèi)的標簽生成最合適的標簽描述信息。本文中實驗數(shù)據(jù)的訓(xùn)練集與測試集的比例設(shè)置為8∶2。

表1 數(shù)據(jù)集統(tǒng)計信息Tab. 1 Datasets statistics

表2 分類類別矩陣Tab. 2 Classification matrix
本文在大連理工大學(xué)的中文情感詞本體庫的基礎(chǔ)上結(jié)合本文數(shù)據(jù)集的特點構(gòu)建了3 類詞典,詞典中的部分關(guān)鍵詞為:
(1)正面情感傾向詞:推薦、方便、值、贊、不錯、棒、好評、好用、滿意、很好、可以、喜歡等。
(2)負面情感傾向詞:太少、差評、不滿意、失望、別買、差、不好、很差、垃圾、貴、騙人、坑等。
(3)總結(jié)詞:總的來說、總之、總的感覺、總體、結(jié)果、綜上所述、個人認為、反正、整體等。
(4)甲類轉(zhuǎn)折詞:但、可是、卻、然而、所以等。
(5)乙類轉(zhuǎn)折詞:只是、而且、就是、雖然等。
本文的網(wǎng)絡(luò)模型中所涉及的參數(shù)設(shè)置:訓(xùn)練輪數(shù)36,批大小100,學(xué)習率0.001,詞向量維度300,隱藏層維度300,優(yōu)化器Adam,Dropout 0.5,損失函數(shù)為交叉熵損失函數(shù),標簽描述信息的長度M值為30。
本文采用準確率(A)、召回率(R)、精確率(P)以及F1值作為實驗評價指標。本文的任務(wù)屬于二分類任務(wù),用來計算評價指標的分類類別矩陣見表3。
準確率(A)表示所有情感極性都被正確分類的樣本占總樣本的比值,為
召回率(R)表示正樣本中正確預(yù)測的樣本數(shù)量,為
精確率(P)表示在所有被預(yù)測為正的樣本中實際為正樣本的概率,為
F1值是對精確率與召回率加權(quán)調(diào)和得到的結(jié)果,F(xiàn)1值越大,實驗結(jié)果越好,其計算公式為
2.5.1 隨機失活率對模型性能的影響
為防止模型在訓(xùn)練過程中出現(xiàn)過擬合現(xiàn)象,本文在模型中加入Dropout,并通過實驗記錄了Dropout值對模型性能的影響,實驗結(jié)果如圖2 所示。從圖2可以看出,隨著Dropout 值的增加,準確率先升高后降低,當Dropout 值為0.5 時,模型性能最佳。這是由于過低的隨機失活率不能緩解模型的過擬合現(xiàn)象,而過高的隨機失活率又會導(dǎo)致模型欠擬合。

圖2 隨機失活率對模型性能的影響Fig. 2 Effect of random deactivation rate on model performance
2.5.2 訓(xùn)練輪數(shù)對模型性能的影響
實驗過程中模型的訓(xùn)練輪數(shù)對模型性能的影響較大,圖3 展示了隨著訓(xùn)練輪數(shù)的增加,模型性能的變化。

圖3 訓(xùn)練輪數(shù)對模型性能的影響Fig. 3 Effect of number of epoch on model performance
從圖3 可以看出,隨著訓(xùn)練輪數(shù)的增加,模型的準確率不斷上升,在訓(xùn)練輪數(shù)為20 時,模型的準確率達到最高,隨后模型準確率逐步下降。這是因為當模型的訓(xùn)練輪數(shù)較少時,模型不能完全擬合數(shù)據(jù),而當訓(xùn)練輪數(shù)過多時,模型表達能力過剩,就會出現(xiàn)過擬合現(xiàn)象,導(dǎo)致模型的性能下降。
2.5.3M值對模型性能的影響
為了探究標簽描述信息的長度對模型性能的影響,實驗結(jié)果如圖4 所示。從4 圖可以看出,隨著M值增大,模型的性能先升高后降低,在M值為30時,模型表現(xiàn)出最佳的性能。這主要是因為當M取值比較小時,用來描述標簽的詞語過少,標簽描述信息無法充分描述標簽的含義;當M取值過大時,過長的描述信息導(dǎo)致一些不具有代表性的詞語進入描述信息中進而產(chǎn)生噪聲,影響了模型性能。

圖4 M 值對模型性能的影響Fig. 4 Effect of M value on model performance
2.5.4 消融實驗
為了驗證本文模型中的句法規(guī)則和標簽描述可以提高中文文本情感分析的效果,本節(jié)通過設(shè)計消融實驗驗證了模型中句法規(guī)則部分和標簽描述生成部分對最后分類結(jié)果的影響。首先在保證本文模型中參數(shù)不變的前提下對文本模型進行處理:
(1)去除本文模型中的句法規(guī)則模塊得到模型Model_L。
(2)去除本文模型中的標簽描述生成模塊得到模型Model_R。
(3)同時去除本文模型中的句法規(guī)則模塊和標簽描述生成模塊得到模型 Model_D。其中模型Model_R 用來驗證句法規(guī)則模塊對最后分類結(jié)果的影響,Model_L 用來驗證標簽描述生成模塊對最后分類結(jié)果的影響。
在上述模型中使用表1 中的數(shù)據(jù)集進行實驗,將取得的實驗結(jié)果與本文模型的實驗結(jié)果進行比較,消融實驗結(jié)果見表4。

表4 消融實驗結(jié)果Tab. 4 Results of ablation experiments
通過比較模型Model_R、Model_L 和Model_D的實驗結(jié)果,可以觀察到句法規(guī)則信息和標簽描述信息對提高中文文本的情感分類效果有積極的作用。由表4 可知,在比較的幾種模型中,本文模型獲得的分類效果最好,說明其能夠?qū)⒕浞ㄒ?guī)則和標簽信息很好地融入模型中。與Model_L 相比,本文模型的準確率提高0.018,召回率提高0.016,F(xiàn)1值提高0.010;與Model_R 相比,本文模型的準確率提高0.030,召回率提高 0.027,F(xiàn)1值提高 0.019。將 Model_L 和Model_R 的實驗結(jié)果比較可以發(fā)現(xiàn),相對于句法規(guī)則部分,標簽描述生成模塊對中文文本情感分類的影響更大。
2.5.5 本文模型與其他模型的性能對比
為了進一步驗證本文模型的有效性,將本文模型與以下幾篇文獻模型在表1 數(shù)據(jù)集上進行對比實驗,進而驗證本文模型在情感分類任務(wù)上的優(yōu)越性。分類結(jié)果對比見表5。

表5 分類結(jié)果對比Tab. 5 Comparison of classification results
CB_Rule[21]:邱寧佳等[21]提出的中文情感分析模型,將根據(jù)情感詞典構(gòu)建的語法規(guī)則和神經(jīng)網(wǎng)絡(luò)模型進行融合,在中文情感分析任務(wù)中取得了優(yōu)秀的表現(xiàn)。
TLE[24]:王嫄等[24]提出的一種融合文本內(nèi)容和標簽引導(dǎo)文本編碼的文本分類方法,通過使用自注意力機制得到文本表示,再使用交互注意力機制得到融合了標簽信息的文本表示,最后將兩種文本表示融合后輸入到分類器中得到文本的情感傾向。
SVW-BERT[26]:張小艷等[26]提出的情感分析方法。通過融合文本的字、詞級別文本表示得到文本的最終表示,并使用文本的情感值對其進行加權(quán)融合,構(gòu)建情感值加權(quán)融合字詞向量的文本表示,然后將該表示輸入到分類器中得到文本的情感傾向。
AW Ave[23]:Sheng 等[23]提出的同時學(xué)習詞匯和情感標簽信息的嵌入方法。該方法使用1 組和標簽相關(guān)的詞匯表示情感標簽信息。
由表5 可以看出,對于中文文本的情感分類任務(wù),本文模型整體上優(yōu)于其他代表性的深度學(xué)習模型。這是因為模型CB_Rule 和模型SVW-BERT 只使用了句法規(guī)則信息,沒有利用標簽描述信息,而模型TLE 和模型AW Ave 只使用了標簽描述信息,沒有使用句法規(guī)則信息。本文模型不僅使用了句法規(guī)則信息降低了文本復(fù)雜度,而且使用了標簽描述信息為模型帶來全局分類信息,提高了模型的性能。
以上實驗結(jié)果表明,本文提出的模型能夠很好地利用中文文本中的句法規(guī)則信息和標簽描述信息,同時結(jié)合深度學(xué)習提取文本的深層特征,在總體性能上優(yōu)于其他模型。
針對目前中文文本情感分析注重使用深度學(xué)習模型進行情感分析而忽略了使用句法規(guī)則和標簽信息等知識的問題,本文提出了一種融合了句法規(guī)則和標簽描述信息的中文文本情感分析模型。首先使用句法規(guī)則對文本進行處理,提取情感傾向更加明確的信息,并將其與標簽描述信息進行融合,進一步突出情感信息,然后將得到的隱層特征與深度學(xué)習部分提取的文本特征進行融合,最后將得到的文本表示輸入分類器中,得到文本的情感極性。通過設(shè)置消融實驗,探究了本文模型中各個模塊對情感分析結(jié)果的影響,將本文模型與近幾年文獻中的模型進行比較,驗證了本文模型在中文文本情感分析任務(wù)上的有效性。在未來的工作中,可以嘗試對標簽描述信息生成部分的模型進行改進,從而獲得更加合理的標簽描述信息,并嘗試對模型的深度學(xué)習部分進行優(yōu)化從而進一步提高模型的分類效果。