999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

BGRU:中文文本情感分析的新方法*

2019-06-19 12:34:14李天瑞殷成鳳
計算機與生活 2019年6期
關鍵詞:文本情感實驗

曹 宇,李天瑞,賈 真,殷成鳳

西南交通大學 信息科學與技術學院,成都 611756

1 引言

伴隨著Web2.0技術的迅速發展,互聯網已經占據了每個人生活的方方面面。其中社交網絡已成為人們獲取外界信息、發表觀點、表述情感的重要平臺。微博、論壇、博客等社交平臺每天產生著大量的帶有情感傾向的非結構化文本信息,而通過對這些信息利用情感分析技術進行數據挖掘,可以發現用戶在產品、事件上的情感傾向信息。這些信息對多個行業有著十分重要的作用,例如商業產品推薦、網絡輿情分析以及群眾意見調查[1]。目前,由于大數據時代的到來,社交網絡信息呈爆炸式增長,而如何高效、快速地從中獲取用戶的情感傾向信息變得極其重要。因此,文本情感分析已成為自然語言處理領域的一個研究熱點[2]。

目前,文本情感分析的方法主要有兩種:基于語義的情感詞典方法和基于機器學習的方法。基于語義的情感詞典方法首先需要構建情感詞典,然后設計傾向性計算算法,最后通過確定閾值來判斷文本的情感傾向性。例如,趙妍妍等[3]利用海量的微博數據構建了一個十萬詞語的大規模情感詞典,以提高情感分類性能。該方法的優點在于實現較為簡單,不需要人工標注好的訓練集,但其效果卻十分依賴情感詞典的大小和質量。基于機器學習的方法首先需要人工標注的文本情感傾向性訓練集,然后通過人工設計特征,對文本情感特征進行提取,最后利用機器學習的方法構建分類器,對文本情感傾向性分類。常用的機器學習方法有樸素貝葉斯、最大熵模型和支持向量機等。例如,汪淳[4]改進情感詞的選取方式和權值計算方式,并把集成學習方法和投票方法與傳統機器學習方法進行融合。該方法具有計算量小、容易實現的特點,但在面對復雜分類問題的時候,其泛化能力表現不足。本文提出一種基于BGRU(bidirectional gated recurrent unit)的中文文本情感分析方法。該方法不需要人工構造情感特征,而直接由深度神經網絡訓練提取文本情感特征,再對文本情感傾向性分類。通過實驗結果證明該方法在解決中文文本情感分析問題上具有較好的效果。

本文的組織結構如下:第2章概述情感分析以及深度學習的相關研究工作;第3章闡述了BGRU網絡結構和模型訓練方法;第4章為實驗驗證與性能對比;第5章對本文進行了總結,并給出了下一步工作方向。

2 相關工作

情感分析又稱為傾向性分析,自2002年提出后,受到了廣大學者的關注[2]。目前情感分析領域研究最多的部分是將文本分為褒揚或貶抑兩種。例如,Pang等[5]利用詞袋模型將文本的N元語法和詞性作為其情感特征,然后分別利用樸素貝葉斯、最大熵模型和支持向量機對文本情感特征分類,在電影評論數據上獲得了較好的效果。后續研究則主要是針對文本的情感特征進行優化[6-8]。姚天昉等[9]提出通過提取語句的主題,然后通過句法分析,對主題和情感描述項進行判別,從而確定情感傾向性。Ding等[10]提出特定領域下的情感詞配對方法來判斷情感傾向性。Hu等[11]通過利用WordNet中的同義詞、反義詞關系,得到詞匯的情感極性,然后根據句子中占主導的詞匯情感極性來確定句子的情感傾向。朱嫣然等[12]通過對知網HowNet進行擴充,利用語義相似度和語義相關詞來判斷詞語的情感傾向。

自2006年Hinton等[13]首次提出深度學習概念后,伴隨著其成功應用于計算機視覺和語言識別領域,國內外開始將深度學習方法應用在自然語言處理上。Bengio等[14]提出通過神經網絡來構建語言模型的方法。Mikolov等[15]在Log-Bilinear[16]模型基礎上提出了word2vec模型,將詞轉換成空間詞向量。隨后Kim[17]使用基于深度學習的卷積神經網絡模型處理文本情感分類問題,但在處理中文文本過程中存在多重語義現象。梁軍等[18]使用LSTM(long short term memory)遞歸神經網絡提取特征并結合情感極性轉移模型來進行中文微博文本的情感分類。Xiao等[19]提出基于雙向LSTM和詞向量的中文情感分析模型。劉龍飛等[20]提出的利用字級別詞向量和詞級別詞向量作為特征,利用卷積神經網絡進行微博情感傾向性分析。馮興杰等[21]提出基于卷積神經網絡和注意力模型的方法進行文本情感分析。梁斌等[22]提出基于多注意力卷積神經網絡的特定目標情感分析方法。

目前,深度學習模型已在中文文本情感分析領域取得了不錯的效果,其中CNN(convolutional neural network)不完全適用于文本序列問題,而LSTM能記憶序列上下文,具有十分適合文本序列情感特征提取的特點。鑒于GRU(gated recurrent unit)作為LSTM的變體模型,不僅能解決長距離依賴問題,而且結構相比LSTM更為簡單,訓練速度較快。本文提出了基于BGRU的模型結構來解決中文文本情感分析的方法,并通過實驗驗證了該方法的有效性。

3 基于BGRU的情感分析模型

3.1 詞向量

詞向量(word embedding)是詞語通過神經網絡模型得到的一種低維實數向量表示,通過將離散型詞匯映射到N維實數空間上,表達詞匯豐富的語義信息,解決詞袋模型的向量稀疏問題,同時挖掘出詞語間的語義關聯[23]。本文選用Google提供的開源詞向量工具word2vec[15],基于skip-gram模型訓練得到詞向量。skip-gram模型如圖1所示。

Fig.1 Model of skip-gram圖1 skip-gram模型

該模型是由窗口中間詞語w(t)預測其上下文詞語,該目標函數如式(1)所示:

式中,t為訓練時的上下文窗口的大小。本文設置t的大小為5,詞向量維度為100。

3.2 循環神經網絡RNN

在傳統的神經網絡模型中,一般由輸入層、隱含層、輸出層組成,層與層之間的節點進行全連接,而每層之間的節點是沒有連接的。這種傳統模型在處理序列問題上因無法刻畫輸入序列前后之間的關聯而導致效果較差。而RNN(recurrent neural networks)便是在傳統網絡的基礎上,將隱藏層之間的節點進行了連接[24]。對于給定的輸入序列(x1,x2,…,xn),RNN能有效地動態學習數據的序列特征,并具有一定的記憶能力。所謂的記憶能力指的是網絡會將t-1時刻的輸出信息保存在網絡的內部狀態中,并應用于t時刻的計算中。即在t時刻隱含層的輸入包含了t時刻輸入層的輸出和t-1時刻的隱含層輸出。

RNN應用于中文文本情感分析上,其網絡結構如圖2所示。圖中,輸入文本為“今天的天氣真好”,在分詞處理后變為“今天/的/天氣/真好”,首先將每個詞語轉換成對應的詞向量(x1,x2,x3,x4),然后依次輸入到RNN網絡中,U為從輸入層連接到隱含層的權重,W為隱含層連接到自身的權重,V為隱含層到輸出層的權重。

Fig.2 Sentiment analysis network based on RNN圖2 RNN情感分析網絡模型

RNN的計算過程如下:

(1)在t時刻,輸入xt到隱含層。

(2)st為隱含層第t步的輸出,st是根據當前輸入層的輸出xt和前一時刻隱含層的狀態st-1得到的,st=f(Uxt+Wst-1),其中f一般取用非線性函數,如tanh或ReLU。

(3)給出輸出ot,ot=softmax(Vst)。

對于文本情感分析問題,不需要每個詞語的輸出,只需要文本的最后一個詞語的輸出作為該序列的情感特征表示,將其輸入到分類器中,對文本的情感信息進行分類。

3.3 門限循環單元GRU

RNN模型按時間序列展開,則為多層前饋神經網絡,在訓練過程中會存在梯度消失和梯度爆炸的問題。RNN在面對處理長序列時,無法解決長時間依賴的問題,而出現難以學習長距離信息的現象。Hochreiter等提出的LSTM記憶單元是在RNN記憶單元的基礎上加入了門限機制[25],其結構如圖3所示。從圖中可以看出LSTM記憶單元主要由細胞狀態和門結構組成,細胞狀態負責對歷史信息進行存儲,門結構負責保護和控制細胞狀態。一個記憶單元具有三個門結構,分別是輸入門i、輸出門o、遺忘門f。其中遺忘門f決定了從細胞狀態中舍棄的信息,從而可以達到對歷史信息進行過濾的效果,解決了梯度消失的問題。

Fig.3 Memory unit of LSTM圖3 LSTM記憶單元

由于LSTM記憶單元的結構較為復雜,存在著訓練時間較長的問題。Cho等提出一種LSTM的變體模型GRU[26],其結構如圖4所示。

Fig.4 Memory unit of GRU圖4 GRU記憶單元

從圖4中可看出,GRU記憶單元將LSTM中的遺忘門f和輸入門i合成為一個更新門z,不僅能將重要特征保留,解決長依賴問題,同時結構相比LSTM更加簡單。在t時刻,對于給定的輸入xt,GRU的隱藏層輸出ht,其具體計算過程如下所示:

(1)zt=σ(Wz?[ht-1,xt])

(2)rt=σ(Wr?[ht-1,xt])

(4)ht=(1-zt)*ht-1+zt*h?t

其中,W為連接兩層的權重矩陣,σ和tanh為激活函數,z、r分別為更新門和重置門。

3.4 BGRU

標準的RNN在處理序列問題上,按正向輸入序列,利用到了過去的上文信息,卻沒有考慮到未來的下文信息。針對該問題,Schuster等提出的BRNN(bidirectional recurrent neural network)模型[27],在記憶上文信息的同時,也記憶了下文信息,其基本思想是用兩個RNN分別處理正向、反向序列,然后再將其輸出連接到同一個輸出層上,這樣便能記錄特征序列的雙向上下文信息。在BRNN的基礎上,將BRNN中的隱藏層神經元替換成GRU記憶單元,可得到BGRU模型。本文將BGRU應用于中文文本情感分析上,其網絡結構如圖5所示。

對于給定的n維輸入(x1,x2,…,xn),在t時刻,BGRU的隱藏層輸出ht,其具體計算過程如下所示:

Fig.5 Sentiment analysis network based on BGRU圖5BGRU情感分析網絡模型

其中,W為連接兩層的權重矩陣,b為偏置向量,σ為激活函數,t和t分別為正向、負向GRU的輸出。

本文模型將正向、反向GRU的最后一個節點的輸出進行拼接,作為文本的情感特征,然后連接到輸出層,得到輸出y,如式(2)所示:

3.5 模型訓練

文本情感分析實則為一個分類問題。本文將其作為二分類進行處理,將文本情感分為正極和負極,因此在訓練BGRU過程中,本文的激活函數選擇sigmoid函數,如式(3)所示:

則模型的輸出取值為{0,1},而目標函數選擇對數損失函數,如式(4)所示:

式中,X為文本的真實情感分布,Y為模型的預測情感分布。模型訓練的目標為最小化對數損失函數。對于模型優化器選擇,由于Adam(adaptive moment estimation)算法能計算每個參數的自適應學習率,具有快速實現優良結果的特點,因此使用Adam作為優化器。同時為了在網絡權重的更新速度和更新次數之間取得平衡,采用了Mini-batch梯度下降策略,并設置batch-size為128,達到提高學習速度、保證模型收斂性的效果。為了防止深度學習網絡訓練過程中過擬合現象的發生,在BGRU層與輸出層之間加入了Dropout策略,通過放棄部分權重的修改以提高模型的泛化能力,其中Dropout的丟棄率設置為0.5。

4 實驗

4.1 數據集

本文實驗選用了中科院譚松波博士收集整理的一個較大規模的酒店評論中文語料ChnSentiCorp(http://www.datatang.com/data/11936)。該語料是從攜程網上自動采集并經整理后得到,其總規模為10 000篇,標簽分為兩類(正類,負類),示例如表1所示。

語料被整理成了4個子集,其信息如表2所示。其中ChnSentiCorp-Htl-ba-10000的數據量最大,但是正負樣本是非平衡的,另外3個子集為平衡數據。為避免訓練模型過擬合,本文決定使用平衡數據集中數量最大的ChnSentiCorp-Htl-ba-6000作為數據集,并結合10折交叉驗證進行實驗。

4.2 數據預處理

在數據預處理階段,首先需要對數據樣本進行分詞處理。然后,出于減少數據噪聲的考慮,將樣本中與情感無關的停用詞進行過濾。本文通過對各停用詞表進行整理,集成了哈工大停用詞表、百度停用詞表、四川大學機器智能實驗室停用詞等詞表,并對集成后的詞表進行去重處理后,得到集合停用詞表,其規模為2 043條。清理后的數據再作為詞向量的訓練語料,利用word2vec工具進行詞向量的訓練,得到詞向量模型。

Table1 Examples of ChnSentiCorp表1 ChnSentiCorp示例

Table2 Information of ChnSentiCorp subset表2 ChnSentiCorp子集信息

4.3 樣本長度的選擇

數據集中樣本所含有的詞語數量為該樣本的長度,對數據集的樣本長度進行統計,其分布情況如圖6所示,其中長度小于100的樣本數量占據90%以上。本文設定MaxLen為樣本長度的最大值,若樣本長度大于MaxLen,則將對樣本進行截斷處理,大于MaxLen的部分進行舍棄,若樣本長度小于MaxLen,則需要對樣本進行填充處理,在樣本末尾添加零向量,直到長度達到MaxLen。

Fig.6 Sample length of data set圖6 數據集的樣本長度情況

MaxLen的設置關系到輸入模型的數據,若MaxLen過大,數據中零向量填充過多,若MaxLen過小,數據舍棄的信息過多,故MaxLen對模型的性能有較大的影響。因此進行MaxLen的選擇實驗。通過改變MaxLen的大小,觀察模型的性能變化。實驗結果如表3所示。MaxLen對F1值的影響如圖7所示。

Table3 Experimental results of different MaxLen表3 不同MaxLen的實驗結果

Fig.7 F1of different MaxLen圖7 不同MaxLen的F1值

根據實驗結果,可以看出當MaxLen為25的時候,由于對數據的信息舍棄過多,F1值只有88.45%,而當MaxLen增加后,F1值開始上升,MaxLen=75時,F1值為最高,達到90.61%。當MaxLen再繼續增加,F1值又呈現出下降趨勢,這是因為數據中零向量填充過多,影響了模型記錄數據的情感特征。因此模型的MaxLen大小選擇為表現最好的75。

4.4 隱含層節點數的選擇

BGRU的隱含層節點數對模型的復雜度和效果具有一定的影響,若節點數過少,則網絡缺少必要的學習能力和信息處理能力;若節點數過多,不僅會增加網絡結構的復雜性,而且在訓練過程中更容易陷入局部極小點,網絡學習速度會下降。因此進行節點數的選擇實驗,通過改變隱含層節點數大小,觀察模型的性能變化。實驗結果如表4所示。節點數對F1值的影響如圖8所示。

Table4 Experimental results of different units表4 不同節點數的實驗結果

Fig.8 F1of different units圖8 不同節點數的F1值

根據實驗結果,可以看出當節點數由50個增加為100個時,F1值有略微提升,而當節點數超過100個時,F1值開始呈現下降趨勢,說明隨著節點數增加,模型的效果開始越來越差。因此模型的隱含層節點數選擇為100個最為合適。

4.5 模型對比實驗

本文將BGRU與SVM(support vector machine)、CNN、Att-CNN、BLSTM(bidirectional long short-term memory)等模型進行對比。實驗結果如表5所示。通過實驗結果,可以看出在處理中文文本情感分析問題上,BGRU模型具有較好的效果,與BLSTM模型相比F1值提高了0.74%,與Att-CNN模型相比F1值提高了3.42%。對該實驗結果進行分析,BGRU、BLSTM模型相比Att-CNN模型,在處理文本序列的特征提取問題上,能夠充分利用文本的上下文信息,得到了更好的情感特征,使得模型達到了更好的效果;BGRU模型相比BLSTM模型,由于對細胞狀態進行了融合和改進,得到了效果的提升。

Table5 Experimental results of different models表5 不同模型的實驗結果

為進一步說明BGRU模型的學習效率,將其與BLSTM模型在不同詞向量維度下的訓練時間進行對比,實驗結果如圖9所示。

Fig.9 Comparison of training time by different embedding sizes圖9 不同詞向量維度的訓練時間對比

根據實驗結果,可以看出BGRU模型相比BLSTM模型在訓練速度上有著明顯優勢。當取不同的詞向量維度時,BGRU模型的平均訓練速度是BLSTM模型的1.36倍。這得益于GRU融合了LSTM中的輸入門和遺忘門為更新門,模型結構簡化,因此訓練速度更快。

5 結束語

本文提出了一種基于BGRU深度神經網絡解決中文文本情感分析的有效方法。該方法將文本轉換為詞向量序列后,通過BGRU網絡自動提取文本的上下文情感特征,再對文本情感傾向性進行分類。實驗結果表明了該方法的有效性,相比其他模型在中文文本情感分析問題上能更好地捕獲情感特征,具有更好的效果,而且訓練速度是BLSTM的1.36倍。在下一步的工作中,可以考慮將注意力模型、語言學知識結合到本文模型中,使得網絡模型對情感特征更具有針對性,能更有效地學習文本的情感特征。

猜你喜歡
文本情感實驗
記一次有趣的實驗
如何在情感中自我成長,保持獨立
失落的情感
北極光(2019年12期)2020-01-18 06:22:10
情感
在808DA上文本顯示的改善
做個怪怪長實驗
基于doc2vec和TF-IDF的相似文本識別
電子制作(2018年18期)2018-11-14 01:48:06
如何在情感中自我成長,保持獨立
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
主站蜘蛛池模板: 亚洲天天更新| 亚洲欧美日韩精品专区| 永久免费无码日韩视频| 日本不卡在线播放| 99re在线免费视频| 欧美a√在线| 97在线国产视频| 91亚洲精选| 色综合天天综合中文网| 尤物特级无码毛片免费| 亚洲中文字幕在线一区播放| 91po国产在线精品免费观看| 久久综合干| 欧美综合激情| 国产精品美女网站| www亚洲精品| 国产精品视频导航| 在线播放91| 国产乱子精品一区二区在线观看| 国内精品九九久久久精品| 青青草一区| 国产永久在线观看| 欧美精品在线观看视频| 国产欧美日韩精品第二区| 波多野结衣久久高清免费| 美女裸体18禁网站| 亚洲全网成人资源在线观看| 亚洲二区视频| 日本人妻一区二区三区不卡影院| 国产精品一线天| 国产一国产一有一级毛片视频| 国产在线八区| 成年看免费观看视频拍拍| 国产嫖妓91东北老熟女久久一| 国产av一码二码三码无码| 免费在线国产一区二区三区精品| 国产成人综合亚洲网址| 亚洲av成人无码网站在线观看| 无码又爽又刺激的高潮视频| 亚洲,国产,日韩,综合一区 | 色成人综合| 国产h视频免费观看| 99热亚洲精品6码| 91啪在线| 欧美无遮挡国产欧美另类| 亚洲精品无码AⅤ片青青在线观看| 亚洲成年人网| 国产一区二区福利| 国产午夜精品一区二区三| 国产成人一级| 亚洲看片网| 久久一色本道亚洲| 久久天天躁夜夜躁狠狠| 中日韩一区二区三区中文免费视频 | 澳门av无码| lhav亚洲精品| 五月天久久综合| 午夜精品久久久久久久无码软件 | 亚洲无码熟妇人妻AV在线| 中文字幕第4页| 免费在线一区| 欧美.成人.综合在线| 精品99在线观看| 大香网伊人久久综合网2020| 婷婷亚洲最大| 免费国产不卡午夜福在线观看| 成年人视频一区二区| 欧美精品xx| 青青草原国产一区二区| 亚洲第一中文字幕| 色天天综合| 精品1区2区3区| 人妻精品久久无码区| 国产欧美日韩18| 国产欧美精品专区一区二区| 无码精品一区二区久久久| 国产第一色| 毛片最新网址| 大陆精大陆国产国语精品1024 | 日韩无码白| 亚洲女同一区二区| 色偷偷av男人的天堂不卡|