999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

引入注意力機制的BiGRU-CNN情感分類模型

2020-09-03 08:38:26胡玉琦常艷鵬梁順攀原福永
小型微型計算機系統 2020年8期
關鍵詞:分類特征文本

胡玉琦,李 婧,常艷鵬,梁順攀,原福永

1(燕山大學 信息科學與工程學院,河北 秦皇島 066004)

2(河北省計算機虛擬技術與系統集成重點實驗室,河北 秦皇島 066004)E-mail:2529044203@qq.com

1 引 言

情感分析的目的旨在確定人們對某個話題,或對文檔、互動或事件的整體極性,是根據人們生成的文本來分析他們的情感或觀點,在數據挖掘和自然語言處理領域發揮著至關重要的作用[1].怎樣從海量的文本中將有用的信息自動提取出來深受許多研究者的關注,本世紀初期,情感分析被首次提出[2,3],它受到工業界和學術界的廣泛關注,并且逐步成為了一個十分活躍的研究領域,而且在實際應用中,評論文本中情感極性的挖掘,具有很高的研究價值.

情感分類是情感分析和意見挖掘領域的一項基礎性任務.這項任務的目的是推斷用戶為產品撰寫的評論文本的總體情緒強度(例如點評網站上的1~5顆星或1~10顆星),研究遵循將情感分類作為文本分類問題的特例.Pang和Lee等人通常使用用戶標記的情感極性或評分作為標簽,并使用機器學習算法構建具有文本特征的情感分類器[4].由于機器學習的性能在很大程度上取決于數據表示的選擇[5],許多工作著重于設計有效特征或使用神經網絡從數據中學習判別特征.

盡管基于神經網絡的方法在情感分類上已經取得了很大的成功,但是它們通常只關注文本信息,而忽略了用戶偏好和產品性能對評分的重要影響.對于不同的用戶,同一個詞可能會表達不同的情感強度.以評分1-5顆星的等級評價為例,一個寬容的用戶可能用“好”來評價一個普通的產品,并打5顆星,而對于一個挑剔的用戶來講,“好”就是表達一個優秀的態度,但他評價為4顆星.同樣產品的性能也會對評價的等級產生影響,與低質量的產品相比,高質量的產品通常會得到更高的評價.

針對以上問題,本文提出一種引入注意力機制的BiGRU-CNN文本情感分類模型(BiGRU-CNN Sentiment Classification Model with Attention Mechanism,簡稱GCA情感分類模型),該模型分別考慮用戶和產品特征,將BiGRU和CNN相結合,并引入注意力機制,充分提取了評論文本的特征,實驗結果表明,該模型在IMDB和Yelp數據集上提高了情感分類的準確率.

2 相關工作

隨著深度學習在語音識別,圖像識別和文本分析等領域上取得的發展,神經網絡模型因其具有文本表示學習的能力而被應用到情感分類領域中.

Glorot[6]等首次在情感分類中使用疊加去燥編碼器,Socher通過一系列遞歸神經網絡模型學習基于句子遞歸樹結構的表示,其中包括遞歸自編碼器(RAE)[7]、矩陣向量遞歸神經網絡(MV-RNN)[8]以及遞歸神經張量網絡(RNTN)[9].并且Kim[10]和Johnson等[11]采用卷積神經網絡學習句子表示,在情感分類方面取得了顯著的成績.神經網絡可以更好的提取文本特征,同時還可以減小數據維度,克服數據稀疏問題,但是CNN沒有記憶功能,存在記憶缺失,而循環神經網絡(Recurrent Neural Network,RNN)存在著梯度消失的不足.

為了避免上述問題,便有學者將二者結合起來進行研究.Hassan等人[12]提出聯合卷積神經網絡和循環神經網絡的模型,該模型將卷積神經網絡和遞歸神經網絡結合在無監督,預訓練的單詞向量之上,取得了更出色的結果.Wen等人[13]提出了一個名為ATTCONV的更為細化的卷積神經網絡,該方法在提取本地上下文特征的同時,還使用RNN中常用的注意機制提取非本地上下文中信息中派生出來的單詞的高級特征,實驗證明,該方法具有更好的靈活性和有效性.由此可見,應用神經網絡來做情感分析研究是很有價值的.

近年來,隨著注意力機制的不斷發展,很多學者也將注意力機制運用到了情感分類中.武等[14]提出基于CNN-LSTM模型的系統,在該模型中,應用LSTM從文本中提取上下文信息,之后引入注意力機制,為特征序列分配不同注意力權重,最后用四種不同卷積核大小的CNN來提取局部特征對對話的情緒進行分類.葛等[15]提出了一個端對端的LSTM-CNN網絡模型,用BiLSTM作為編碼器來捕獲來自兩個方向的信息,之后加入注意層,然后用CNN來獲取局部上下文信息,最后用帶有softmax激活函數的致密層對情緒進行分類.胡榮磊等[16]將LSTM與前饋注意力模型相結合最終實現情感分類.李梅等[17]針對時序數據特征,提出基于注意力機制的CNN聯合LSTM的神經網絡預測模型,CNN與注意力并行提取細粒度特征,LSTM提取細粒度特征中的粗粒度特征,融合粗細粒度特征實現準確的時間序列預測.

但現有的情感分類方法大多忽略了用戶偏好和產品性能對情感極性的重要影響.因此,本文分別考慮用戶和產品特征,并在神經網絡中引入注意力機制,充分提取評論文本的特征,提出GCA情感分類模型.

3 神經網絡情感分類模型

3.1 基于注意力機制的BiGRU-CNN情感分類模型-GCA情感分類模型

GCA情感分類模型圖如圖1所示.

圖1 GCA情感分類模型圖

GCA情感分類模型主要分為三大部分:

1)用戶特征的提取;

2)產品特征的提取;

3)將用戶特征和產品特征融合在一起進行分類.

GCA情感分類模型又分為四層,即BiGRU層、注意力層、CNN層以及全連接層和分類層,并對文本進行單詞級和句子級的分析.

1)在進行單詞級語義分析時,將詞向量輸入到BiGRU層,然后在BiGRU層提取文本的上下文特征;

2)在注意力機制層將BiGRU層的隱藏層狀態作為輸入,計算注意力權重,得到賦予權重的特征向量,得到句子表示;

3)在進行句子級分析時,將在注意力機制層得到的句子表示輸入到CNN層,得到文檔表示.

4)在全連接層和分類層將得到的文檔融合在一起進行最后的情感分類.

3.2 BiGRU層

門控循環神經網絡(Gated Recurrent Unit,簡稱GRU)是對長短期記憶網絡(Long Short Term Memory Neural Networks,簡稱LSTM)的一種改進,GRU也具有一個從頭至尾持續不變的記憶狀態單元,在這個這個記憶單元中,原來LSTM中的輸入門和遺忘門被更新門所替代,這便使得在網絡結構上GRU要比LSTM變的簡單,并且GRU需要的張量操作較少,需要的參數也更少,因此GRU訓練起來要比LSTM更為簡單,訓練速度也更快一些.GRU模型圖如圖2所示.

圖2 GRU模型圖

但是GRU只學習了當前詞前面的信息,而并沒有學習到當前詞后面的信息.對于一個詞來說,這個詞的語義理解與其之前和之后的詞語都密切相關,因此本文選取了雙向門控循環神經網絡BiGRU來搭建模型,充分考慮了當前詞的上下文信息.

3.3 注意力機制層

從用戶的角度上來看,用戶的偏好或者感情不是所有的詞語都能同等反應出來的.為了解決這個問題,本文使用用戶注意力機制來提取對句子意義重要的用戶特定詞語,最后的句子表示由這些詞的表示聚合而成.增強的句子表示就是用戶視圖中單詞級隱藏層狀態的加權和,如公式(1)所示:

(1)

(2)

(3)

(4)

本文中每個評論都有一個用戶ID和一個產品ID,以指示用戶為某產品撰寫評論,例如[u1,p1,r1],[u2,p1,r2],[u1,p2,r3].使用向量初始化每個用戶和每個產品,因此,當給定評論r1和r3時,u1向量將被更新.當給定r1和r2時,網絡將更新向量p1.可以看到,u和p用不同的評論進行了更新.因此它們是不同的,并學會了分別指示用戶喜好和產品特性.

3.4 CNN層

CNN是一種包含卷積計算且具有深度結構的前饋神經網絡.它分為四層,分別為輸入層、卷積層、池化層、全連接層以及輸出層.

本文將注意力機制層得到的用戶句子表示和產品句子表示分別作為卷積層的輸入,利用CNN局部特征的強學習能力,提取兩部分評論文本的局部特征,最終分別得到用戶文檔表示du,如公式(5),和產品文檔表示dp,如公式(6)所示:

(5)

(6)

3.5 全連接層和分類層

在全連接層,將用戶文檔表示du和產品文檔表示dp融合在一起,得到最終的情感分類文檔d.

本文將情感分析問題看成一個多分類問題,分類函數選用softmax函數.情感概率p的推算方法如公式(7)所示.

pi=softmax(Wd+b)

(7)

其中,pi代表情感概率分布,W代表權重矩陣,b代表偏置量.

3.6 訓練模型

為了使預測文本所屬類別更接近真實類別,在本文的情感分析模型中,定義如公式(8)所示的交叉熵損失函數:

(8)

GCA情感分類模型算法:

1.文本d由n個句子{s1,s2,…,sn}組成,li為第i個句字的長度,第i個句子si由li個單詞{wi1,wi2,…,wili}組成,將文本d輸入到Glove模型中訓練,把評論文本中的詞映射為對應的詞向量;

2.將詞向量輸入到BiGRU層,得到隱藏層狀態[hi1,hi2,…,hili];

3.將隱藏層的狀態加入注意力機制得到賦予注意力權重的句子表示si;

4.將句子表示[s1,s2,…,sn]輸入到CNN層,經過CNN池化層下采樣得到隱藏層表示,對隱藏層狀態值求和得到文檔表示d;

5.用上述方法同時分別提取用戶特征和產品特征,將得到的用戶文檔表示du和產品文檔表示dp通過全連接層融合在一起,最后,通過softmax函數映射到情感分類的C個類別進行分類.

4 實驗與結果

4.1 數據集

本文選用IMDB、yelp2013和yelp2014三個公開的數據集進行實驗,并將上述數據集中用戶對電影的評分作為用戶的情感極性.IMDB、yelp2013和yelp2014三個數據集的詳情信息請見表1所示.

表1 三個數據集的具體描述

4.2 實驗參數設置

實驗參數的設置會直接影響到模型的分類效果,本文中GCA情感分類模型的具體實驗參數一部分是根據前人WU等人[18]在實驗中建議設置的,另一部分是在每一次迭代完成后根據實驗的準確率調整,經過多次迭代而確定的,綜上所述實驗的參數設置如下:詞嵌入維度為200,BiGRU隱藏層大小為128,最大句子長度為50,最大評論文本長度為40,卷積核滑動窗口大小為3,4,5,學習率為0.001.

4.3 評價指標

本文選取準確率(Accuracy)和均方根誤差(RMSE)兩個評價指標來評估模型.準確率可以判斷模型正確預測的概率,均方根誤差作為評價指標可計算模型預測的情感極性與真實情感極性之間的偏差.

假設評論數據一共有N條,其中分類正確的數據有T條,那么準確率的計算如公式(9)所示.

(9)

假設用戶評論的真實情感類別為gdi,對用戶評論情感的預測為pri,則均方根誤差公式如公式(10)所示.

(10)

4.4 實驗對比方法

本文將提出的GCA情感分類模型與以下幾種情感分類方法進行了對比.

Trigram:使用一元、二元和三元模型提取特征來訓練SVM分類器[19].

TextFeature:通過提取文本的單詞、字符和情感詞典等特征來訓練SVM分類器[20].

AvgWordvec:對文檔中的詞嵌入進行平均生成文檔表示,然后將其作為特征輸入到SVM分類器中[21].

SSWE:使用特定情感的詞嵌入生成特征,然后分別對特征使用最大池化、最小池化和均值池化,將這些特征融合作為文本表示輸入到SVM分類器[22].

RNTN+RNN:使用遞歸神經張量網絡獲得句子表示,然后將其作為循環神經網絡的輸入得到隱藏層向量,之后平均隱藏層向量生成文檔表示用于情感分類,實現了文獻[9]中的方法.

Paragraph Vrctor:實現了用于文檔情感分類的段落向量的分布式存儲模型[23].

UPNN:將用戶和產品的字級偏好矩陣和文檔表示向量引入CNN情感分類器,得到用戶和產品向量表示和評論文本表示,然后將其結合到一起作為特征輸入到softmax層進行情感分類[24].

NSC+LA:基于NSC(采用分層LSTM模型對評論文本進行編碼),用于情感分類實現局部語義注意的思想[25].

HUAPA:該模型使用兩個獨立的層次神經網絡BiLSTM來生成用戶注意和產品注意兩個表示,然后用組合策略充分利用這兩種表示進行訓練和最終預測,實現了文獻[18]中的方法.

本文的數據集采用文獻[18]中的數據集,因此對于以上的實驗對比方法均采用文獻[18]中的實驗結果.

4.5 實驗結果分析

實驗結果數據如表2所示.本文將實驗結果劃分為兩部分:一是只考慮評論文本信息;二是綜合考慮用戶和產品信息.

表2 實驗結果

為了驗證GCA情感分類模型的分類有效性,將其與Trigram、TextFeature、AvgWordvec+SVM、SSWE+SVM、Paragraph Vrctor、RNTN+Recurrent、UPNN、NSC+LA八種只考慮文本信息的方法分在IMDB、Yelp2013和Yelp2014三個數據集上做對比,從表中可以看出,GCA情感分類模型在三個真實數據集上的情感分類準確率均高于這八種方法,其中相比這八種方法中最好的實驗結果,GCA情感分類模型的準確率在三個數據集上分別提升了2.2%、0.5%、2.5%,GCA情感分類模型的表現在均方根誤差上也有明顯改善,相比于這八種方法中表現最好的NSC+LA方法,GCA情感分類模型的均方根誤差在上述的三個數據集上,分別減少了3.9%,1.2%,4.7%.

其次將GCA情感分類模型與考慮用戶和產品信息的Trigram+UPF、TextFeature+UPF、UPNN(CNN)及HUAPA四種方法進行比較,相比于前三種方法,GCA情感分類模型的準確率較其最好的結果在三個數據集上分別提升了7.4%,4.0%,4.7%,均方根誤差減少了26.0%,9.0%,9.6%,而相比于HUAPA方法,GCA情感分類模型在三個數據集上的準確率均沒有HUAPA方法的準確率高,在三個數據集上分別相差4.1%,4.7%,3.1%,均方根誤差也較HUAPA方法差一些,在三個數據集上分別增加了15.7%,6.6%,4.2%,分析原因是因為HUAPA方法相比于本文的方法運用了兩次注意力機制,更加精準的提取了情感特征,從而使精確度更高,更準確,并且在數據集很大的情況下,BiLSTM的表達性能比BiGRU要更好,還有BiLSTM能夠充分考慮上下文,運用兩次BiLSTM模型更加充分的提取了所需的情感特征,使得結果更加的精準,而CNN偏向于提取局部特征,而且沒有時序性的概念,但在文本處理時,上一個詞很大程度上影響了下一個詞.但是HUAPA方法要比本文的方法復雜,它使用兩次注意力機制,重復了兩次,必定造成了空間和時間復雜度的增加,而且一般情況下,BiLSTM的訓練時間要比CNN要長,訓練的效率也差一些,再有BiGRU模型參數較BiLSTM更少,訓練起來比BiLSTM更簡單,且不容易過擬合.

綜上所述,GCA情感分類模型在一定程度上能夠有效的提取文本的全局和局部特征,并且通過引入注意力機制,獲取文本中的有效特征,能降低噪音特征干擾,從而進一步提高分類的準確率.

4.6 模型分析

為了研究和證明加入用戶注意和產品注意對情感分類有更好的效果,本文還做了只考慮文本信息的研究.此研究中的模型將BiGRU換為了BiLSTM,并將該模型命名為BiLSTM-CNN(no UP)情感分類模型,該模型方法具體如下:

1)首先將文本輸入到Glove模型中訓練,把評論文本中的詞映射為對應的詞向量;

2)將詞向量輸入到BiLSTM層,得到隱藏層狀態;

3)將隱藏層的狀態加入注意力機制得到賦予注意力權重的句子表示;

4)將句子表示輸入到CNN層,經過CNN池化層下采樣得到隱藏層表示,對隱藏層狀態值求和得到文檔表示;

5)最后,通過softmax函數映射到情感分類的C個類別進行分類.

由文獻[26]實驗研究可知,無論是用GRU還是LSTM,其最后結果并不會有太大的差異,只是GRU參數更少一些,訓練起來比LSTM更簡單.但在數據集很大的情況下,LSTM的表達性能更好.所以將BiLSTM-CNN(no UP)情感分類模型的實驗結果與本文GCA模型的實驗結果進行對比,來進行分析.由表2的實驗結果顯示,BiLSTM-CNN(no UP)情感分類模型在IMDB、Yelp2013和Yelp2014三個數據集上的準確率分別為0.457,0.613和0.625,相比于本文的GCA模型,其準確率分別降低了5.2%,2.3%和3.0%,而均方根誤差也分別增加了12.9%,1.9%和3.6%,由此可見,加入用戶注意和產品注意要比只考慮文本信息的準確率要更高,均方根誤差要更小.

5 結 論

本文提出一種引入注意力機制的BiGRU-CNN文本情感分類模型-GCA情感分類模型,該模型結合BiGRU模型能夠充分提取文本上下文信息特征的優勢和CNN模型具有提取局部特征的特點,引入注意力機制對評論文本進行情感分類.并且該模型分別提取用戶特征和產品特征,彌補了傳統方法只考慮文本信息的不足.將該模型應用于IMDB、yelp2013以及yelp2014三個數據集,并與多種基線方法進行對比,實驗結果表明,本文提出的模型在一定程度上提高了情感分類的準確性.

猜你喜歡
分類特征文本
分類算一算
如何表達“特征”
在808DA上文本顯示的改善
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
基于doc2vec和TF-IDF的相似文本識別
電子制作(2018年18期)2018-11-14 01:48:06
數據分析中的分類討論
教你一招:數的分類
抓住特征巧觀察
文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學隱喻
主站蜘蛛池模板: 国产自产视频一区二区三区| 亚洲第七页| 国产自在自线午夜精品视频| 免费无码AV片在线观看国产| 91原创视频在线| 伊人久久影视| 国产91视频观看| 久久国产高清视频| 国产日本欧美在线观看| 伊人精品视频免费在线| 亚洲中文在线视频| 久久a级片| 国产性生大片免费观看性欧美| 欧美一级黄片一区2区| 亚洲日韩在线满18点击进入| 1024你懂的国产精品| 免费啪啪网址| 91国内在线观看| 人妻无码一区二区视频| 亚洲精品无码av中文字幕| 欧美日韩在线观看一区二区三区| 99无码中文字幕视频| 99国产精品一区二区| 最新午夜男女福利片视频| 国产精品一区在线麻豆| 国产色伊人| 国产精品福利导航| 午夜人性色福利无码视频在线观看| 日韩视频精品在线| 成年A级毛片| 一本大道无码日韩精品影视| 99精品热视频这里只有精品7| 91日本在线观看亚洲精品| 欧美色亚洲| 国产av剧情无码精品色午夜| 亚洲国产精品美女| 国产美女精品一区二区| 制服丝袜在线视频香蕉| 久久无码av三级| 国产网友愉拍精品| 中文字幕在线看视频一区二区三区| 精品1区2区3区| 国产杨幂丝袜av在线播放| 欧美精品成人一区二区在线观看| 亚洲精品另类| 久久性视频| 亚洲国产日韩在线成人蜜芽| 日本一区中文字幕最新在线| 国产男女XX00免费观看| 亚洲综合第一区| 在线观看精品自拍视频| 免费国产小视频在线观看| 久久亚洲天堂| 日a本亚洲中文在线观看| 久久综合色视频| 亚洲精品免费网站| 99久久精品国产精品亚洲| 欧洲免费精品视频在线| 欧美区日韩区| 日韩美女福利视频| 国产区免费精品视频| 欧美色亚洲| 亚洲一级毛片在线观| 日韩欧美中文字幕在线精品| 色网站在线视频| 精品人妻一区二区三区蜜桃AⅤ| 久久久受www免费人成| 好紧太爽了视频免费无码| 亚洲欧美日韩精品专区| 女人18毛片一级毛片在线| 一本大道视频精品人妻| 国产精品hd在线播放| 久久久久国产精品熟女影院| 国产成人啪视频一区二区三区| 色九九视频| 国产95在线 | 精品久久综合1区2区3区激情| 98精品全国免费观看视频| 激情网址在线观看| 福利姬国产精品一区在线| 中日韩一区二区三区中文免费视频| 亚洲妓女综合网995久久|