999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于LSTM?Attention神經網絡的文本特征提取方法

2018-04-13 06:36:32趙勤魯蔡曉東李波呂璐
現代電子技術 2018年8期

趙勤魯 蔡曉東 李波 呂璐

摘 要: 針對當前文本分類神經網絡不能充分提取詞語與詞語和句子與句子之間的語義結構特征信息的問題,提出一種基于LSTM?Attention的神經網絡實現文本特征提取的方法。首先,分別使用LSTM網絡對文本的詞語與詞語和句子與句子的特征信息進行提取;其次,使用分層的注意力機制網絡層分別對文本中重要的詞語和句子進行選擇;最后,將網絡逐層提取得到的文本特征向量使用softmax分類器進行文本分類。實驗結果表明,所提方法可以有效地提取文本的特征,使得準確率得到提高。將該方法應用在IMDB,yelp2013和yelp2014數據集上進行實驗,分別得到52.4%,66.0%和67.6%的正確率。

關鍵詞: LSTM?Attention; 注意力機制; 文本分類; 神經網絡; 文本特征提取; softmax

中圖分類號: TN711?34; TP391.41 文獻標識碼: A 文章編號: 1004?373X(2018)08?0167?04

Abstract: In allusion to the problem that the current text classification neural network cannot fully extract semantic structural feature information among words or sentences, a text feature extraction method based on long short?term memory?attention (LSTM?Attention) neural network implementation is proposed. LSTM network is used to extract feature information among words or sentences of text. Network layer of hierarchical attention mechanism is used to select important words and sentences in text. Text classification is performed for the text feature vectors obtained from each network extraction by using softmax classifier. The experimental results show that the proposed method can effectively extract text features to improve the accuracy rate. When applying the method to the datasets of IMDB, yelp2013 and yelp2014 in the experiment, the correctness rates of 52.4%, 66.0% and 67.6% are obtained respectively.

Keywords: LSTM?Attention; attention mechanism; text classification; neural network; text feature extraction; softmax

0 引 言

文本分類任務是自然語言處理的一項基本任務,其目的是讓文本得到相應的類別標簽。文獻[1]采用的詞袋模型向量實現對文本特征的提取。這種方法分類效果的好壞受文本提取的特征影響較大,在訓練時容易造成維度災難。文獻[2]是構建有效的文本特征以及建立文本情感詞典來得到文本的類別特征。這樣的方式耗費大量的人力并且效率低。隨著深度學習在自然語言處理領域的發展,文獻[3]使用卷積神經網絡對文本單詞級別的信息進行分類工作,通過卷積神經網絡不同尺寸的卷積核來得到文本的N元特征信息進行文本特征分類。文獻[4]使用卷積神經網絡在字符級別對文本進行分類工作。目前循環神經網絡LSTM已經在自然語言處理任務中被廣泛應用,文獻[5]使用LSTM遞歸網絡進行文本情感分類任務。但是這些網絡都是將一個句子或者一個文本作為網絡的輸入,經過深度神經網絡來提取文本的特征,進而將這些特征使用分類器分類。但是,這樣的方法只是關注了整個文本中的信息,沒有能夠考慮到詞語之間以及句子之間的局部信息,為了解決這個問題,文獻[6]提出使用分層網絡結構對文本的詞語信息和句子信息分別進行提取學習。使用分層的CNN/LSTM以及GateNN網絡分別對詞語和句子之間的語義信息進行提取,實現對文本的分層次信息提取。近幾年基于注意力機制的神經網絡在自然語言處理各項任務中已經取得了很多重要的進展。文獻[7]將注意力機制(Attention)首次引入到自然語言處理任務中,應用在seq2seq機器翻譯任務上。文獻[8]提出基于注意力機制的池化網絡應用在問答系統中。本文提出一種Long Short?term Memory?Attention(LSTM?Attention)神經網絡的文本特征提取方法,來實現對詞語與詞語和句子與句子之間的語義結構信息進行充分提取。

本文結合LSTM以及注意力機制提出LSTM?Attention神經網絡,該網絡不僅可以對文本分層次對詞語與句子之間的特征分別提取,而且還可以實現對重要的詞語和句子進行提取。將該網絡應用到文本分類任務中,與不使用注意力機制的分層網絡相比。最終本文方法可以提取到更有區分能力的文本特征。

1 LSTM?Attention神經網絡

本文LSTM?Attention神經網絡總共包含六部分:文本向量化層、詞語信息特征提取層、詞語Attention層、句子信息特征提取層、句子Attention層、文本分類層。網絡模型整體框圖如圖1所示。

1.1 長短期記憶網絡

長短期記憶網絡(LSTM)是一種時間遞歸神經網絡[9],該神經網絡可以有效保留歷史信息,實現對文本的長期依賴信息進行學習。LSTM網絡由三個門(輸入門、遺忘門和輸出門)和一個cell單元來實現歷史信息的更新和保留。

LSTM數據更新過程如下,在時刻t時,輸入門會根據上一時刻LSTM單元的輸出結果ht-1和當前時刻的輸入xt作為輸入,通過計算來決定是否將當前信息更新到LSTM?cell中,可以表述為:

1.2 文本向量化層

本文使用的訓練文本d由n個句子組成即d={s1,s2,…,sn},每個句子由m個單詞組成,則樣本中的第i個句子si可以表示成si={wi1,wi2,…,wim}。本文使用的是word2vec中Skip?Gram無監督模型對語料進行向量化,得到詞向量[w∈Rd],通過文本向量化層實現文本向量化。

1.3 詞語信息特征提取層

對于一個句子,可以將句子看成是由詞語組成的序列信息。首先通過LSTM網絡對向量化的句子序列xi1,xi2,…,xit作為LSTM的輸入節點數據,在t時刻輸入到網絡的句子根據t-1時刻的LSTM細胞狀態ct-1和隱層狀態ht-1進行更新得到hi。這里的xi1,xi2,…,xit是指句子中的每個詞語,在不同的時刻LSTM會輸出對應節點的隱層輸出值hi1,hi2,…,hit。輸出隱層信息[hit∈Rn_hidden],n_hidden是LSTM隱層神經單元個數。得到hit作為一個句子的特征向量,輸入到下一網絡層。通過這樣的方式將句子序列的前后信息進行學習,得到句子詞語之間的前后信息,對文本句子進行語義編碼,可以描述為:

1.4 詞語Attention層

在文本中,每一個詞語對于文本類別的貢獻度是不一樣的,為了實現對重要詞語的特征進行提取,增加這個層可以進一步地提取文本之間的更深層的信息,在此使用了注意力機制。首先將LSTM隱層的輸出信息hit經過非線性變換得到其隱含表示uit,通過隨機初始化注意力機制矩陣uw與uit進行點乘運算并對其使用softmax進行歸一化操作,最終得到詞級別LSTM隱層輸出的權重系數,最終通過該方法得到詞語注意力機制矩陣,可以描述為:

1.5 句子信息特征提取層

同樣,可以把文本看成是由句子組成的序列信息。為了得到整個文本的語義關系特征,將上一網絡層得到的句子向量si輸入到LSTM網絡,在t時刻輸入到網絡的句子根據t-1時刻的LSTM細胞狀態ct-1和隱層狀態ht-1進行更新得到hi。通過該網絡層得到句子之間的語義關聯信息,實現文本特征信息的提取,可以描述為:

1.6 句子Attention層

在一個文本中,不同句子對文本信息重要程度的貢獻也是不同的。采用和詞級別同樣的方式進行對重要句子給予不同權重參數的操作,得到句子的注意力機制矩陣,具體描述為:

式中,us是隨機初始化的句子注意力機制矩陣。

1.7 文本分類層

向量V是經過網絡由詞級別以及句子級別層提取出的文本特征向量。為了把文本的高維特征進行壓縮到低維度,增強數據的非線性能力。在softmax分類層之前添加一個非線性層,將該向量映射為長度為c的向量,其中c是文本的類別數。最后經過softmax分類器計算對應類別的分布概率,描述為:

2 實 驗

2.1 數據集和實驗環境

為了驗證本文提出的模型的有效性,將此模型應用于IMDB,yelp2013和yelp2014數據集上。實驗數據[6]統計如表1所示。本文詞向量是使用word2vec[10]對語料產生200維度的詞向量,所生成的詞向量中包含的單詞均在語料中出現三次以上,否則使用word2vec產生的均值向量進行文本向量化工作。本文實驗平臺的配置包括Intel i5?4460,4×3.2 GHz處理器、8 GB內存、GTX750Ti顯卡以及 Ubuntu 14.04操作系統,并使用Theano深度學習開源框架。

2.2 實驗設計

本文提出LSTM?Attention和LSTM?LSTM兩種神經網絡模型進行實驗對比,具體模型描述如下:

LSTM?LSTM:LSTM?Attention神經網絡是將文本進行向量化后分別使用LSTM網絡對詞語以及句子進行序列信息進行提取,并分別在詞語級別和句子級別之后的LSTM網絡后面加入注意力機制層,最終將得到的文本的特征向量送進softmax分類器進行分類器的訓練。

LSTM?LSTM神經網絡:將文本進行向量化后分別使用LSTM網絡對詞語以及句子進行序列信息提取,并分別在詞語級別和句子級別之后的LSTM網絡后面加入平均池化層,最終將得到的文本特征向量送進softmax分類器進行分類器的訓練。其具體網絡隱層參數如表2所示。

2.3 實驗分析

本文所提方法以及對比方法實驗結果如表3所示。文獻[6]中使用CNN對詞語特征進行提取得到詞語的N元特征信息。但是這種方法容易忽略詞語之間的長期依賴信息。為了解決這個問題使用GRNN對句子特征進行提取從而實現文本特征的提取。本文提出的LSTM?LSTM神經網絡,不僅可以對詞語之間的長期依賴信息進行提取,而且還可以對句子與句子之間的信息進行特征提取。在IMDB,yelp2013和yelp2014數據集上分別取得了50.9%,65.6%和66.5%的正確率。本文提出的LSTM?Attention網絡不僅可以實現對文本進行分層次特征學習提取,通過給予不同的權重參數使用注意力機制實現對文本中重要的詞語和句子進行提取。使得網絡可以實現對文本的信息給予不同的關注程度。本文所提方法和不使用注意力機制的LSTM?LSTM網絡相比均有提高,這也說明了注意力機制的有效性。LSTM?Attention在IMDB,yelp2013和yelp2014數據集上分別取得了52.4%,66.0%和67.6%的正確率。

3 結 論

本文提出一種基于LSTM?Attention的神經網絡實現文本特征提取的方法。首先,相比較于Conv?GRNN[6],本文方法LSTM?LSTM通過LSTM網絡分別實現對詞語之間以及句子之間的特征進行學習提取;其次,通過LSTM?Attention相比較于沒有注意力機制的LATM?LSTM可以實現對貢獻度不同的詞語和句子進行提取;最后,在IMDB,yelp2013和yelp2014數據集上實驗,結果證明,本文的方法可以提取出更具區分能力的文本特征,達到52.4%,66.0%和67.6%的正確率。

注:本文通訊作者為蔡曉東。

參考文獻

[1] WAWRE S V, DESHMUKH S N. Sentiment classification using machine learning techniques [J]. International journal of science and research, 2016, 5(4): 819?821.

[2] DING X, LIU B, YU P S. A holistic lexicon?based approach to opinion mining [C]// Proceedings of the 2008 International Conference on Web Search and Data Mining. New York: Association for Computing Machinery, 2008: 231?240.

[3] KIM Y. Convolutional neural networks for sentence classification [J/OL]. [2014?09?03]. https://arxiv.org/pdf/1408.5882v2.pdf.

[4] ZHANG X, ZHAO J, LECUN Y. Character?level convolutional networks for text classification [J/OL]. [2017?07?09]. http://www.doc88.com/p?1582873490700.html.

[5] 梁軍,柴玉梅,原慧斌,等.基于極性轉移和LSTM遞歸網絡的情感分析[J].中文信息學報,2015,29(5):152?159.

LIANG Jun, CHAI Yumei, YUAN Huibin, et al. Polarity shifting and LSTM based recursive networks for sentiment analysis [J]. Journal of Chinese information processing, 2015, 29(5): 152?159.

[6] TANG D, QIN B, LIU T. Document modeling with gated recurrent neural network for sentiment classification [C]// Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. [S.l.: s.n.], 2015: 1422?1432.

[7] BAHDANAU D, CHO K, BENGIO Y. Neural machine translation by jointly learning to align and translate [J/OL]. [2014?10?11]. http: //nlp.ict.ac.cn/Admin/kindeditor/attached/file/20141011/20141011133445_31922.pdf.

[8] DOS?SANTOS C, TAN M, XIANG B, et al. Attentive pooling networks [J/OL]. [2016?02?11]. http://xueshu.baidu.com/s?wd=paperuri%3A%28f618ebd90de235437fd745ed36080e77%&;29

filter=sc_long_sign&;tn=SE_xueshusource_2kduw22v&;sc_vurl=http%3A%2F%2Farxiv.org%2Fabs%2F1602.03609&;ie=utf?8&;sc_us=17197570488667881682.

[9] HOCHREITER S, SCHMIDHUBER J. Long short?term memory [J]. Neural computation, 1997, 9(8): 1735?1780.

[10] MIKOLOV T, SUTSKEVER I, CHEN K, et al. Distributed representations of words and phrases and their compositionality [J/OL]. [2013?10?16]. https://arxiv.org/pdf/1310.4546v1.pdf.

主站蜘蛛池模板: 一级毛片网| 国产成人久久综合777777麻豆| 亚洲视频色图| 亚洲黄色视频在线观看一区| 成人福利免费在线观看| 乱色熟女综合一区二区| 99精品免费欧美成人小视频 | 国产菊爆视频在线观看| 国产欧美视频综合二区| 福利在线不卡一区| 国产成人无码Av在线播放无广告| 美女无遮挡免费视频网站| 日韩无码一二三区| 亚洲精品欧美重口| 亚洲精品色AV无码看| 日韩精品资源| 97成人在线观看| 97狠狠操| 五月天福利视频| 亚洲成A人V欧美综合| 免费看a毛片| 国产成人在线小视频| 国产精品网址在线观看你懂的 | 狠狠干综合| 久久大香伊蕉在人线观看热2| 日本国产精品| 99久久精品免费看国产电影| 国产精品视频a| 国产高清在线观看| 浮力影院国产第一页| 国产精品深爱在线| 亚洲人成影院在线观看| 免费xxxxx在线观看网站| 99热国产这里只有精品无卡顿"| 亚洲人成人伊人成综合网无码| 99一级毛片| 激情无码视频在线看| 一边摸一边做爽的视频17国产| 久热中文字幕在线| 亚洲欧美h| 爱爱影院18禁免费| 色哟哟色院91精品网站| 欧洲成人免费视频| 日韩精品久久久久久久电影蜜臀| 天堂网国产| 国产精品视频白浆免费视频| 在线观看网站国产| 国产精品偷伦在线观看| 久久久久久久久亚洲精品| 亚洲无码视频喷水| 免费观看精品视频999| 久久人与动人物A级毛片| 91视频免费观看网站| 国产精品思思热在线| 玖玖免费视频在线观看| 色综合成人| 欧美不卡视频在线观看| 五月婷婷亚洲综合| 日韩在线观看网站| 毛片免费在线视频| 国产嫩草在线观看| 91久久夜色精品| 色综合五月| 人妻精品久久无码区| 五月激激激综合网色播免费| 久久99国产视频| 青青草国产免费国产| 天堂va亚洲va欧美va国产| 日韩精品欧美国产在线| 97视频免费看| 欧美激情福利| 中文无码精品a∨在线观看| 亚洲视频二| 欧美日韩国产成人在线观看| 欧美精品啪啪| 国产一区在线观看无码| 激情無極限的亚洲一区免费| 少妇极品熟妇人妻专区视频| 成年A级毛片| 亚洲色欲色欲www在线观看| 欧美啪啪一区| 中文字幕 91|