999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于Siamese LSTM的中文多文檔自動文摘模型

2021-03-16 13:29:16龔永罡王嘉欣廉小親裴晨晨
計算機應用與軟件 2021年3期
關鍵詞:特征文本方法

龔永罡 王嘉欣 廉小親 裴晨晨

(北京工商大學計算機與信息工程學院 北京 100048)

0 引 言

在復雜多樣的各類信息數據組成形式中,文本數量呈指數級快速增長[1]。快速從鋪天蓋地的文本數據中提取出需要的關鍵信息已經成為文本信息處理的一個發展趨勢。然而如今網絡上信息繁多且冗余過多,使該工作極其繁瑣、耗時。提取文本中心內容、概括大意,能夠大大提高檢索和閱讀理解文獻的效率。

抽取式文摘和生成式文摘是目前兩種主要文摘方法。抽取式文摘來自原文本的句子,而生成式文摘是在理解原文的基礎上使用自動生成語言的技術來完成文摘[2]。然而由于生成式對自然語言處理技術要求非常高,對其研究還處于初步階段,目前大多采用抽取式來進行自動文摘。

從目前的研究成果來看,中文自動文摘技術距離國際先進水平還有一定的差距[3]。蘇海菊等[4]最早進入自動文摘研究領域。隨后,哈爾濱工業大學的王開鑄教授等人開發了軍用文摘系統MATA[5]。王思聰[6]提出基于統計方法的文摘模型,僅通過計算實現,未將語義考慮進去。蘇彬[7]將Word2vec應用到文摘模型中。劉凱等[8]提出基于篇章修辭結構抽取摘要的方法,使文摘更加通順易讀。雖然傳統的抽取式文摘技術已經較為成熟,但是仍然有待改進,如選取特征的權值安排、文摘句的排序和最終文摘的潤色等。

自動文摘評價指標主要從文摘的連貫性、可讀性、信息覆蓋度、長度和冗余度等方面來評價,目前比較流行的評價方法是ROUGE方法。該評價方法的主要思想是通過比較生成的文摘和人工文摘之間的相似內容[9]。ROUGE-n即用于衡量n-grams的重疊性[10]。

1 設計思路

基于深度學習的自動文摘是通過使用深度學習的方法閱讀、分析大量文獻,從中提取出撰寫文本摘要所需相關素材,然后整理出一份完整的文本摘要。主要分為四個部分:文本預處理、提取文本關鍵特征、選取合適的句子和獲取最終摘要。本文提出的中文多文檔智能文摘系統流程如圖1所示。

圖1 智能文摘模型流程圖

本文主要將深度學習方法應用到傳統提取文本特征的過程中,通過改進當前較為成熟的單文檔自動文摘模型,把傳統方法所忽略的語義重要因素加入多文檔文摘過程中,使用Siamese LSTM網絡模型計算語義相似度,與常用的余弦向量法等計算相似度的方法相比,其文摘效果得到了很大的提升,使生成的文摘達到更好的效果。進一步對Siamese LSTM模型進行改進,提升了整個文摘系統的工作效率。

2 智能文摘模型

2.1 文本預處理

通常多文檔自動文摘任務是將多篇相同主題的文章合并進行自動文本摘要,因此首先確定共同主題,然后將文章分開保存為文本類型,為避免文章使用繁體中文,將文章轉換為簡體中文。通過判斷標點符號對生成的簡體中文文章進行分句,記錄每個句子在原文中的位置,并進行分詞。

2.2 提取文本特征

為了抽取文摘句,需要對原始文本中的每個句子進行文本特征的提取,并保證提取的文本特征與句子是否可以作為文摘句具有很強的關聯性。經過理論與實驗的論證,本文提取以下幾個文本特征。

2.2.1關鍵詞

相比其他普通詞而言,關鍵詞更具有表征文章主要內容的能力,因此將關鍵詞列為文本的主要特征之一。傳統自動文摘多采用TF-IDF(Term Frequency-Inverse Document Frequency)方法選取關鍵詞。

TF-IDFi,j=TFi,j×IDFj

(1)

式中:TFi,j表示特征詞在文本中出現的次數;IDFj表示反文檔率[11]。由于TF-IDF僅在字面層面進行計算詞頻來衡量詞的重要程度,忽略了詞義。Word2vec簡化了將文本內容處理成K維向量空間的運算[12],由于從語義層面考量,用Word2vec來選取關鍵詞,彌補了TF-IDF的缺陷。二者結合選取關鍵詞,然后計算句子的特征項得分:

(2)

式中:k[]存放關鍵詞,長度為10;c()計算句中關鍵詞的數量。

2.2.2句子長度

由于需要計算句子的各個特征值分數來選取關鍵句,故為避免有些句子過長導致最終結果不準確,句子長度也是需要提取的特征之一,減小句子太長或太短造成的誤差。句子長度計算式為:

(3)

式中:μ為第i個句子所屬集合的平均句長;xi為該句子的長度。由此可見,若句子長度更接近平均長度,則更容易被選為文摘句。最終結果在(0, 1]區間內,數值越大,其作為文摘句的可能性越大。

2.2.3句子位置

若某一原始文本中有N個句子,其中第i個句子的位置特征計算式為:

(4)

由式(4)可知,句子位置越靠前,該特征的得分就越高,該句子就更可能被選為文摘句。

2.2.4依存句法

經過實驗發現依存句法與文摘句的選取之間存在著特定的關聯,依存句法關系如表1所示。對訓練集中的每個句子都進行依存句法分析,使用向量表示,并作為聚類算法的輸入,確定文摘句的中心向量,計算距離得到依存句法特征的最終分值。

表1 依存句法特征

2.2.5詞性特征

大量數據觀察得出,詞性對文摘句的選取也同樣具有很大的輔助作用,因此借助jieba工具,對句子進行詞性標注。詞性特征如表2所示。

表2 詞性特征

隨后的處理方法同依存句法特征相似,首先對全部句子進行詞性分析,將詞性標注的結果作為聚類算法的輸入數據,確定文摘句的中心向量,計算每個句子與該中心向量的距離并得出詞性標注特征的分值。

2.2.6句子與標題相似度

用傳統的歐氏距離計算文本相似度,首先將每個句子使用向量進行表示,然后計算兩個向量的歐氏距離,最終表示二者的相似度。但歐氏距離只能適用于向量的每個分量坐標對于最終結果的貢獻相同的情況,而且只注重每個分量數值上的差異,從向量的不同分量的數值大小中體現差異,對向量的方向不敏感。相比之下,計算余弦相似度的方法,通過計算向量夾角的余弦值來表征相似度,對方向上的差異比較敏感,但是忽略了具體數值的絕對值大小差異。

TF-IDF模型經常被應用到自動文摘系統中來計算文本相似度,該模型通過使用TF-IDF方法來計算詞頻將句子向量化,最終計算向量的余弦值來表征相似度。但該方法存在一些缺陷:通過使用TF-IDF方法來計算詞頻,僅考慮其統計特性,而忽略了語義特征;使用余弦法無法準確表征向量長度的差異。

循環神經網絡(Recurrent Neural Network,RNN)經常被用于處理序列數據,例如文本、語音等,但由于其梯度消失的原因,只能擁有短期記憶。而長短期記憶網絡(Long Short Term Memory, LSTM)擁有的獨特設計使其避免了這個問題。使用兩個LSTM網絡,將兩個分詞后的句子依次分別輸入到LSTM網絡中,并對其輸出進行比較,即可獲得兩個句子的相似度。Siamese LSTM網絡模型如圖 2所示,將兩個LSTM網絡輸出的句向量計算曼哈頓距離,并求其負指數,最終結果即為兩個句子的相似度。

圖2 Siamese LSTM網絡結構

曼哈頓距離不存在余弦法等忽略長度或方向之間差異的缺陷且穩定性更高。同時,使用LSTM網絡來生成句向量,由于模型輸入為Word2vec網絡訓練生成的詞向量,與僅考慮詞頻的傳統方法相比更加注重詞義,其輸出結果準確度更高。

由于本文實驗多個地方需要使用到計算文本相似度方法,實驗語料較多,計算量較大。如果句子較長,雖然包含的有用信息會增多,但是無用信息也會相對增多,導致網絡結構龐大,最終影響準確率。因此,對文本相似度計算方法繼續進行改進:將句子分詞之后首先去除停用詞。結合常用停用詞表,去除不重要信息之后,計算相似度所需時間會大大減少,且對準確率的影響很小。

2.3 選取文摘句

針對2.2節中所敘述的幾個文本特征得分情況采用線性加權直接獲得句子的最終分數。由于沒有去除冗余,分數較高的若干句子之間的相似性也比較大,因此引入懲罰因子,將句子的新穎性考慮進去,對所有的句子在原基礎上重新打分,即使用最大邊界相關算法(Maximal Marginal Releuance,MMR)。計算公式表示為:

Si=λscore(i)-(1-λ)max[sim(i,j)]

(5)

式中:score(i)為線性回歸之后的句子得分,由于排在第一位的句子無須重新計算,故i從2開始;相似度sim(i,j)仍然使用Siamese LSTM網絡模型進行計算,j為整數,取值范圍為[1,i-1],λ∈(0,1),可根據實驗結果進行調整。最后將所有句子根據最終得分按序排列,選取的文摘句通常是排序后的前若干句,可以根據所需文摘的長度決定選取句子的數量,作為最終選取的文摘句。

2.4 獲取摘要

最終的文本摘要需要具有較強的可讀性,即連貫通順。對于單文檔摘要而言,通常將句子按照其在原文中的順序輸出作為摘要[13],可讀性較高。然而對于多文檔摘要而言,目前文摘句排序方面仍然只是探索階段,由于選取的文摘句來自不同的文檔,更需要考慮句子間的銜接性和連貫性。本文實驗采取的方法是首先計算每個文摘句在原文檔中的相對位置,然后將各個文摘句的相對位置進行排序,按順序排列文摘句,即為最終的文本摘要。

3 實 驗

3.1 實驗環境

針對上述模型設計了以下實驗。本實驗運行環境操作系統為Windows 1064位中文版,CPU為Intel(R) Core(TM) i5,運行內存8 GB,GPU為GTX 1060Ti。使用維基百科中文語料訓練Word2vec模型,使用北京理工大學官方提供的NLPIR短文本語料庫,由中文相似句生成的方法生成數據集,以此訓練Siamese LSTM網絡。

3.2 結果分析

將常用的TF-IDF模型、LDA模型與本文的Siamese LSTM模型、改進的Siamese LSTM模型進行對比實驗,然后綜合ROUGE評價和人工評價完成最終評價。ROUGE評價主要計算ROUGE-1和ROUGE-2兩個評價指標,評價所需人工文本摘要由兩人同時給出,最后計算綜合共現率。人工評價方法則人工按照文摘的評價標準對生成的文摘打分,從句子的連貫性、邏輯性、符合原文中心思想等幾個方面打分,最高分為5分,最低分為0分。選取五篇相同主題的中文文章進行實驗,上述評價結果如表3所示。實驗結果表明,將Siamese LSTM應用到中文多文檔自動文摘中,文摘效果得到了顯著的提升,而且改進Siamese LSTM模型在本次實驗中更優于原始模型。在實驗過程中同樣可以發現改進之后的Siamese LSTM模型在處理文檔時所需時間更短,提升了整個文摘系統的效率。

表3 實驗結果對比

選取三種模型所獲取的最終文摘分別如圖3、圖4和圖5所示。使用TF-IDF模型所得文摘中句子連貫性存在一定的問題,與原文主題切合度一般,語義重復部分較多;LDA模型所得文摘語序存在問題,相鄰句間的相關度不大,但幾乎每句都切合主題;Siamese LSTM所得文摘更加貼近主題,語義重復部分相對較少,但在連貫性方面仍存在問題,后續可針對文摘句的排序問題進行改進。

圖3 TF-IDF模型所得部分文摘

圖4 LDA模型所得部分文摘

圖5 Siamese LSTM模型所得部分文摘

4 結 語

本文給出了基于Siamese LSTM模型設計的中文多文檔自動文摘模型,模型的核心內容是將Siamese LSTM網絡應用于語義相似度的計算中,并通過去除停用詞的方法,減少了該模型的計算時間。由于本文模型為抽取式文本摘要,原文對摘要質量的影響較大,在結果上并未達到最好的效果,但該模型在中文多文檔自動文摘領域中仍然發揮著較大的作用,并且可以為未來生成式多文檔自動文摘技術的成熟化奠定基礎。然而本文模型在文摘句排序部分沒有進行過多改進,因此最終文摘的語句連貫性仍然存在著較大的提升空間。此外,本文只研究了抽取式文摘模型,后續可引入生成式文摘模型進行研究,為提升文摘質量和拓寬文摘模型的研究提供思路。

猜你喜歡
特征文本方法
如何表達“特征”
在808DA上文本顯示的改善
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
基于doc2vec和TF-IDF的相似文本識別
電子制作(2018年18期)2018-11-14 01:48:06
抓住特征巧觀察
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學隱喻
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
如何快速走進文本
語文知識(2014年1期)2014-02-28 21:59:13
主站蜘蛛池模板: 免费看av在线网站网址| 国产亚洲精品97AA片在线播放| 美女免费黄网站| 色成人综合| 亚洲国产综合第一精品小说| 中文字幕中文字字幕码一二区| 1024你懂的国产精品| 国产一级妓女av网站| 在线观看国产网址你懂的| 被公侵犯人妻少妇一区二区三区 | 美女视频黄频a免费高清不卡| 激情国产精品一区| 午夜国产精品视频| 超薄丝袜足j国产在线视频| 美女国内精品自产拍在线播放| 在线免费不卡视频| 伊人蕉久影院| 在线观看国产黄色| 中国一级特黄视频| 在线视频97| 亚洲一区二区三区麻豆| 久久综合亚洲鲁鲁九月天| 国产精品自在自线免费观看| 国产欧美视频在线观看| 国产真实乱子伦精品视手机观看| 人人爽人人爽人人片| 91无码人妻精品一区| 国产jizzjizz视频| 538国产视频| 精品福利国产| 国内精品视频| 黄片在线永久| 国产精品99一区不卡| 亚洲一级毛片免费观看| 2019年国产精品自拍不卡| 国内精自视频品线一二区| 精品在线免费播放| 综合天天色| 欧美激情视频一区| 激情综合婷婷丁香五月尤物| 国产一区二区三区在线精品专区 | 欧美精品黑人粗大| 国产激爽大片高清在线观看| 久久永久免费人妻精品| 日本高清有码人妻| 国产经典在线观看一区| 老熟妇喷水一区二区三区| 日本欧美中文字幕精品亚洲| 亚洲人成网18禁| 亚洲精品午夜无码电影网| 91久久性奴调教国产免费| 国产精鲁鲁网在线视频| 国产97视频在线观看| 亚洲欧美国产五月天综合| 福利视频99| 亚洲精品动漫| 久久国产香蕉| 国产精选自拍| 女人18毛片水真多国产| 亚洲swag精品自拍一区| 国产精品高清国产三级囯产AV| 国产视频久久久久| 国产精品无码AV中文| 成人自拍视频在线观看| 免费看av在线网站网址| 国产成人一区二区| 免费毛片全部不收费的| 亚洲精品麻豆| 欧美中文一区| 一区二区三区成人| 亚洲美女久久| 国产欧美精品专区一区二区| 2022精品国偷自产免费观看| 动漫精品啪啪一区二区三区| 嫩草影院在线观看精品视频| 国产精品观看视频免费完整版| 国产精品福利尤物youwu| 国产精品亚洲片在线va| 一级毛片无毒不卡直接观看| 高潮毛片无遮挡高清视频播放 | 婷婷色婷婷| 亚洲Av综合日韩精品久久久|