999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的中文零代詞識別

2021-02-22 04:00:58王立凱曲維光魏庭新周俊生顧彥慧
關鍵詞:語義信息模型

王立凱,曲維光,,魏庭新,周俊生,顧彥慧,李 斌

(1.南京師范大學計算機與電子信息學院,江蘇 南京 210023) (2.南京師范大學文學院,江蘇 南京 210097) (3.南京師范大學國際文化教育學院,江蘇 南京 210097)

零指代是語言學中一種特殊的語言現(xiàn)象,是指為了保證語言的連貫性而省略的、且可通過上下文推斷出的語言單元. 該省略的語言單元在句子中承擔相應的句法成分,可以和前文中一個或多個名詞短語等語言單元構成指代關系. 這種被省略的語言單元稱為零代詞,前文中與其構成指代關系的語言單元被稱為先行語.

例句1雖然[卓偉]的新聞裝備落后,但Ф1說起娛樂新聞觀念,Ф2卻比許多年輕同事更自由,更激進.

例句1中,Ф2就是一個零代詞,指向前文中的人名“卓偉”. 但Ф1就不是一個零代詞,前文中沒有語言單元與其構成指代關系. 因此,零代詞的兩個必要條件是:(1)句中存在句法成分缺省;(2)前文中有語言單元與其構成指代關系. 與英文相比,漢語是一種意合型語言,其特點是形態(tài)不完整,這使得漢語中存在大量的缺省. 據(jù)Kim[1]統(tǒng)計,漢語中存在句法成分省略的現(xiàn)象高達36%,而英文中的省略現(xiàn)象則不超過4%,所以零指代的識別與消解對于中文信息處理來說顯得更加迫切和重要.

中文零指代通常可分為兩個子任務,一是零代詞的識別,二是零代詞的消解. 目前的研究工作多數(shù)聚焦于消解部分,并取得了豐碩成果[2-4],而零代詞的識別研究相對較少. 零代詞識別是指識別出句子中有回指的缺省語言單元的位置,是零指代消解必要的前期基礎. 在早期的零代詞識別研究中,主要是利用規(guī)則的方法去識別零代詞[5],缺點是難以制定較為全面的規(guī)則且可泛化性差. 也有一些學者如Zhao[6]、Kong[7]等利用傳統(tǒng)機器學習方法去識別中文零代詞,但仍受限于特征模板和專家知識,忽略了語義特征對于識別零代詞的重要作用. Zhao等[6]第一次使用了基于機器學習的方法進行中文零代詞的識別與消解. 實驗過程中,在識別階段使用了13個特征,在消解階段使用了多達26個特征. Kong等[7]提出了一個基于樹核支持向量機的統(tǒng)一中文零指代消解框架,該框架包含3個部分,分別為候選零代詞的生成、回指零代詞的識別和消解. Chen等[8]也提及了其使用的基于規(guī)則的零代詞識別方法來作為消解工作的鋪墊,并在之前研究的基礎上豐富了零代詞特征,利用SVMlight算法取得了當時最好的效果[9]. 也有學者如Liu等[10]提出利用GRU網(wǎng)絡去學習詞向量中蘊含的語義信息,但忽視了句子中不同詞語所蘊含的語義信息是不同的,同時也忽視了句法結構信息在識別過程中的重要作用. Kong等[11]在使用共指鏈信息進行零代詞識別和消解時,將零指代識別分為兩個步驟:零代詞候選位置生成和零代詞識別,在生成零代詞候選位置時使用了句法信息,在識別時則利用詞匯、句法和語義特征構造了一個分類器. Song等[12]則使用多任務學習方法,同時使用BERT進行編碼,對零代詞識別和消解進行聯(lián)合學習,但由于錯誤傳遞,效果不盡如人意,聯(lián)合模型F1值均低于40%.

本文為解決上述問題、提升零代詞識別效果,提出了一種基于深度神經(jīng)網(wǎng)絡的回指零代詞識別方法,首先利用注意力機制去捕獲零代詞上下文的語義信息,對蘊含更多語義信息的詞語分配更高的權重,同時利用Tree-LSTM去挖掘句法結構信息,最后通過兩者的融合特征識別零代詞. 相比于傳統(tǒng)識別方法需要建立繁瑣的規(guī)則體系或特征模板、泛化性差等缺點,本文通過深度神經(jīng)網(wǎng)絡從輸入文本中抽取抽象特征信息來識別零代詞,降低了模型對繁瑣的手工特征和專家知識的依賴. 在OntoNotes5.0中文語料上的實驗結果證明,該方法有效提升了中文零代詞的識別效果.

圖1 中文零代詞識別整體框架圖Fig.1 Framework of Chinese zero pronoun recognition

1 模型

1.1 模型概述

本文的整體模型框架如圖1所示,主要由4個部分組成:零代詞候選集合的生成模塊、注意力機制模塊、Tree-LSTM模塊和輸出模塊. 首先,通過事先制定的句法規(guī)則從原始語料中篩選出零代詞的候選集合. 由于零代詞在文本中缺省,無法直接獲取零代詞的詞向量,本文通過兩種方式間接對其進行特征表示:一是通過注意力機制模塊,包含Encoder層和Attention層,Encoder層對零代詞的上下文進行前向后向的LSTM編碼,得到其上下文的隱藏層表示,再利用Attention層捕獲其深層語義信息;二是通過Tree-LSTM模塊挖掘其句法結構信息. 最后,將兩者的融合特征送入輸出層,得到分類結果.

1.2 零代詞候選集合生成模塊

零指代識別和消解任務常采用OntoNotes5.0語料[13]數(shù)據(jù)集,本文亦采用該語料. 由于OntoNotes5.0語料只標記了主語位置的零代詞,故本文研究只考慮主語位置零代詞的情況. 現(xiàn)代漢語中,主語位置零代詞總是出現(xiàn)在謂詞短語節(jié)點(VP)之前,而謂詞短語是由一個或一個以上動詞短語構成,由此,對于句法樹中的節(jié)點T,若同時滿足以下3條句法規(guī)則,則節(jié)點T的左邊相鄰位置是零代詞的候選位置:

(1)T節(jié)點屬于VP節(jié)點;

(2)T節(jié)點的父親節(jié)點不屬于VP節(jié)點;

(3)T節(jié)點的左兄弟節(jié)點不屬于NP節(jié)點,或者T節(jié)點沒有左兄弟節(jié)點.

例句2建筑是開發(fā)浦東的一項主要經(jīng)濟活動,這些年有數(shù)百家建筑公司,四千余個建筑工地遍布在這片熱土.

如圖2所示,例句2中,根據(jù)上文所制定的規(guī)則,節(jié)點(VP(VV(開發(fā))NP(NR(浦東))))的當點節(jié)點為VP節(jié)點,其父親節(jié)點為IP節(jié)點,且無左兄弟節(jié)點,因此判定其為一個零代詞候選位置,但實際上該位置并不存在零代詞,因為其不滿足回指前文中語言單元的條件. 而樹中“這些年有數(shù)百家公司”的句首位置也滿足規(guī)則,同時回指前文中的“浦東”,因此該候選位置存在一個零代詞.

圖2 例句2句法分析樹Fig.2 Syntactic parsing tree of sentence 2

1.3 注意力機制模塊

1.3.1 Encoder層

通過零代詞候選集合生成模塊的篩選,獲取了零代詞候選集合ZPS,對于候選集合中的每一個候選零代詞zp,其上下文可表示為:

Contextprecedding=(x1,x2,…,xzp-1),

(1)

Contextfollowing=(xzp+1,xzp+2,…,xn).

(2)

式中,xi=[wi;pi],wi表示第i個詞語的詞向量,pi表示其詞性向量,xi為wi和pi的拼接. 為了獲取其上下文信息,本文采用LSTM網(wǎng)絡對兩個序列Contextprecedding和Contextfollowing分別進行編碼. LSTM的公式如下所示:

it=σ(W(i)·[xt;ht-1]+b(i)),

(3)

ft=σ(W(f)·[xt;ht-1]+b(f)),

(4)

ot=σ(W(o)·[xt;ht-1]+b(o)),

(5)

(6)

(7)

ht=ot·tanh(Ct).

(8)

式中,·代表元素乘法,W(i),b(i),W(f),b(f),W(o),b(o),W(c)和b(c)代表LSTM網(wǎng)絡的參數(shù).

本文將零代詞的上下文通過LSTM網(wǎng)絡進行編碼:

(9)

(10)

式中,LSTMpre和LSTMfol分別代表一個前向的LSTM網(wǎng)絡和一個后向的LSTM網(wǎng)絡. 可得零代詞上下文中每一個詞語的隱藏層表示:

(11)

(12)

1.3.2Attention層

由于零代詞在文章中是缺省的,在以往的研究中,雖然學者們使用了許多方法去表示零代詞,但仍存在無法獲取部分關鍵語義信息等問題. 本文采用注意力機制去編碼零代詞的語義信息.

由于在Encoder層已經(jīng)獲得了零代詞上下文的隱藏層表示Hpre和Hfol,接下來需將Hpre和Hfol作為注意力機制的輸入,并計算權重:

(13)

(14)

式中,W1是一個a×u的參數(shù)矩陣,W2為r×a的參數(shù)矩陣,u代表零代詞上下文隱藏層輸出的維度,r代表選擇的注意力機制層數(shù).

通過該方法即可得到一個多層的權重矩陣A,與單層的注意力機制權重矩陣相比,多層注意力機制使得模型可從不同的角度關注句子的不同部分,可更高效地從語義角度對零代詞進行句子級信息的建模. 當?shù)玫綑嘀鼐仃嘇后,將得到的r層權重與零代詞的上下文隱藏層輸出H作加權求和:

Mpre=Apre·Hpre,

(15)

Mfol=Afol·Hfol.

(16)

而后將每個矩陣(即Mpre和Mfol)的行向量取平均得到零代詞的上文表示和下文表示,將兩個表示向量做拼接得到零代詞的語義表示向量. 通過注意力機制學習上下文中不同詞對表示零代詞語義信息的重要程度,完成注意力權重的分配,可更好地從語義角度對零代詞進行表示.

1.4 Tree-LSTM模塊

Kong等[7]指出,句法結構信息對于中文零代詞的識別具有重要的作用. 本節(jié)通過Tree-LSTM[14]對零代詞的成分句法樹進行編碼,從結構化句法信息的角度對零代詞進行更好地表示. 傳統(tǒng)的LSTM模型在每個時間步都是將當前時間步的詞語信息和上一個時間步的輸出信息作為輸入,更新當前時間步的記憶單元和隱藏層狀態(tài). 在Tree-LSTM中,樹中每個節(jié)點的輸入為當前節(jié)點的詞語信息和其孩子節(jié)點的輸出信息,而不只考慮前一步的信息. 給定一個成分句法樹,對于節(jié)點j,Tree-LSTM的具體公式如下:

(17)

(18)

(19)

(20)

(21)

hj=oj·tanh(cj).

(22)

(1)保留句法樹根節(jié)點到零代詞出現(xiàn)位置動詞短語節(jié)點的路徑,并保留此路徑上直接相連的名詞短語節(jié)點和動詞短語節(jié)點;

(2)保留零代詞出現(xiàn)位置前一個動詞短語節(jié)點和零代詞出現(xiàn)位置動詞短語之間的句法樹;

(3)對于動詞短語節(jié)點的子樹,只保留那些以動詞和名詞為葉節(jié)點的路徑.

圖3 候選零代詞的裁剪句法樹Fig.3 Pruned syntactic tree of candidate zero pronoun

對圖2句法樹中“開發(fā)浦東”前的候選零代詞進行裁剪后的句法樹結構如圖3所示.

1.5 輸出模塊

通過注意力機制模塊和Tree-LSTM模塊分別獲取候選零代詞語義層次和句法層次的表示后,本文將其送入一個兩層前饋神經(jīng)網(wǎng)絡中,判斷其是否為一個零代詞. 計算公式如下:

va=[avg(Mpre);avg(Mfol)],

(23)

s1=tanh(W1·[va;hpre;hfol;vt;vfea]+b1),

(24)

s2=tanh(W2·s1+b2).

(25)

式中,va表示注意力機制模塊中Attention層所得矩陣Mpre和Mfol行向量取平均的拼接向量;hpre和hfol分別表示注意力機制模塊中Encoder層中LSTM前向和后向的最終隱層狀態(tài);vt表示零代詞句法裁剪樹經(jīng)過Tree-LSTM模塊編碼后的輸出向量;vfea為候選零代詞句法結構、位置等手工構建的特征信息所組成的數(shù)值向量,具體特征描述與文獻[3]中一致;W1,b1,W2,b2分別代表兩層前饋神經(jīng)網(wǎng)絡的參數(shù);s1和s2分別代表兩層前饋神經(jīng)網(wǎng)絡的輸出.

最后,將其輸出送入softmax層得到最終的分類概率為:

P=softmax(Wsoft·s2+bsoft),

(26)

式中,P表示候選零代詞是回指零代詞的概率;s2為前兩層隱藏層的輸出.

1.6 損失函數(shù)

本文采用交叉熵作為模型訓練的目標函數(shù). 損失函數(shù)的公式為:

(27)

式中,Z為零代詞候選集;pi(z)表示通過本文模型的候選零代詞z屬于類別i的概率;yi(z)為候選零代詞z的標簽.

2 實驗

2.1 評測指標

與早期關于中文零指代任務的研究相似,本文通過召回率(Recall)、精確率(Precision)和F值(F-score)來評估本文的模型,其中Recall和Precision定義為:

(28)

(29)

(30)

式中,AZPright表示本文模型預測正確的零代詞;AZPres表示本文模型預測為正確的所有零代詞;AZPgold表示語料中標注的所有零代詞.

2.2 數(shù)據(jù)集

表1 OntoNotes5.0數(shù)據(jù)集統(tǒng)計Table 1 Statistics of the OntoNotes 5.0 dataset

實驗數(shù)據(jù)選擇CoNLL-2012共享任務中的OntoNotes5.0數(shù)據(jù)集[13],僅選用其中中文部分. 中文部分數(shù)據(jù)集只有在訓練集和驗證集上才有零代詞的標注,在測試集上未作標記. 本文參照以往中文零指代文獻中的做法,將模型在訓練集上進行訓練,在驗證集上進行評測. OntoNotes5.0中文數(shù)據(jù)集主要包含6種類別,分別為廣播會話、廣播新聞、雜志、通訊新聞、電話對話和博客文章. 數(shù)據(jù)集的具體統(tǒng)計數(shù)據(jù)如表1所示.

2.3 參數(shù)設置

由于實驗缺少驗證集,本文從訓練語料中切分了約20%的數(shù)據(jù)作為驗證集,用以調整超參數(shù). 具體參數(shù)設置如表2所示.

表2 實驗超參數(shù)設置Table 2 Parameter setting of the experiments

在實驗過程中發(fā)現(xiàn),由于訓練集正負樣本不平衡(正負比例約為1∶3),導致實驗效果下降. 因此,本文通過復制正例樣本來平衡訓練集中正負樣本的比例. 經(jīng)測試,最終選擇將正例樣本復制3次,模型達到了最優(yōu)的效果.

本文將模型初始迭代次數(shù)設置為50. 圖4所示為本文模型在驗證集上的學習曲線,可以觀察到模型在第一個epoch時,驗證數(shù)據(jù)集上的F1-score約為56%,隨著迭代次數(shù)的增加,F1-score值不斷增加. 在第11次迭代時,模型在驗證集上的性能達到最優(yōu). 之后,本文模型的F1-score開始下降. 因此本文保存驗證集上效果最優(yōu)的模型參數(shù),在測試集上進行評價.

圖4 模型在驗證數(shù)據(jù)集上的學習曲線Fig.4 Learning curve of the model on the validation dataset

圖5 r值對零代詞識別的影響Fig.5 Effect of r value on zero pronoun recognition

此外,本文希望多層次的句子級信息可以為表示零代詞提供豐富的語義信息,因而通過改變注意力機制層的r值,來評估不同的r值對于中文零代詞識別的影響. 當r=16的時候,模型達到最優(yōu)值,如圖5所示. 本文通過注意力機制將模型關注的重點放在對編碼零代詞更加有用的部分,將句子以零代詞為中心分成兩個部分,當r=16時,說明本文的模型分別從16個不同的角度去編碼前半部分和后半部分的語義信息,因而能夠達到較好的結果.

2.4 實驗結果與分析

表3所示為本文模型和近年中文零代詞識別任務在OntoNotes5.0中文語料上的實驗結果的對比,前 4行為以往對于中文零代詞識別任務的實驗結果,后兩行為本文的實驗結果. 可以看出,本文模型比以往最優(yōu)模型的F值要高出1.4%,加入Bert預訓練詞向量后的F值更是高出了3.6%.

表3 不同模型實驗結果對比Table 3 Comparison of experimental results of different models

從精確率來看,本文模型在未加入Bert之前比表中Chen and Ng(2013)和(2016)的模型分別低了5.2%和0.2%. 分析發(fā)現(xiàn),這兩個模型均采用傳統(tǒng)機器學習的方法. 中文零代詞具有較強的規(guī)則性,制定合適的特征模板會對中文零代詞識別的精確率具有較好的正向作用. 從召回率來看,本文的模型無論是加Bert之前還是之后,均優(yōu)于以往的中文零代詞識別模型.

由于近期Bert模型在各大任務上均取得了較好的成果,本文也嘗試了在現(xiàn)有模型上加入Bert預訓練模型,主要是利用Bert的encoder層輸出去增強本文模型中的詞向量表示. 由于Bert的pytorch版本目前尚只能做字符級編碼,本文對中文詞語中每個字符的向量表示做了均值操作,以此來代替詞級向量. 本文并未對Bert網(wǎng)絡進行微調,僅將Bert網(wǎng)絡的輸出作為特征. 實驗表明,加入Bert后模型在OntoNote5.0中文語料上的F值、準確率和召回率分別為63.7%、54.6%和76.4%,F值比原始模型高出了2.2%,精確率上升了4.7%,但召回率下降了3.8%.

2.5 模塊分析

表4所示為本文中各個模塊在模型中所起的作用.

表4 各模塊在實驗中的作用對比Table 4 Comparison of experimental results with different modules

如表4所示,Rules-based表示本文零代詞候選集生成模塊所生成零代詞候選集的實驗效果. 在本文的規(guī)則下,回指零代詞的召回率很高,達到99.1%,但是精確率較低,只有24.2%. 因為本文主要是利用規(guī)則去生成零代詞的候選集合,對召回率的要求更高.

Rules+Tree-LSTM表示本文模型去除注意力機制模塊之后的實驗結果,其F值為60.2%,精確率為46.7%,召回率為84.7%. 由于成分句法樹的成分缺省具有較強的規(guī)律性,通過Tree-LSTM對成分句法樹的學習,理論上可以找回絕大多數(shù)零代詞的缺省位置. 但因語義信息的不足,對判斷其是否回指存在不足.

Rules+Attention表示本文模型去除Tree-LSTM之后的實驗結果,其F值為57.5%,精確率為47.2%,召回率為73.6%. 相比于Rules+Tree-LSTM,準確率略高,而召回率大幅下降,這主要是因為句法結構信息的缺失導致無法準確識別出句子中成分缺省.

Rules+Zpcenter表示同時去除Tree-LSTM模塊和注意力機制模塊之后的實驗結果,其F值為56.8%,準確率為45.4%,召回率為76.0%.F值的再次降低證明了本文注意力機制和Tree-LSTM的有效性.

表5 與先行詞不在同一句內的零代詞數(shù)量統(tǒng)計Table 5 Statistics of zero pronouns that are not in same sentence with antecedants

2.6 錯誤分析

對模型輸出的錯誤結果進行分析(例如句3)分析發(fā)現(xiàn),零代詞回指的名詞短語雖大部分都在同一句話內,但也有部分零代詞所回指的名詞短語是在之前句子中出現(xiàn)的,表5給出了相關的統(tǒng)計數(shù)據(jù). 本文的模型主要是在單句內進行,與前文中的句子并無聯(lián)系.

例句3本屆錦標賽到今天為止,已決出7枚金牌. *pro*明天將進行最后5個男女單項的決賽.

在例句3中,零代詞“pro”回指前一句話中的名詞短語“本屆競標賽”. 本文模型只能在同一句內對零代詞信息進行捕捉,對跨句信息暫無法獲取.

3 結論

本文針對中文零代詞識別任務,利用LSTM編碼中文零代詞的上下文信息,再通過注意力機制捕捉句子中的關鍵語義,有效利用上下文語義,減少上下文無關信息對零代詞表示的影響. 使用Tree-LSTM對零代詞上下文的句法結構信息進行編碼,將語義信息和句法結構信息的融合特征通過兩層前饋神經(jīng)網(wǎng)絡對零代詞進行識別. 本文首次通過深度學習方法同時利用語義信息和句法結構信息進行中文零代詞的識別,實驗結果表明,該方法在OntoNotes5.0語料上取得了較好的效果.

猜你喜歡
語義信息模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
語言與語義
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
3D打印中的模型分割與打包
“上”與“下”語義的不對稱性及其認知闡釋
認知范疇模糊與語義模糊
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
語義分析與漢俄副名組合
外語學刊(2011年1期)2011-01-22 03:38:33
主站蜘蛛池模板: 国产精品香蕉在线观看不卡| 日韩国产黄色网站| 好紧太爽了视频免费无码| 色国产视频| 中文字幕日韩欧美| 少妇被粗大的猛烈进出免费视频| 免费观看三级毛片| 激情无码字幕综合| 国产成人毛片| 美女免费精品高清毛片在线视| 国产欧美日韩在线一区| 男女精品视频| 在线观看国产黄色| 91网红精品在线观看| 波多野结衣视频一区二区| 欧美日韩国产在线人| 亚洲美女视频一区| 日韩在线播放中文字幕| 亚洲 日韩 激情 无码 中出| 一本一道波多野结衣av黑人在线| 亚洲天堂网视频| 欧美A级V片在线观看| 成人福利在线视频免费观看| 99在线小视频| 一本久道久久综合多人| 亚洲天堂区| 成人免费午夜视频| 思思热在线视频精品| 青青草国产精品久久久久| 亚洲欧美一区二区三区蜜芽| 婷婷五月在线视频| 青青热久免费精品视频6| 国产迷奸在线看| 国产欧美日韩资源在线观看| 国产乱人免费视频| 免费看美女自慰的网站| 97青草最新免费精品视频| 国产美女自慰在线观看| 激情无码字幕综合| 国产视频a| 呦女亚洲一区精品| 国产尤物jk自慰制服喷水| 欧美国产在线精品17p| 国产精品亚洲精品爽爽| 亚洲第一色网站| 动漫精品中文字幕无码| 国产福利免费在线观看| AV网站中文| 国产永久无码观看在线| 国产成人艳妇AA视频在线| 亚洲精品第一在线观看视频| 操操操综合网| 日本国产在线| 亚洲av日韩综合一区尤物| 色噜噜狠狠色综合网图区| 欧美成人区| 91极品美女高潮叫床在线观看| 欧美一区二区丝袜高跟鞋| 国产精品久久国产精麻豆99网站| 日本尹人综合香蕉在线观看| 99久久国产自偷自偷免费一区| 国产丝袜啪啪| 日本一本正道综合久久dvd| 日本三级欧美三级| 国产无码高清视频不卡| 国产情精品嫩草影院88av| 99热这里只有免费国产精品| 亚洲精品无码日韩国产不卡| 国产福利微拍精品一区二区| 欧美成人手机在线视频| 国产精品自在在线午夜区app| 无码免费试看| 尤物特级无码毛片免费| 国产精品任我爽爆在线播放6080| 国产日韩欧美在线播放| 国产成人久久综合777777麻豆| 久久久久无码精品国产免费| 直接黄91麻豆网站| 40岁成熟女人牲交片免费| 亚洲天堂色色人体| 69综合网| 欧美精品综合视频一区二区|