999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于機器閱讀理解的案件要素識別方法

2023-09-13 03:14:38竇文琦陳艷平秦永彬黃瑞章劉麗娟
計算機工程與設計 2023年8期
關鍵詞:信息方法模型

竇文琦,陳艷平,秦永彬+,黃瑞章,劉麗娟

(1.貴州大學 計算機科學與技術學院 公共大數據國家重點實驗室,貴州 貴陽 550025;2.貴州師范學院 麗瓊工作室,貴州 貴陽 550018)

0 引 言

在大數據和人工智能發展的背景下,智慧司法研究領域興起并日趨火熱,類案推薦、刑期預測、信息抽取等自動化研究成為了該領域的熱點研究方向。隨著我國司法機關不斷推進案件信息公開,海量的裁判文書得以出現在互聯網上,這些裁判文書蘊含了豐富的信息,對其進行挖掘將產生巨大的價值。案件要素識別作為司法信息抽取任務中一部分,為量刑、罪名預測等任務提供信息支撐。

以盜竊案為例,從“外衣口袋內”這一關鍵信息可以推斷出被告存在扒竊的盜竊行為;“如實供述”表示被告認罪態度好;“曾因犯盜竊罪”說明被告屬于累犯。這些包含重要信息的案件要素可以決定案件性質、左右被告人量刑。案件要素在裁判文書中有多種不同的表現形式,使用人工查找的方式耗時耗力。因此,使用深度學習模型輔助司法工作顯得尤為重要。

針對案件要素識別的研究存在以下幾個難點:傳統的案件要素識別方法主要通過裁判文書中的文本特征預測案件要素的標簽類別,忽略了案件要素標簽的司法語義信息;在裁判文書中,某些案件要素在裁判文書中的出現次數相對較少,導致模型無法充分學習到小樣本的特征,很難從中提取規律。針對以上問題,本文提出了一種基于機器閱讀理解的案件要素識別方法,主要研究工作如下:

(1)本文方法將案件要素標簽信息作為先驗知識輔助模型進行案件要素的識別。針對每類案件要素進行案件要素標簽信息與上下文的語義交互,使模型充分學習到小樣本中的語義特征,提高了模型的整體性能。

(2)本文針對裁判文書中文字書寫歧義問題,使用對抗訓練策略。在模型的詞嵌入部分應用對抗擾動,提升了模型應對噪聲樣本的魯棒性。

1 相關工作

近年來,隨著神經網絡和深度學習的發展,越來越多的學者開始將其用于相關要素的識別任務中。如鄧文超[1]使用深度學習方法對單人單罪的刑事案件識別時間、地點、影響、行為等基本案件要素,并應用于自動量刑、相關法律條文預測和相似案件推薦等司法任務中。劉等[2]提出多任務學習模型,對案情描述部分采用BiLSTM神經網絡和注意力機制進行編碼,識別法條和罪名要素。使用文本分類方法進行案件要素識別的模型有Att-BiLSTM、TextCNN、FastText、DPCNN[3]等。為了進一步提升要素識別的效果,Liu等[4]采用基于BERT[5]的預訓練語言模型將案件要素識別問題轉化為多標簽分類任務,加入Layer-attentive策略微調,提升了案件要素識別的性能。Huang等[6]提出了SS-ABL框架,充分利用領域知識和未標記數據改進分類器。與以前僅用單一信息的方法相比,實現了顯著的性能改進。

近年來,基于深度學習的機器閱讀理解方法受到了廣泛的關注。機器閱讀理解是指根據給定的問題,從文本中找到答案。Wan等[7]提出了一種新的基于Transformer的方法,能夠識別段落的相關性并通過具有級聯推理的聯合訓練模型找到答案范圍,可以有效地處理長文檔。Li等[8]提出了一種多任務聯合訓練方案,通過增強預訓練語言模型的表示來優化閱讀理解模塊,并通過膠囊網絡優化答案類型分類模塊,設計了一個多任務聯合訓練模型,同時獲取答案文本和答案類型。越來越多的學者將信息抽取任務轉化為機器閱讀理解方法,例如實體關系抽取[9,10]、事件抽取[11]、命名實體識別[12,13]等。Li等[9]使用機器閱讀理解方法處理命名實體識別任務,在嵌套和非嵌套的NER上都表現出了良好的性能。Gupta等[14]提出了一種新穎的名詞短語生成方法構造輸入問句,使用機器閱讀理解模型從句子中識別實體,并證實了模型的有效性。劉等[15]借助機器閱讀理解方法,引入先驗知識,充分挖掘上下文的語義信息,提高了中文命名實體識別的精確性。

注意力機制在機器閱讀理解模型中的運用比較廣泛,許多模型都是針對這一部分進行改進的。Shen等[16]在注意力機制層將問題和上下文匯總為單個特征向量。Yu等[17]發現BiDAF注意力考慮了文本到問題以及問題到文本的雙向注意力,它比簡單地使用從文本到問題的單向注意力效果更好。受此啟發,本文方法采用BiDAF注意力策略,以便更好地進行案件要素標簽信息與上下文之間的語義交互。

2 模 型

本文方法中案件要素識別模型主要分為3個部分,如圖1所示,從左到右依次為嵌入層、交互層和預測層。①在嵌入層,使用FGM算法在word embedding部分添加對抗擾動,將對抗樣本和原始樣本混合一起訓練模型以提升模型應對噪聲樣本的魯棒性。案件要素標簽信息構建的問題與文本以拼接的形式進行輸入。②在交互層,使用RoBERTa預訓練語言模型以增強問題和文本的語義表征。通過雙向注意力從兩個方向出發為上下文和案件要素標簽信息的交互提供補充信息。③在預測層,通過一層全連接網絡和softmax函數最終識別案件要素。

2.1 數據預處理

此節通過數據預處理構建符合閱讀理解的輸入形式。給定一篇裁判文書

P={P1,P2,…,Pn}

(1)

其中,n表示文本P的長度。給P中所有的案件要素分配一個標簽y∈Y,Y是所有標簽種類(如案件要素標簽again累犯,surrender自首等)的預定義列表。

首先將帶標簽的數據集轉換為三元組(問題,答案,上下文)的形式。每個案件要素標簽y∈Y都與一個問題相對應,問題表示為

Qy={Q1,Q2,…,Qm}

(2)

其中m表示問題Qy的長度。三元組(問題,答案,上下文)中每個“問題”與案件要素標簽y∈Y相對應,“答案”即是案件要素存在與否,記為A,“上下文”代表一篇裁判文書P。最終表示為三元組 (Qy,A,P) 的形式,向模型輸入Qy、P,期望輸出A。

使用案件要素標簽信息進行問題的構造,案件要素標簽信息根據量刑規則制定。問題統一設為表1的形式。

表1 問題構建

2.2 嵌入層

模型的輸入包括問題Qy、裁判文書P、特殊符號[CLS]和[SEP],它們組成輸入序列

{[CLS],Q1,Q2,…,Qm,[SEP],P1,P2,…,Pn,[SEP]}

(3)

如圖2所示,對于序列中的每一個token,其輸入表示是詞嵌入(token embeddings)、段嵌入(segment embeddings)和位置嵌入(position embeddings)三者的相加[5]。詞嵌入層將各個token轉換為768維的向量表示;段嵌入層用兩種向量表示,輔助區分Qy和P兩部分,第一個向量中各個token用0表示,第二個向量中各個token用1表示;位置嵌入層通過在每個位置上學習一個向量表示進行序列順序信息的編碼。

圖2 模型輸入表示

2.3 交互層

本層使用RoBERTa[18]模型作為編碼器,結構與BERT[5]一致。RoBERTa[18]是一種經過預訓練的深度雙向Transformer模型,可在各種任務中實現先進的性能,結構如圖3所示。

圖3 RoBERTa結構

圖3中的TN代表第N個字符經過RoBERTa網絡輸出的語義字符向量,Trm代表Transformer。每一層的輸入都是基于上一層的輸出,第i層的輸出可以表示為

Hi=TransformerBlock(Hi-1),1

(4)

其中,Hi∈Rt×d,t為序列長度,d為隱層維度,L表示Transformer層數。

在注意力交互部分,使用Q∈Rm×d和P∈Rn×d來分別表示編碼的問題和上下文。首先計算每對Q和P的相似性,相似矩陣表示為S∈Rn×m。其中Snm表示第n個上下文詞和第m個問題詞的相似性,此處使用的相似度函數為[17]

α(p,q)=W0[p;q;p⊙q]

(5)

(6)

其次計算從上下文到問題(P2Q)以及問題到上下文(Q2P)兩個方向的注意力。

P2Q注意力表示哪些問題詞與每個上下文詞最相關。P2Q注意力如圖4所示,構造如下:

圖4 P2Q注意力

通過應用softmax函數對相似矩陣S的每一行進行歸一化,第n個上下文詞對問題詞的注意力權重an計算為

(7)

對于所有n,Σanm=1。 每個上下文關注的問題向量為

=∑manmQ

(8)

Q2P注意力表示哪些上下文詞與每個問題詞最相關。Q2P注意力構造如下:

通過函數maxcol找出相似矩陣S每一列的最大值并進行歸一化。問題詞對上下文詞的注意力權重b計算為

b=softmax(maxcol(S))∈Rn

(9)

問題關注的上下文向量為

=∑nbnP∈Rd

(10)

(11)

β(p,,)=[p;;p⊙;p⊙]∈Rn×3d

(12)

上一層通過雙向注意力交互生成的表示矩陣E經過解析層得到最終的語義表征E’,輸入到預測層進行預測。

2.4 預測層

在預測層,通過預測答案類型來判斷案件要素是否存在。將特殊符號[CLS]表示hCLS作為序列的整體表示,被傳遞到一個全連接層以計算概率分布,進而表示答案類型

Ptype=softmax(FFN(hCLS))

(13)

其中,hCLS為特征向量,FFN表示全連接層,softmax表示層歸一化。

使用Focal Loss作為損失函數,答案類型損失定義如下

L=FocalLoss(ptype,Y)

(14)

其中,Y為答案類型標簽。

2.5 對抗訓練

GAN之父Goodfellow首先提出對抗訓練概念,其基本原理為在原始輸入樣本上添加擾動radv,得到一些對抗樣本,然后將對抗樣本放在模型中進行訓練。這樣不僅可以提高對抗樣本的魯棒性,還可以提高原始樣本的泛化性能。起初的對抗訓練是針對CV任務的,為了將對抗訓練遷移到NLP任務中,Goodfellow提出了FGM算法,FGM算法可以在連續的embedding上做擾動。本文方法使用FGM算法進行對抗訓練,將對抗擾動應用于詞嵌入(word embedding)。設詞嵌入向量為S,模型參數為θ,給定模型的條件概率為p(y|S;θ)。 則S上的對抗性擾動radv定義為

radv=-∈g/g2

(15)

(16)

3 實驗及結果分析

3.1 數據集

本文的數據集來自裁判文書網,包含某省的脫敏裁判文書數據。在所有案件中盜竊案占了相當大的比例,因此選用917篇盜竊案裁判文書作為實驗數據集,表2詳細描述了相關案件要素的統計信息。

表2 數據集相關信息

3.2 評價指標

評價指標準確率(Precision)、召回率(Recall)、F1值(F1-score)的計算方式如下

precision=TPTP+FP

(17)

recall=TPTP+FN

(18)

F1=2*recall*precisionrecall+precision

(19)

其中,TP表示正確預測為正例,FP表示錯誤預測為正例,FN表示錯誤預測為負例。

3.3 實驗設置

本文模型采用Python平臺,PyTorch 框架實現,在NVIDIA Tesla P40 GPU平臺上進行實驗。批處理大小batch_size=16,訓練輪數epoch=10,學習率learning_rate=2e-5,權重衰減指數weight_decay=0.01,最大總輸入序列長度max_seq_length設為512,問題最大長度max_question_length設為64,答案最大長度max_answer_length設為55,優化器使用AdamW優化器。

3.4 實驗結果及分析

3.4.1 對比實驗

將本文模型與案件要素識別常用的多標簽分類模型作對比,模型分為無預訓練和有預訓練兩類,實驗結果選取3次實驗的平均值。

(1)無預訓練模型選擇Att-BiLSTM、TextCNN、FastText、DPCNN[3]。其中,Att-BiLSTM是基于attention機制的雙向LSTM神經網絡模型;TextCNN是用來做文本分類的卷積神經網絡;FastText能取得與深度網絡相媲美的精度,卻在訓練時間上比深度網絡快許多數量級;DPCNN用來解決TextCNN在捕獲長距離特征時不理想的問題;

(2)有預訓練模型選擇BERT[5]、ERNIE[19]、RoBERTa[18]、SS-ABL[6]。其中,BERT是Google提出的基于Transformer的預訓練模型,下游多標簽分類任務采用微調方法;ERNIE在BERT的基礎上采用短語和實體級別的mask;RoBERTa在BERT的基礎上使用更大的數據再次訓練,改進優化函數,采用動態mask方式訓練模型;RoBERT+Seq2Seq_Attention是指用RoBERTa提取文本特征,用Seq2Seq_Attention框架進行標簽的識別;SS-ABL使用反繹學習方法實現基于BERT模型的案件要素識別。

本文的模型和其它模型在同一數據集下識別效果見表3,從實驗結果可以看出,使用預訓練模型比不使用預訓練模型的效果要好,其中RoBERTa預訓練模型表現最為出色,因為預訓練方法可以讓模型基于一個更好的初始狀態進行學習,從而達到更好的性能。相比無預訓練的多標簽分類方法,本文方法提升了12.2%,相比有預訓練的多標簽分類方法,本文方法提升了3.2%。與對比方法相比較,本文方法在預訓練模型RoBERTa的基礎上使用了機器閱讀理解方法,通過案件要素標簽信息構造的問題為模型的識別提供了輔助作用;通過雙向注意力機制進行問題與上下文語義的進一步交互,使模型更加關注于問題指示的上下文信息;通過對抗訓練進一步提高了模型的魯棒性,使模型在案件要素識別任務上有更好的效果。

表3 模型性能對比/%

3.4.2 消融實驗

為了驗證本文方法各模塊的有效性,我們對模型進行了消融實驗,實驗結果見表4。MRC表示使用機器閱讀理解方法,Attention表示加入雙向注意力機制,AT表示對模型使用對抗訓練,FLoss表示使用Focal Loss損失函數。

表4 模型消融實驗/%

RoBERTa預訓練模型為消融實驗的基準模型。

RoBERTa+MRC在基準模型RoBERTa的基礎上使用了機器閱讀理解方法,F1值提升了3.3%。因為本文使用的機器閱讀理解模型在輸入文本前加入了案件要素標簽信息即案件要素類型的描述信息,這些案件要素類型的描述作為先驗知識提升了模型的識別效果。

RoBERTa+MRC+Attention在RoBERTa+MRC的基礎上增加了雙向注意力機制,F1值提升了0.2%。經過RoBERTa模型之后使用雙向注意力機制進一步融合上下文和問題之間的交互信息,使模型更加關注于與問題有關的上下文語義表征,進而提升識別效果。

RoBERTa+MRC+Attention+AT在RoBERTa+MRC+Attention的基礎上對模型加入了對抗訓練,F1值提升了1.1%。使用對抗訓練中的FGM算法在word embedding部分應用對抗擾動,可以提高模型在應對噪聲樣本的魯棒性。

RoBERTa+MRC+Attention+AT+Focal Loss在RoBERTa+MRC+Attention+AT的基礎上使用Focal Loss損失函數,F1值提升了0.2%。Focal Loss損失函數降低了大量簡單負樣本在訓練中所占的權重,可以更好地挖掘困難樣本。

3.4.3 細粒度實驗

為了驗證本文方法在應對小樣本案件要素情況下的表現,用本文方法與對比實驗中的RoBERTa基線模型進行細粒度對比,進一步輸出每種案件要素的細粒度結果。實驗結果見表5,本文方法在屬于案件要素類別young、surrender的小樣本數據上分別提升了5.5%和10.3%。例如,屬于surrender類別的案件要素在裁判文書中表現形式多樣,在數據樣本量較少的情況下僅通過學習裁判文書的文本特征很難進行有效識別。本文使用的機器閱讀理解方法通過在輸入文本前拼接案件要素標簽信息,獲得了一定的先驗知識,使得模型充分學習到所要識別的案件要素特征。因此,本文使用的機器閱讀理解方法對小樣本案件要素的識別效果有所提高,可以有效改善樣本不均衡問題。

表5 細粒度實驗F1/%

3.4.4 對抗訓練對模型魯棒性的影響

為了驗證對抗訓練對模型魯棒性的影響,本小節將擾動參數∈設1.0,對比了模型在加入對抗訓練和不加對抗訓練的效果,實驗結果見表6。

表6 對抗訓練對模型的影響/%

實驗結果表明,對抗訓練在對大部分的案件要素類別的識別上都有一定的提升。與不加對抗訓練時的模型相比,加入對抗訓練后的F1值整體提升了1.1%。這說明在原有模型訓練過程中注入對抗樣本,可以提升模型對微小擾動的魯棒性,進而提升模型的整體性能。

3.4.5 Focal Loss對模型的影響

為了驗證Focal Loss對模型性能的影響,在本文方法的基礎上分別選用CE Loss和Focal Loss兩種損失函數進行比較。實驗結果見表7,可以看出使用Focal Loss的效果更好。

表7 Focal Loss對模型的影響/%

雖然CE Loss可以平衡正負樣本的重要性,但是不能區分難易樣本,Focal Loss可以降低易區分樣本的權重,并關注難區分樣本的訓練。Focal Loss在CE Loss的基礎上添加了調制因子,其中的參數γ∈[1,5] 取值對模型的影響見表8。從實驗結果可以看出,γ取值為2時效果最好,我們選擇γ取值為2時的Focal Loss作為本文模型的損失函數,使模型達到最佳表現。

表8 選取Focal Loss中不同γ值的影響/%

4 結束語

本文提出了一種基于機器閱讀理解的案件要素識別方法,利用案件要素標簽信息構造問題輔助模型識別。使用RoBERTa預訓練語言模型增強問題和上下文的語義表征,通過雙向注意力機制更好地融合問題到上下文以及上下文到問題的語義信息。實驗結果表明,本文方法可以有效改善小樣本案件要素的識別性能。同時,本文采用的對抗訓練FGM算法進一步提升了模型的魯棒性。

在未來工作中,我們將進一步識別更多類別的案件要素,并將其應用到法律判決預測的真實場景中。

猜你喜歡
信息方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
健康信息
祝您健康(1987年3期)1987-12-30 09:52:32
主站蜘蛛池模板: 中文字幕乱码中文乱码51精品| 亚洲精品不卡午夜精品| 26uuu国产精品视频| 日本高清在线看免费观看| 一级福利视频| 亚洲成人高清无码| 亚洲动漫h| 欧美自慰一级看片免费| 欧洲高清无码在线| 午夜少妇精品视频小电影| 国产精品第三页在线看| 国产日韩精品一区在线不卡| 狠狠色狠狠色综合久久第一次 | 免费A级毛片无码无遮挡| 国产成人91精品| 蜜桃视频一区| 国产不卡网| 国产综合在线观看视频| 亚洲视频四区| 亚洲精品在线91| 日韩资源站| 国产啪在线| 91精品日韩人妻无码久久| 国产欧美日韩另类精彩视频| 久久黄色一级片| 国产青青草视频| 亚洲欧美一级一级a| 欧美国产日韩在线| 亚洲激情99| 国产精品视频久| 女人毛片a级大学毛片免费| 国产香蕉一区二区在线网站| 亚洲av无码牛牛影视在线二区| 欧美久久网| 欧美成人影院亚洲综合图| 中文字幕欧美日韩| 国产91成人| 青青青国产视频| 欧美午夜视频在线| 免费看黄片一区二区三区| 国产理论精品| 亚洲天堂.com| 爱爱影院18禁免费| 18禁不卡免费网站| a毛片基地免费大全| 国产精品久久久久久搜索 | 美女被操91视频| 精品99在线观看| 热re99久久精品国99热| 欧美a在线视频| 免费三A级毛片视频| 九九热精品视频在线| 亚洲乱亚洲乱妇24p| 午夜国产小视频| 国产美女主播一级成人毛片| 91视频区| 91无码人妻精品一区二区蜜桃| 免费激情网站| 特级aaaaaaaaa毛片免费视频| 欧美日韩国产在线人| 日本一区二区三区精品视频| 国产成人精品视频一区视频二区| 在线永久免费观看的毛片| 在线99视频| 日本亚洲最大的色成网站www| 久久男人视频| 国产一区亚洲一区| 欧美日韩在线成人| 国产精品无码作爱| 国产特一级毛片| 国产视频欧美| 久久伊人久久亚洲综合| 国产三级毛片| 美女无遮挡拍拍拍免费视频| 99热在线只有精品| 久久久久亚洲精品成人网| 国产精品久久久久久久伊一| 精品福利视频网| 久久黄色免费电影| 熟妇丰满人妻av无码区| 国产视频一区二区在线观看| 精品午夜国产福利观看|