999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種基于元學習的醫療文本分類模型

2022-12-27 13:18:20趙志樺
計算技術與自動化 2022年4期
關鍵詞:分類文本模型

趙 楠, 趙志樺

(1.海軍軍醫大學第二附屬醫院信息中心,上海 200003;2.海角科技政策服務部,浙江 杭州 310000)

醫療文本包含病歷文書、診斷報告、病理報告、影像報告等大量的醫療信息,是進行疾病預測、輔助診療、藥物研發、個性化信息推薦、臨床決策支持等的重要文本資源[1]。醫療文本具有復雜的專業術語,常見的傳統文本分類模型在處理醫療文本時常常面臨文本語義稀疏、訓練數據不足等問題[2,3]。

遷移學習可以從大量的先驗任務中學習元知識,利用以往的先驗知識來指導模型在新的小樣本任務中更快地學習[4]。Finn等人[5]提出MAML方法,從少量數據中進行訓練從而得到較好的分類結果,Xiang等人[6]在2018年將MAML遷移到文本分類領域,并且根據不同的詞在句子中的重要性加入注意力機制賦予詞語不同的權重,提出ATAML模型。為了加強模型對新的醫療文本數據的適應性,文中基于領域自適應性使用已經訓練學習過的某個或多個領域上的知識快速學習適應另一個新領域,利用兩個相互競爭的神經網絡,分別扮演領域識別者和元知識生成者的角色,提出一種基于注意力機制的領域自適應元學習模型ADAML(Attentive Domain Adaptation Meta-learning,ADAML),最后使用嶺回歸獲得文本分類的最終結果[7]。

1 相關工作

1.1 小樣本文本分類

小樣本文本分類是一項小樣本學習在文本分類問題上的具體任務,解決一些現實任務中樣本數據不足或者難以獲得大量高質量標注數據的問題,比如在醫療領域,一個數據樣本可能就是一個臨床試驗或者一個真實的患者信息,這時基于大數據訓練的深度學習不能有效解決此類問題,需要一種具有快速學習能力的模型,可以將之前學習到的知識用于識別新的數據集[8,9]。小樣本文本分類通常考慮的是N-wayK-shot分類,這種分類任務訓練集Dtrain一共包含I=KN的樣本,其中N表示類別個數,K表示每個類別中的樣本個數。

1.2 小樣本學習模型

小樣本學習模型主要分為三大類:基于模型微調、基于數據增強和基于遷移學習。基于遷移學習的方法細分為基于度量學習、基于元學習和基于神經網絡3類[4,10]。元學習(meta-learning)是目前比較前沿的方法,其目的是讓模型獲得一種學習能力,能夠舉一反三[11],在源領域上使用大量已有數據進行訓練,提高學習性能,達到目標領域上減少對數據集規模的依賴。因此,對于目標任務只有較少訓練數據的情況,元學習模型會取得更好的效果,實現跨任務的學習共享[12-14]。

1.3 醫療文本分類方法

傳統的醫療文本分類側重于進行醫療數據的自由分類,一般包括四個步驟:醫療文本預處理、特征選擇、醫療文本分類、結果評估[15]。分類的主要目標在于從自然語言中分析語義和總結歸納醫療信息,從而簡化醫療信息管理過程。醫療文本大多是無規律非結構化的數據,并且大多是高維稀疏數據集,這也是醫療文本自然語言處理過程中的難點,以往基于深度學習的文本分類模型是對預處理文本數據進行訓練學習,獲得文本分類結果。

2 基于元學習的醫療文本分類模型

2.1 ADAML模型

2.1.1 注意力生成器

注意力生成器利用大型源領域數據集來識別一般詞語的重要性,并且利用小目標域支持集來估計特定類別的詞語重要性。根據頻繁出現的虛詞在文本分類中往往不太可能提供太多信息的現象來降低頻繁詞的權重并提高稀有詞的權重[16]。文中采用文獻[16]的方法定義統計量反映特定類別詞語的重要性。

(1)

xi是輸入的第i個單詞,ε=10-3,P(xi)是xi在源領域的重要性。支持集中有區別的詞在查詢集中也有可能有區別,然后定義如下的統計數據來反應詞語的重要性。

t(xi)=H(P(y∣xi))-1

(2)

其中條件似然P(y/xi)是支持集上的極大似然,H(·)是熵算子,t(·)是根據頻率分布的加權。在遷移學習過程中注意力機制能夠從文本編碼序列中檢索目標任務,獲得特定任務的表示,文中使用雙向 LSTM融合輸入信息,計算點積來預測單詞xi的注意力分數。

(3)

hi是i處的雙向LSTM輸出,v是可學習的向量。注意力機制通過結合源領域數據集和目標域支持集的分布統計來生成特定類別的注意力,提供詞語重要性的歸納偏差。

2.1.2 元知識生成器和領域判別器

領域自適應性需要混淆源領域數據集和目標域查詢集的樣本才能實現有效的領域轉移,元知識生成器就是要盡可能使領域判別器無法區分目標域查詢集和源領域數據集的樣本。元知識生成器對雙向LSTM輸出采用單層前饋神經網絡,使用Softmax函數來獲得元知識表征向量kp。

kp=Softmax(ω·hp+b)

(4)

kp是一個n維度的向量,代表句子p中包含的元知識,n表示該句子的長度。

領域判別器通過一個三層前饋神經網絡區分樣本是來自源領域還是目標域,其輸出0 或 1 分別代表樣本來自目標域查詢集或源域數據集。

2.1.3 交互層和分類器

(5)

ADAML選擇嶺回歸作為分類方法,嶺回歸是一種有偏估計回歸,主要用于共線性數據分析[17]。分類器由每個元任務的目標域支持集從頭開始訓練,通過適當的正則化減少對小支持集的過度擬合。

(6)

2.1.4 損失函數

在每次訓練迭代中ADAML首先固定元知識生成器和領域判別器的參數,通過目標域支持集更新分類器的參數,其中分類器的損失函數如公式(6)所示。 接下來,ADAML固定元知識生成器和分類器的參數,通過目標域查詢集和源域數據集更新領域判別器的參數,并使用交叉熵損失作為領域判別器的損失函數。

(7)

其中μ表示領域判別器的參數,m表示目標域查詢集或源域數據集的樣本數,yd根據其值為0或1表示樣本是來自目標域查詢集還是源域數據集,k代表元知識向量。最終,ADAML固定領域判別器和分類器的參數,通過目標域查詢集和源域數據集更新元知識生成器的參數。元知識生成器的損失函數由兩部分組成:第一個是最終分類結果的交叉熵損失;第二個是與領域判別器的損失相反的損失,即混淆判別器。

LG(β)=CELoss(f(W·Gβ(W),y)-LD

(8)

其中β表示元知識生成器的參數,f表示嶺回歸因子,W表示一個句子中的詞向量矩陣,y表示樣本的真實標簽,LD的定義在公式(7)中。

2.2 算法流程

ADAML模型主要有注意力生成器、元知識生成器、領域判別器、交互層和分類器幾部分,目標域支持集S或查詢集Q中的類別數為N,S中每個類別的樣本數為K,Q中每個類別的樣本數為L,源域數據集Φ,其具體算法流程如下偽代碼:

算法:ADAML訓練數據集Input:訓練數據集{Xtrain ,Ytrain };元任務個數T和迭代輪次ep;生成器的參數β;判別器的參數μ;分類器的參數θ.Output: 訓練結束后的參數β和μ;隨機初始化模型參數β,μ和θ;for each i∈1,ep doY←Λ(Ytrain ,N); for each j∈1,T doS,Q,Φ←?,?,?; for y∈Y do S←S∪Λ(Xtrain {y},K); Q←Q∪Λ(Xtrain {y}S,L); Φ←Φ∪Λ(Xtrain Xtrain {y},L); 將參數S導入模型; 修正參數β,μ,更新參數θ以最小化公式(6); 將參數Q,Φ導入模型; 修正參數β,θ,更新參數μ以最小化判別器損失公式(7); 修正參數μ,θ,更新參數β以最小化生成器損失公式(8);return β,μ;

3 實驗與分析

3.1 數據集和實驗方法

醫療文本數據采集一個臨床科室的電子病歷信息,處理生成結構化信息Medical Record保存在JSON文件中。使用三個公開文本分類數據集HuffPost、Amazon、Reuters 和Medical Record,隨機抽樣構建小樣本文本,四個基準數據集如表1所示。

表1 四個基準數據集的統計數據

ADAML模型分為訓練和測試兩步,首先通過數據集構建不同的元任務,每個元任務包括一個支持集和一個查詢集。 訓練模型時將采樣的元任務輸入模型,通過支持集上的損失函數對模型進行微調,并通過查詢集上的損失函數對模型參數進行更新。測試時通過元任務中的支持集對模型進行微調,最后在查詢集上計算準確度。

3.2 實驗與分析

文中使ADAML與MAML[5]、PROTO[18]、ATAML[6]、HATT[19]模型對比處理小樣本文本分類問題的準確率。文本分類算法的性能通常采用準確率進行測評,定義如下:

(9)

實驗過程中注意力生成器計算詞匯注意力分數,元知識生成器使用具有 128 個隱藏單元的雙向 LSTM生成元知識表征向量,在領域判別器中兩個前饋層的隱藏單元數量分別設置為 256 和 128。元訓練期間進行 100 次訓練,當驗證集上的準確度在 30 次迭代中沒有顯著變化時,停止此次訓練。根據測試結果評估模型性能,見表2。

表2 模型在四個數據集上3way 1shot 和 3way 3shot分類的準確率

模型在四個數據集上均取得了比較好的分類效果,在1shot分類中的平均準確率為 68.85%,在3shot分類中的平均準確率為 82.1%,比模型 ATAML分別提高了3.98%和7.63%,ADAML模型在Medical Record上的 1shot 和 3shot 分類比其他模型平均提高了20% 和16.2%,Medical Record中文本的平均長度比其他長,實證表明ADAML模型更適合包含豐富語義信息的文本分類。不同模型在Medical Record數據集上的不同類別分類結果見表3。

表3 不同模型在Medical Record上不同分類的準確率

4 結 論

醫療文本蘊含豐富的語義信息,有效的分類可以促進醫學技術的發展。文中提出一種基于注意力機制的元學習模型,根據詞語的重要性賦予不同的權重,并且利用兩個對抗性網絡增強模型的學習能力,提高小樣本文本分類的適應性與準確率。通過對比實驗和分析證明了文中模型在公開數據集和醫療文本數據集上的有效性,后續將提高小樣本數據集含有噪音的分類性能,并盡可能減少訓練過程中的語義損失。

猜你喜歡
分類文本模型
一半模型
分類算一算
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
在808DA上文本顯示的改善
分類討論求坐標
基于doc2vec和TF-IDF的相似文本識別
電子制作(2018年18期)2018-11-14 01:48:06
數據分析中的分類討論
教你一招:數的分類
3D打印中的模型分割與打包
主站蜘蛛池模板: www中文字幕在线观看| 久久性妇女精品免费| 成年人国产网站| 久久精品无码国产一区二区三区| 国产h视频在线观看视频| 亚洲天堂网在线视频| 日本成人福利视频| 亚洲无码在线午夜电影| 青青久在线视频免费观看| 国产理论精品| 亚洲女同欧美在线| 欧美精品二区| 久久精品这里只有国产中文精品| 国产精品欧美激情| 国产91麻豆免费观看| 久久久噜噜噜久久中文字幕色伊伊| 国产微拍一区| 99久久国产自偷自偷免费一区| 欧美亚洲香蕉| 色丁丁毛片在线观看| 日韩国产一区二区三区无码| 亚洲一区二区三区香蕉| 国产欧美综合在线观看第七页| 免费一级无码在线网站 | 999精品在线视频| 精品精品国产高清A毛片| 午夜少妇精品视频小电影| 女人18毛片一级毛片在线 | 久久青草视频| 成年女人18毛片毛片免费| 妇女自拍偷自拍亚洲精品| 国产乱码精品一区二区三区中文 | 亚洲国产成人自拍| 日韩精品一区二区三区中文无码| 日本一区二区不卡视频| 中国国产A一级毛片| 美女被躁出白浆视频播放| 伊人久久久久久久| 亚洲日韩第九十九页| 日本高清在线看免费观看| 日韩一区二区三免费高清| 99久久99这里只有免费的精品| 伊人天堂网| 在线观看无码av免费不卡网站 | 日本欧美午夜| 日韩国产 在线| 国产亚洲精品无码专| 伊人久久影视| 国产自产视频一区二区三区| 精品国产中文一级毛片在线看 | 国产啪在线91| 欧美狠狠干| 国产在线第二页| 狠狠ⅴ日韩v欧美v天堂| 亚洲视频四区| 亚洲欧美国产五月天综合| 日韩高清中文字幕| 国产精品久久精品| 精品国产一区91在线| 一区二区欧美日韩高清免费| 91精品国产丝袜| 亚洲精品第一页不卡| 久久这里只精品热免费99| 日韩A∨精品日韩精品无码| 国产欧美亚洲精品第3页在线| 欧美视频免费一区二区三区| 伊人婷婷色香五月综合缴缴情| 免费一级无码在线网站| 国产精品手机在线播放| 亚洲无限乱码一二三四区| swag国产精品| 国产乱人伦AV在线A| 久久久久久午夜精品| 久久精品免费国产大片| 国产乱子伦无码精品小说| 色综合天天综合中文网| 色综合久久综合网| 久久青草精品一区二区三区| 欧美h在线观看| 97亚洲色综久久精品| 青青青国产视频手机| 91青青草视频在线观看的|