999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于動態多頭注意力機制的藏文語言模型

2023-12-20 02:34:12英,擁,于
計算機工程與設計 2023年12期
關鍵詞:分類機制文本

張 英,擁 措+,于 韜

(1.西藏大學 信息科學技術學院,西藏 拉薩 850000;2.西藏大學 藏文信息技術教育部工程研究中心, 西藏 拉薩 850000;3.西藏大學 西藏自治區藏文信息技術人工智能重點實驗室,西藏 拉薩 850000)

0 引 言

目前,注意力機制在預訓練模型如BERT[1]、RoBERTa[2]、ALBERT[3]中得到了廣泛的應用。相關研究表明,多頭注意力中并不是每個頭都發揮著重要作用,大多數注意力頭實際上是冗余的[4];為了減少冗余注意力的影響,研究者提出了“disentangled”[5]掩碼注意力機制和自適應注意力機制[6]等概念。由上述研究可知語言模型固定注意力機制的頭數并不是最優選擇,在模型訓練過程中,不同詞數的句子均由相同頭數的注意力機制進行特征學習,可能會造成注意力頭的冗余。

為了減少冗余頭數造成的干擾,例如在包含特征相對較少的短句中,可能不需要關注罕見詞或某些復合關系等不常見的特征,從而導致多余的頭對特征向量造成一定的噪聲。因此本文提出了在訓練過程中根據長短句動態選擇注意力機制頭數的方法。另外,目前國內對藏文預訓練模型的研究較少,所以本文在藏文數據上進行探究。綜上所述,本文共提出以下方案:①研究動態多頭注意力機制的有效性,并揭示了將其融入預訓練模型可以有益于文本分類任務;②在ALBERT模型的注意力層進行改進,并提升了該模型的效果;③本文構建的模型可以較好地表示藏文語義關系,實驗結果表明,在公開數據集TNCC分類任務上F1值均獲得了2%以上的提升。

1 相關工作

自以多頭注意力為核心創新的transformer模型被提出以來,已成為一大研究熱點[7]。Paul Michel等提出部分注意力頭較冗余的看法;E Voita等[8]為了優化Bert模型設計混合向量提取注意力頭捕捉的通用信息;隨后,Clark K等[9]針對BERT注意力機制進行分析,發現注意力機制除了關注直接賓語、介詞關系等,還大量集中于分隔符、標點符號。為了增強序列學習表示,Chien等提出了一種新的“disentangled”掩碼注意力機制,以減少冗余特征。上述研究表明,注意力機制頭數的固定,可能會造成注意力頭的冗余或過度注意。

注意力機制通常用于預訓練模型。OpenAI提出了GPT[10]模型,以學習文本的長距離依賴。隨后,Devlin等提出BERT模型,在不同自然語言處理任務上達到了最好效果。OpenAI提出了在BERT基礎上進行精細調參的RoBERTa模型。同年,Zhenzhong Lan等提出用兩種策略提高模型訓練速度的ALBERT模型,該文結果表明注意力層的參數共享策略對模型效果影響小,因此本文將在參數量較小的ALBERT模型的自注意力層上進行改進,以提升該模型的效果。

上文介紹的模型大多應用在中英文上,對于語料稀少的藏文而言預訓練模型較少。Ziqing Yang等提出了面向少數民族語言的多語言模型CINO[11]。為了促進藏文自然語言處理任務的發展,Yuan Sun等提出使用藏文語料進行訓練的TiBERT[12]模型。除此之外,Hanru Shi等構建了包含5種語言的MiLMo[13]模型。同年,于韜等[14]提出用于關系抽取任務的藏文ALBERT模型。另外,安波等[15]訓練藏文BERT模型并在標題分類任務上進行實驗。上述皆是對藏文預訓練模型的應用研究,因此本文將對語言模型進行改進,以增強藏文下游任務性能。

2 方法與模型

2.1 動態多頭注意力機制方法

自注意力機制是指通過運算獲得句子在編碼過程中每個位置的注意力權重,再計算整個句子的隱含向量[16]。同時,為了避免模型對當前位置信息進行編碼時,過度集中于自身從而提出了多頭注意力機制。與使用單獨的注意力池化不同,多頭注意力機制使用序列不同位置的子空間表征信息進行數據處理,然后并行地進行注意力池化,再將多個注意力池化的輸出拼接,以構建最終輸出[17]。

在以往的模型預訓練過程中,多頭注意力機制的頭數h往往是固定的,但這樣會存在一定的弊端,例如當h較大時,對于特征數量較少的句子會學習到更多不重要的特征,即在信息組合時會有一定的噪聲;當h較小時,對于特征數量較多的句子,不能全面學習句子的含義。但在實際訓練過程中,長短句所需要關注的信息數量并不同,如表1所示,長句共有56個藏文音節,包含的特征信息較多,需要更多頭數的注意力機制關注句子中詞與詞之間的關系,如較為明顯的時間、數詞、處所等關系信息;而短句僅有11個藏文音節,包含的特征相對較少,相對長句來說較為明顯的僅有處所關系,因此當長短句共用一個注意力機制頭數時,多余的頭可能會關注標點符號等包含信息量較少的特征,對特征向量的提取過程會造成一定的干擾。因此本文針對不同詞數的句子均由相同頭數的注意力機制進行特征學習這一情況,提出根據句子的特征數量選擇注意力機制的頭數,即在訓練過程中根據句子長度動態確定注意力機制頭數。

表1 藏文長短句示例

其動態多頭注意力機制具體公式如下所示,式(1)中headi表示第i個頭數對應的注意力機制運算后的結果[18],式(2)中DMA(Q、K、V) 表示將多個注意力機制head1,…,headh進行拼接再乘以矩陣Wh的結果,其中Wh為多頭注意力的權重,下標h的取值根據len_token決定,如式(3)所示

(1)

DMA(Q,K,V)=Concat(head1,…,headh)Wh

(2)

iflen_token>mh=hlelseh=hs

(3)

圖1為動態多頭注意力機制的架構。首先將輸入句子的詞向量轉化為3個矩陣(Q、K、V),再判斷句子的詞數(len_token)是否大于臨界值m,若小于m,則動態多頭注意力機制取較小的頭數,再根據頭數構建hs層線性投影,然后將Q、K、V輸入至左側的路線left route進行學習,并通過hs層線性投影獲得特征向量矩陣,最后進行拼接與映射獲得輸出結果;反之,動態多頭注意力機制取較大的頭數,除線性投影層數hl與路線right route之外,其余操作同理。

圖1 動態多頭注意力機制架構

2.2 基于動態多頭注意力機制的語言模型

為解決BERT模型參數量過大、訓練時間過長的問題,ALBERT語言模型于2019年問世,該模型的結構和BERT相似且參數量更小,本文將上述提出的動態多頭注意力機制應用于ALBERT的注意力模塊,構建了基于動態多頭注意力機制的語言模型(dynamic multi-head attention albert,DMA_ALBERT)。為了驗證改進后的模型的有效性,本文使用4.5 GB藏文通用領域數據分別訓練注意力層改進前后的模型。將動態注意力機制應用在語言模型中,動態傳遞注意力機制的頭數,既可以獲得該句子的重要信息,學習句子上下文相關的雙向語義特征表示,又可以減少不重要的特征對信息整合過程的干擾。

由于預訓練模型結構較為復雜,且訓練數據量較大,因此動態多頭注意力機制的頭數選擇方式由每句的總詞數改進為每批次(batch)的總詞數。即在藏文DMA_ALBERT模型的實際訓練過程中,動態多頭注意力機制的頭數根據一個batch的總詞數獲得,當總詞數大于m與batch的乘積(m×batch)時,該批次的注意力機制頭數h取hl;反之,h取hs,如式(4)所示,其中token_Ci表示在當前批次中第i個句子的token個數

(4)

3 實驗數據與評價指標

3.1 ALBERT模型訓練數據及評價指標

本文采用CCL2022跨語言文本分類任務提供的4.5 GB藏文語料作為語言模型的訓練數據,語料主要來自維基百科、微信公眾號。同時,本文訓練SentencePiece[19]模型以構建藏文詞表及訓練語料。分詞粒度方面,選用unigram[20]對訓練語料進行子詞級分割,其原理為先初始化一個較大的詞表,再根據算法標準不斷地舍棄,直到詞表滿足預先給定的大小[21]。在藏文語言模型的訓練過程中,由于使用ALBERT預訓練模型作為實驗的基礎,因此參照ALBERT原文共選取了5個評價指標,分別是掩碼語言模型(MLM)任務的損失值(mask_loss)、預測遮掩單詞的精確度(mask_accuracy);句子順序預測(SOP)任務的損失值(sop_loss)、預測句子順序的精確度(sop_accuracy);以及MLM和SOP任務這兩部分的損失和相加所得到的總和(loss)。

3.2 文本分類數據及評價指標

由于本文使用TNCC測試語言模型的實際效果,使用精確率Precision、召回率Recall以及F1值作為文本分類任務的評價指標,具體公式如下所示

(5)

(6)

(7)

其中,首先需要計算每個類別的Precision、Recall、F1值,其中TPi表示類別i預測正確的數量;FPi表示將其它類別的樣本預測成類別i的數量;TPi+FPi表示測試集的所有文本預測成類別i的總數量;FNi表示將文本類別i預測成其它類別的數量;TPi+FNi表示真實的文本類別i的總數量。

另外該數據集是在多類別通用領域上構建的,其樣本分布并不均勻,因此采用Weighted算法對上述指標進行計算,即需要根據每個類別占比的權重計算本次分類所有類別評價指標的具體值,如式(8)~式(10)所示,其中wi表示在測試集中文本類別i在總文本中的占比比例

(8)

(9)

(10)

4 實 驗

4.1 實驗設置

本文訓練tiny版本的藏文改進注意力機制前后的語言模型并進行效果對比,在訓練前需確定模型中注意力機制的頭數。其中隱藏層維度的值為384,而注意力機制的頭數需要被384整除,即可取值2、3、4、6、8等,考慮到語言模型結構的復雜性,本文選擇如表2所示的注意力機制頭數進行實驗,具體訓練參數見表3。

表2 注意力機制頭數設定

表3 預訓練模型主要參數

由表2可知,本文共設計了10組語言模型對比實驗,分別是4組原始的語言模型以及6組應用動態多頭注意力機制的語言模型。實驗環境為搭配RTX3080Ti GPU的Ubuntu服務器,顯存為12 GB。

為了更好地對比是否動態獲取注意力頭數語言模型的效果,本文將上述10個預訓練模型應用在文本分類任務上,包括長、短文本兩種分類任務,這兩個任務的句子長度分布情況如圖2所示。

圖2 TNCC數據集句子長度分布

由圖2(a)可知,長文本中各句子長度區間的分布較為均勻,綜合考慮訓練設備及預訓練模型的句子長度取值要求,該任務的pad_size取值為300;而圖2(b)中的短文本中99%的標題長度小于20,且最長不超過50,因此短文本任務的pad_size取值為50,下游實驗的主要參數見表4。

表4 下游實驗部分主要參數

4.2 實驗結果

首先將本文訓練的10組語言模型應用于TNCC文本分類任務,并觀察模型在長、短文本分類任務上的效果;然后使用10組預訓練語言模型分別結合卷積神經網絡(CNN)[22]進行文本分類的對比實驗。

4.2.1 固定與動態頭數語言模型實驗對比結果

TNCC數據集包含藏文長文本及短文本分類語料,將10組訓練好的藏文語言模型分別應用在長/短文本分類任務上,實驗結果見表5,‘/’前后分別為長文本分類結果和短文本分類結果。在長文本下游分類任務中,使用ALBERT模型時,head取8、16時F1值分別為73.29%、72.79%,而使用融入了動態多頭注意力機制思想的語言模型時,hs、hl取8、16時實驗F1值為75.34%,與前者相比F1值分別提升了2.05%、2.55%。該結果表明:在訓練過程中,語言模型動態獲取注意力機制頭數時效果更佳,同時改進語言模型中除hs=6、hl=8的其余4組實驗均能驗證動態多頭注意力機制的有效性。但當固定頭數取6或8時F1值為74.63%、73.29%,而hs、hl動態取6、8時F1值為73.67%,較頭數直接取6時F1值下降了0.96%,取8時提升了0.38%。該情況的主要原因是應用動態多頭注意力機制時,動態選擇的兩個頭數均較小且相差不大,因此無法較好地學習長、短句的語義特征,導致模型效果提升不明顯。

在表5中的短文本分類結果表明,頭數取12時模型效果表現最好,其F1值為68.74%,而應用了動態多頭注意力機制思想的語言模型F1值最高為67.25%,較前者F1值低了1.49%,由此可見,動態多頭注意力機制在短文本分類上效果較為低迷,其原因為標題濃縮了一篇文章的主要內容,且詞數不超過20的標題數量占比99%,標題中詞與詞之間的語義關系并不明確,即根據藏文長文本訓練的DMA_ALBERT模型,對標題的理解能力有限,對藏文標題分類任務的幫助較小。

4.2.2 語言模型結合卷積神經網絡對比實驗結果分析

表6為固定與動態頭數的語言模型分別結合CNN模型在長/短文本分類任務上的實驗結果。長文本中,hs、hl動態取8、12時效果最好,其Weighted F1值為75.69%;在不使用動態多頭注意力機制的ALBERT模型中,head取8時效果最好,其Weighted F1值為74.80%。后者F1值降低了0.89%,該結果表明在進行長文本分類時,動態獲取其注意力機制的頭數效果優于非動態方式。根本原因是動態多頭注意力機制可以更好地學習長、短句中的語義關系,而非動態方式由于固定了頭數的大小,直接制約了其對語義關系的學習能力,因此DMA_ALBERT模型構建的詞向量質量更高,再使用模型結構相對復雜的CNN網絡的卷積及池化操作可以較好地學習詞向量中的重要分類特征。與直接使用DMA_ALBERT模型相比,結合CNN模型時長文本分類效果更好,后者較前者F1值提升了0.35%。

表6 預訓練模型結合卷積神經網絡在長/短文本分類任務上的實驗結果

由表6的短文本分類結果可知DMA_ALBERT與原始ALBERT在短文本分類任務上的效果相近,固定頭數取8時模型效果最好為68.67%;hs、hl動態取6、8時語言模型效果最為68.70%,兩者僅相差0.03%。該結果表明在結合CNN模型的短文本標題分類任務上,由于使用長文本訓練的語言模型對標題的學習能力有限,因此對模型結果影響甚微。

為了更好地對比本章實驗結果,將上述結果使用折線圖進行可視化展示,如圖3所示。其中,h=6表示使用固定頭數為6的注意力機制;h=6,8表示動態使用頭數為6、8的注意力機制,即曲線前后段分別為原始語言模型的結果、結合動態多頭注意力機制的語言模型的結果,上、下兩條曲線分別為長文本分類、標題分類。

由圖3可知,長文本分類任務中,兩條實驗結果曲線的后半段整體趨勢均高于前半段,表明動態獲取注意力機制的頭數效果更優。在不結合CNN模型的短文本分類中,原始語言模型效果更好;而結合CNN模型后,曲線后半部分更穩定,表明CNN網絡能較好地學習DMA_ALBERT所得到詞向量的重要分類特征。

圖3 預訓練語言模型結果對比

4.3 與其它模型的對比實驗結果分析

為了驗證本文模型的有效性,將本文訓練的語言模型與現有模型效果進行對比分析,其中DMA_ALBERT模型各評價指標的具體值見表7。所對比的模型分別為:哈工大訊飛實驗室發布的CINO模型、藏文TiBERT模型、安波等提出的藏文BERTCNN模型,其評價指標皆采用Macro計算方式,因此采用Macro相關指標與前人的模型在TNCC文本分類任務上進行對比。其中長、短文本分類任務對比結果分別見表8、表9。

由表8可知,DMA_ALBERT結合CNN模型效果最佳,hs、hl分別取8、12時模型F1值為73.23%,較CINO提升了4.63%;較TiBERT提升了2.29%;在表9中,DMA_ALBERT結合CNN時效果最佳,hs、hl分別取6、8時模型F1值為64.47%,較BertCNN提升了11.47%,較TiBert提升了2.75%。實驗結果再次說明了融入動態多頭注意力機制思想的語言模型的有效性。

表7 hs、hl動態取8、12時語言模型評價指標

表8 不同模型在長文本分類任務上的實驗結果對比

表9 不同模型在短文本分類任務上的實驗結果對比

5 結束語

本文主要針對不同詞數的句子均由相同頭數的注意力機制進行特征學習這一情況,提出了動態獲取注意力機制頭數的思想。并在TNCC數據集文本分類任務上分別進行了實驗,實驗結果表明,應用了動態多頭注意力機制的語言模型效果最優。

與前人的模型相比,本文模型在不同任務的Macro_F1值均提升了2%以上,再次驗證了該文方法的有效性。在未來的工作中,將繼續研究注意力機制頭數與句子長度的關系,并進一步擴大語言模型訓練語料的規模,或者利用語料較多的中、英文數據檢驗本文的方法,并在權威數據上驗證其效果。

猜你喜歡
分類機制文本
分類算一算
在808DA上文本顯示的改善
分類討論求坐標
基于doc2vec和TF-IDF的相似文本識別
電子制作(2018年18期)2018-11-14 01:48:06
自制力是一種很好的篩選機制
文苑(2018年21期)2018-11-09 01:23:06
數據分析中的分類討論
教你一招:數的分類
文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學隱喻
破除舊機制要分步推進
中國衛生(2015年9期)2015-11-10 03:11:12
注重機制的相互配合
中國衛生(2014年3期)2014-11-12 13:18:12
主站蜘蛛池模板: 人妻出轨无码中文一区二区| 18禁影院亚洲专区| 精品国产乱码久久久久久一区二区| 亚洲欧美国产高清va在线播放| m男亚洲一区中文字幕| 五月激情综合网| 无码精油按摩潮喷在线播放| 中国丰满人妻无码束缚啪啪| 成年A级毛片| 久久综合婷婷| 国产超薄肉色丝袜网站| 天堂在线www网亚洲| 中国丰满人妻无码束缚啪啪| 波多野结衣在线se| 伊人色天堂| 亚洲熟妇AV日韩熟妇在线| 国产日本视频91| 无码专区国产精品第一页| 国产精品一区二区在线播放| 久久久黄色片| 国产精品青青| 亚洲一级无毛片无码在线免费视频| 亚洲精品第一页不卡| 国国产a国产片免费麻豆| 无码啪啪精品天堂浪潮av| 国产不卡一级毛片视频| 免费视频在线2021入口| 中文字幕中文字字幕码一二区| 青青国产成人免费精品视频| 国产美女无遮挡免费视频网站 | 免费国产无遮挡又黄又爽| aⅴ免费在线观看| 高潮毛片无遮挡高清视频播放| 免费人成在线观看成人片| 四虎影视库国产精品一区| 欧美日韩一区二区三| 国产微拍一区二区三区四区| 国产无吗一区二区三区在线欢| 成人午夜亚洲影视在线观看| 一级爆乳无码av| 亚洲精品第一在线观看视频| 欧美色视频网站| 亚洲天堂777| 亚洲乱码在线视频| 亚洲人成网7777777国产| 久久精品亚洲热综合一区二区| 久久精品91麻豆| 免费网站成人亚洲| 天堂成人在线视频| 欧美区一区| 无码中文AⅤ在线观看| 日韩精品毛片人妻AV不卡| 国产成在线观看免费视频| 青青草欧美| 欧美一级在线| 怡春院欧美一区二区三区免费| 黄色网址手机国内免费在线观看| 操国产美女| 色综合中文| 国产综合欧美| 免费无码在线观看| 亚洲乱码视频| 91 九色视频丝袜| 红杏AV在线无码| 97视频免费在线观看| 麻豆精选在线| 国产麻豆精品手机在线观看| 久久毛片基地| 国产真实乱了在线播放| 成年片色大黄全免费网站久久| 亚洲侵犯无码网址在线观看| 国产性生大片免费观看性欧美| 亚洲精品综合一二三区在线| 九九九精品成人免费视频7| 成人自拍视频在线观看| 亚洲国产综合自在线另类| 欧洲日本亚洲中文字幕| 免费一级全黄少妇性色生活片| 中文国产成人精品久久一| 亚洲国产成人久久精品软件| 欧美成人在线免费| 精品91自产拍在线|