999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于Bert模型的文本多分類應用研究

2023-03-24 01:25:59昌磊王依倫陳艷平
電腦知識與技術 2023年4期

昌磊 王依倫 陳艷平

關鍵詞:BERT;文本分類;遷移學習

1 概述

隨著互聯網的發展越來越發達,教育領域也因教育信息化而發生了巨大變革,通過搜索引擎和在線答題平臺咨詢學習問題已逐漸成為學生及老師學習的一種方式[1]。在咨詢過程中,問答系統會對用戶提出問題的類別進行準確區分,如題目的學科或題目考查的知識點。知識點在教育教學過程中起著重要的作用,可對題庫根據知識點進行分類,然后根據學生的學習情況,有針對地將習題推薦給學生,老師也能根據學生的做題情況有針對地進行拔高訓練,為學生設計階段性學習方案,學生能更快速地掌握知識點,學習效率能得到快速提升。

傳統上,教師或教研人員需要人工判斷習題的題型,浪費時間和精力,而且過程十分消耗耐心。在設計建立試題庫,問答系統等場景下,就可以利用文本分類的方法對題目進行試題分類,即機器代替人工實現題型分類提高了教師的工作效率。同時也能使得試題和試卷的管理更高效而便捷,大大節省了教師的工作時間,便于教師有更多時間和精力致力于教學方法的研究,畢竟合理的教學方法也同樣影響著學生的成績。

題型分類屬于自然語言處理短文本分類任務,需要對相關文本進行處理,得到文本的向量化表示。近年來,深度學習方法漸漸興起,目前主要是采用詞嵌入的方式獲得文本的特征表示,如利用word2vec 模型學習文本中詞向量的表示,也可以用預訓練模型BERT得到文本的語義表示完成文本分類[2]。

基于轉換器的雙向編碼表征BERT是2018年由Google 推出的,在多項NLP 任務中取得了卓越的效果[3]。使用預訓練模型BERT,能夠解決一詞多義問題,而且對中文文本語義的獲取BERT 預訓練模型有更好的效果。對于不同的下游任務,BERT的結構可能會有不同的輕微變化。

2 相關研究

2.1Bert 模型

BERT模型是基于Transformer模型的一種雙向多頭自注意力編碼器組成的深層預訓練模型。雙向的意思是該模型能通過某些數據便可以獲取這個句子在上下文語義的功能[4]。BERT模型示意圖如圖1所示,可以很清楚地看到BERT采用了Transformer En? coder block進行連接,但舍棄了Decoder模塊, 這樣最終使其擁有了雙向編碼能力和強大的特征提取能力。

2.2 Transformer 和Attention 機制

多層Transformer 組裝成了Bert模型。而Atten? tion 機制又是Transformer中最關鍵的部分,它表示了各個詞語之間的聯系程度。Self-Attention就是一種可以考慮全局信息的機制。Multi-head Self-Attention 獲取輸入文本中每個不同的字基于不同題型的語義向量,然后進行線性組合,最終得到的特征向量和輸入向量長度相同,利用的就是不同的注意力機制。在Multi Head Self-Attention基礎上添加殘差連接和層歸一化及線性轉換。而Bert 模型就是由多個Trans?former Encoer堆疊起來得到的[5]。

3 基于BERT-CNN 的K12 教育題庫的題型分類模型

本文是基于K12教育題庫的題型多分類問題,采用基于樣本的遷移學習方法,其分類模型如圖3所示。

3.1 算法流程

本文提出一種基于BERT-CNN的K12教育題庫的題型分類模型,其具體的算法流程如下。

4 實驗結果及分析

4.1 實驗數據集

本文數據集采用K12教育題庫長文本20000個題目,根據對應的不同知識點,一共將文本分為6個類別,分別是:二次函數與反比例、三角函數、生理與健康、科學、設計及生物。每個題目的平均文本字符長度為20~30,訓練集、驗證集、測試集的比例為:8:1:1。

4.2 實驗環境

本次實驗編程軟件使用的是Pycharm 社區版,操作系統為Windows10,GPU 為NVIDIA RTX3060。基于Python3.8,使用Anaconda 編程平臺,選擇Pytorch 作為深度學習框架。

4.3 參數設置

預訓練模型采用Google 發布的中文BERT-Base,基于64 個多頭自注意力機制和12層雙向Transfomer 編碼器對K12教育數據短文本進行動態字向量訓練。并根據數據集的特點微調BERT,以提升BERT 的下游任務的效果[7]。由于電腦顯存限制, batch _size設置為64,Epoch 設置為3, learning_rate 設置為3e-5,num_classes 表示類別總數設置為6。

4.4 實驗結果

本實驗使用“提前停止”技術,這可以更好地避免過擬合問題。對于文本分類的效果采用精確率(Preci? sion) 、召回率(Recall) 和F1值3個指標進行評價[8],實驗結果如表1所示。

5 結論

從表1可看出識別的標簽不同,評價體系得分也不同,所有標簽平均得分為0.95. 準確率也是0.95。

從實驗結果可以看出,該模型實現了K12教育題庫類中文文本的多分類,并且Bert- cnn在各項評測指標中的表現也令人滿意。但由于習題科目及知識點種類繁多,關系復雜,所以數據集的構造還需要煩瑣的工作,想要繼續提升準確性,還需要優化數據集并優化各種模型及參數。

主站蜘蛛池模板: 久久综合五月| 曰AV在线无码| 国产一区亚洲一区| 一本一道波多野结衣av黑人在线| 91激情视频| 国产永久在线观看| 免费一极毛片| 欧美日韩在线第一页| 免费人成视网站在线不卡| 日韩成人在线一区二区| 日韩 欧美 小说 综合网 另类| 亚洲国产成人自拍| 亚洲五月激情网| 欧美亚洲一区二区三区导航| 亚洲va视频| 国产精品 欧美激情 在线播放| 在线播放国产99re| 久久99热这里只有精品免费看| 永久免费AⅤ无码网站在线观看| 91亚洲精选| 亚洲精品手机在线| 四虎成人在线视频| 国产尤物视频在线| 国产精品亚洲αv天堂无码| 亚洲日韩欧美在线观看| 中国一级特黄大片在线观看| 欧美日韩v| 亚洲视频在线网| 中文字幕人成乱码熟女免费| 国产在线专区| 尤物精品国产福利网站| 久久久久久久97| 麻豆精品在线播放| 美女亚洲一区| 夜夜操天天摸| 亚洲天堂视频网站| 久久精品国产精品国产一区| 国产成人午夜福利免费无码r| 日韩美一区二区| 欧美国产在线看| 日韩国产黄色网站| 国产精品女主播| 亚洲日韩在线满18点击进入| 激情综合激情| 国产肉感大码AV无码| 亚洲一区毛片| 综合五月天网| 97在线免费视频| 女人毛片a级大学毛片免费| 日韩精品无码免费一区二区三区 | 亚洲无码免费黄色网址| 伊人久久久大香线蕉综合直播| 无码福利视频| 在线亚洲精品自拍| 亚洲欧美在线综合一区二区三区| 成人在线亚洲| 久久情精品国产品免费| 欧美日韩一区二区在线播放| 伊人久久精品无码麻豆精品| 中文字幕在线看| 精品久久人人爽人人玩人人妻| 国产国模一区二区三区四区| 亚洲午夜福利精品无码不卡| 无码人中文字幕| 99久久精品国产综合婷婷| 亚洲一级毛片免费观看| 国产在线八区| 亚洲免费黄色网| 国产欧美日韩另类精彩视频| 中字无码av在线电影| 免费aa毛片| 国产香蕉国产精品偷在线观看 | 18黑白丝水手服自慰喷水网站| 亚洲 欧美 日韩综合一区| 国产日本欧美亚洲精品视| 激情国产精品一区| 日韩 欧美 国产 精品 综合| 日韩精品成人在线| 色综合成人| 又猛又黄又爽无遮挡的视频网站| 亚洲国产系列| 中文字幕有乳无码|