999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于BERT對問答平臺重復(fù)問題的識別

2022-04-15 05:16:40李曉娜陳子曦李俊民
科教導(dǎo)刊·電子版 2022年7期
關(guān)鍵詞:文本用戶模型

李曉娜 蔡 瓊 陳子曦 李俊民

(江漢大學(xué) 湖北·武漢 430056)

1 問題的提出

隨著現(xiàn)代信息科學(xué)技術(shù)的發(fā)展,網(wǎng)絡(luò)上各類問答平臺越來越受到網(wǎng)絡(luò)用戶的歡迎,例如知乎平臺用戶數(shù)量已經(jīng)破億,而技術(shù)社區(qū)問答平臺可以作為網(wǎng)絡(luò)用戶相互分享交流經(jīng)驗技術(shù)的社區(qū)平臺,近年來逐步成為網(wǎng)絡(luò)用戶尋找技術(shù)類疑難解答的首要渠道。然而隨著各分類技術(shù)性問題的文本數(shù)據(jù)量不斷攀升,給技術(shù)問答平臺的日常運營維護帶來了挑戰(zhàn)。因為隨著新用戶的不斷加入導(dǎo)致用戶數(shù)量的增加,而新用戶提出的疑問可能已經(jīng)在本平臺上被其他用戶提出過并且已經(jīng)存在解決方案了。但由于技術(shù)性問題的復(fù)雜性,不同用戶提出的問題的切入角度不同,用問題標題關(guān)鍵詞匹配的搜索系統(tǒng)無法高效指引新用戶至現(xiàn)有的問題解決方案。于是,新用戶就會在該平臺上提出重復(fù)的問題,所以這些重復(fù)的問題會進一步增加平臺后臺工作運行的文本量,導(dǎo)致平臺重復(fù)響應(yīng)相同的問題,工浪費時間且工作效率極低。對于這種現(xiàn)象,通常的做法是及時找到新增的重復(fù)問題并打上相應(yīng)的標簽,然后在用戶的搜索結(jié)果中隱藏該類重復(fù)問題,保證對應(yīng)已解決問題出現(xiàn)的優(yōu)先級。所以,本文將會建立一個基于自然語言處理技術(shù)的自動標重系統(tǒng)會對該問答平臺的日常維護起到極大幫助。

2 數(shù)據(jù)處理

2.1 數(shù)據(jù)預(yù)處理

2.1.1 去重和去敏

對附件1:對于附件1進行數(shù)據(jù)清洗,首先檢查附件1中是否含有缺失值和異常值。經(jīng)檢驗該表格中不含有缺失值和異常值。然后利用pycharm的中的pandas語句讀取附件1,開始我們先只提取“translated”一列,因為我們要做的是對中文文本的查重,所以我們就直接刪掉英文版問題,以便于我們后期的數(shù)據(jù)清洗。利用drop_duplicates()語句對全體中文問題文本進行去重,即去掉完全重復(fù)的問題,再利用lambda x:re.sub刪去敏感詞匯。

2.1.2 jieba分詞

去重去敏結(jié)束之后,我們利用jieba進行分詞切割。Jieba分詞是一種基于前綴詞典及動態(tài)規(guī)劃實現(xiàn)分詞,jieba分詞主要是基于統(tǒng)計詞典,構(gòu)造一個前綴詞典,然后利用前綴動態(tài)詞典對輸入句子進行切分,得到所有的切分可能,根據(jù)切分位置,構(gòu)造一個有向無環(huán)圖,然后通過動態(tài)規(guī)劃算法,計算得到最大概率路徑,也就得到了最終的切分形式。我們利用jieba分詞將每個問題文本化為一組分詞。

2.1.3 去停用詞和標點

我們?yōu)榱耸沟脝栴}重復(fù)率的檢驗更加高效成功,所以我們要對前面分詞得到后的結(jié)果再進行去停用詞。我們在pycharm中利用‘stopword.txt’導(dǎo)入常見停用詞庫,根據(jù)我們觀察該表格得到的一些額外的停用詞,例如‘≮’,‘≯’,‘≠’,‘≮’,‘?’,‘會’,‘月’,‘日’,‘–’等等也計入停用詞庫,然后對translated整體去停用詞。并且去掉所有標點。

2.1.4 整理重復(fù)問題組

對附件2:在excel中先將附件2中“duplicates”一列的數(shù)據(jù)移動到“questionID”一列,然后利用excel中的排序功能對總體數(shù)據(jù)進行id升序排列,此時這一列有很多id重復(fù),然后我們利用excel中的數(shù)據(jù)功能找出重復(fù)值并且高亮重復(fù)值,然后刪掉重復(fù)值,這時我們發(fā)現(xiàn)有很多重復(fù)值的label既有0也有1,此時我們優(yōu)先刪掉lebal為0的id,得到新表格。

2.2 中文詞特征提取

我們提取詞向量使用的是 CountVectorizer和 Tfidf-Transformer方法。CountVectorizer是通過fit_transform函數(shù)將文本中的詞語轉(zhuǎn)換為詞頻矩陣CountVectorizer是屬于常見的特征數(shù)值計算類,是一個文本特征提取方法。對于每一個訓(xùn)練文本,它只考慮每種詞匯在該訓(xùn)練文本中出現(xiàn)的頻率。CountVectorizer會將文本中的詞語轉(zhuǎn)換為詞頻矩陣,它通過fit_transform函數(shù)計算各個詞語出現(xiàn)的次數(shù)。

3 模型使用

3.1 語義相似度計算

我們對于語義相似度的計算選擇的是Google研發(fā)的當下最火的BERT。

3.2 數(shù)據(jù)預(yù)處理

我們將原附件2中的所有重復(fù)問題,即label為1的問題組留下,其他label為0的問題先刪掉,如果存在“一對二”或“一對多”即有兩個或兩個以上的問題重復(fù),我們將這類數(shù)據(jù)進行拆分,全部變成一對一的問題組,方便我們模型的建立和使用。

3.3 模型的評估

我們對模型進行測試:

隨機挑選一個目標問題的id:2,輸入在pycharm程序代碼中,點擊運行,結(jié)果顯示,id為2的問題找出的重復(fù)問題的top 10。經(jīng)我們?nèi)斯づ卸ǎ渲衪op K列表結(jié)果中正確檢測到的重復(fù)問題編號數(shù)量為7個,該樣本實際擁有的重復(fù)問題數(shù)量為10個,所以R=0.7。

4 模型的評價與優(yōu)化

4.1 決策樹模型的評價

決策樹的優(yōu)點:決策樹易于理解和實現(xiàn),人們在在學(xué)習(xí)過程中不需要使用者了解很多的背景知識,這同時是它的能夠直接體現(xiàn)數(shù)據(jù)的特點,只要通過解釋后都有能力去理解決策樹所表達的意義。

決策樹的缺點:(1)對連續(xù)性的字段比較難預(yù)測;(2)對有時間順序的數(shù)據(jù),需要很多預(yù)處理的工作;(3)當類別太多時,錯誤可能就會增加得比較快;(4)一般的算法分類的時候,只是根據(jù)一個字段來分類。

4.2 BERT模型的評價

BERT的優(yōu)點:BERT是截至2018年10月的最新state oftheart模型,通過預(yù)訓(xùn)練和精調(diào)橫掃了11項NLP任務(wù),這首先就是最大的優(yōu)點了。而且它還用的是Transformer,也就是相對rnn更加高效、能捕捉更長距離的依賴。對比起之前的預(yù)訓(xùn)練模型,它捕捉到的是真正意義上的bidirectional context信息。

BERT的缺點:BERT在第一個預(yù)訓(xùn)練階段,假設(shè)句子中多個單詞被Mask掉,這些被Mask掉的單詞之間沒有任何關(guān)系,是條件獨立的,然而有時候這些單詞之間是有關(guān)系的,比如“NewYorkisacity”,假設(shè)我們Mask住“New”和“York”兩個詞,那么給定“is a city”的條件下“New”和“York”并不獨立,因為“New York”是一個實體,看到“New”則后面出現(xiàn)“York”的概率要比看到“Old”后面出現(xiàn)“York”概率要大得多。

5 模型的推廣

BERT模型的推廣:本文解決技術(shù)平臺對重復(fù)問題的識別使用的是一種稱之為BERT的新語言表征模型,意為來自變換器的雙向編碼器表征量(BidirectionalEncoder Representations from Transformers)。不同于最近的語言表征模型(Peters等,2018;Radford等,2018),BERT旨在基于所有層的左、右語境來預(yù)訓(xùn)練深度雙向表征。因此,預(yù)訓(xùn)練的BERT表征可以僅用一個額外的輸出層進行微調(diào),進而為很多任務(wù)(如問答和語言推理)創(chuàng)建當前最優(yōu)模型,無需對任務(wù)特定架構(gòu)做出大量修改。

決策樹模型的推廣:企業(yè)管理實踐,企業(yè)投資決策,由于決策樹很好的分析能力,在用戶分群、用戶流失等領(lǐng)域應(yīng)用較多。

猜你喜歡
文本用戶模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
在808DA上文本顯示的改善
基于doc2vec和TF-IDF的相似文本識別
電子制作(2018年18期)2018-11-14 01:48:06
關(guān)注用戶
商用汽車(2016年11期)2016-12-19 01:20:16
3D打印中的模型分割與打包
關(guān)注用戶
商用汽車(2016年6期)2016-06-29 09:18:54
關(guān)注用戶
商用汽車(2016年4期)2016-05-09 01:23:12
文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學(xué)隱喻
主站蜘蛛池模板: 久久77777| 色综合热无码热国产| 国产黄色免费看| 国产精品手机在线观看你懂的| 一区二区自拍| 亚洲一区二区三区国产精华液| 午夜毛片免费观看视频 | 综合色区亚洲熟妇在线| 在线中文字幕日韩| 免费看av在线网站网址| 91精品国产一区| 美女内射视频WWW网站午夜| 无码aaa视频| 亚洲日韩第九十九页| 日韩精品少妇无码受不了| 亚洲日韩第九十九页| 国产成人1024精品| 欧美国产日韩一区二区三区精品影视| 久久精品免费国产大片| 免费看久久精品99| 中文字幕乱码二三区免费| 91免费国产在线观看尤物| 欧日韩在线不卡视频| 国产性爱网站| 国产成人艳妇AA视频在线| 播五月综合| 久久天天躁夜夜躁狠狠| 亚洲区第一页| 久久精品人人做人人综合试看| 久久精品这里只有国产中文精品| 亚洲第一在线播放| 国产偷国产偷在线高清| 久久久久人妻一区精品| 另类欧美日韩| 亚洲福利片无码最新在线播放| 国产一级做美女做受视频| 国产精品浪潮Av| 在线五月婷婷| 88国产经典欧美一区二区三区| 国产欧美日韩va| 一级黄色欧美| 91无码视频在线观看| 国产精品人成在线播放| 国产香蕉在线视频| 久久精品中文字幕免费| 欧美不卡在线视频| 永久毛片在线播| 中文字幕在线永久在线视频2020| 亚洲国产成熟视频在线多多| 欧美一区二区福利视频| 高清欧美性猛交XXXX黑人猛交| 夜夜爽免费视频| 国产xxxxx免费视频| 国产色爱av资源综合区| 国产毛片不卡| 91久草视频| 国产精品开放后亚洲| 一级毛片高清| 亚洲国产日韩欧美在线| 熟女成人国产精品视频| 色综合天天娱乐综合网| 狠狠久久综合伊人不卡| 亚洲欧美天堂网| 伊人五月丁香综合AⅤ| 欧美日韩理论| 97视频免费在线观看| аv天堂最新中文在线| 在线亚洲小视频| 国产国模一区二区三区四区| 亚洲国产精品成人久久综合影院| 久久天天躁狠狠躁夜夜2020一| 国产精品99久久久久久董美香| 欧美一级黄片一区2区| 99热这里只有精品免费| 欧美日韩精品在线播放| 亚洲电影天堂在线国语对白| 欧美a√在线| 国产精品hd在线播放| 中日无码在线观看| 尤物国产在线| 欧美在线黄| 久久久久夜色精品波多野结衣|