999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

具有個(gè)人信息的對(duì)話生成模型研究

2021-02-25 08:51:52柯顯信白姣姣
關(guān)鍵詞:信息模型

曹 斌 柯顯信 白姣姣

(上海大學(xué)機(jī)電工程與自動(dòng)化學(xué)院 上海 200444)

0 引 言

隨著數(shù)據(jù)時(shí)代發(fā)展,人們?cè)絹?lái)越關(guān)注利用大量真實(shí)的交流數(shù)據(jù)來(lái)訓(xùn)練對(duì)話模型,這些模型的一個(gè)主要問(wèn)題是它們傾向于選擇具有最大可能性的響應(yīng)(訓(xùn)練數(shù)據(jù)中表示的人類的共識(shí)響應(yīng)),產(chǎn)生的回復(fù)通常是模糊的或不一致的[1]。Vinyals等[2]指出,當(dāng)前的對(duì)話系統(tǒng)仍然無(wú)法通過(guò)圖靈測(cè)試,在眾多限制中,缺乏一致的個(gè)人信息是最具挑戰(zhàn)性的困難之一,如表1所示。在人機(jī)交互的過(guò)程中,對(duì)話的部分內(nèi)容會(huì)涉及到機(jī)器人的自身信息類問(wèn)題[3],如姓名、年齡、性別等。和諧自然的人機(jī)交流需要機(jī)器人對(duì)于涉及個(gè)人信息類問(wèn)題的回復(fù)總是穩(wěn)定的,不要出現(xiàn)前后不一致的現(xiàn)象。

表1 信息不一致的回復(fù)

近年來(lái),Li等[4]以序列到序列模型為基礎(chǔ),通過(guò)Al-Rfou等[5]使用類似的用戶嵌入技術(shù)來(lái)模擬用戶個(gè)性化的工作,兩項(xiàng)研究都需要每個(gè)用戶的對(duì)話數(shù)據(jù)來(lái)模擬她/他的個(gè)性。Qian等[6]利用雙向解碼器來(lái)生成預(yù)先給定的個(gè)人信息,但是需要大量數(shù)據(jù)標(biāo)注信息位置。

本文提出一種具有個(gè)人信息的對(duì)話模型,賦予聊天機(jī)器人特定個(gè)人信息(如表2所示),并使聊天機(jī)器人能夠生成與其給定信息一致的回復(fù)。

表2 預(yù)設(shè)五種個(gè)人信息

1 對(duì)話模型

對(duì)話模型如圖1所示,任務(wù)描述如下:給出一個(gè)輸入問(wèn)題x,問(wèn)題分類器D預(yù)測(cè)問(wèn)題x是否屬于個(gè)人信息問(wèn)題:如果是,將問(wèn)題轉(zhuǎn)入個(gè)人信息回復(fù)模塊,隨機(jī)返回問(wèn)題所屬類別K的候選回復(fù)y作為模型回復(fù);否則轉(zhuǎn)入開(kāi)放域?qū)υ捘K,生成回復(fù)y。生成回復(fù)的過(guò)程如下:

圖1 對(duì)話模型

P(y|x)=P(z=1|x)×PO(y|x(ki))+

P(z=0|x)×PG(y|x)

(1)

式中:P(z|x)表示輸入問(wèn)題(x)所屬類別的概率;z=1表示問(wèn)題x屬于涉及個(gè)人信息,否則反之。PO(y|x(ki))表示個(gè)人信息回復(fù)模塊給出的所屬類別的答案的概率;PG(y|x)表示開(kāi)放域?qū)υ捘K給出的回復(fù)的概率。

2 問(wèn)題分類模型

分類模型用來(lái)判別輸入問(wèn)題是否需要個(gè)人信息回復(fù)模塊處理,是一個(gè)二分類問(wèn)題。用P(z|x)(z∈{0,1}),z=1表示需要個(gè)人對(duì)話模塊,例如:“你今年幾歲?”則P(z=1|x)≈1;“你哥哥今年幾歲?”則P(z=1|x)≈0。

近年國(guó)內(nèi)外學(xué)者對(duì)于短文本分類的問(wèn)題做了大量研究,主要分為兩類:機(jī)器學(xué)習(xí)算法和深度學(xué)習(xí)算法。機(jī)器學(xué)習(xí)領(lǐng)域有支持向量機(jī)(Support Vector Machine,SVM)、邏輯回歸(Logistics Regression,LR)、樸素貝葉斯分類法(Naive Bayes Classifier,NBC)、K-最近鄰法(k-Nearest Neighbor,KNN)、決策樹(shù)法(Decision Tree,DT)和中心向量法等[7]。深度學(xué)習(xí)算法有Kim[8]提出的Text-CNN,其具有良好表現(xiàn)。然而自然語(yǔ)言處理中最常用的是具有捕捉上下文信息的遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)。為了將RNN與CNN結(jié)合,又提出RNN-CNN模型來(lái)彌補(bǔ)CNN不能夠處理文本上下關(guān)系和RNN在長(zhǎng)距離上存在信息衰減的問(wèn)題。

本文將對(duì)比各方法在語(yǔ)料上面的性能,綜合考慮選取恰當(dāng)?shù)姆椒ā?/p>

3 個(gè)人信息回復(fù)模塊

為了維護(hù)前后回復(fù)的信息一致性,本文的解決思路是相似問(wèn)題匹配,即對(duì)比用戶的輸入問(wèn)題與設(shè)定的數(shù)據(jù)庫(kù)中問(wèn)題的相似度,返回最大相似度的問(wèn)題的答案作為模型回復(fù)。相比于機(jī)器學(xué)習(xí)方法,深度學(xué)習(xí)能夠發(fā)掘以往很難發(fā)掘的隱含在大量數(shù)據(jù)中的不顯著特征,更細(xì)化地表達(dá)文本匹配問(wèn)題[9]。

本文以孿生網(wǎng)絡(luò)思想構(gòu)建個(gè)人信息回復(fù)模塊,如圖2所示。

圖2 個(gè)人信息回復(fù)模型

本文模型首先將兩個(gè)句子通過(guò)深度學(xué)習(xí)模型進(jìn)行表示,然后利用相似度方程計(jì)算這兩個(gè)表示之間的相似度即匹配度。該方法注重于構(gòu)建句子的表示層,盡量用等長(zhǎng)的向量表示待匹配句子的語(yǔ)義。本文采用BiLSTM模型對(duì)句子的語(yǔ)義信息進(jìn)行表示,BiLSTM由正反兩個(gè)長(zhǎng)短期記憶網(wǎng)絡(luò)(Long Short-Term Memory,LSTM)[10]模型組成。LSTM記憶單元各部分在時(shí)刻t更新如下:

ft=σ(Wf·[ht-1,xt]+bf)

(2)

it=σ(Wi·[ht-1,xt]+bi)

(3)

(4)

(5)

ot=σ(WO[ht-1,xt]+bo)

(6)

ht=ot×tanh(Ct)

(7)

式中:it、ft、ot依次表示輸入門、遺忘門、輸出門;xt表示t時(shí)刻的特征向量;σ(·)表示sigmoid函數(shù)。

BiLSTM模型增加對(duì)文本逆向語(yǔ)義的學(xué)習(xí)。連接正反兩個(gè)方向的LSTM模型輸出向量作為t時(shí)刻BiLSTM的輸出Bt[11]:

(8)

(9)

(10)

本文采用的損失函數(shù)是對(duì)比損失函數(shù),可以有效地處理成對(duì)數(shù)據(jù)的關(guān)系,其表達(dá)式如下[12]:

(11)

4 最大互信息的開(kāi)放域?qū)υ捘P?/h2>

基礎(chǔ)的Seq2seq模型是以最大對(duì)數(shù)似然為目標(biāo)函數(shù),模型在面對(duì)問(wèn)題時(shí)會(huì)容易產(chǎn)生類似“我不知道”“呵呵”“哈哈”等通用無(wú)意義的回復(fù)。因此本文借鑒了Li等[13]提出的抗語(yǔ)言模型(anti-language model,anti-LM),以最大互信息作為Seq2seq的目標(biāo)函數(shù),公式如下:

(12)

(13)

(14)

式中:λlogP(T)視為對(duì)任何輸入都具有高概率的候選詞的懲罰,由參數(shù)λ控制懲罰的大小。由于懲罰項(xiàng)的存在,模型不再一昧選擇概率高的詞,避免產(chǎn)生通用的回答。但懲罰會(huì)影響句子結(jié)構(gòu)和流暢性,因此引入分段函數(shù)g(k)[14]:

(15)

(16)

(17)

前期生成詞對(duì)句子多樣性的影響顯著大于后期生成詞,為了盡可能地保證句子流暢性,在解碼器生成句子過(guò)程中僅僅對(duì)前期生成的高概率候選詞進(jìn)行懲罰。

5 實(shí) 驗(yàn)

5.1 數(shù)據(jù)樣本

本文根據(jù)設(shè)定的五種身份信息,從微博、小黃雞語(yǔ)料和青云語(yǔ)料提取和采樣得到了10 072個(gè)樣本用于訓(xùn)練問(wèn)題分類器。通過(guò)對(duì)樣本進(jìn)行標(biāo)注,涉及個(gè)人信息為正樣本(標(biāo)簽為1),反之為負(fù)樣本(標(biāo)簽為0),部分語(yǔ)料如表3所示。

表3 部分問(wèn)題分類樣本示例

訓(xùn)練個(gè)人信息回復(fù)模型時(shí)需要輸入兩個(gè)句子和相似度。人工地將所收集的正樣本進(jìn)行五分類(姓名、年齡、性別、地點(diǎn)、職業(yè)),同類型樣本間構(gòu)成相似問(wèn)題對(duì)(標(biāo)簽為1),不同類型間樣本構(gòu)成不相似問(wèn)題對(duì)(標(biāo)簽為0),如表4所示。

表4 部分相似度訓(xùn)練樣本示例

5.2 問(wèn)題分類

本文測(cè)試了SVM、LR、NBC、CNN、LSTM和LSTM-CNN。傳統(tǒng)機(jī)器學(xué)習(xí)模型的文本表達(dá)形式為詞袋和TF-IDF;SVM采用線性核函數(shù);深度學(xué)習(xí)方法采用預(yù)先訓(xùn)練好的詞向量;CNN參考Text-CNN模型;LSTM模型利用最后一個(gè)時(shí)刻狀態(tài)經(jīng)過(guò)全連接輸出;LSTM-CNN利用CNN把LSTM每個(gè)時(shí)刻的輸出進(jìn)行卷積和池化。本文選取了準(zhǔn)確率、F1值和AUC值來(lái)評(píng)價(jià)各模型性能,實(shí)驗(yàn)結(jié)果如表5所示。

表5 不同方法模型評(píng)估

可以看出:(1) 基于詞袋的SVM取得了最好的性能指標(biāo)。(2) 傳統(tǒng)的機(jī)器學(xué)習(xí)分類性能整體優(yōu)于深度學(xué)習(xí),主要原因是因?yàn)樗崛〉恼Z(yǔ)料中某些詞匯頻繁出現(xiàn),比如涉及姓名信息問(wèn)題中姓名、名字和叫什么等詞匯大量出現(xiàn),所以具有統(tǒng)計(jì)特性的模型會(huì)有良好表現(xiàn)。本文還選取準(zhǔn)確度最多的三個(gè)模型進(jìn)行加權(quán)平均法,但是分類效果沒(méi)有顯著提高。最終本文選取基于詞袋的SVM作為問(wèn)題分類器。

5.3 個(gè)人信息回復(fù)模型

除了本文中的基于BiLSTM的孿生網(wǎng)絡(luò)的相似度計(jì)算方法外, 還比較了基于LSTM與全連接、基于BiLSTM與全連接、基于LSTM與余弦以及基于詞向量余弦距離和詞移距離(Word Mover’s Distance,WMD)的方法。以上幾種方法對(duì)應(yīng)簡(jiǎn)稱為L(zhǎng)STM_F、BiLSTM_F、LSTM_cosine、w2v_cosine和w2v_wmd, 其中采用全連接層的網(wǎng)絡(luò)加入了Batch normalizationn層[15]來(lái)提高收斂速度,LSTM_cosine利用余弦計(jì)算logit與目標(biāo)值[1,0]的距離,作為相似度。

由于本文設(shè)定五個(gè)身份信息,因此準(zhǔn)確性是指預(yù)測(cè)的類別是否為標(biāo)簽類別,公式如下:

P=P(klabel=kp)

(18)

kp=K(max(Similarity))

(19)

式中:P為模型準(zhǔn)確度;klabel為標(biāo)定種類;kp為預(yù)測(cè)類別;K為設(shè)定的五類信息;Similarity為相似度。

實(shí)驗(yàn)階段針對(duì)五種身份信息選取 500個(gè)問(wèn)題作為匹配數(shù)據(jù)庫(kù),每個(gè)類型100個(gè),各模型實(shí)驗(yàn)結(jié)果如表6所示,均耗時(shí)指的是平均每個(gè)問(wèn)題回復(fù)的時(shí)間。

表6 各模型實(shí)驗(yàn)結(jié)果

w2v_cosine和w2v_wmd直接將詞向量拼接來(lái)表示句子特征,這導(dǎo)致只要句子關(guān)鍵字相同就會(huì)判別句子表達(dá)主題相似,而本部分?jǐn)?shù)據(jù)經(jīng)過(guò)問(wèn)題分類,選取的數(shù)據(jù)詞語(yǔ)分布集中所以取得了較高準(zhǔn)確率;BiLSTM_F、LSTM_F和LSTM_cosine利用LSTM能夠?qū)W習(xí)文本深層次關(guān)系。本文方法取得了較好的準(zhǔn)確率,因?yàn)閷?duì)比損失函數(shù)可以很好地表達(dá)成對(duì)樣本的匹配程度,但是在時(shí)間效率上略有不足。

為了回復(fù)的多樣性,本文為每個(gè)類別分別設(shè)置多個(gè)回復(fù)模板,比如關(guān)于年齡的回復(fù)有“我今年一歲了”“人家已經(jīng)一歲了”“一歲”“本寶寶出生一年了”等,每次選取一個(gè)答案作為回復(fù)。

5.4 最大互信息回復(fù)模型

對(duì)開(kāi)放域回復(fù)模塊采用人工測(cè)評(píng)與BLEU評(píng)估結(jié)合的形式,分別以最大對(duì)數(shù)似然和互信息作為目標(biāo)函數(shù)訓(xùn)練了兩個(gè)對(duì)話模型。實(shí)驗(yàn)中最大互信息模型的懲罰系數(shù)λ取值為0.5,γ設(shè)定為1。

兩個(gè)模型的BLEU值為0.17 和0.25,以最大互信息為目標(biāo)函數(shù)的模型較好。在人工測(cè)評(píng)中,讓20個(gè)人與兩個(gè)模型分別進(jìn)行20句以上的交互,判斷哪種生成的結(jié)果更好,結(jié)果顯示大多數(shù)人認(rèn)為兩個(gè)模型差不多,30%的人認(rèn)為以最大互信息為目標(biāo)函數(shù)的模型較好。

5.5 對(duì)話模型實(shí)驗(yàn)

本文隨機(jī)選取部分對(duì)話,請(qǐng)10 位志愿者對(duì)其以下幾個(gè)方面進(jìn)行評(píng)價(jià)。

自然性:回復(fù)是否自然通順。如果太短或者無(wú)意義回復(fù)被認(rèn)為缺乏自然性,獲得0分,反之得1分。

邏輯性:回復(fù)與問(wèn)題是否成邏輯關(guān)系。比如涉及性別問(wèn)題,回復(fù)類似“女孩”等將獲得1分,反之得0分。

信息一致性:對(duì)于涉及個(gè)人信息的回復(fù)是否保持前后一致。比如年齡一類問(wèn)題,回復(fù)的屬性值應(yīng)該與設(shè)定的一樣“一歲”。信息一致獲得1分,反之得0分。

多樣性:對(duì)于某一類問(wèn)題是否具有多種回復(fù)。比如對(duì)于回復(fù)年齡類別,應(yīng)該具有不同的回復(fù)如“我今年一歲”“人家已經(jīng)一歲了”。具有多樣性獲得1分,反之得0分。

人工評(píng)價(jià)結(jié)果如表7所示。可以看出,本文模型在每個(gè)指標(biāo)都優(yōu)于普通的Seq2seq模型,特別在信息一致性,這是因?yàn)楸疚奶砑恿藗€(gè)人信息回復(fù)模塊。本文模型對(duì)話樣例如表8所示。

表7 回復(fù)的評(píng)估 %

表8 對(duì)話樣例

6 結(jié) 語(yǔ)

為了維護(hù)對(duì)話前后個(gè)人信息的一致性問(wèn)題,本文提出了具有個(gè)人信息的對(duì)話模型,該模型能夠簡(jiǎn)化從對(duì)話數(shù)據(jù)中學(xué)習(xí)個(gè)人信息的復(fù)雜性。實(shí)驗(yàn)表明,本文的對(duì)話模型能夠有效地生成與預(yù)設(shè)信息一致的回復(fù),同時(shí)減少無(wú)意義的通用回復(fù),有助于產(chǎn)生更加連貫和多樣的對(duì)話。

本文不足如下:訓(xùn)練語(yǔ)料的質(zhì)量不佳,模型的時(shí)間復(fù)雜度較大。未來(lái)研究還需要考慮對(duì)話的情感狀態(tài)、對(duì)話的邏輯推理和對(duì)話的風(fēng)格等。

猜你喜歡
信息模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
展會(huì)信息
一個(gè)相似模型的應(yīng)用
信息
健康信息
祝您健康(1987年3期)1987-12-30 09:52:32
主站蜘蛛池模板: 久久99国产综合精品1| 成人午夜在线播放| 97成人在线观看| 最新无码专区超级碰碰碰| 一级毛片在线免费看| 亚洲五月激情网| 手机在线免费不卡一区二| 国产乱人激情H在线观看| 天堂成人在线| 成人中文在线| 综合天天色| 中文字幕波多野不卡一区| 免费a在线观看播放| 国产成人1024精品下载| a级毛片一区二区免费视频| 亚洲精品视频免费| 国产网站免费观看| 国产靠逼视频| 91网红精品在线观看| 中文字幕亚洲乱码熟女1区2区| 国产精品熟女亚洲AV麻豆| 熟妇无码人妻| 久久6免费视频| 亚洲第一黄片大全| 最新国产在线| 青青青国产免费线在| 色综合a怡红院怡红院首页| 在线免费看片a| 久久精品丝袜| 国产成人综合亚洲网址| 精品中文字幕一区在线| 美女啪啪无遮挡| 亚洲国产精品VA在线看黑人| 国产免费久久精品44| 日韩欧美中文| 黑人巨大精品欧美一区二区区| 国产精品久久久久久久久久久久| 日本黄色不卡视频| 欧美精品导航| 五月六月伊人狠狠丁香网| 99精品一区二区免费视频| 综1合AV在线播放| 国产人妖视频一区在线观看| 亚洲国产成熟视频在线多多| 国产一在线| 国产91在线|中文| 全免费a级毛片免费看不卡| 国产激情在线视频| 国产高清精品在线91| 国产亚洲欧美在线人成aaaa| 欧美三级自拍| 久久人搡人人玩人妻精品 | 天天操天天噜| 国产丰满大乳无码免费播放 | 青青草欧美| 欧美激情综合一区二区| 亚洲国产无码有码| 国产白浆在线| 无码日韩精品91超碰| 欧美综合成人| 88国产经典欧美一区二区三区| 自偷自拍三级全三级视频| 亚洲视频一区在线| 亚洲av色吊丝无码| 国内99精品激情视频精品| 欧美不卡在线视频| 99热这里只有免费国产精品| 国产成人精品18| 国产黄色爱视频| 2022精品国偷自产免费观看| 亚洲天堂久久久| 国产成人精品亚洲日本对白优播| 91视频区| 日韩欧美网址| 欧美在线导航| 国产不卡在线看| 亚洲性一区| 一级毛片基地| 国产成人夜色91| 日韩欧美国产区| 国产资源站| 先锋资源久久|