999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于圖匹配網(wǎng)絡(luò)的可解釋知識(shí)圖譜復(fù)雜問(wèn)答方法

2021-12-14 11:32:38孫亞偉瞿裕忠
計(jì)算機(jī)研究與發(fā)展 2021年12期
關(guān)鍵詞:語(yǔ)義實(shí)驗(yàn)方法

孫亞偉 程 龔 厲 肖 瞿裕忠

(計(jì)算機(jī)軟件新技術(shù)國(guó)家重點(diǎn)實(shí)驗(yàn)室(南京大學(xué)) 南京 210023)

隨著大規(guī)模開(kāi)放性知識(shí)圖譜的增多[1-2],人們獲取知識(shí)的需求愈發(fā)突出[3],知識(shí)圖譜問(wèn)答是從知識(shí)圖譜中獲得知識(shí)的最佳途徑之一[4].同時(shí),問(wèn)答系統(tǒng)的可解釋性也受到了廣泛關(guān)注[5].

早期知識(shí)圖譜問(wèn)答聚焦在簡(jiǎn)單問(wèn)句,比如問(wèn)句“Who is the wife of Obama?”,通過(guò)知識(shí)圖譜中的實(shí)體“Obama”的單步關(guān)系(“spouse”)可獲得答案.然而回答復(fù)雜問(wèn)答(涉及多步邊或聚合操作的問(wèn)句)是一個(gè)難題[6].本文聚焦在復(fù)雜問(wèn)句,比如“What movies were directed by the actor in Titanic?”,回答該問(wèn)句需要知識(shí)圖譜中實(shí)體“Titanic”的多步邊(本文采用該問(wèn)句作為例子貫穿全文).

近幾年涌現(xiàn)不少知識(shí)圖譜復(fù)雜問(wèn)答的工作[7-13].盡管這些工作取得了一定效果,但問(wèn)句結(jié)構(gòu)尚未被充分利用.按照利用問(wèn)句方式不同,可以分為基于序列編碼(sequence-based encoder)[7-10]和基于路徑編碼(path-based encoder)[11-13]兩類方法.他們各自存在不足:

1)序列編碼缺乏可解釋性.具體地,序列編碼視問(wèn)句為單詞序列,通過(guò)編碼構(gòu)造問(wèn)句表示,如QGG[7]直接把問(wèn)句通過(guò)預(yù)訓(xùn)練語(yǔ)言模型BERT[14]編碼,然后進(jìn)行查詢圖預(yù)測(cè).KBQA-GST[8]利用卷積神經(jīng)網(wǎng)絡(luò)對(duì)問(wèn)句序列和關(guān)系路徑序列編碼,然后計(jì)算內(nèi)積得到相似度.Slot Matching[9]把問(wèn)句通過(guò)BERT編碼,然后利用注意力機(jī)制得到問(wèn)句表示.DAC[10]通過(guò)雙向GRU編碼問(wèn)句,然后把所有單詞隱狀態(tài)求均值,作為問(wèn)句表示.

2)路徑編碼忽略問(wèn)句整體結(jié)構(gòu)信息.具體地,路徑編碼視問(wèn)句為語(yǔ)法路徑(如依存或AMR結(jié)構(gòu)路徑)進(jìn)行編碼,從而獲得更豐富的問(wèn)句表示,如gAnswer[11]利用依存路徑表示問(wèn)句查詢圖(超圖),然后通過(guò)子圖匹配算法映射成可執(zhí)行的查詢.CompQA[12]利用循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)問(wèn)句中疑問(wèn)詞和主題實(shí)體的依存路徑編碼.NSQA[13]取AMR結(jié)構(gòu)中的路徑表示問(wèn)句結(jié)構(gòu).

由此可見(jiàn),現(xiàn)有工作缺乏從圖結(jié)構(gòu)編碼(graph-based encoder)的視角對(duì)問(wèn)句結(jié)構(gòu)進(jìn)行整體表示.

如圖1所示,該例子反映了本文工作的動(dòng)機(jī),即從圖結(jié)構(gòu)角度對(duì)問(wèn)句建模的必要性.具體地,從序列編碼角度,圖1(c)容易誤判為正確查詢圖,因?yàn)閷?duì)于圖1(c)的序列:“film,actor,directed_by”和圖1(d)的序列:“directed_by,actor,starring”,問(wèn)句和圖1(c)的語(yǔ)義匹配看似大于問(wèn)句和圖1(d)的匹配.但一旦引入圖1(b)未定查詢圖,圖1(d)就可以識(shí)別出來(lái).因?yàn)閳D1(b)的“?movies-directed_by→?actor”和圖1(d)的“?x-directed_by→?c”語(yǔ)義匹配大于和圖1(c)的“?x-film→?m”匹配.圖1(b)中的“Titanic-in→?actor”與圖1(d)的“m.0dr_4-starring→?m-actor→?c”語(yǔ)義匹配大于和圖1(c)的“?m-actor→?c←directed_by-m.0dr_4”匹配.

Fig.1 Motivation of our work

為了對(duì)問(wèn)句結(jié)構(gòu)整體表示,本文提出一種基于圖匹配網(wǎng)絡(luò)的知識(shí)圖譜復(fù)雜問(wèn)答方法TTQA.首先,通過(guò)依存分析,構(gòu)造一個(gè)與知識(shí)圖譜無(wú)關(guān)的問(wèn)句查詢圖(簡(jiǎn)稱未定查詢圖).其次,基于預(yù)訓(xùn)練語(yǔ)言模型和圖神經(jīng)網(wǎng)絡(luò)技術(shù),提出一種圖匹配網(wǎng)絡(luò)(graph matching network, GMN),用于生成可執(zhí)行的結(jié)構(gòu)化查詢(簡(jiǎn)稱已定查詢圖).最后在給定知識(shí)圖譜執(zhí)行查詢,獲得答案.TTQA生成未定查詢圖和已定查詢圖作為參照,提升了方法的可解釋性.

本文的主要技術(shù)貢獻(xiàn)是提出了一種適用于知識(shí)圖譜問(wèn)答的圖匹配網(wǎng)絡(luò)GMN,其結(jié)合了預(yù)訓(xùn)練模型和圖匹配網(wǎng)絡(luò)學(xué)習(xí)技術(shù),計(jì)算未定查詢圖和已定查詢圖的語(yǔ)義匹配.相比序列編碼和路徑編碼方式,基于圖結(jié)構(gòu)的方法不僅完整地建模問(wèn)句信息,而且還使得問(wèn)答系統(tǒng)更具有可解釋性.

在2個(gè)常用知識(shí)圖譜復(fù)雜問(wèn)答數(shù)據(jù)集LC-QuAD 1.0[15]和ComplexWebQuestions 1.1[16]進(jìn)行實(shí)驗(yàn).實(shí)驗(yàn)結(jié)果表明,TTQA超過(guò)了現(xiàn)有基準(zhǔn)方法.同時(shí),消融實(shí)驗(yàn)驗(yàn)證了GMN模塊的有效性.

本文提出的方法已開(kāi)源:https://github.com/nju-websoft/TTQA.

1 相關(guān)工作

知識(shí)圖譜復(fù)雜問(wèn)答可以分為3類:基于語(yǔ)義解析方法(semantic parsing, SP-based)、基于信息檢索方法(information retrieval, IR-based)和其他方法.語(yǔ)義解析具有可解釋性,而信息檢索和其他方法缺乏可解釋性.

1.1 語(yǔ)義解析方法

語(yǔ)義解析的目標(biāo)是生成可執(zhí)行的結(jié)構(gòu)化查詢(如SPARQL).根據(jù)問(wèn)句編碼方法不同,可以細(xì)分為基于路徑編碼和基于序列編碼的方法.

基于路徑編碼的語(yǔ)義解析方法.CompQA[12]提出一種基于GRU的語(yǔ)義匹配模型,該模型融入問(wèn)句依存路徑信息,從而得到更豐富的問(wèn)句表示;gAnswer[11]提出一種子圖匹配的查詢圖方法,利用問(wèn)句依存路徑構(gòu)造語(yǔ)義查詢圖,再利用子圖匹配映射成可執(zhí)行的查詢圖;TextRAY[17]提出一種基于拆解和拼接方法,通過(guò)指針網(wǎng)絡(luò)拆解復(fù)雜問(wèn)句,利用依存路徑匹配查詢圖;NSQA[13]提出一種基于抽象語(yǔ)義表示(abstract meaning representation, AMR)的查詢圖方法,使用AMR工具分析問(wèn)句,利用基于路徑編碼的映射方法把AMR結(jié)構(gòu)轉(zhuǎn)換成查詢圖,映射時(shí)采用了關(guān)系鏈接工具SemREL[18].

基于序列編碼的語(yǔ)義解析方法.QGG[7]提出一種基于狀態(tài)轉(zhuǎn)移的查詢圖生成方法,為了給候選查詢圖排序,該方法采用BERT對(duì)問(wèn)句和查詢進(jìn)行序列編碼;Slot Matching[9]提出一種基于槽匹配的語(yǔ)義匹配方法,利用LSTM對(duì)問(wèn)句和查詢圖序列編碼,再利用注意力機(jī)制生成問(wèn)句表示;GGNN[19]提出一種基于門控圖神經(jīng)網(wǎng)絡(luò)方法,使用卷積神經(jīng)網(wǎng)絡(luò)對(duì)問(wèn)句序列編碼;DAC[10]提出一種基于強(qiáng)化學(xué)習(xí)的導(dǎo)演-演員-評(píng)論者(director-actor-critic)框架.

本文提出的TTQA屬于語(yǔ)義解析方法,相比路徑編碼和序列編碼,TTQA采用圖結(jié)構(gòu)編碼,這樣做有助于完整地考慮問(wèn)句結(jié)構(gòu)信息.進(jìn)一步,TTQA利用多視角匹配的注意力機(jī)制,從而增強(qiáng)了語(yǔ)義匹配的效果.

1.2 信息檢索和其他方法

信息檢索的目標(biāo)是直接在知識(shí)圖譜上檢索答案.該類方法可解釋性欠佳,多數(shù)工作的問(wèn)句編碼方式是基于序列編碼.具體地,NSM[20]提出一種基于神經(jīng)狀態(tài)機(jī)器的教師和學(xué)生網(wǎng)絡(luò)框架,學(xué)生網(wǎng)絡(luò)用于查找正確答案,教師網(wǎng)絡(luò)用于學(xué)習(xí)中間監(jiān)督信號(hào)來(lái)提升學(xué)生網(wǎng)絡(luò)的推理能力.SRN[21]提出一種基于強(qiáng)化學(xué)習(xí)的逐步推理(stepwise reasoning)網(wǎng)絡(luò),把問(wèn)答形式化為序列決策問(wèn)題,通過(guò)執(zhí)行路徑搜索來(lái)獲取答案,同時(shí)考慮了束搜索(beam search)來(lái)減少候選數(shù)量.為了減少延遲和稀疏獎(jiǎng)勵(lì)問(wèn)題,該方法提出了獎(jiǎng)勵(lì)塑造策略.KBQA-GST[8]是一種基于主題單元的生成與打分框架.該框架分2個(gè)步驟:主題單元鏈接和候選答案排序,采用強(qiáng)化學(xué)習(xí)聯(lián)合優(yōu)化.WDAqua[22]提出一種多語(yǔ)言的知識(shí)圖譜問(wèn)答方法,該方法分4個(gè)步驟:問(wèn)句擴(kuò)展、查詢構(gòu)造、查詢排序和回應(yīng)決策(response decision).其中查詢排序采用包含問(wèn)句序列信息5個(gè)特征的線性組合.

同時(shí)也存在基于圖編碼方法:AQG[23].近期還出現(xiàn)知識(shí)圖譜表示學(xué)習(xí)[24]、結(jié)合文本和知識(shí)圖譜混合式問(wèn)答方法[25]、基于拆解和閱讀理解方法[16]等.

相比這些可解釋性欠佳的方法,TTQA基于語(yǔ)義解析生成的未定查詢圖和已定查詢圖提高了模型可解釋性,且在語(yǔ)義匹配模型中考慮了問(wèn)句結(jié)構(gòu),增強(qiáng)了模型的性能.

2 TTQA方法概述

本節(jié)首先給出問(wèn)題定義,然后描述提出的TTQA方法框架.

2.1 問(wèn)題定義

表1為本文方法所用的符號(hào),給出定義1.

定義1.復(fù)雜問(wèn)句.q=w1,w2,w3,…,wl涉及多邊或多實(shí)體(數(shù)值)的問(wèn)句;涉及聚合/計(jì)數(shù)/比較/最高級(jí)操作的問(wèn)句.本文關(guān)注涉及多邊或多實(shí)體(數(shù)值)的問(wèn)句.

Table 1 Summary of Notation in Our Approach

Fig.2 Working graph

定義7.語(yǔ)義近似匹配.由于u和g之間可能異構(gòu),嚴(yán)格匹配定義不適用,故采用圖近似匹配,即圖近似匹配任務(wù)[27]中的定義sim(u,g)→表示近似匹配.

2.2 TTQA方法框架

本文提出的TTQA如圖3所示,主要包含2個(gè)部分:1)未定查詢圖生成模塊;2)已定查詢圖生成模塊.通過(guò)這2個(gè)模塊,最后把已定查詢圖轉(zhuǎn)換成標(biāo)準(zhǔn)查詢語(yǔ)句(如SPARQL),在知識(shí)圖譜執(zhí)行,獲得答案.

Fig.3 The framework of GMN-based TTQA

2.2.1 未定查詢圖生成

輸入問(wèn)句q,未定查詢圖生成模塊的目標(biāo)是生成u.如圖3所示,該模塊分3個(gè)子模塊:1)語(yǔ)法分析;2)頂點(diǎn)識(shí)別;3)關(guān)系抽取.其中語(yǔ)法分析子模塊采用作者提出的骨架解析方法[28],首先獲得該問(wèn)句的宏觀結(jié)構(gòu),然后進(jìn)行細(xì)粒度依存分析用于得到骨架內(nèi)部的修飾關(guān)系.頂點(diǎn)識(shí)別子模塊結(jié)合了BERT分類器、CoreNLP工具和SUTime來(lái)識(shí)別實(shí)體提及、數(shù)值提及、類型變量和答案頂點(diǎn)[28].關(guān)系抽取采用頂點(diǎn)優(yōu)先框架[11]進(jìn)行關(guān)系抽取,并合并變量得到未定查詢圖u.

例1.針對(duì)圖1(a)問(wèn)句,識(shí)別出答案頂點(diǎn)“?movies”、類型變量“?actor”和實(shí)體提及“Titanic”.通過(guò)關(guān)系抽取子模塊,構(gòu)造未定查詢?nèi)鐖D1(b)所示.

2.2.2 已定查詢圖生成

例2.如圖1所示,給定圖1(b)未定查詢圖和Freebase知識(shí)圖譜,實(shí)體鏈接把實(shí)體提及“Titanic”鏈接到實(shí)體“m.0dr_4”,然后通過(guò)子圖檢索,獲得若干候選已定查詢圖,其中包含圖1(c)和圖1(d).通過(guò)GMN模型,返回圖1(d),作為預(yù)測(cè)已定查詢圖.

2.2.3 聚合限定和重排序

復(fù)雜類問(wèn)句中有一類涉及聚合操作(如計(jì)數(shù)、比較和最高級(jí)等類問(wèn)句),本文不作為重點(diǎn),僅做了啟發(fā)式規(guī)則處理,具體涉及:聚合類問(wèn)句識(shí)別,聚合限定和聚合類問(wèn)句重排序.

聚合類問(wèn)句識(shí)別.采用一種基于BERT的問(wèn)句類型分類器,預(yù)測(cè)非聚合、比較和最高級(jí)等類型.

聚合限定.采用現(xiàn)有方法[29],即一旦遇到涉及比較/最高級(jí)類問(wèn)句,追加數(shù)值屬性約束.

聚合類問(wèn)句重排序.由于未定查詢圖缺乏表達(dá)聚合能力,所以在圖匹配網(wǎng)絡(luò)后,疊加后處理:對(duì)聚合類問(wèn)句重排序.采用基于GloVe[30]打分函數(shù),抽取g中涉及聚合三元組或路徑與q計(jì)算詞級(jí)相似度.最后與圖匹配網(wǎng)絡(luò)的置信度線性組合,得出g最終置信度.

3 圖匹配網(wǎng)絡(luò)模型

現(xiàn)有的序列編碼和路徑編碼方法是線性模型,只能獲取問(wèn)句局部信息,無(wú)法捕獲問(wèn)句整體信息.針對(duì)該局限性,本文提出一種基于注意力機(jī)制的圖匹配網(wǎng)絡(luò)GMN.輸入u和g,輸出匹配度sim(u,g).如圖1所示,目標(biāo)是sim(u,gd)>sim(u,gc).gc表示表示圖1(c),gd表示圖1(d).

把sim(u,g)視為機(jī)器學(xué)習(xí)二分類問(wèn)題,學(xué)習(xí)一個(gè)類型概率分布p(g|u),取正類型的概率作為sim(u,g).

3.1 模型框架

跨圖注意力機(jī)制的圖匹配模型GMN框架如圖4所示,包括3個(gè)部分:1)文本編碼;2)圖編碼和3)模型預(yù)測(cè).其中,以未定查詢圖u和已定查詢圖g作為輸入,文本編碼模塊使用BERT對(duì)u和g進(jìn)行序列編碼;圖編碼模塊使用圖匹配網(wǎng)絡(luò)對(duì)u和g進(jìn)行編碼,并采用了跨圖注意力機(jī)制融入上下文信息,從而得到更豐富的圖表示用于模型預(yù)測(cè);模型預(yù)測(cè)模塊采用多層感知機(jī)(multi-layer perceptron, MLP)預(yù)測(cè)概率分布.

Fig.4 Cross-graph attention graph matching network

3.2 文本編碼

文本編碼模塊是從語(yǔ)言模型角度,對(duì)u和g編碼表示和聚合信息.形式化為

zLM=fenc(Text(u),Text(g)),

(1)

其中,zLM為兩者文本編碼輸出表示,Text(u)是u的文本序列,Text(g)是g的文本序列,fenc是編碼函數(shù).本文把用標(biāo)簽替換實(shí)體/數(shù)值提及的問(wèn)句作為Text(u).同時(shí),采用一種基于字符序的深度優(yōu)先遍歷算法把g序列輸出作為Text(g).

本文采用BERT編碼作為fenc.如圖5所示,形式化為

hbert=BERT([CLS]Text(u)[SEP]

Text(g)[SEP]),

(2)

其中,hbert是BERT編碼輸出隱向量.把聚合信息CLS位置對(duì)應(yīng)的隱向量hCLS,作為文本編碼輸出zLM.

例3.對(duì)圖1(b)序列化,Text(u)=What movies were directed by the actor ine?.對(duì)圖1(d)序列化,Text(g)=?x directed by?c actor?m starringe.

Fig.5 BERT-based text encoder

3.3 圖編碼

(3)

3.3.1 頂點(diǎn)嵌入層

1)從BERT輸出的隱向量hbert中截取相應(yīng)位置向量,均值池化(mean pooling),作為v初始表示hv.

(4)

2)構(gòu)造一個(gè)多層感知機(jī)用于把hv映射到圖匹配網(wǎng)絡(luò)的語(yǔ)義空間,形式化:

hv=MLP(hv)=Linear(ReLU(Linear(hv))).

(5)

(6)

(7)

Fig.6 GCN-based node embedding layer

Fig.7 Example of cross-graph attention mechanism

3.3.2 跨圖注意力的匹配層

受圖近似匹配工作[32-34]啟發(fā),本文采用注意力機(jī)制[35]融入上下文跨圖匹配信息.該模塊包括2個(gè)部分:1)學(xué)習(xí)上下文向量;2)匹配當(dāng)前向量.

1)學(xué)習(xí)上下文向量.如圖7所示,首先對(duì)當(dāng)前圖u頂點(diǎn)i與跨圖g任意頂點(diǎn)j,計(jì)算注意力權(quán)重ai,j為

(8)

其中,s是向量相似函數(shù),本文采用余弦函數(shù).

(9)

2)匹配當(dāng)前向量,本文采用多視角匹配函數(shù)(multi-perspective matching function)[33-34]:

(10)

(11)

其中,°表示逐元素相乘,Wk是第k視角可調(diào)向量.

以同樣的方式,計(jì)算g中頂點(diǎn)j的匹配向量.最后得匹配向量m,賦值給當(dāng)前頂點(diǎn),傳入圖池化層.

3.3.3 圖池化層

如圖8所示,圖池化層用于從頂點(diǎn)表示計(jì)算圖結(jié)構(gòu)的表示,使用均值池化(mean pooling),獲得u和g的低維連續(xù)空間表示hu和hg,形式化:

(12)

(13)

Fig.8 Graph pooling and working graph representation

3.3.4 工作圖表示層

如圖8所示,工作圖表示層用于計(jì)算工作圖表示zGNN.本文把hu和hg拼接,然后過(guò)一個(gè)線性層(feed-forward network, FFN),輸出zGNN.

zGNN=FFN([hu,hg]).

(14)

3.4 模型預(yù)測(cè)

預(yù)測(cè)函數(shù).把文本編碼zLM和圖編碼zGNN拼接成一個(gè)向量,然后通過(guò)一個(gè)隨機(jī)丟棄(dropout),最后過(guò)一個(gè)多層感知機(jī),輸出2分類概率分布p(g|u):

p(g|u)=MLP([zLM,zGNN]),

(15)

pg表示從概率分布p(g|u)取正類維度的置信度.

(16)

損失函數(shù).本文采用交叉熵?fù)p失函數(shù)來(lái)優(yōu)化模型.

(17)

其中,j是真實(shí)標(biāo)簽(ground-truth label)的下標(biāo).

4 實(shí) 驗(yàn)

本節(jié)介紹實(shí)驗(yàn)情況,依次介紹2個(gè)公開(kāi)數(shù)據(jù)集、采用的評(píng)測(cè)指標(biāo)、基準(zhǔn)方法、實(shí)驗(yàn)設(shè)置,然后給出實(shí)驗(yàn)結(jié)果和消融實(shí)驗(yàn),最后對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行錯(cuò)誤分析.

4.1 數(shù)據(jù)集

本文采用2個(gè)公開(kāi)的復(fù)雜問(wèn)答數(shù)據(jù)集:LC-QuAD 1.0和ComplexWebQuestions 1.1.之所以選擇這2個(gè)數(shù)據(jù)集,是因?yàn)樗鼈兪荄Bpedia和Freebase上較為常用的復(fù)雜問(wèn)答數(shù)據(jù)集.數(shù)據(jù)集規(guī)模統(tǒng)計(jì)如表2所示:

Table 2 Dataset Size Distribution

1)LC-QuAD 1.0(LCQ)[15]包含5 000個(gè)問(wèn)句.它是DBpedia(2016-04版本)上的一個(gè)復(fù)雜問(wèn)答數(shù)據(jù)集,其中超過(guò)80%問(wèn)句涉及多邊、布爾或計(jì)數(shù)操作.由于數(shù)據(jù)集作者未提供驗(yàn)證集,按照1∶7比例從訓(xùn)練集隨機(jī)采樣500個(gè)問(wèn)句,作為驗(yàn)證集,剩余作為訓(xùn)練.

2)ComplexWebQuestions 1.1(CWQ)[16]包含34 689個(gè)問(wèn)句,它是Freebase(2015-08-09版本)上的一個(gè)復(fù)雜問(wèn)答數(shù)據(jù)集.其中所有問(wèn)句涉及多邊或聚合操作(比較和最高級(jí)).本文采用的訓(xùn)練集、驗(yàn)證集、測(cè)試集來(lái)源于數(shù)據(jù)集作者提供,另外數(shù)據(jù)集作者也提供了文本片段來(lái)求解問(wèn)句,但是本文只關(guān)注知識(shí)圖譜求解問(wèn)句.

4.2 評(píng)測(cè)指標(biāo)

為了與各數(shù)據(jù)集上基準(zhǔn)方法公平對(duì)比,本文采用3個(gè)評(píng)測(cè)指標(biāo):Macro-F1,AverageF1和Precision@1.

1)Macro-F1(m-F1).首先計(jì)算每個(gè)問(wèn)句的精確率(precision,P)和召回率(recall,R),然后在所有測(cè)試問(wèn)句上求均值得到MacroP和MacroR,最后調(diào)和平均求出m-F1.細(xì)節(jié)請(qǐng)見(jiàn)文獻(xiàn)[36].

2)AverageF1(avg-F1).首先計(jì)算每個(gè)問(wèn)句的精確率和召回率,然后調(diào)和平均求出F1,最后取所有問(wèn)句的F1均值,得出avg-F1.

3)Precision@1(P@1).最終排序的第一位置是正確答案的占比.細(xì)節(jié)請(qǐng)見(jiàn)文獻(xiàn)[16].

4.3 基準(zhǔn)方法

如表3所示,本文對(duì)比了已發(fā)表的近幾年最佳的端到端方法.另外說(shuō)明:NSM,AQG,PullNet,Slot Matching未被列入基準(zhǔn)方法,是因?yàn)樗麄兗僭O(shè)正確實(shí)體已知,結(jié)果與本文不可比.TextRAY未被列入基準(zhǔn)方法,是因?yàn)槠洳捎肅WQ 1.0,結(jié)果與本文不可比.

Table 3 Methods to Compare

1)WDAqua提出一個(gè)基于特征工程的方法,包括問(wèn)句擴(kuò)展、查詢構(gòu)造、查詢排序和回應(yīng)決策.

2)QAmp是一種基于矩陣乘法的消息傳遞方法,包括問(wèn)句解析和消息傳遞.

3)NSQA是一種基于AMR的查詢圖生成方法,把AMR路徑轉(zhuǎn)換成查詢圖.

4)SPARQA提出一種基于骨架的語(yǔ)義解析方法,構(gòu)造一個(gè)多粒度打分器來(lái)預(yù)測(cè)查詢.

5)QGG提出一種基于狀態(tài)轉(zhuǎn)移的查詢圖生成方法,構(gòu)造一個(gè)基于BERT的語(yǔ)義匹配模型來(lái)預(yù)測(cè)查詢.

6)KBQA-GST是一種基于主題單元的生成與打分框架,包括主題單元鏈接和候選答案排序.

7)UHop是一種不限制跳數(shù)的關(guān)系抽取框架.

8)SPLITQA是一種基于問(wèn)句拆解和閱讀理解相結(jié)合的方法.

基準(zhǔn)方法結(jié)果來(lái)源說(shuō)明:LCQ數(shù)據(jù)集上對(duì)比了4個(gè)基準(zhǔn)方法,其中WDAqua,QAmp和NSQA結(jié)果來(lái)源于原始論文,SPARQA結(jié)果來(lái)源于本地復(fù)現(xiàn).CWQ數(shù)據(jù)集上對(duì)比了5個(gè)基準(zhǔn)方法,其中SPARQA,QGG,KBQA-GST和SPLITQA結(jié)果來(lái)源于原始論文,UHop結(jié)果來(lái)源于QGG論文.

4.4 實(shí)驗(yàn)設(shè)置

所有層的圖頂點(diǎn)表示維度為128維,GCN采用DGL框架[38].GCN層數(shù)為3.學(xué)習(xí)率為1e-5,批量大小取值范圍為{16,32,64}.訓(xùn)練輪數(shù)為10,模型在驗(yàn)證集上調(diào)參,并根據(jù)驗(yàn)證集上的準(zhǔn)確率,設(shè)置早停為5輪.候選已定查詢圖對(duì)應(yīng)答案的F1大于一個(gè)閾值(本文設(shè)為0.8),則為正樣本,否則是負(fù)樣本.本文隨機(jī)采樣20個(gè)負(fù)樣本作為監(jiān)督數(shù)據(jù).本文模型采用優(yōu)化Adam優(yōu)化器,warmup比例為0.1,Dropout=0.1,采用整流線性單位函數(shù)作為激活函數(shù).

編碼模塊.采用BERTBASE(L=12,H=768,A=12,totalparameters=110 M).編碼序列最大長(zhǎng)度設(shè)為64.頂點(diǎn)嵌入層:2層感知機(jī)通過(guò)批歸一化和整流線性單位函數(shù)連接,維度依次設(shè)置:(768,384,128);跨圖注意力的匹配層:l=128;工作圖表示層線性層維度:(256,128);模型預(yù)測(cè):2層感知機(jī)通過(guò)批歸一化和整流線性單位函數(shù)連接,維度設(shè)為:(896,448,2).

4.5 實(shí)驗(yàn)結(jié)果

實(shí)驗(yàn)1.在LCQ數(shù)據(jù)集上驗(yàn)證TTQA方法性能.

在LCQ數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果如表4所示,TTQA超過(guò)所有基準(zhǔn)方法,表明TTQA方法的有效性.值得一提是,TTQA超過(guò)最好基準(zhǔn)方法NSQA達(dá)1.49個(gè)百分點(diǎn)(m-F1),而NSQA是基于預(yù)訓(xùn)練語(yǔ)言模型對(duì)語(yǔ)法路徑和關(guān)系進(jìn)行語(yǔ)義匹配.這說(shuō)明了本文考慮圖結(jié)構(gòu)的有效性.TTQA超過(guò)SPARQA達(dá)6.14個(gè)百分點(diǎn)(m-F1).SPARQA采用多粒度打分器,這說(shuō)明了TTQA中基于預(yù)訓(xùn)練模型的圖匹配方法的有效性.

Table 4 Performance Comparison of Methods on LCQ

實(shí)驗(yàn)2.在CWQ數(shù)據(jù)集上驗(yàn)證TTQA方法性能.

在CWQ數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果如表5所示,TTQA超過(guò)所有基準(zhǔn)方法,表明TTQA方法的有效性.值得一提是,TTQA超過(guò)最好基準(zhǔn)方法QGG達(dá)3.9%(P@1),QGG采用預(yù)訓(xùn)練語(yǔ)言模型對(duì)問(wèn)句和關(guān)系進(jìn)行序列化編碼,然后計(jì)算匹配度.而TTQA采用一種文本編碼和圖匹配編碼的綜合方法,這說(shuō)明了TTQA中的圖匹配編碼的有效性.

Table 5 Performance Comparison of Methods on CWQ

4.6 消融實(shí)驗(yàn)

實(shí)驗(yàn)3.在LCQ和CWQ數(shù)據(jù)集上進(jìn)行消融實(shí)驗(yàn),對(duì)比有無(wú)GMN的效果,從而驗(yàn)證其有效性.

消融實(shí)驗(yàn)結(jié)果如表6所示,在該2個(gè)數(shù)據(jù)集上,TTQA均優(yōu)于未加GMN的TTQA,此結(jié)果表明GMN能夠得到更豐富語(yǔ)義表示,從而增強(qiáng)了TTQA的效果.具體地講,在LCQ數(shù)據(jù)集上,有1.38個(gè)百分點(diǎn)(avg-F1)的提升,驗(yàn)證了GMN在LCQ數(shù)據(jù)集上的有效性.同時(shí),在CWQ數(shù)據(jù)集上有0.46個(gè)百分點(diǎn)(avg-F1)的提升,驗(yàn)證了GMN在CWQ上的有效性.

Table 6 Results of Ablation Study

此外,通過(guò)比較該2個(gè)數(shù)據(jù)集上消融實(shí)驗(yàn)可以發(fā)現(xiàn),GMN在LCQ數(shù)據(jù)集上提升較為顯著(1.38個(gè)百分點(diǎn)),而在CWQ數(shù)據(jù)集上僅提升0.46個(gè)百分點(diǎn).可能原因?yàn)?1)CWQ是一個(gè)大規(guī)模的數(shù)據(jù)集(34 689),且訓(xùn)練集和測(cè)試集的已定查詢圖分布均勻具有較高重合度,該情況適合采用大規(guī)模預(yù)訓(xùn)練模型,所以僅用基于BERT的文本編碼就可以獲得具有競(jìng)爭(zhēng)力的結(jié)果;2)CWQ有占比10%的聚合問(wèn)句(比較和最高級(jí)),目前本文的未定查詢圖還不能處理該類問(wèn)句的表達(dá),改進(jìn)未定查詢圖的表達(dá)能力是一個(gè)未來(lái)工作.

4.7 錯(cuò)誤分析

本文隨機(jī)采樣400個(gè)錯(cuò)例(從LCQ和CWQ的錯(cuò)例中各隨機(jī)采樣200個(gè)),錯(cuò)誤歸類如表7所示.

主要分為5類錯(cuò)誤,詳細(xì)描述為:

1)實(shí)體識(shí)別和鏈接.識(shí)別長(zhǎng)提及的實(shí)體是一個(gè)較大的問(wèn)題,如表7所示,本文采用的基于BERT的模型誤識(shí)別“Switzerland in 2004 and 2008 summer Olympics”為實(shí)體提及,而正確的應(yīng)是“Switzerland in 2004”和“2008 summer Olympics”.

2)未定查詢圖生成.未定查詢圖生成是一個(gè)難題,尤其針對(duì)聚合類問(wèn)句.如表7樣例所示,“with the earliest publication start date”很難用未定查詢圖表達(dá).

3)候選已定查詢圖生成.大規(guī)模知識(shí)圖譜上生成候選已定查詢圖是一個(gè)較為困難的事情,尤其涉及多個(gè)實(shí)體或數(shù)值的問(wèn)句.如表7所示,涉及“US President”“WW2”與“3-4-1933”做比較的數(shù)值頂.

4)語(yǔ)義匹配.有的問(wèn)句未定查詢圖與已定查詢圖之間存在較大的語(yǔ)義鴻溝.如表7所示,邊“about”蘊(yùn)含著“dbp:format”關(guān)系.

5)其他.涉及問(wèn)句中字符編碼錯(cuò)誤、類型變量約束、布爾型問(wèn)句求解等,如表7所示.

Table 7 Failure Analysis of Our Approach

5 總 結(jié)

本文提出了一個(gè)基于圖匹配網(wǎng)絡(luò)GMN的可解釋知識(shí)圖譜復(fù)雜問(wèn)答方法TTQA.GMN通過(guò)利用注意力機(jī)制和多視角匹配函數(shù)進(jìn)行圖匹配.相比序列編碼和路徑編碼,GMN充分利用了圖結(jié)構(gòu)信息,從而得到更豐富的結(jié)構(gòu)匹配表示,從而增強(qiáng)了問(wèn)答系統(tǒng)的效果.在2個(gè)常用的復(fù)雜問(wèn)答集上的實(shí)驗(yàn),對(duì)比基準(zhǔn)方法,TTQA達(dá)到了最佳結(jié)果,同時(shí),消融實(shí)驗(yàn)還驗(yàn)證了GMN的有效性.并且TTQA生成的未定查詢圖和已定查詢圖提升了智能問(wèn)答的可解釋性.

從錯(cuò)誤分析中看,未來(lái)可以從3點(diǎn)嘗試:1)實(shí)體識(shí)別和鏈接:盡管它不是TTQA的重心,但它卻是TTQA一個(gè)主要錯(cuò)誤,未來(lái)可以嘗試采用聯(lián)合消歧手段進(jìn)行實(shí)體識(shí)別和鏈接;2)聚合類問(wèn)句求解(尤其多實(shí)體和聚合操作相結(jié)合的問(wèn)句):如何在未定查詢圖上表達(dá)聚合操作是一個(gè)挑戰(zhàn)的問(wèn)題;3)語(yǔ)義匹配:圖匹配模型還有提升空間,比如專門對(duì)圖中參數(shù)頂點(diǎn)進(jìn)行學(xué)習(xí).

作者貢獻(xiàn)聲明:孫亞偉提出了方法詳細(xì)思路、負(fù)責(zé)完成實(shí)驗(yàn)并撰寫論文初稿,程龔提出了方法宏觀思路、設(shè)計(jì)了實(shí)驗(yàn)方案并修改論文,厲肖參與完成實(shí)驗(yàn)并修改論文,瞿裕忠提出了指導(dǎo)意見(jiàn)并修改論文.

猜你喜歡
語(yǔ)義實(shí)驗(yàn)方法
記一次有趣的實(shí)驗(yàn)
語(yǔ)言與語(yǔ)義
做個(gè)怪怪長(zhǎng)實(shí)驗(yàn)
NO與NO2相互轉(zhuǎn)化實(shí)驗(yàn)的改進(jìn)
實(shí)踐十號(hào)上的19項(xiàng)實(shí)驗(yàn)
太空探索(2016年5期)2016-07-12 15:17:55
“上”與“下”語(yǔ)義的不對(duì)稱性及其認(rèn)知闡釋
用對(duì)方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚(yú)
認(rèn)知范疇模糊與語(yǔ)義模糊
主站蜘蛛池模板: 青青热久麻豆精品视频在线观看| 好紧太爽了视频免费无码| 国产青青操| 尤物特级无码毛片免费| 久久精品国产亚洲麻豆| 精品少妇人妻一区二区| 波多野结衣一区二区三视频 | a级毛片网| 99中文字幕亚洲一区二区| 国产成人综合网在线观看| 国产永久无码观看在线| 国产偷倩视频| 色偷偷av男人的天堂不卡| 91精品免费高清在线| 国产自在线播放| 日韩精品免费在线视频| 午夜视频免费试看| av一区二区三区在线观看| 亚洲精品波多野结衣| 国产在线无码av完整版在线观看| 2021最新国产精品网站| 免费人成网站在线观看欧美| 91精品啪在线观看国产60岁| 就去吻亚洲精品国产欧美| 乱人伦99久久| 国产国模一区二区三区四区| 色综合五月婷婷| aaa国产一级毛片| 欧美综合中文字幕久久| 国产AV毛片| 久久国产亚洲欧美日韩精品| 国模沟沟一区二区三区| a毛片在线免费观看| 99爱视频精品免视看| 国产网友愉拍精品| 国产高清不卡| 国产精品亚洲va在线观看| 久草网视频在线| 国产幂在线无码精品| 国产亚洲高清在线精品99| YW尤物AV无码国产在线观看| 亚洲人成在线精品| 色香蕉影院| 国产成人精品视频一区视频二区| 91丨九色丨首页在线播放 | 这里只有精品免费视频| 亚洲精品免费网站| 精品综合久久久久久97超人| 国产极品粉嫩小泬免费看| 操操操综合网| 午夜国产理论| 日韩色图在线观看| 国产成人高精品免费视频| 亚洲成人精品久久| 免费a级毛片视频| 老司机午夜精品视频你懂的| 精品国产三级在线观看| 在线国产综合一区二区三区 | 欧美黄色a| 日韩一二三区视频精品| 黄色网站在线观看无码| 久久国产精品电影| 日韩精品一区二区三区免费在线观看| 欧美高清日韩| 爽爽影院十八禁在线观看| 91久久夜色精品国产网站 | 黄色网址免费在线| 国产成a人片在线播放| 91无码人妻精品一区二区蜜桃| 99热这里只有精品在线观看| 毛片免费在线视频| 免费看美女自慰的网站| 欧美无遮挡国产欧美另类| 欧美亚洲国产精品久久蜜芽| 午夜无码一区二区三区在线app| 最新亚洲人成无码网站欣赏网| 成人在线综合| 激情综合婷婷丁香五月尤物 | 黄色三级毛片网站| 亚洲AV无码不卡无码| 国产精品区视频中文字幕| 中文字幕天无码久久精品视频免费|