999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于表示學習的知識庫問答研究進展與展望

2016-08-22 09:54:47劉康張元哲紀國良來斯惟趙軍
自動化學報 2016年6期
關鍵詞:語義文本模型

劉康 張元哲 紀國良 來斯惟 趙軍

?

基于表示學習的知識庫問答研究進展與展望

劉康1張元哲1紀國良1來斯惟1趙軍1

面向知識庫的問答(Question answering over knowledge base,KBQA)是問答系統的重要組成.近些年,隨著以深度學習為代表的表示學習技術在多個領域的成功應用,許多研究者開始著手研究基于表示學習的知識庫問答技術.其基本假設是把知識庫問答看做是一個語義匹配的過程.通過表示學習知識庫以及用戶問題的語義表示,將知識庫中的實體、關系以及問句文本轉換為一個低維語義空間中的數值向量,在此基礎上,利用數值計算,直接匹配與用戶問句語義最相似的答案.從目前的結果看,基于表示學習的知識庫問答系統在性能上已經超過傳統知識庫問答方法.本文將對現有基于表示學習的知識庫問答的研究進展進行綜述,包括知識庫表示學習和問句(文本)表示學習的代表性工作,同時對于其中存在難點以及仍存在的研究問題進行分析和討論.

知識庫問答,深度學習,表示學習,語義分析

引用格式劉康,張元哲,紀國良,來斯惟,趙軍.基于表示學習的知識庫問答研究進展與展望.自動化學報,2016,42(6):807-818

隨著人們對于信息精準化的需求越來越高,傳統以關鍵詞匹配和文檔排序為基本特點的搜索引擎急需一場革命.2011年,美國華盛頓大學圖靈實驗室的Etzioni教授在Nature上發表題為“Search needs a shake-up”[1]一文指出,問答系統是下一代搜索引擎的基本形態.區別于傳統基于關鍵詞匹配的搜索模式,問答系統最主要的特點在于:1)用戶輸入是自然語言的問句;2)返回答案不再是文檔排序的形態,而是直接給出用戶所需要的答案.這需要對用戶自然語言問句進行深度理解,同時對網頁中的目標文本進行細致的語義分析,從中抽取出知識,并根據用戶的問題準確匹配、推理相對應的答案.

為了達到這一目標,近些年,無論是學術界或工業界,研究者們逐步把注意力投向知識圖譜或知識庫.其目標是把互聯網文本內容組織成為以實體為基本語義單元(節點)的圖結構,其中圖上的邊表示實體之間語義關系.通過構建知識庫,可以從源頭上分析網絡文本中所蘊含的語義知識.目前,互聯網中已經有一些可以獲取的大規模知識庫,例如DBpedia[2]、Freebase[3]、YAGO[4]等.這些知識庫多是以“實體—關系—實體”三元組((實體1,關系,實體2),簡稱為三元組)為基本單元所組成的圖結構.基于這樣的結構化的知識,問答系統的任務就是要根據用戶問題的語義直接在知識庫上查找、推理出相匹配的答案,這一任務也稱之為面向知識庫的問答系統或知識庫問答(Question answering over knowledge base,KBQA).

要完成在結構化數據上的查詢、匹配、推理等操作,最有效的方式是利用結構化的查詢語句,例如:SQL、SPARQL等.然而,這些語句通常是由專家編寫,普通用戶很難掌握并正確運用.對其來說,自然語言仍然是最自然的交互方式.因此,如何把用戶的自然語言問句轉化為結構化的查詢語句便是知識庫問答的核心所在,其關鍵是對于自然語言問句進行語義理解(如圖1所示).目前,主流方法是通過語義分析,將用戶的自然語言問句轉化成結構化的語義表示,例如λ范式[5]和DCS-Tree[6].

圖1 知識庫問答過程Fig.1 The process of KBQA

但是,這一處理范式仍然是基于符號邏輯的,缺乏靈活性,在分析問句語義過程中,易受到符號間語義鴻溝影響.同時從自然語言問句到結構化語義表達需要多步操作,多步間的誤差傳遞對于問答的準確度也有很大的影響.近年來,深度學習技術以及相關研究飛速發展,在很多領域都取得了突破,例如圖像、視頻、語音.在自然語言處理領域也逐步開始具有廣泛的應用.其優勢在于通過學習能夠捕獲文本(詞、短語、句子、段落以及篇章)的語義信息,把目標文本投射到低維的語義空間中,這使得傳統自然語言處理過程中很多語義鴻溝的現象通過低維空間中向量間數值計算得以一定程度的改善或解決.因此越來越多的研究者開始研究深度學習技術在自然語言處理問題中的應用,例如情感分析[7]、機器翻譯[8]、句法分析[9]等.知識庫問答系統也不例外,已有相關的研究工作包括文獻[10-12].與傳統基于符號的知識庫問答方法相比,基于表示學習的知識庫問答方法更具魯棒性,其在效果上已經逐步甚至超過傳統方法,如圖2所示.這些方法的基本假設是把知識庫問答看作是一個語義匹配的過程.通過表示學習,我們能夠將用戶的自然語言問題轉換為一個低維空間中的數值向量(分布式語義表示),同時知識庫中的實體、概念、類別以及關系也能夠表示成為同一語義空間的數值向量.那么傳統知識庫問答任務就可以看成問句語義向量與知識庫中實體、邊的語義向量相似度計算的過程.圖3給出基于表示學習的知識庫問答示意圖,其中方格表示學習到的語義表示.

圖3 基于表示學習的知識庫問答示意圖Fig.3 Representation learning based KBQA

圖2 基于表示學習的知識庫問答方法與傳統方法的性能比較Fig.2 The comparisons between representation learning based KBQA and traditional KBQA

然而,構建一個基于表示學習的知識庫問答系統并不是一件容易的事情,要完成這一目標,我們首先要回答三方面問題:

1)如何學習知識庫的分布式表示?如何將知識庫中的語義單元,包括節點(實體、類別)、邊(關系),表示成為語義空間中的數值向量.

2)針對用戶的問句,我們應該如何通過深度學習學習問句的語義表示.

3)基于學習到的問句和知識庫的語義表示,如何自動學習知識庫語義表示和問句語義表示之間的關聯,學習它們間的映射關系,從而構建基于表示學習的知識庫問答系統.

本文將圍繞這三個問題,對于現有成果進行綜述,介紹其中的代表性方法,同時探討針對這一問題未來可能存在的研究問題與熱點.具體章節安排如下:第1節介紹知識庫表示學習的主要方法;第2節介紹問句(文本)表示學習的常用模型和方法;第3節介紹基于表示學習的知識庫問答現有工作以及性能比較;第4節可能存在的研究問題和未來的研究熱點;最后是結論.

1 知識庫的表示學習

知識庫表示學習的目標是通過對知識庫建模,將知識庫中的實體、類別以及關系等語義單元表示成為數值空間中的向量或矩陣.向量中的每一維的數值表示該語義單元在某一語義維度上的投影.由于實體和關系的數值表示是根據整個知識庫得到,因此這種數值表示方法包含更加全面的信息,使得知識庫能夠很方便地應用到其他學習任務中.根據學習方法,已有知識庫表示學習的方法主要分為兩大類:1)基于張量分解的方法;2)基于映射的方法.下面進行詳細介紹.

1.1基于張量分解的知識庫表示學習

張量分解的方法以RESCAL系統[13-17]為主要代表.圖4是RESCAL的原理圖.它的核心思想是將整個知識圖譜編碼為一個三維張量(其中知識庫包含的三元組對應值為1,其他為0),由這個張量分解出一個核心張量和一個因子矩陣,核心張量中每個二維矩陣切片代表一種關系,因子矩陣中每一行代表一個實體.由核心張量和因子矩陣還原的結果被看作對應三元組成立的概率,如果概率大于某個閾值,則對應三元組正確;否則,不正確.

RESCAL的目標函數為:Xk≈ARkAT,這里A是一個n×r矩陣,其行向量是對于每一個實體的表示,Rk是r×r矩陣,表示知識庫中第k個語義關系所定義的映射矩陣,Xk表示在知識庫中的實際觀測.RESCAL通過張量分解,能夠在編碼實體和關系過程中綜合整個知識庫的信息,它的主要缺點是當關系數目較多時,張量的維度很高,分解過程計算量較大.因此,對于Freebase這類關系數目眾多而又非常稀疏的大規模知識庫效果不佳.

圖4 RESCAL系統原理[15]Fig.4 RESCAL system architecture[15]

1.2基于映射的知識庫表示學習

為了解決上述張量分解方法在大規模知識庫表示學習過程中學習效率低的問題,很多研究者轉向對于知識庫中的基本語義單元:三元組進行獨立建模.這類方法通常將知識庫中的三元組表示為(h,r,t),h表示頭實體,r表示關系,t表示尾實體,它們的向量分別表示為其假設和經過某種與相關的映射后得到向量應該相似或者相等的.為了刻畫這一過程,通常定義基于三元組的能量函數為,則學習的目標函數為

1.2.1關系 r 表示為矩陣

Structured模型[18]為每種關系定義兩個矩陣Mr1和Mr2,其能量函數為該模型用兩個分離的矩陣表示關系,不能很好地捕獲關系與實體之間的聯系.Unstructured模型[19]是Structured模型的特例,它令,能量函數為模型的缺點是沒有考慮不同關系的影響.

Semantic matching energy(SME)模型[20]為了克服參數過多的問題,該模型將實體和關系都用向量表示,所有三元組共享SME中的參數.SME使用多維矩陣運算捕獲實體和關系之間的聯系,它首先對進行線性運算得到向量,然后再對做線性運算得到向量能量函數為,其中線性運算的權重可以是矩陣,也可以是三維張量.SME具有很強的學習能力,參數較少,但是由于需要對和分別進行線性運算,因此計算量大.

Latent factor(LF)模型[21-22]將實體用向量表示,關系用矩陣Mr表示.LF把關系看作實體間的二階關聯,定義能量函數這個模型使得實體和關系之間產生了很好的交互,實體和關系之間的聯系得到充分的體現.

Single layer(SL)模型[23]用神經網絡刻畫映射過程,其為每個三元組定義一個單層非線性神經網絡作為能量函數,以實體向量為輸入層,關系矩陣為網絡的權重參數.同樣,Socher等[23]對于SL模型進行改進,提出Neural tensor network(NTN)模型.其在SL中加入關系與實體的二階非線性操作,增強實體與關系的交互性.SL模型是NTN模型的特例,當NTN中三維張量均為0時,NTN退化為SL.NTN是目前表達能力最強的模型,適合學習稠密的知識庫.它的主要缺點是參數太多,計算量大,不適合比較稀疏的知識庫.

1.2.2關系 r 表示為向量

如圖5所示,三元組中的實體和關系在同一語義空間內成加性關系.

圖5 TransE、TransH和TransR[24-26]Fig.5 TransE,TransH and TransR[24-26]

1)1-to-N,N-to-1和N-to-N的語義關系

TransE是一種計算效率很高、預測性能非常好的模型.對于“1-to-1”關系類型,這一模型通常能夠很好的建模.但是對于“1-to-N”、“N-to-1”和“N-to-N”等關系類型存在不足.例如,我們用r rr表示“性別”這一語義關系.在知識庫中,我們可以有(張三,性別,女)、(王五,性別,男),也可以有(李四,性別,女).因此,“性別”是“N-to-N”關系類型的.基于TransE模型,在學習知識庫的表示時,會得到:

TransH模型[25]認為TransE中的翻譯過程應當在關系所屬的超平面上進行.如圖5所示,它首先將頭部、尾部實體向量投影到關系所在超平面,然后在超平面上完成翻譯過程.該模型能夠使同一個實體在不同的關系中扮演不同的角色,并且在1-to-N,N-to-1和N-to-N的關系類型上較TrasnE有較好的預測效果.

TransR模型[26]也基于TrasnE,它在不同維度的空間中對于實體和關系建模.因此,如圖5所示,TransR為每個關系定義一個矩陣Mr,用于將實體向量轉換到關系所屬空間中,然后在關系向量空間中完成翻譯.TransR較TransE和TrasnH有較好的推廣性能.但是由于為每種關系定義了一個矩陣,因此它有更多的參數和更大的計算量,給擴展到大規模知識庫的運用帶來了困難.CTransR[26]是根據關系在不同實體對中表現出不同含義的現象,對TransR的一種改進.它將同一個關系的實體對聚類成若干類別,在每一個類別中,單獨學習一個關系的向量表示,這樣可以大大減小檢索學習的參數規模.

TransD模型[27]是對TransR的一種改進,其認為TransR中固定大小的轉換矩陣Mr應由實體—關系對動態確定.同時,該模型考慮實體和關系的多類別性.除此之外,在計算過程中,TransD用向量運算代替了TransR中的矩陣運算,大大減少了計算量.

除此之外,還有一些模型在TransE的基礎上進行了改進PTransE模型[28]在TransE的基礎上增加實體之間的路徑信息,顯式地增加了推理知識,相對TransE模型,在效果上有較大提升.SSE(Semantically smooth knowledge graph embedding)模型[29]在TransE的基礎上增加了語義平滑的約束,認為同類型的實體的向量表示應該在空間中位置更加靠近.該模型有較好的學習效果,但是時間復雜度較高,不易擴展到大規模知識庫.

2)基于分布的知識庫表示學習

KG2E(Knowledge graphs with Gaussian embedding)模型[30]在TransE的基礎上提出一種基于分布的表示學習方法,使用基于高斯嵌入的方法在多維高斯分布空間中學習知識庫中實體和關系的表示.不同于TransE以及其改進模型,KG2E將知識庫中的實體、類別、關系都約定服從高斯分布.如Ph=N(μh,Σh)以及Pr=N(μr,Σr),這里h表示實體,r表示關系,N表示高斯分布,μ是高斯分布的均值,表示學習到的表示向量,Σ協方差矩陣,表示該實體或關系的不確定性.學習的過程如同TransE一樣采用加性模型,其設定三元組中頭實體和尾實體之間的差h-t同樣服從高斯分布Ph-t=N(μh-μt,Σh+Σt),則目標勢能函數通過KL距離KL(Ph-t,Pr)來衡量h-t和r之間的距離,保證在知識庫中出現的三元組中h-t和r的KL(Ph-t,Pr)越小越好.同時,其假設知識庫中的實體、關系均有不確定性(頻率、不同類型的關系均會引發不確定性).通過引入協方差矩陣,該模型能夠對于知識庫中實體和關系的不確定性進行建模,尤其對于1-to-N和N-to-1的關系具有很好的學習效果.

2 問句表示學習

問句的表示學習是通過統計學習自動獲取問句(文本)的語義表示.德國數學家弗雷格(Gottlob Frege)在1892年就曾提出:一段話的語義由其各組成部分的語義以及它們之間的組合方法所確定[31].現有的問句語義表示也通常以該思路為基礎,通過語義組合的方式獲得.常用的組合語義組合函數,如線性加權、矩陣乘法、張量乘法等,在文獻[32]中有詳細的總結.近年來基于神經網絡的語義組合技術為文檔表示帶來了新的思路.從神經網絡的結構上看,主要可以分為三種方式:遞歸神經網絡、循環神經網絡和卷積神經網絡.

2.1遞歸神經網絡

遞歸神經網絡(Recursive neural network)的結構如圖6,其核心為通過一個樹形結構,從詞開始逐步合成各短語的語義,最后得到整句話的語義.

圖6 遞歸神經網絡結構圖Fig.6 Recursive neural network architecture

遞歸神經網絡使用的樹形結構一般為二叉樹,在某些特殊情況下(如依存句法分析樹[33])也使用多叉樹.本文主要從樹的構建方式和子節點到父節點的組合函數,這兩方面介紹遞歸神經網絡.

樹形結構有兩種方式生成:1)使用句法分析器構建句法樹[7,34];2)使用貪心方法選擇重建誤差最小的相鄰子樹,逐層合并[35].這兩種方法各有優劣,使用句法分析器的方法可以保證生成的樹形結構是一棵句法樹,樹中各個節點均對應句子中的短語,通過網絡合并生成的各個節點的語義表示也對應各短語的語義.使用貪心方法構建樹形結構則可以通過自動挖掘大量數據中的規律,無監督地完成這一過程,但是樹中的各個節點不能保證有實際的句法成分.

其中,φ為非線性的激活函數,權重矩陣H可能固定[36],也可能根據子樹對應的句法結構不同,而選用不同的矩陣[37].該方法一般用于句法分析中.

2)矩陣向量法[38].在這種表示下,每個節點由兩部分表示組成,一個矩陣和一個向量,對于A,子節點和B ,子節點,其組合函數為

其中,WM∈R|a|×|2a|,保證父節點對應的語義變換矩陣Y∈R|a|×|a|,與子節點的A、B矩陣維度一致.使用這種方法,每個詞均有一個語義變換矩陣,對于否定詞等對句法結構另一部分有類似影響的詞而言,普通的句法組合方式沒法很好地對其建模,而這種矩陣向量表示則可以解決這一問題.Socher等將該方法用于關系分類中[39].

3)張量組合.張量組合方式使用張量中的每一個矩陣,將子節點組合生成父節點表示中的一維.

其中,W[1:d]表示張量W 中的第1~d個切片矩陣.不同的切片用于生成父節點y中不同的維度.該方法是句法組合方法的泛化形式,有更強的語義組合能力,Socher等將其用于情感分析任務中[23].

遞歸神經網絡在構建文本表示時,其精度依賴于文本樹的精度.無論使用哪種構建方式,哪種組合函數,構建文本樹均需要至少O(n2)的時間復雜度,其中,n表示句子的長度.當模型在處理長句子或者文檔時,所花費的時間往往是不可接受的.更進一步地,在做文檔表示時,兩個句子之間的關系不一定能構成樹形結構.因此遞歸神經網絡在大量句子級任務中表現出色,但可能不適合構建長句子或者文檔級別的語義.

2.2循環神經網絡

循環神經網絡(Recurrent neural network)由Elman在1990年首次提出[40].該模型的核心是通過循環方式逐個輸入文本中的各個詞,并維護一個隱藏層,保留所有的上文信息.

循環神經網絡是遞歸神經網絡的一個特例,可以認為它對應的是一棵任何一個非葉結點的右子樹均為葉結點的樹.這種特殊結構使得循環神經網絡具有兩個特點:1)由于固定了網絡結構,模型只需在O(n)時間內即可構建文本的語義.這使得循環神經網絡可以更高效地對文本的語義進行建模.2)從網絡結構上看,循環神經網絡的層數非常深,句子中有幾個詞,網絡就有幾層.因此,使用傳統方法訓練循環神經網絡時,會遇到梯度衰減或梯度爆炸的問題,這需要模型使用更特別的方法來實現優化過程[41-42].

在循環神經網絡中,當模型輸入所有的詞之后,最后一個詞對應的隱藏層代表了整個文本的語義.

優化方式上,循環神經網絡與其他網絡結構也略有差異.在普通的神經網絡中,反向傳播算法可以利用導數的鏈式法則直接推算得到.但是在循環神經網絡中,由于其隱藏層到下一個隱藏層的權重矩陣W 是復用的,直接對W矩陣求導非常困難.循環神經網絡最樸素的優化方式為沿時間反向傳播技術(Back propagation through time,BPTT).該方法首先將網絡展開成圖7的形式,對于每一個標注樣本,模型通過普通網絡的反向傳播技術對隱藏層逐個更新,并反復更新其中的權重矩陣W.由于梯度衰減的問題,使用BPTT優化循環神經網絡時,只傳播固定的層數(比如5層).為了解決梯度衰減問題,Hochreiter等在1997年提出了LSTM(Long short-term memory)模型[43].該模型引入了記憶單元,可以保存長距離信息,是循環神經網絡的一種常用的優化方案.LSTM模型在傳統循環網絡的一個隱藏層節點上加入了三個門,分別為輸入門、輸出門和遺忘門,這三個門可以有選擇地將遠距離信息無衰減地傳遞下去.LSTM的具體實現公式如下:

無論采用哪種優化方式,循環神經網絡的語義都會偏向文本中靠后的詞.因此,循環神經網絡很少直接用來表示整個文本的語義.但由于其能有效表示上下文信息,因此被廣泛用于序列標注任務.

2.3卷積神經網絡

卷積神經網絡(Convolutional neural network,CNN)最早由Fukushima在1980年提出[44],此后,LeCun等對其做了重要改進[45].

卷積神經網絡的結構如圖8,其核心是局部感知和權值共享.在一般的前饋神經網絡中,隱藏層的每個節點都與輸入層的各個節點有全連接;而在卷積神經網絡中,隱藏層的每個節點只與輸入層的一個固定大小的區域(win個詞)有連接.從固定區域到隱藏層的這個子網絡,對于輸入層的所有區域是權值共享的.輸入層到隱藏層的公式,形式化為

圖7 循環神經網絡模型結構圖Fig.7 Recurrent neural network architecture

在得到若干個隱藏層之后,卷積神經網絡通常會采用池化(Pooling)技術,將不定長度的隱藏層壓縮到固定長度的隱藏層中.常用的有均值池化(Average pooling)和最大池化(Max pooling)[46].最大池化的公式為

卷積神經網絡通過其卷積核,可以對文本中的每個部分的局部信息進行建模;通過其池化層,可以從各個局部信息中整合出全文語義,模型的整體復雜度為O(n).

卷積神經網絡應用非常廣泛.在自然語言領域,Collobert等首次將其用于處理語義角色標注任務,有效提升了系統的性能[46].2014年,Kalchbrenner等與Kim分別發表了利用卷積神經網絡做文本分類的論文[47-48].Zeng等提出使用卷積神經網絡做關系分類任務,取得了一定的成功[49].

圖8 卷積神經網絡模型結構圖[46]Fig.8 Convolutional neural network architecture[46]

3 基于表示學習的知識庫問答

針對知識庫問答,近年來已經有一些研究者利用深度學習,將表示學習應用其中.這些方法的核心是把自然語言問句和知識庫中的資源都映射到同一個低維向量空間中,這樣就可以將問句和答案(三元組)都用一個向量來表示,知識庫問答問題就被轉化為求解向量相似度的問題.

Bordes等[10]首先將基于詞向量(Word embedding)的表示學習方法應用于知識庫問答.他將問句以及知識庫中的三元組都轉換為低維空間中的向量,然后計算余弦相似度找出問句最有可能對應的答案三元組.更具體地分為三個步驟:

這種方法需要獲得大量的問句—答案三元組對來訓練,以得到向量詞典V和W.為了獲得充足的訓練語料,其利用一系列人工設定的模板對已有的Reberb[50]三元組進行擴展,生成自然語言問句,以弱監督的方式獲取大量的訓練數據.例如,已有三元組(s,p,o),可以將o設為答案,得到問句“What does s p?”.而獲取負樣本的方法是隨機破壞已有問句—答案三元組對中的三元組的元素.訓練目標是使得正樣本的相似度得分大于負樣本的得分加上一個間隔0.1.即:

所以訓練的損失函數如下:

該方法采用隨機梯度下降法進行訓練,每一步更新V和W.與此同時,利用Paraphrasing的語料進行多任務訓練,使得相似問句的向量更加相似,以達到更好的訓練效果.這項工作在Reverb數據集上取得了不錯的效果,F1值達到73%.

然而,這一方法對于問句和知識庫的語義分析十分粗糙,僅僅是基于詞、實體、關系的語義表示的簡單求和.Bordes等在文獻[11]中對其進行了改進,其基本假設是:在答案端加入更多信息,會提升問答的效果.答案的表示可以分成三種:1)答案實體的向量表示;2)答案的路徑(Path)的向量表示(和前面的工作用三元組表示的方法一樣,直接相加);3)和答案直接相關的實體和關系的向量表示,這被稱為子圖向量表示(Subgraph embedding),如圖9所示.

同樣地,問句和答案的相似度表示如下:

其中,問句的表示為f(q)=WTφ(q),和前面的工作一樣;答案的表示為g(a)=WT?(a).?(a)可以為上述的三種不同的表示方式.W 是向量表示矩陣,自然語言的詞匯以及知識庫中的實體和關系都在這個表中.這項工作的訓練數據獲取方式以及訓練方法和文獻[10]一樣,不同的是三元組是從Freebase中得到的.在WebQuestions上的實驗結果表明,這種Subgraph embedding的方法是有效的,其性能超過文獻[10].

Yih等[51]把知識庫問答轉換成兩個問題,一個是找到問句中的實體和知識庫中實體的對應;另一個是問句中自然語言描述和知識庫中語義關系的對應.找到實體和關系后,就可以從知識庫中找到其指向的答案實體.和已有基于表示學習的知識庫問答方法不同之處在于,Yih在進行上述兩種匹配時都采用CNN來處理自然語言問句.

圖9 Subgraph embedding模型[11]Fig.9 Subgraph embedding model[11]

圖10是基于CNN模型的知識庫問答具體細節.問句中的詞經過一個哈希、卷積、最大池化和語義映射后成為一個向量表示.相應的知識庫中實體和關系用一個向量表示.該工作的訓練數據來自Paralex[52],訓練的目標是最大化后驗概率(此處僅給出Relation pattern匹配的目標函數,實體匹配的類似):

在 Reverb數據集上,這項工作取得了比Paralex[52]更好的效果,F值為0.57,但是不如Bordes等[10].

圖10 處理問句的CNN模型[51]Fig.10 CNN model used to process question[51]

Dong等[12]的思想和 Bordes等[11]的 Subgraph embedding相似,同樣是考慮了答案的更多信息.具體地,答案類型、得到答案的路徑以及答案周圍的實體和關系這三種特征向量分別和問句向量做相似度計算,最終的相似度為這三種相似度之和.該方法在問句端的處理上使用了三個不同參數的CNN模型,稱為Multi-column CNN,圖11為模型的具體細節.

其中f1(q)Tg1(a)表示基于得到答案路徑的相似度,f2(q)Tg2(a)表示基于答案周圍實體和關系的相似度,f3(q)Tg3(a)表示基于答案類型的相似度.

訓練方面,仍然采用基于排序的方法,損失函數為

這項工作在WebQuestions上取得了比文獻[11,53-54]更好的效果,F值為40.8%.

從上面的幾個代表性的工作來看,基于表示學習的知識庫問答并不能簡單采用通用的表示學習方法對于文本和知識庫的語義表示進行學習,這樣往往得不到好的效果,需要對于問句的語義進行細致化的分析,從多個角度考慮問句語義與知識庫中實體、關系的匹配度,例如答案類型、上下文相關度、語義關系匹配度等.

4 難點與挑戰

由以上章節我們可以看出,基于表示學習的知識庫問答主要涉及知識庫表示學習、文本表示學習以及基于表示學習的問答系統構建三方面任務.這一類方法試圖將傳統基于符號的語義分析的知識庫問答看做基于語義表示的語義匹配任務,利用端到端的思路解決問答問題,從而省略中間步驟,完全從數據中學習文本到知識之間的映射關系.由于其采用基于學習到的語義向量進行語義匹配,缺乏顯式的問句語義解析,相對于傳統基于符號的問答方法,能夠有效地提高問答結果的召回率,然而其準確率較以往方法存在不足.在這三方面還存在如下難點和挑戰,亟待解決.

圖11 Multi-column CNN模型[12]Fig.11 Multi-column CNN model[12]

4.1知識庫表示學習的難點與挑戰

目前,知識庫的表示學習方法主要有張量分解,基于映射的模型等,這些方法均具有較強的學習能力.但是,1)在知識庫中,語義關系之間通常有一定的關聯關系,這種關系常常用于知識的推理或隱含知識的挖掘.例如:“父親”的“父親”是“祖父”.目前的知識庫表示學習方法主要針對知識庫中單個三元組進行建模,對語義關系之間的關聯關系考慮較少.Lin等[26]已經將關系間的關系約束加入知識庫的表示學習當中,取得一定的效果.但是如何將已有的常識知識(如推理規則)加入知識庫表示學習過程中,仍然是一個難點問題.2)當前的知識庫表示學習方法主要集中在知識庫內部的實體、關系的表示學習,對于知識庫未包含的實體、關系等語義單元,不具有學習能力.一個可能的解決途徑是建立知識庫和文本的聯合表示學習模型.這樣可以從文本中挖掘知識庫中尚不存在的實體和關系,對知識庫中的知識進行補充.3)知識庫通常包含有噪聲,但是當前的方法均不考慮噪聲的影響.4)在實際問答場景下,單一知識庫很難覆蓋用戶的問題,在很多情況下,需要綜合多個異構知識庫的知識回答當前問題.然而,目前的知識庫表示學習方法都集中在單個知識庫上,對于多知識庫的表示學習的研究較少.在學習過程中,如何建立異構知識庫間的實體對齊、關系對齊是一個尚待研究的問題.

4.2文本表示學習的難點與挑戰

現階段文本表示學習主要有兩個難點:組合語義通用性和文本表示的時間效率.

1)組合語義的通用性.現有組合語義的方式,無論是遞歸、循環還是卷積網絡,都采用一致的策略對文本元素進行組合.比如遞歸神經網絡會將句法結構上的左右兩部分組合成一個整體,對于所有的句法結構都采取同樣的策略;循環網絡中,對文本中的每一個詞,都會采用相同的策略對該詞與其上下文進行語義組合;卷積網絡中,對于每一段連續的短語片段,也均采用同樣的方式組合.然而在一般的文本中,這類簡單的組合方式并不能完全表達語義.例如,句子中的不同成分的語素需要不同的組合方式,比如形容詞+名詞合成的語義可能與兩個名詞合成名詞短語的方式差異較大.在這方面,Socher等[7]在遞歸神經網絡中嘗試了對不同句法結構采用不同的組合函數;Zhao等基于LSTM的思想提出了AdaSent模型[55],對不同語素的多樣化組合進行了嘗試.Luong等[56]已經把Attention-based neural network應用于機器翻譯,并且取得了不錯的效果.其核心目標也是為了解決文本語義的組合問題.

2)時間效率問題.比如谷歌在網頁去重時,使用的是非常簡單的SimHash,然而SimHash對同義詞的建模較弱,在短文本時,對語義的建模并不理想.但是這種方法運行效率比此前提到的遞歸、循環、卷積網絡要高.特別是遞歸神經網絡,時間復雜度與文本長度的平方呈正比,無法投入到問答系統等大規模數據的使用場景下.因此尋找一種高效且有效的文本表示方法也是研究人員關注的難點和熱點之一.

總體來看,文本表示目前處于簡單模型不能很好地捕獲各種語義,而復雜模型在提升語義捕獲能力的同時,往往使模型變得非常復雜,難以實用.因此,無論是尋找有效的語義組合方式,更精確地捕獲語義,還是尋找高效可用的文本表示方法,都將是下一步研究方向與熱點.

4.3基于表示學習的問答系統構建的難點與挑戰

目前,基于表示學習的問答系統都是通過高質量已標注的問題—答案建立聯合學習模型,同時訓練知識庫和文本的語義表示.但是仍然存在一些問題.1)資源問題.表示學習的方法依賴大量的訓練語料,而目前獲取高質量的問題—答案對仍然是個瓶頸,如果進行人工標注代價昂貴.Bordes等[11]提出了一些模板利用已有三元組來生成問句,用較小的代價生成了大量的問題—答案對,但是相應的問句質量并不能保證,而且問句同質化嚴重.在訓練資源上的提高空間仍然很大.2)已有的基于表示學習的知識庫問答方法多是針對簡單問題,例如單關系問題設計的,對于復雜問題的回答能力尚且不足,例如有限制條件的問題(What did Obama do before he was elected president?)和聚合問題(When′s the last time the steelers won the superbowl?).如何利用表示學習的方法解決復雜問題值得繼續關注. 3)目前,大部分工作中所使用的知識庫通常包含兩類,一類是高質量的人工知識庫,例如Freebase;一類是通過自動抽取技術得到的開放知識庫,例如Reverb.后者盡管不如前者精準,但是知識覆蓋程度更大.同時每一類中知識庫的結構也存在差異性.綜合不同知識庫一起回答問題能夠發揮各自知識庫的優勢.已經有傳統的方法對此作出研究[57],尚缺乏從表示學習的思路研究多領域異構知識庫的問答方法.4)在知識庫問答過程中需要知識推理技術對于知識庫中的未知知識進行預測與推理.傳統推理方法基于謂詞邏輯的推理策略,存在覆蓋度低、推理速度慢的問題.如何利用表示學習自動學習推理規則,使其使用大規模知識庫問答場景是一個值得研究的難點問題.

5 結論

本文對于基于表示學習的知識庫問答方法進行詳細的綜述.特別是在知識庫的表示學習、問句(文本)的表示學習以及基于表示學習的知識庫問答系統構建等三方面介紹了目前主流的方法及其特點.同時,本文對于這三方面的主流方法存在的不足以及今后可能的研究難點和熱點問題進行討論.知識庫問答本身就是一個十分具有挑戰性的問題,如今在深度學習的研究熱潮中,如何利用基于深度學習的表示學習技術,構建面向知識庫的深度問答系統,是一個極具挑戰的研究課題.希望本文能夠為這一領域的研究者提供一定的參考和啟發.

References

1 EtzioniO.Searchneedsashake-up.Nature,2011,476(7358):25-26

2 Lehmann J,Isele R,Jakob M,Jentzsch A,Kontokostas D,Mendes P N,Hellmann S,Morsey M,van Kleef P,Auer S,Bizer C.Dbpedia— a large-scale,multilingual knowledge base extracted from Wikipedia.Semantic Web,2015,6(2):167-195

3 Bollacker K,Evans C,Paritosh P,Sturge T,Taylor J.Freebase:a collaboratively created graph database for structuring human knowledge.In:Proceedings of the 2008 ACM SIGMOD International Conference on Management of Data. Vancouver,Canada:ACM,2008.1247-1250

4 Suchanek F M,Kasneci G,Weikum G.Yago:a core of semantic knowledge.In:Proceedings of the 16th International Conference on World Wide Web.Alberta,Canada:ACM,2007.697-706

5 Kwiatkowski T,Zettlemoyer L,Goldwater S,Steedman M.Lexical generalization in CCG grammar induction for semantic parsing.In:Proceedings of the Conference on Empirical Methods in Natural Language Processing.Scotland,UK:Association for Computational Linguistics,2011. 1512-1523

6 Liang P,Jordan M I,Klein D.Learning dependency-based compositional semantics.Computational Linguistics,2013,39(2):389-446

7 Socher R,Perelygin A,Wu J Y,Chuang J,Manning C D,Ng A Y,Potts C.Recursive deep models for semantic compositionality over a sentiment treebank.In:Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing.Seattle,USA:Association for Computational Linguistics,2013.1631-1642

8 Cho K,Van Merri¨enboer B,G¨ul?cehre C,Bahdanau D,Bougares F,Schwenk H,Bengio Y.Learning phrase representations using RNN encoder-decoder for statistical machine translation.In:Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing.Doha,Qatar:Association for Computational Linguistics,2014. 1724-1734

9 Socher R,Manning C D,Ng A Y.Learning continuous phrase representations and syntactic parsing with recursive neural networks.In:Proceedings of the NIPS-2010 Deep Learning and Unsupervised Feature Learning Workshop. Vancouver,Canada,2010.1-9

10 Bordes A,Weston J,Usunier N.Open question answering with weakly supervised embedding models.Machine Learning and Knowledge Discovery in Databases.Berlin Heidelberg:Springer,2014.165-180

11 Bordes A,Chopra S,Weston J.Question answering with subgraph embeddings.In:Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing.Doha,Qatar:Association for Computational Linguistic,2014.615-620

12 Dong L,Wei F R,Zhou M,Xu K.Question answering over freebase with multi-column convolutional neural networks. In:Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th InternationalJoint Conference on Natural Language Processing.Beijing,China:ACL,2015.260-269

13 Nickel M,Tresp V,Kriegel H P.A three-way model for collective learning on multi-relational data.In:Proceedings of the 28th International Conference on Machine Learning. Washington,USA,2011.809-816

14 Nickel M,Tresp V,Kriegel H P.Factorizing YAGO:scalable machine learning for linked data.In:Proceedings of the 21st International Conference on World Wide Web.Lyon,France:ACM,2012.271-280

15 Nickel M,Tresp V.Logistic tensor factorization for multirelational data.In:Proceedings of the 30th International Conference on Machine Learning.Atlanta,USA,2013.

16 Nickel M,Tresp V.Tensor factorization for multi-relational learning.Machine Learning and Knowledge Discovery in Databases.Berlin Heidelberg:Springer,2013.617-621

17 Nickel M,Murphy K,Tresp V,Gabrilovich E.A review of relational machine learning for knowledge graphs.Proceedings of the IEEE,2016,104(1):11-33

18 Bordes A,Weston J,Collobert R,Bengio Y.Learning structured embeddings of knowledge bases.In:Proceedings of the 25th AAAI Conference on Artificial Intelligence.San Francisco,USA:AAAI,2011.301-306

19 Bordes A,Glorot X,Weston J,Bengio Y.Joint learning of words and meaning representations for open-text semantic parsing.In:Proceedings of the 15th International Conference on Artificial Intelligence and Statistics.Cadiz,Spain,2012.127-135

20 Bordes A,Glorot X,Weston J,Bengio Y.A semantic matching energy function for learning with multi-relational data. Machine Learning,2014,94(2):233-259

21 Jenatton R,Le Roux N,Bordes A,Obozinski G.A latent factor model for highly multi-relational data.In:Proceedings of Advances in Neural Information Processing Systems 25.Lake Tahoe,Nevada,United States:Curran Associates,Inc.,2012.3167-3175

22 Sutskever I,Salakhutdinov R,Joshua B T.Modelling relational data using Bayesian clustered tensor factorization.In:Proceedings of Advances in Neural Information Processing Systems 22.Vancouver,Canada,2009.1821-1828

23 Socher R,Chen D Q,Manning C D,Ng A Y.Reasoning with neural tensor networks for knowledge base completion.In:Proceedings of Advances in Neural Information Processing Systems 26.Stateline,USA:MIT Press,2013.926-934

24 BordesA,UsunierN,Garcia-Dur′anA,WestonJ,Yakhnenko O.Translating embeddings for modeling multirelational data.In:Proceedings of Advances in Neural Information Processing Systems 26.Stateline,USA:MIT Press,2013.2787-2795

25 Wang Z,Zhang J W,Feng J L,Chen Z.Knowledge graph embedding by translating on hyperplanes.In:Proceedings of the 28th AAAI Conference on Artificial Intelligence. Qu′ebec,Canada:AAAI,2014.1112-1119

26 Lin Y,Zhang J,Liu Z,Sun M,Liu Y,Zhu X.Learning entity and relation embeddings for knowledge graph completion. In:Proceedings of the 29th AAAI Conference on Artificial Intelligence.Austin,USA:AAAI,2015.2181-2187

27 Ji G L,He S Z,Xu L H,Liu K,Zhao J.Knowledge graph embedding via dynamic mapping matrix.In:Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics.Beijing,China:Association for Computational Linguistics,2015.687-696

28 Lin Y K,Liu Z Y,Luan H B,Sun M S,Rao S W,Liu S.Modeling relation paths for representation learning of knowledge bases.In:Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing.Lisbon,Portugal:Association for Computational Linguistics,2015.705-714

29 Guo S,Wang Q,Wang B,Wang L H,Guo L.Semantically smooth knowledge graph embedding.In:Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing.Beijing,China:Association for Computational Linguistics,2015.84-94

30 He S Z,Liu K,Ji G L,Zhao J.Learning to represent knowledge graphs with Gaussian embedding.In:Proceedings of the 24th ACM International on Conference on Information and Knowledge Management.Melbourne,Australia:ACM,2015.623-632.

31 Frege G.Jber sinn und bedeutung.Wittgenstein Studien,1892,100:25-50

32 Hermann K M.Distributed Representations for Compositional Semantics[Ph.D.dissertation],University of Oxford,2014

33 Socher R,Karpathy A,Le Q V,Manning C D,Ng A Y. Grounded compositional semantics for finding and describing images with sentences.Transactions of the Association for Computational Linguistics,2014,2:207-218

34 Socher R,Huang E H,Pennin J,Manning C D,Ng A Y. Dynamic pooling and unfolding recursive autoencoders for paraphrase detection.In:Proceedings of Advances in Neural Information Processing Systems 24.Granada,Spain,2011. 801-809

35 Socher R,Pennington J,Huang E H,Ng A Y,Manning C D.Semi-supervised recursive autoencoders for predicting sentiment distributions.In:Proceedings of the 2011 Conference on Empirical Methods in Natural Language Processing. Scotland,UK:Association for Computational Linguistics,2011.151-161

36 Socher R,Lin C C Y,Ng A Y,Manning C D.Parsing natural scenes and natural language with recursive neural networks.In:Proceedings of the 28th International Conference on Machine Learning.Bellevue,WA,USA,2011.129-136

37 Socher R,Bauer J,Manning C D,Ng A Y.Parsing with compositional vector grammars.In:Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics.Sofia,Bulgaria:Association for Computational Linguistics,2013.455-465

38 Mitchell J,Lapata M.Composition in distributional models of semantics.Cognitive Science,2010,34(8):1388-1429

39 Socher R,Huval B,Manning C D,Ng A Y.Semantic compositionality through recursive matrix-vector spaces.In:Proceedings of the 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning.Jeju Island,Korea:Association for Computational Linguistics,2012.1201-1211

40 Elman J L.Finding structure in time.Cognitive Science,1990,14(2):179-211

41 Bengio Y,Simard P,Frasconi P.Learning long-term dependencies with gradient descent is difficult.IEEE Transactions on Neural Networks,1994,5(2):157-166

42 Hochreiter S.The vanishing gradient problem during learning recurrent neural nets and problem solutions.International Journal of Uncertainty,Fuzziness and Knowledge-Based Systems,1998,6(2):107-116

43 Hochreiter S,Schmidhuber J.Long short-term memory. Neural Computation,1997,9(8):1735-1780

44 Fukushima K.Neocognitron:a self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position.Biological Cybernetics,1980,36(4):193-202

45 LeCun Y,Bottou L,Bengio Y,Haffner P.Gradient-based learning applied to document recognition.Proceedings of the IEEE,1998,86(11):2278-2324

46 Collobert R,Weston J,Bottou L,Karlen M,Kavukcuoglu K,Kuksa P.Natural language processing(almost)from scratch.The Journal of Machine Learning Research,2011,12:2493-2537

47 Kalchbrenner N,Grefenstette E,Blunsom P.A convolutional neural network for modelling sentences.In:Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics.Baltimore,USA:Association for Computational Linguistics,2014.655-665

48 Kim Y.Convolutional neural networks for sentence classification.In:Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing.Doha,Qatar:Association for Computational Linguistics,2014.1746-1751

49 Zeng D H,Liu K,Lai S W,Zhou G Y,Zhao J.Relation classification via convolutional deep neural network.In:Proceedings of the 25th International Conference on Computational Linguistics.Dublin,Ireland:Association for Computational Linguistics,2014.2335-2344

50 Fader A,Soderland S,Etzioni O.Identifying relations for open information extraction.In:Proceedings of the 2011 Conference on Empirical Methods in Natural Language Processing.Scotland,UK:Association for Computational Linguistics,2011.1535-1545

51 Yih W T,He X D,Meek C.Semantic parsing for singlerelation question answering.In:Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistic.Baltimore,USA:Association for Computational Linguistic,2014.643-648

52 Fader A,Zettlemoyer L S,Etzioni O.Paraphrase-driven learning for open question answering.In:Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics.Sofia,Bulgaria:Association for Computational Linguistics,2013.1608-1618

53 Berant J,Liang P.Semantic parsing via paraphrasing.In:Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistic.Baltimore,USA:Association for Computational Linguistic,2014.1415-1425

54 Yao X C,Van Durme B.Information extraction over structured data:question answering with freebase.In:Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistic.Baltimore,USA:Association for Computational Linguistic,2014.956-966

55 Zhao H,Lu Z D,Poupart P.Self-adaptive hierarchical sentence model.In:Proceedings of the 24th International Conference on Artificial Intelligence.Buenos Aires,Argentina:AAAI,2015.4069-4076

56 Luong M T,Pham H,Manning C D.Effective approaches to attention-based neural machine translation.In:Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing.Lisbon,Portugal:ACL,2015. 1412-1421

57 Fader A,Zettlemoyer L,Etzioni O.Open question answering over curated and extracted knowledge bases.In:Proceedings of the 20th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining.New York,USA:ACM,2014.1156-1165

劉 康中國科學院自動化研究所副研究員.主要研究方向為問答系統,觀點挖掘,自然語言處理.本文通信作者.

E-mail:kliu@nlpr.ia.ac.cn

(LIU KangAssociate professor at the Institute of Automation,Chinese Academy of Sciences.His research interest covers question answering,opinion mining,and natural language processing.Corresponding author of this paper.)

張元哲中國科學院自動化研究所博士研究生.主要研究方向為問答系統和自然語言處理.

E-mail:yzzhang@nlpr.ia.ac.cn

(ZHANG Yuan-ZhePh.D.candidate at the Institute of Automation,Chinese Academy of Sciences.His research interest covers question answering and natural language processing.)

紀國良中國科學院自動化研究所博士研究生.主要研究方向為知識工程和自然語言處理.

E-mail:guoliang.ji@nlpr.ia.ac.cn

(JI Guo-LiangPh.D.candidate at the Institute of Automation,Chinese Academy of Sciences.His research interest covers knowledge engineering and natural language processing.)

來斯惟中國科學院自動化研究所博士研究生.主要研究方向為表示學習和自然語言處理.

E-mail:swlai@nlpr.ia.ac.cn

(LAI Si-WeiPh.D.candidate at the Institute of Automation,Chinese Academy of Sciences.His research interest covers representation learning and natural language processing.)

趙 軍中國科學院自動化研究所研究員.主要研究方向為信息檢索,信息提取,網絡挖掘,問答系統.

E-mail:jzhao@nlpr.ia.ac.cn

(ZHAO JunProfessor at the Institute of Automation,Chinese Academy of Sciences.His research interest covers information retrieval,information extraction,web mining and question answering.)

Representation Learning for Question Answering over Knowledge Base:An Overview

LIU Kang1ZHANG Yuan-Zhe1JI Guo-Liang1LAI Si-Wei1ZHAO Jun1

Question answering over knowledge base(KBQA)is an important direction for the research of question answering.Recently,with the drastic development of deep learning,researchers and developers have paid more attentions to KBQA from this angle.They regarded this problem as a task of semantic matching.The semantics of knowledge base and users′questions are learned through representation learning under the framework of deep learning.The entities and relations in knowledge base and the texts in questions could be represented as numerical vectors.Then,the answer could be figured out through similarity computation between the vectors of knowledge base and the vectors of the given question.From reported results,KBQA based on representation learning has obtained the best performance.This paper introduces the mainstream methods in this area.It further induces the typical approaches of representation learning on knowledge base and texts(questions),respectively.Finally,the current research challenges are discussed.

Question answering over knowledge base(KBQA),deep learning,representation learning,semantic analysis

10.16383/j.aas.2016.c150674

Liu Kang,Zhang Yuan-Zhe,Ji Guo-Liang,Lai Si-Wei,Zhao Jun.Representation learning for question answering over knowledge base:an overview.Acta Automatica Sinica,2016,42(6):807-818

2015-11-02錄用日期2016-05-03
Manuscript received November 2,2015;accepted May 3,2016
國家重點基礎研究發展計劃(973計劃)(2014CB340503),國家自然科學基金(61533018),“CCF–騰訊”犀牛鳥基金資助
Supported by National Basic Research Program of China(973 Program)(2014CB340503),National Natural Science Foundation of China(61533018),and CCF-Tencent Open Research Fund
本文責任編委賈珈
Recommended by Associate Editor JIA Jia
1.中國科學院自動化研究所模式識別國家重點實驗室北京100190
1.National Laboratory of Pattern Recognition,Institute of Automation,Chinese Academy of Sciences,Beijing 100190

猜你喜歡
語義文本模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
語言與語義
在808DA上文本顯示的改善
基于doc2vec和TF-IDF的相似文本識別
電子制作(2018年18期)2018-11-14 01:48:06
3D打印中的模型分割與打包
“上”與“下”語義的不對稱性及其認知闡釋
現代語文(2016年21期)2016-05-25 13:13:44
文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學隱喻
認知范疇模糊與語義模糊
主站蜘蛛池模板: 免费啪啪网址| 国产成人久视频免费| 五月激激激综合网色播免费| 精品少妇人妻无码久久| 国产自在自线午夜精品视频| 欧美日韩91| 高清欧美性猛交XXXX黑人猛交 | 国产成人精品午夜视频'| 欧美日韩一区二区在线播放| 成人午夜网址| 亚洲欧美精品一中文字幕| 青青青伊人色综合久久| 亚洲国产91人成在线| 国产精品浪潮Av| 日韩精品毛片人妻AV不卡| 无码aaa视频| 国产成人超碰无码| 久久国产乱子| 最新亚洲av女人的天堂| 精品超清无码视频在线观看| 国产香蕉97碰碰视频VA碰碰看| 亚洲国产综合精品一区| 久久性妇女精品免费| 国产精品无码久久久久久| 成人综合在线观看| 国产91小视频在线观看| 波多野结衣视频一区二区| AV在线麻免费观看网站| 亚洲美女高潮久久久久久久| 国产91高跟丝袜| 69av免费视频| 国产在线观看一区精品| 色婷婷亚洲十月十月色天| 亚洲永久色| 波多野衣结在线精品二区| 狠狠五月天中文字幕| 日韩高清中文字幕| 亚洲午夜久久久精品电影院| 制服丝袜亚洲| 国产国语一级毛片| 亚洲国产综合自在线另类| 亚洲第一香蕉视频| 亚洲青涩在线| 亚洲国产精品无码久久一线| 免费在线国产一区二区三区精品| 人妻精品全国免费视频| 久久国语对白| 色悠久久久| 午夜视频www| 成人一区专区在线观看| 91小视频在线观看| 欧美久久网| 久久国产精品麻豆系列| 国产一二三区在线| 国产精品视频a| 手机精品福利在线观看| 午夜综合网| 午夜啪啪福利| 三上悠亚在线精品二区| 青青草一区| 综合人妻久久一区二区精品 | av午夜福利一片免费看| 久久福利片| 日韩毛片免费观看| 欧美α片免费观看| 怡红院美国分院一区二区| 色综合久久88色综合天天提莫 | 国产亚洲高清在线精品99| 草草影院国产第一页| 99久久99这里只有免费的精品| 国产精品亚洲αv天堂无码| 亚洲日本中文综合在线| 毛片网站在线看| 91美女视频在线| 国产成人久久综合777777麻豆| 五月婷婷精品| 最近最新中文字幕在线第一页 | 精品免费在线视频| 欧美yw精品日本国产精品| 91午夜福利在线观看| 日本AⅤ精品一区二区三区日| 欧美一级在线看|