999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合CNN-SAM與GAT的多標簽文本分類模型

2023-03-13 10:04:22楊春霞馬文文陳啟崗
計算機工程與應用 2023年5期
關鍵詞:語義特征文本

楊春霞,馬文文,陳啟崗,桂 強

1.南京信息工程大學 自動化學院,南京 210044

2.江蘇省大數據分析技術重點實驗室,南京 210044

3.江蘇省大氣環境與裝備技術協同創新中心,南京 210044

多標簽文本分類(multi-label text classification,MLTC)作為自然語言處理(natural language processing,NLP)文本分類的核心任務之一,旨在從文本內容中快速、準確地挖掘出更為詳細的標簽信息,其在情感分析、新聞分類、問答任務等應用場景均有廣泛應用。伴隨著移動社交平臺與互聯網的飛速發展,網絡文本的數量爆發式增長,大量未經規范化的文本數據與用戶交互數據無疑增加了分類研究的難度。因此,為了更高效地分析處理文本數據,滿足用戶需求,需要進一步完善和提高分類技術的研究。

相比于單標簽文本分類任務而言,MLTC任務就是根據文本數據信息,為其自動分配出與之相關聯的多個標簽,如一篇體育新聞可能同時屬于“籃球”“足球”和“乒乓球”等多個主題,準確分類的關鍵在于是否能從上下文語義信息中準確挖掘出與主題相關的關鍵特征。目前針對文本主要特征的提取常使用卷積神經網絡(convolutional neural network,CNN)[1-2]或注意力機制[3-4]模型,并且均取得不錯的分類效果。然而CNN在利用卷積層提取信息時,只考慮其局部鄰近詞匯的語義信息,忽略了文本單詞之間長距離信息依賴關系。相反,注意力機制可以很好捕捉全局詞與詞之間的依賴關系,為文本中每個詞賦予相應的權重,突出文本中關鍵詞信息的表示,但缺乏局部上下文語義信息之間的聯系,這表明單一地從局部或者全局捕獲文本信息并不是最優的。

除了對文本信息的提取,最近,肖琳等人[5]將特定文本標注的標簽信息融入文本信息中,并取得不錯的效果,這初步表明基于語義聯系的標簽信息的融入對提高多標簽分類效果有一定幫助,從而也進一步驗證了Zhang等人[6]所提出不同標簽之間的關聯性可以有效提升模型的分類性能的結論。但是僅僅局限于特定文本標簽之間的語義聯系,一方面部分標簽之間存在的緊密連接關系可能會丟失,另一方面也不能體現出不同標簽之間的關聯程度。因此,如何挖掘全局標簽之間的依賴關系是目前需要盡快解決的一個問題。

針對以上兩個問題,本文提出融合CNN-自注意力機制(self attention mechanism,SAM)與圖注意力網絡(graph attention network,GAT)的多標簽文本分類模型(CS-GAT),主要貢獻如下:

(1)本文利用多層CNN與SAM分別提取文本的局部與全局特征信息并進行融合,獲取更為全面的特征向量表示。

(2)本文將不同文本標簽之間的關聯性轉變為具有全局信息的邊加權圖,然后利用多層GAT充分挖掘全局標簽之間的關聯程度。

(3)模型在三個公開英文數據集上進行實驗,并與相關的五個主流基線模型作對比,實驗結果表明,本文提出的CS-GAT模型的分類效果明顯優于基線模型。

1 相關工作

由于早期機器學習方法效率不高,近年來MLTC任務的研究更青睞于深度學習中神經網絡的研究方法。

文本的類別特征通常由上下文中某幾個短語或詞語來確定,CNN通過對文本連續詞序列信息進行卷積、池化操作來獲取文本局部主要特征信息,如Kim[7]首次利用CNN的卷積、池化層對文本特征進行最大化提取,提高了文本在多個領域的分類效果。Liu等人[8]在考慮樣本標簽數量大、數據稀疏等問題后利用CNN解決MLTC問題,將動態池化層從不同角度提取文本主要特征,使得提取效果有了顯著提升。雖然CNN在以上分類任務的研究中均取得不錯的效果,但缺乏對文本全局信息的考量,如“大量溫室氣體的排放導致全球氣候變暖,隨著美國退出了《巴黎協定》,這可能會進一步加劇這個問題”,CNN可以將其捕獲為“氣候變暖”“美國退出《巴黎協定》”等局部信息。但從全局來看,如“大量”“退出”“可能”和“加劇”等詞語既可以更加突出文本的主要特征信息,又能在一定程度上削弱無關信息所帶來的影響,而CNN卻無法將這些全局權重信息分配給對應的特征。

對于全局信息的捕獲,在早期的機器翻譯模型中,Attention機制通過重點關注與當前翻譯詞相關的詞匯信息來提高當前詞翻譯的準確度,從而提高模型的性能。基于此原理,You等人[9]使用SAM提取文本特征,Yang等人[10]利用SAM作為編碼器提取文本全局交互信息,均驗證了SAM可以有效捕獲文本內容貢獻的差異性。然而SAM只考慮全局詞之間的依賴關系,卻忽略了局部鄰近詞匯之間的語義聯系。于此,本文同時利用多層CNN與SAM對文本信息進行提取、融合,充分獲取具有文本局部與全局特征的向量表示。

在考慮文本內容信息的同時,Xiao等人[11]將文本標注的標簽信息融入文本信息中,雖然取得不錯的效果,卻忽略了全局標簽之間的依賴關系。在此基礎上,You等人[12]提出AttentionXML,通過構建淺而寬的概率標簽樹來捕獲與每個標簽最相關的文本部分。Huang等人[13]提出隨機游走模型,采用廣度優先游走和深度優先游走對標簽節點進行采樣。Xiao等人[14]提出頭-尾網絡,將文本中出現頻率高的標簽信息轉移到出現頻率低的標簽信息,提高了尾部分類器的泛化能力。以上方法雖然考慮了全局標簽之間的相關性,但主要有效解決了尾部標簽所產生的影響,而對于不同標簽之間的關聯程度仍沒有得到很好的處理。在單標簽文本分類任務中,Yao等人[15]依據文檔-詞、詞-詞之間的聯系構建一個異構圖,然后利用圖卷積神經網絡很好地捕獲了全局詞共現關系。受此啟發,本文將不同文本標簽-標簽之間的關聯性轉變為具有全局信息的邊加權圖,然后利用GAT的注意力機制代替圖卷積神經網絡的靜態歸一化卷積運算來挖掘全局標簽之間的相關聯程度。

2 CS-GAT模型

本文提出的CS-GAT模型分別由文本與標簽詞嵌入層、BiLSTM層、融合局部與全局的文本特征提取層、標簽圖注意力層、標簽文本交互層,自適應融合層、模型訓練組成,其總體框架如圖1所示。

圖1 模型框架Fig.1 Framework of model

2.1 任務定義

給定訓練集{(C1,y1),(C2,y2),…,(Cm,ym)},其中Cm表示第m個文本,每個文本由一系列詞向量{w1,w2,…,wn}所表示,ym為第m個文本對應的標簽類別,ym∈{0,1}k,其中k表示所有文本包含的標簽種類總數。本文的MLTC任務是通過訓練集對CS-GAT模型的訓練,能夠將新的未標記的樣本分類到k個語義標簽中。

2.2 文本與標簽詞嵌入層

本文采用Glove[16]預訓練詞向量對文本與標簽中的詞進行初始化向量表示,對于文本Cm,N∈Rn×d即將文本信息經過詞嵌入層后被映射為一個低維稠密向量矩陣,矩陣的大小為n×d,其中n表示文本中詞的數量,d表示每個詞向量的維度。同理,標簽也由詞嵌入向量矩陣l∈Rk×d表示。根據Glove模型的共現特性,文本與標簽初始化后詞向量之間仍具備一定的語義聯系。

2.3 BiLSTM層

雙向長短期記憶網絡(bi-directional long shortterm memory,BiLSTM)可以捕捉文本上下文雙向語義依賴關系。當t時刻輸入的文本詞向量為wt,則單向LSTM序列中t時刻的隱層狀態ht計算過程如下:

式中,ft、it、ct、ct、ot分別為t時刻遺忘門、輸入門、臨時細胞狀態、細胞狀態與輸出門值,W與b分別為對應的權重矩陣與偏差項,σ為sigmoid激活函數,tanh為雙曲正切激活函數。

刻詞向量正反向信息表示與進行拼接,得到BiLSTM的輸出表示H,使每個單詞獲取具有上下文語義信息的表示,計算式為:

2.4 融合局部與全局的文本特征提取層

為了更全面地提取文本特征信息,本文集成了多層CNN與SAM各自的優勢,分別從局部與全局兩個角度對文本信息進行建模。

2.4.1 局部信息提取層

CNN憑借其適應性強[17]、結構簡單、計算復雜度低等優勢廣泛應用于NLP各個領域中,本文也將利用其提取文本局部主要特征信息,模型結構如圖2所示。

圖2 CNN模型Fig.2 CNN model

本文選用3個不同長度,寬度均與詞向量長度相同的卷積核通過滑動窗口的移動對BiLSTM的輸出H進行局部特征提取,特征圖表示為:

式中,wc為權重矩陣,m為卷積核的滑動步長,表示從詞向量矩陣第i個位置開始移動m個詞向量所組成的矩陣表示,b為偏差項,f為sigmoid激活函數,vi表示第i個位置的卷積特征值。

為提取文本中的N-gram主要特征,將利用最大池化層對特征圖壓縮并提取其主要特征信息,然后將不同卷積核提取到的特征向量進行拼接,形成特征序列ec。

由于考慮最終的輸出與SAM輸出進行融合,因此將拼接后的向量ec經過全連接層改變其維度,獲取文本最終局部特征表示ec=linear(ec)∈Rn′×2dh。

2.4.2 全局信息提取層

在MLTC任務中,SAM實質是在權衡上下文全局信息后為文本中每個詞賦予相應的權重,權重值越大的詞在分類任務中發揮的作用就越大,分類效果也就越好。

本文將BiLSTM的輸出H作為SAM的輸入,然后將其分別與三個待訓練的參數矩陣WQ、WK、WV相乘得到查詢矩陣Query、被查詢矩陣Key以及實際特征信息矩陣Value:

然后將Query與Key矩陣做內積運算并進行歸一化處理,得到每個詞向量對應的得分。接著使softmax激活函數處理得到的每個詞的權重比例與實際特征信息Value矩陣相乘,獲取具有全局信息的詞向量表示ea。

式中,dk為向量的維度,主要為了防止內積值隨著向量的維度增大而增加,進而使梯度趨于穩定。

2.4.3 特征融合

在獲取文本局部、全局特征表示后,本文將兩者進行融合,得到包含局部和全局的語義特征向量X:

將局部與全局特征點組合成特征向量X∈Rn′×2dh作為多標簽文本分類實例特征表示,既可以從融合的特征向量中獲得最具差異性的信息表示,又可以增強模型的特征表達能力。

2.5 標簽圖注意力層

由于每個文本均包含兩個及以上的標簽,不同文本的標簽之間可能存在依賴關系或相關性。基于此,根據共現原理,本文由圖G=(V,E)來挖掘標簽-標簽之間存在的關聯性。其中V為標簽的節點表示,E表示標簽-標簽之間的關聯程度。因此,由圖G的拓撲結構所構成的鄰接矩陣表示為:

式中,nij為兩個標簽節點i、j在所有文檔中共同出現的次數,Cm表示第m個文本。Aij表示將矩陣Xij的對角線元素全部設置為1,即每個標簽節點的自循環操作。D為矩陣Aij的度矩陣,即將矩陣Aij進行歸一化處理。

圖3 GAT模型Fig.3 GAT model

式中,α為注意力機制,即標簽節點j對節點i的重要程度;ω為權值參數向量,W為權重參數矩陣。LeakyReLU為非線性激活函數,αij為標簽j相對于標簽i的歸一化注意系數。k∈Ni表示節點i的所有一階鄰域節點,j∈Ni表示節點i的某一個一階鄰域節點,其中k、j均包含自身節點i,σ為非線性激活函數。

為了更全面地提取標簽信息,本文將兩層圖注意力網絡獲取的標簽信息表示進行拼接,得到標簽特征Gi:

其中,t表示GAT的層數,“||”為拼接符號,αtij為第t次GAT運算中標簽j相對于標簽i的歸一化注意力系數,Wt為第t次GAT運算中權重矩陣參數。

2.6 標簽文本交互層

交互注意力機制(interactive attention mechanism,IAM)通過對兩個句子關聯的相似特征進行提取,從而捕捉到對應句子內部重要的語義信息。因此,為了進一步加強標簽之間的語義聯系,本文將緊密連接的全局標簽信息表示與文本上下文語義信息表示做交互注意力計算,獲取基于文本語義聯系的全局標簽特征表示。

如圖4所示,首先將標簽矩陣G與BiLSTM輸出H進行點乘運算得到信息交互矩陣M,M中的每個值表示標簽與文本信息的相關性;接著利用soft max激活函數分別對M的行與列作歸一化處理,獲取文本對標簽和標簽對文本的注意力分數αij和βij,計算過程如式(22)~(24)所示:

圖4 交互注意力機制模型Fig.4 Interactive attention mechanism model

式中,⊙為點乘運算,Mij表示文本上下文中第i個詞對第j個標簽的相關性,αij表示上下文中第i個詞對第j個標簽的注意力權重,βij表示第i標簽對上下文中第j個詞的注意力權重。

然后對βij的列取平均得到文本級注意力,接著取標簽注意力權重向量αij與文本級注意力向量-βT的點乘結果作為交互注意力向量γ。最后將其與標簽矩陣G經過點乘運算獲取具有文本語義聯系的全局標簽向量表示L,計算過程如下:

2.7 自適應融合層

在獲取文本特征信息表示X與基于文本語義聯系的全局標簽表示L后,本文采用自適應融合策略對兩者進行融合操作,從而提高模型的泛化能力。具體做法如下:

首先將文本特征信息表示X與標簽信息表示L分別經過sigmoid函數得到分配權重矩陣θ1與θ2:

式中,θ1、θ2分別表示文本信息、標簽信息對預測標簽j所構成最終文本表示的重要程度,W1、W2為待訓練的參數矩陣,因此預測的標簽j信息最終表示為:

2.8 模型訓練

模型最后將E通過多層感知器對其進行預測:

式中,W3、W4為待訓練參數矩陣,f為Re LU激活函數,通過sigmoid函數做歸一化處理,將其轉化為對應的標簽預測概率,接著通過交叉熵損失函數計算出損失值L:

其中,m為標簽種類數目,n為文檔數,yij表示第i個文檔中標簽j的真實值,yij表示第i個文檔中標簽j的預測值。

3 實驗

3.1 實驗環境與數據集

本文實驗基于Pytorch深度學習框架,具體實驗環境如表1。

表1 實驗環境Table 1 Experimental platform

本文選用AAPD、RCV1-V2與EUR-Lex三個英文公開數據集進行模型性能評估,其中AAPD數據集從ArXiv計算機科學領域搜集的論文摘要及相應的主題;RCV1-V2數據集由路透社有限公司提供的80多萬篇人工分類的新聞報道組成;EUR-Lex數據集是由歐盟法律文件所組成。三個數據集詳細分布情況如表2所示。

表2 數據集信息Table 2 Statistics for dataset

3.2 實驗參數

本文使用Glove模型對文本與標簽信息進行詞嵌入表示,詞向量的維度均為300。使用Adam優化器對訓練參數進行優化,使用Dropout來防止過擬合。具體參數設置如表3所示。

表3 實驗參數設置Table 3 Setting of experimental parameters

3.3 評估指標

本文采用精度(precision at K,P@K)和歸一化折損累計增益(normalized discounted cumulative gain at K,nDCG@K)作為模型評估指標。具體公式如下:

式中,l∈rankk(y)為真實標簽在預測標簽的前k個索引,||y||0表示真實標簽向量y中相關標簽的個數。

3.4 基線模型

本文選取以下五種主流且較新的基線模型作對比實驗:

(1)XML-CNN[8]:利用CNN可以從不同角度對文本的詞序列信息做處理的特點,設計一個動態池化層對文本特征進行多角度的提取,提高標簽預測的準確性。

(2)EXAM[18]:利用交互注意力機制計算文本信息與標簽信息匹配得分,將聚合的分數作為每個類別預測的概率。

(3)SGM[19]:基于不同標簽之間的相關性,將MLTC任務看作序列生成問題,利用LSTM對文本所含標簽類別逐一預測。

(4)AttentionXML[9]:將文本信息的初始化向量表示依次通過BiLSTM、注意力機制挖掘出標簽所對應的文本內容,最后根據概率鏈規則預測出對應的標簽類別。

(5)LSAN[11]:主要將標簽信息與文本信息通過自適應融合的方式來實現對文本內容的預測。

3.5 對比實驗分析

本文提出的CS-GAT模型與五個基線模型的實驗結果如表4~6所示。在三個數據集上,CS-GAT模型相較于最好的LSAN模型P@K分別提升了1.02、1.18、0.94;1.29、1.44、0.66;2.33、1.14、1.29個百分點。nDCG@K分別提升了1.02、0.88、0.68;1.29、2.09、1.71;2.33、1.60、1.36個百分點,可以體現出CS-GAT模型是優越的。

表4 在AAPD上的結果對比Table 4 Comparison of results on AAPD單位:%

表5 在RCV1-V2上的結果對比Table 5 Comparison of results on RCV1-V2單位:%

表6 在EUR-Lex上的結果對比Table 6 Comparison of results on EUR-Lex單位:%

從總體上來看,XML-CNN、EXAM、SGM與AttentionXML四個模型相比于LSAN與CS-GAT模型較差,原因在于這四個模型均沒有單獨地將文本標注的標簽信息考慮進去,盡管SGM與AttentionXML試圖建立文本與標簽之間的聯系,但僅僅局限于對文本內容的訓練與學習,就會降低尾部標簽的預測能力。除此之外,這四個基線模型,XML-CNN在AAPD與EUR-Lex數據集上性能最差,原因是其只考慮文本局部語義信息,其他模型均通過注意力機制從全局的角度考慮了不同文本內容對標簽的影響,突出了關鍵語句或詞的特征表示,所以模型的學習能力會更好一點。相反,在RCV1-V2數據集上,雖然各模型的分類效果都顯著提升,但XMLCNN卻優于EXAM與SGM模型,主要因為EXAM與SGM更側重捕獲文本與標簽的關聯性,然而RCV1-V2數據集總詞數少、類別較為明確,在挖掘文本深層次語義信息與標簽的關聯程度的過程中容易造成過擬合,導致在測試集上降低了文本的預測精度。因此對于更側重于文本語義挖掘的XML-CNN與AttentionXML在RCV1-V2數據集上學習效率更高。

縱觀對比實驗結果,XML-CNN、EXAM、SGM與AttentionXML四個模型在數據集上的表現有好有差。LSAN相比于其他基線模型在三個數據集上均取得了更好的結果,這是因為LSAN通過自適應融合策略自動調整融合文本與標簽信息的權重比例θ,提高了模型在各個數據集上的適應能力,同樣本文的CS-GAT模型也考慮到了這一點。而本文的CS-GAT模型相比于LSAN有進一步的提升,是因為一方面通過CNN與SAM對文本局部與全局特征信息進行提取、融合,增強了模型的特征表達能力;另一方面標簽之間的聯系不再局限于特定文本的語義聯系,通過多層GAT充分挖掘全局標簽之間的聯系以及關聯程度。從整體上看,信息的融合與標簽的關聯有著更為緊密的聯系,因為有效地提取文本特征信息的同時也能學習標簽之間存在的緊密連接關系,所以CS-GAT是優越的。

3.6 模型分析實驗

3.6.1 CS-GAT模型的有效性驗證

為了對CS-GAT模型的整體效果研究,本文從局部與全局信息、標簽圖注意力兩個模塊進行有效性驗證。本文構建C-Label、S-Label、CS-Label、CS-Label+CNN與CS-GAT模型,其中C-Label表示僅融合局部信息,S-Label表示僅融合全局信息,CS-Label表示同時融合局部與全局信息,CS-Label+CNN表示在CS-Label的基礎上將初始化后的標簽信息通過CNN獲取連續標簽之間的局部聯系,CS-GAT則表示在CS-Label的基礎上通過GAT捕捉全局標簽之間的圖結構信息。以AAPD數據集為例,將以上模型進行對比,實驗結果如表7所示。

表7 CS-GAT模型有效性實驗Table 7 CS-GAT model validity experiment單位:%

由表7可知,融合局部與全局信息、引入標簽圖注意力兩種方式均可使得模型效果有所改善,而將兩者相結合的效果取得了進一步提升,說明本文的CS-GAT模型在整體上是更有效的。因為標簽是文本的表現形式,文本是標簽的具體內容,兩者相互依存有著緊密聯系,所以同時優化文本與標簽更有利于文本特征的劃分。

分模塊來看,相比于CS-Label而言,僅提取局部信息P@K與nDCG@K分別降低1.20、1.07、0.80;1.20、1.45、1.53個百分點,僅提取全局信息分別降低0.60、0.94、?0.08;0.60、1.11、0.35個百分點。這表明融合局部與全局信息對模型的分類性能有一定幫助作用。融合了局部與全局信息從文本特征角度來說,CS-Label集成了CNN與SAM各自的優勢,得到更為全面的特征向量表示;從文本信息角度來說,一方面使原有維度下的信息量增強,另一方面從融合的特征向量中獲得最具差異性的信息表示,提高了模型的分類效果。除此之外,SLabel較C-Label模型P@K與nDCG@K分別提升了0.60、0.13、0.88;0.60、0.34、1.18個百分點。因為CNN只關注于文本的局部信息,而SAM一方面可以捕獲文本的全局信息,另一方面也可以學習到不同文本內容對標簽的依賴程度,從而更好地劃分文本的特征信息,同時也進一步驗證了XML-CNN在AAPD與EUR-Lex數據集上的分類效果次于其他對比模型。

對于引入標簽圖注意力,與CS-GAT相比,CS-Label模型P@K與nDCG@K分別降低0.80、1.13、1.40;0.80、0.89、1.13個百分點,CS-Label+CNN模型降低了0.40、1.20、1.10;0.40、0.76、0.62個百分點。這表明GAT模塊通過注意力機制對圖結構數據中每個標簽節點與其一階鄰域標簽節點做聚合操作,促進了全局標簽之間的緊密連接關系,更好地學習出標簽特征信息表示,從而提高模型的整體性能。通過以上實驗,驗證了本文所提模型的優越性與有效性。

3.6.2 GAT層數設置實驗

為了進一步驗證GAT的層數對CS-GAT模型的影響,本文依舊以AAPD數據集為例在兩個評估指標上進行對比,實驗結果如圖5、圖6所示。

圖5 不同GAT層數的P@K值Fig.5 P@K of different layers of GAT

圖6 不同GAT層數的nDCG@K值Fig.6 nDCG@K of different layers of GAT

為了防止GAT的層數過大導致實驗結果出現過擬合,實驗中取GAT層數范圍為{1,2,3,4,5,6},圖中橫坐標代表GAT的層數,縱坐標分別為P@K與nDCG@K。從圖5與圖6中可以清晰看出,當GAT層數設置為2的時候,P@K與nDCG@K的值均達到最高,驗證了本文GAT層數設置為2的合理性。當層數為3、4、5與6時,模型性能評估指標值雖有起伏,但總體呈下降趨勢,主要因為隨著訓練參數增加,負載過大導致CS-GAT模型變得難以訓練,所以GAT的層數設置為2為最佳。

4 結語

為了解決文本特征信息丟失與全局標簽之間的依賴關系,本文提出了CS-GAT模型來解決多標簽文本分類任務:通過CNN與SAM分別提取文本局部與全局特征信息并進行融合,得到更為全面的特征向量表示;同時將不同文本標簽之間的關聯性轉變為具有全局信息的邊加權圖,然后利用多層GAT充分挖掘不同標簽之間的關聯程度,接著將其與文本上下文語義信息進行交互,獲取具有文本語義聯系的全局標簽特征表示;最后通過自適應融合策略進一步提取兩者信息,提高模型的泛化能力。通過在三個數據集上的對比實驗,驗證了CS-GAT模型的優越性,同時也驗證了融合局部與全局信息、引入標簽圖注意力的有效性與合理性。

雖然本文提出的模型在三個數據集上均取得不錯效果,但是在EUR-Lex這樣包含大量標簽數據集上的分類效果還有待進一步提升,下一階段將針對大量標簽之間的緊密連接關系,挖掘其更深層次的語義聯系;同時進一步調整模型參數,降低模型計算的復雜度,提高訓練速度。

猜你喜歡
語義特征文本
語言與語義
如何表達“特征”
在808DA上文本顯示的改善
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
基于doc2vec和TF-IDF的相似文本識別
電子制作(2018年18期)2018-11-14 01:48:06
抓住特征巧觀察
“上”與“下”語義的不對稱性及其認知闡釋
現代語文(2016年21期)2016-05-25 13:13:44
文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學隱喻
認知范疇模糊與語義模糊
如何快速走進文本
語文知識(2014年1期)2014-02-28 21:59:13
主站蜘蛛池模板: 91丨九色丨首页在线播放| 深夜福利视频一区二区| 欧美精品啪啪| 亚洲国产精品日韩专区AV| 久久久久九九精品影院| 亚洲成人精品| 国产成人av大片在线播放| 亚洲天堂色色人体| 91精品国产综合久久不国产大片| 拍国产真实乱人偷精品| 一区二区理伦视频| 亚洲精品爱草草视频在线| 尤物亚洲最大AV无码网站| 婷婷色丁香综合激情| 日本在线国产| 亚洲一区二区精品无码久久久| 东京热一区二区三区无码视频| 97se综合| 日本a∨在线观看| 大陆国产精品视频| 亚洲成a人片在线观看88| 亚洲美女一区二区三区| 国产精品思思热在线| 天天摸夜夜操| 无码高潮喷水在线观看| 精品视频91| 国产精品中文免费福利| 精品少妇人妻一区二区| 日韩中文无码av超清| 制服丝袜 91视频| 国产黑丝一区| 成人无码一区二区三区视频在线观看| 亚洲资源站av无码网址| 亚洲精品国产综合99| 在线视频一区二区三区不卡| h视频在线观看网站| 国产无人区一区二区三区| 国产精品熟女亚洲AV麻豆| 欧美97色| 多人乱p欧美在线观看| 精品国产黑色丝袜高跟鞋| 日本爱爱精品一区二区| 欧美特黄一免在线观看| 在线欧美一区| 久久77777| 五月婷婷综合在线视频| 精品国产成人三级在线观看| 日本国产一区在线观看| 日本免费a视频| 91综合色区亚洲熟妇p| 国产区91| 欧美亚洲国产视频| 日本一区高清| 99精品热视频这里只有精品7| 免费av一区二区三区在线| 国产欧美日韩视频怡春院| 毛片大全免费观看| 国产成人综合日韩精品无码首页 | 国产欧美成人不卡视频| 亚洲成人黄色网址| 欧美在线视频a| 青青草原国产精品啪啪视频| 91免费国产在线观看尤物| 免费无遮挡AV| 在线观看精品国产入口| 久久永久精品免费视频| 亚洲免费毛片| 欧美精品1区| 亚洲无码在线午夜电影| 91成人免费观看| 青青操国产视频| 国产在线专区| 女高中生自慰污污网站| 久青草国产高清在线视频| 免费高清a毛片| 精品久久香蕉国产线看观看gif | 亚洲无线国产观看| 亚洲成a人片7777| 99久久精品国产精品亚洲 | 91网在线| 欧美国产精品不卡在线观看| 久久久久人妻一区精品色奶水|