999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于共性假設(shè)的零樣本生成模型

2020-09-02 02:27:38許世斌高子淑
關(guān)鍵詞:語(yǔ)義特征模型

許世斌 高子淑

1(西安電子科技大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院 陜西 西安 710071)2(北京化工大學(xué)信息科學(xué)與技術(shù)學(xué)院 北京 100029)

0 引 言

傳統(tǒng)的分類(lèi)模型只能識(shí)別與訓(xùn)練樣本相同類(lèi)別的數(shù)據(jù),而無(wú)法識(shí)別無(wú)訓(xùn)練樣本的數(shù)據(jù)。在分類(lèi)任務(wù)的實(shí)際應(yīng)用場(chǎng)景中,往往會(huì)遇到缺乏訓(xùn)練樣本以及樣本標(biāo)簽丟失等傳統(tǒng)分類(lèi)模型無(wú)法處理的問(wèn)題。人類(lèi)能夠?qū)⒔?jīng)驗(yàn)與事物的形狀、色彩的語(yǔ)言描述相結(jié)合,輕易地識(shí)別出從未見(jiàn)過(guò)的事物,受此啟發(fā),零樣本學(xué)習(xí)(Zero Shot Learning,ZSL)通過(guò)學(xué)習(xí)數(shù)據(jù)在可見(jiàn)類(lèi)別上的分布,結(jié)合未見(jiàn)類(lèi)別的輔助語(yǔ)義信息以識(shí)別未見(jiàn)類(lèi)別數(shù)據(jù),為部分類(lèi)別缺乏圖像數(shù)據(jù)的分類(lèi)問(wèn)題提供了解決方案。

零樣本學(xué)習(xí)在訓(xùn)練階段僅使用可見(jiàn)類(lèi)別樣本與未見(jiàn)類(lèi)別的文本描述進(jìn)行訓(xùn)練,而測(cè)試階段則僅對(duì)未見(jiàn)類(lèi)別的測(cè)試數(shù)據(jù)進(jìn)行分類(lèi)。在實(shí)際應(yīng)用中,未見(jiàn)類(lèi)的數(shù)據(jù)通常需要與可見(jiàn)類(lèi)的數(shù)據(jù)共同進(jìn)行分類(lèi),即在零樣本學(xué)習(xí)的訓(xùn)練階段對(duì)可見(jiàn)類(lèi)別與未見(jiàn)類(lèi)別測(cè)試數(shù)據(jù)的并集進(jìn)行分類(lèi),這樣的分類(lèi)任務(wù)被稱(chēng)為泛零樣本學(xué)習(xí)(Generalized Zero Shot Learning,GZSL)任務(wù)。

目前主流零樣本學(xué)習(xí)方法通常將從可見(jiàn)類(lèi)樣本中學(xué)習(xí)到的視覺(jué)語(yǔ)義映射關(guān)系遷移到未見(jiàn)類(lèi)上,將分類(lèi)數(shù)據(jù)的語(yǔ)義特征與視覺(jué)特征投影到一個(gè)公共空間上進(jìn)行處理。Lampert等[1]提出了以屬性向量作為零樣本學(xué)習(xí)的輔助語(yǔ)義信息,通過(guò)最大后驗(yàn)概率法,基于圖像視覺(jué)特征數(shù)據(jù)對(duì)未見(jiàn)類(lèi)的形狀、顏色等各項(xiàng)屬性進(jìn)行預(yù)測(cè),將視覺(jué)特征轉(zhuǎn)義為語(yǔ)義特征,使用支持向量機(jī)對(duì)所預(yù)測(cè)的屬性特征進(jìn)行分類(lèi)。由于輔助語(yǔ)義信息中存在一詞多義、多詞同義等情況,容易引發(fā)樞紐點(diǎn)問(wèn)題。為解決這一問(wèn)題,Zhang等[2]提出使用將語(yǔ)義特征映射為視覺(jué)特征進(jìn)行零樣本分類(lèi)的方法,并提出多模態(tài)學(xué)習(xí)機(jī)制,基于多種語(yǔ)義特征學(xué)習(xí)視覺(jué)語(yǔ)義映射關(guān)系。Kodirov等[3]提出基于語(yǔ)義自編碼(Semantic Autor Encoder)的零樣本學(xué)習(xí)方法,為視覺(jué)語(yǔ)義映射關(guān)系增加重構(gòu)性約束,增加具體語(yǔ)義信息約束,實(shí)現(xiàn)有監(jiān)督下的映射關(guān)系學(xué)習(xí)。吳凡等[5]提出了一種基于權(quán)重衰減的端到端的零樣本學(xué)習(xí)框架,通過(guò)權(quán)重衰減約束限制模型在強(qiáng)關(guān)聯(lián)屬性的大小。Elhoseiny等[5]提出使用更貼近實(shí)際應(yīng)用的含噪文本描述作為語(yǔ)義特征,進(jìn)行零樣本學(xué)習(xí)的方法。

基于語(yǔ)義關(guān)系映射的零樣本學(xué)習(xí)方法在零樣本學(xué)習(xí)任務(wù)上取得了良好的表現(xiàn),然而,這類(lèi)方法存在可見(jiàn)類(lèi)真實(shí)數(shù)據(jù)與基于語(yǔ)義關(guān)系映射得到的未見(jiàn)類(lèi)數(shù)據(jù)數(shù)量不平衡的問(wèn)題在泛零樣本學(xué)習(xí)任務(wù)中的表現(xiàn)不盡理想。近年來(lái),隨著生成對(duì)抗網(wǎng)絡(luò)(generative Adversarial Networks,GAN)的發(fā)展,基于生成模型的零樣本學(xué)習(xí)方法逐漸興起。Xian等[6]使用對(duì)抗生成網(wǎng)絡(luò)基于語(yǔ)義特征與高斯噪聲生成未見(jiàn)類(lèi)的視覺(jué)特征進(jìn)行分類(lèi),使零樣本學(xué)習(xí)問(wèn)題轉(zhuǎn)化為監(jiān)督分類(lèi)問(wèn)題。Zhu等[7]提出了可見(jiàn)類(lèi)視軸中心約束方法,提高了基于生成對(duì)抗網(wǎng)絡(luò)的零樣本學(xué)習(xí)算法的分類(lèi)精度。

基于對(duì)抗生成網(wǎng)絡(luò)的方法為零樣本學(xué)習(xí)提供了新的思路,然而,對(duì)抗生成網(wǎng)絡(luò)存在模型訓(xùn)練難度大、生成數(shù)據(jù)可分性與穩(wěn)定性較差等問(wèn)題。為了克服這些問(wèn)題,本文提出了一種基于共性假設(shè)的生成模型(Common Hypothesis-Based Generative Model,CHBGM)。針對(duì)對(duì)抗生成網(wǎng)絡(luò)訓(xùn)練難度較大的問(wèn)題,提出了一種基于條件變分自編碼器的零樣本生成模型;針對(duì)生成模型生成數(shù)據(jù)的可分性與穩(wěn)定性較差的問(wèn)題,提出了未見(jiàn)類(lèi)別與可見(jiàn)類(lèi)別的數(shù)據(jù)分布可分但具有一定的相似性的假設(shè),并提出一種共性正則項(xiàng),在生成模型的訓(xùn)練階段進(jìn)行約束。在主流零樣本學(xué)習(xí)數(shù)據(jù)集的零樣本學(xué)習(xí)與泛化零樣本學(xué)習(xí)任務(wù)上進(jìn)行實(shí)驗(yàn),驗(yàn)證了本文方法的有效性。

1 模型設(shè)計(jì)

1.1 問(wèn)題定義

在零樣本學(xué)習(xí)任務(wù)中,訓(xùn)練階段使用可見(jiàn)類(lèi)數(shù)據(jù)集合S={(x,y,cs)|x∈Xs,y∈Y,cs∈Cs}作為訓(xùn)練集,其中:x為基于深度卷積神經(jīng)網(wǎng)絡(luò)所提取的圖像視覺(jué)特征;y為可見(jiàn)類(lèi)圖像的輔助語(yǔ)義信息;cs為x與y對(duì)應(yīng)的類(lèi)別。在訓(xùn)練階段,未見(jiàn)類(lèi)輔助語(yǔ)義信息集U={(u,cu)|u∈U,cu∈Cu}對(duì)模型可見(jiàn),其中:u為未見(jiàn)類(lèi)的輔助語(yǔ)義信息;cu為u對(duì)應(yīng)的類(lèi)別;Cu∩Cs=?。

用Xu表示未見(jiàn)類(lèi)的視覺(jué)特征集合,則零樣本學(xué)習(xí)任務(wù)的目標(biāo)是訓(xùn)練一個(gè)分類(lèi)器fzsl:Xu→Yu;泛零樣本學(xué)習(xí)任務(wù)的目標(biāo)是訓(xùn)練一個(gè)分類(lèi)器fgzsl:Xu∩Xs→Yu∪Ys。

1.2 條件變分自編碼器

變分自編碼器(Variational Autoencoder,VAE)[8]是一種基于變分貝葉斯估計(jì)實(shí)現(xiàn)的生成模型,由一個(gè)編碼器與一個(gè)解碼器組成。變分自編碼器假設(shè)生成數(shù)據(jù)的分布可以由一個(gè)規(guī)整分布p(z)經(jīng)過(guò)一定的變換得到,p(z)通常取標(biāo)準(zhǔn)高斯分布。在變分自編碼器的訓(xùn)練階段,首先將原始數(shù)據(jù)通過(guò)一個(gè)編碼器qθ(z|x)編碼為隱變量z,再基于編碼的隱變量z使用一個(gè)解碼器pθ(x|z)重構(gòu)為接近原始數(shù)據(jù)的新數(shù)據(jù)。在測(cè)試階段,使用高斯噪聲作為隱變量z輸入解碼器,生成新的數(shù)據(jù)。變分自編碼器的損失函數(shù)如下:

(1)

變分自編碼器無(wú)法控制生成數(shù)據(jù)的類(lèi)別,為了解決這一問(wèn)題,文獻(xiàn)[9]提出了條件變分自編碼器(Conditional Variational Autoencoder,CVAE)模型。在條件變分自編碼器中引入了條件變量c,以p(x|c)作為變分下界,使模型能夠生成具備某些特性的數(shù)據(jù)。條件變分自編碼器的損失函數(shù)為:

LCVAE=-KL(qθ(z|x,c)‖p(z|c))+

(2)

本文訓(xùn)練了一個(gè)條件變分自編碼器作為未見(jiàn)類(lèi)的生成模型。在模型訓(xùn)練階段,以可見(jiàn)類(lèi)視覺(jué)特征數(shù)據(jù)作為自編碼器的輸入數(shù)據(jù),使用所生成類(lèi)別的輔助語(yǔ)義信息作為條件變量。訓(xùn)練完成后,使用高斯噪聲作為條件變分自編碼器中解碼器的輸入數(shù)據(jù),以未見(jiàn)類(lèi)別的輔助語(yǔ)義信息作為條件變量生成未見(jiàn)類(lèi)的視覺(jué)特征,用于進(jìn)行零樣本學(xué)習(xí)任務(wù)或泛零樣本學(xué)習(xí)任務(wù)。

1.3 共性假設(shè)約束

基于條件變分自編碼器可以生成與真實(shí)數(shù)據(jù)分布接近的數(shù)據(jù),但是條件變分自編碼器在零樣本學(xué)習(xí)任務(wù)中生成未見(jiàn)類(lèi)數(shù)據(jù)時(shí),由于沒(méi)有未見(jiàn)類(lèi)樣本且所生成的未見(jiàn)類(lèi)數(shù)據(jù)的分布僅依賴于輔助語(yǔ)義信息,容易導(dǎo)致所生成的未見(jiàn)類(lèi)數(shù)據(jù)分布與真實(shí)數(shù)據(jù)分布差異較大,從而影響使用生成數(shù)據(jù)進(jìn)行零樣本學(xué)習(xí)與泛零樣本學(xué)習(xí)任務(wù)的結(jié)果。本文假設(shè)零樣本學(xué)習(xí)任務(wù)中,未見(jiàn)類(lèi)數(shù)據(jù)與至少一種可見(jiàn)類(lèi)的數(shù)據(jù)分布具有一定的相似性。例如:斑馬與馬之間具有較強(qiáng)的相似性,若斑馬為未見(jiàn)類(lèi),馬為可見(jiàn)類(lèi),則此二類(lèi)數(shù)據(jù)分布之間的距離應(yīng)相對(duì)較小。依據(jù)該假設(shè),條件變分自編碼器所生成的未見(jiàn)類(lèi)別數(shù)據(jù)分布至少與一種可見(jiàn)類(lèi)別數(shù)據(jù)分布之間具有較小的距離。本文使用歐式距離度量分布之間的距離,并提出了共性約束正則項(xiàng):

(3)

(4)

式中:xcs∈Xcs為可見(jiàn)類(lèi)別cs中的數(shù)據(jù)。

為了防止共性約束降低未見(jiàn)類(lèi)生成數(shù)據(jù)與可見(jiàn)類(lèi)真實(shí)數(shù)據(jù)之間的可分性,從而影響模型在泛零樣本學(xué)習(xí)任務(wù)中的表現(xiàn),本文使用了輔助分類(lèi)正則項(xiàng)對(duì)未見(jiàn)類(lèi)生成數(shù)據(jù)以及可見(jiàn)類(lèi)的真實(shí)數(shù)據(jù)進(jìn)行區(qū)分。使用一個(gè)fc層與Softmax函數(shù)組合,作為分類(lèi)器,為未見(jiàn)類(lèi)的生成數(shù)據(jù)與可見(jiàn)類(lèi)的真實(shí)數(shù)據(jù)計(jì)算輔助分類(lèi)損失。輔助分類(lèi)正則項(xiàng)為:

(5)

式中:n為樣本類(lèi)別總數(shù);xi為各類(lèi)別視覺(jué)特征(可見(jiàn)類(lèi)使用真實(shí)視覺(jué)特征,未見(jiàn)類(lèi)使用生成視覺(jué)特征);f(xi)為分類(lèi)器分類(lèi)結(jié)果;ci為xi所對(duì)應(yīng)的數(shù)據(jù)標(biāo)簽。

最終,共性假設(shè)約束損失LR計(jì)算如下:

LR=Llike+λLcla

(6)

式中:λ為輔助分類(lèi)正則項(xiàng)對(duì)應(yīng)的超參數(shù)。

1.4 CHBGM

CHBGM整體結(jié)構(gòu)如圖1所示。其中,條件變分自編碼器由編碼器與解碼器兩部分組成。

圖1 基于共性假設(shè)的零樣本生成模型CHBGM

模型訓(xùn)練階段,在編碼器中,圖像視覺(jué)特征數(shù)據(jù)x與圖像輔助語(yǔ)義信息y共同通過(guò)兩層全連接層后,再分別經(jīng)過(guò)兩個(gè)不同的全連接層,計(jì)算出μ與σ,隨后從隨機(jī)分布N(μ,σ)中采樣出與μ和σ同維的隱變量z。在獲得由真實(shí)數(shù)據(jù)通過(guò)編碼器采樣的隱變量z后,使用z與y經(jīng)過(guò)解碼器中的兩層全連接層解碼為重構(gòu)特征xrc,根據(jù)式(2)計(jì)算條件變分自編碼器的損失LCVAE,根據(jù)式(6)結(jié)合可見(jiàn)類(lèi)樣本的視軸中心sc計(jì)算共性約束損失LR,并基于LCVAE與LR對(duì)條件變分自編碼器模型進(jìn)行優(yōu)化。

當(dāng)生成模型訓(xùn)練完成后,使用高斯噪聲作為解碼器的輸入,結(jié)合輔助語(yǔ)義信息y生成各類(lèi)別視覺(jué)特征數(shù)據(jù),并將所生成的視覺(jué)特征數(shù)據(jù)與真實(shí)數(shù)據(jù)一同送入一個(gè)分類(lèi)器中進(jìn)行訓(xùn)練。

測(cè)試階段,使用訓(xùn)練完成的分類(lèi)器模型其對(duì)測(cè)試數(shù)據(jù)進(jìn)行驗(yàn)證。本文分類(lèi)器由一個(gè)神經(jīng)網(wǎng)絡(luò)隱含層與Softmax函數(shù)組成。

2 實(shí)驗(yàn)與分析

本文基于Pytorch框架實(shí)現(xiàn)了CHBGM,并將可見(jiàn)類(lèi)視覺(jué)特征與該模型生成的未見(jiàn)類(lèi)視覺(jué)特征送入含有一個(gè)隱藏層的分類(lèi)神經(jīng)網(wǎng)絡(luò)中進(jìn)行訓(xùn)練,得到零樣本分類(lèi)模型。本文實(shí)驗(yàn)的軟硬件環(huán)境為:Windows 10(64位),Python 3.7,NVIDIA 2080ti,RAM 8 GB及i7- 9750H。

2.1 數(shù)據(jù)集配置

對(duì)于零樣本學(xué)習(xí)任務(wù)與泛零樣本學(xué)習(xí)任務(wù),本文參考文獻(xiàn)[10]的規(guī)范,選取了AWA2、SUN、CUB三個(gè)主流零樣本學(xué)習(xí)數(shù)據(jù)集作為實(shí)驗(yàn)數(shù)據(jù)集,各數(shù)據(jù)集的詳細(xì)參數(shù)如表1所示。各數(shù)據(jù)集的特點(diǎn)是:SUN類(lèi)別數(shù)較多,AWA2單類(lèi)別圖片多,CUB屬性個(gè)數(shù)多。

表1 數(shù)據(jù)集配置表

2.2 實(shí)驗(yàn)配置

本文的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)率取10-3,優(yōu)化算法使用Adam優(yōu)化算法[11],訓(xùn)練周期數(shù)為200個(gè),每個(gè)訓(xùn)練周期中,每次迭代時(shí)的批大小為64。實(shí)驗(yàn)中,所有數(shù)據(jù)集的圖像都由GoogleNet提取視覺(jué)特征,所提取的視覺(jué)特征維數(shù)均為1 024,數(shù)據(jù)集中的輔助語(yǔ)義信息均為屬性向量[1],超參數(shù)λ取值為0.001。

在零樣本學(xué)習(xí)任務(wù)中,由于數(shù)據(jù)集中各類(lèi)內(nèi)數(shù)據(jù)數(shù)量不均衡,本文參考文獻(xiàn)[10]使用各類(lèi)識(shí)別準(zhǔn)確率均值作為評(píng)價(jià)指標(biāo)。其定義如下:

(7)

在泛零樣本學(xué)習(xí)任務(wù)中,參考文獻(xiàn)[10]的規(guī)范,對(duì)于可見(jiàn)類(lèi)別數(shù)據(jù)集,使用80%的數(shù)據(jù)作為訓(xùn)練數(shù)據(jù),20%的數(shù)據(jù)作為測(cè)試數(shù)據(jù)。對(duì)于未見(jiàn)類(lèi)數(shù)據(jù)使用本文所提出的生成模型生成數(shù)據(jù)作為訓(xùn)練數(shù)據(jù),以真實(shí)數(shù)據(jù)作為測(cè)試數(shù)據(jù)。在泛零樣本學(xué)習(xí)任務(wù)中,使用可見(jiàn)類(lèi)識(shí)別準(zhǔn)確率與未見(jiàn)類(lèi)識(shí)別準(zhǔn)確率的調(diào)和平均數(shù)H作為評(píng)價(jià)指標(biāo)。

2.3 實(shí)驗(yàn)結(jié)果

本文模型應(yīng)用于零樣本學(xué)習(xí)任務(wù)的識(shí)別準(zhǔn)確率均值隨迭代次數(shù)變化的曲線如圖2所示。隨著迭代次數(shù)的增加,識(shí)別準(zhǔn)確率均值盡管在小范圍內(nèi)有所波動(dòng),但整體上逐漸提升并趨向于穩(wěn)定,證明了本文模型具有較好的收斂性。

圖2 訓(xùn)練過(guò)程中零樣本學(xué)習(xí)評(píng)價(jià)指標(biāo)的變化

在泛零樣本學(xué)習(xí)任務(wù)中,評(píng)價(jià)指標(biāo)H隨時(shí)間變化曲線如圖3所示。H隨著迭代次數(shù)的增加逐漸趨于穩(wěn)定,證明了該模型在泛零樣本學(xué)習(xí)任務(wù)中同在零樣本學(xué)習(xí)任務(wù)中一樣,具有較好的收斂性。

圖3 訓(xùn)練過(guò)程中泛零樣本學(xué)習(xí)評(píng)價(jià)指標(biāo)的變化

將CHBGM模型與表2中所示的六種零樣本識(shí)別方法進(jìn)行比較,使用各類(lèi)準(zhǔn)確率均值作為評(píng)價(jià)指標(biāo)。為了對(duì)比的合理性,本文對(duì)GAZSL進(jìn)行了復(fù)現(xiàn),使用屬性向量作為其輔助語(yǔ)義特征。可以看出,本文模型在零樣本學(xué)習(xí)任務(wù)上的表現(xiàn)相比于所比較算法更具優(yōu)勢(shì)。

表2 不同方法在各數(shù)據(jù)集上的零樣本學(xué)習(xí)表現(xiàn)對(duì)比

對(duì)于泛零樣本學(xué)習(xí)任務(wù),本文使用可見(jiàn)類(lèi)與未見(jiàn)類(lèi)識(shí)別率的調(diào)和平均數(shù)H作為衡量指標(biāo),對(duì)比結(jié)果如表3所示。可見(jiàn),本文模型優(yōu)于所比較方法。DAP、ALE、SJE等方法是基于視覺(jué)語(yǔ)義映射遷移的方法,在泛零樣本學(xué)習(xí)任務(wù)中各未見(jiàn)類(lèi)樣本只有一個(gè)視覺(jué)特征數(shù)據(jù),難以實(shí)現(xiàn)均衡的分類(lèi)器訓(xùn)練。GAZSL為基于對(duì)抗生成網(wǎng)絡(luò)的零樣本生成模型,該模型僅對(duì)模型生成的可見(jiàn)類(lèi)數(shù)據(jù)進(jìn)行約束,而未對(duì)未見(jiàn)類(lèi)數(shù)據(jù)進(jìn)行約束,其在零樣本學(xué)習(xí)與泛零樣本學(xué)習(xí)任務(wù)上的表現(xiàn)從側(cè)面證明了本文所提出的共性假設(shè)約束的有效性。

表3 不同方法在各數(shù)據(jù)集上的泛零樣本學(xué)習(xí)表現(xiàn)對(duì)比

盡管本文模型在零樣本學(xué)習(xí)任務(wù)中的表現(xiàn)優(yōu)于對(duì)比算法,但在泛零樣本學(xué)習(xí)上的表現(xiàn)并不理想,其原因是泛零樣本學(xué)習(xí)任務(wù)中,未見(jiàn)類(lèi)的數(shù)據(jù)需要與可見(jiàn)類(lèi)進(jìn)行比較,而生成模型通過(guò)可見(jiàn)類(lèi)的視覺(jué)特征數(shù)據(jù)學(xué)習(xí)生成未見(jiàn)類(lèi)的特征數(shù)據(jù)。雖然本文使用了式(5)的分類(lèi)正則項(xiàng)進(jìn)行約束,對(duì)可見(jiàn)類(lèi)數(shù)據(jù)與未見(jiàn)類(lèi)生成數(shù)據(jù)進(jìn)行區(qū)分,但是在泛零樣本學(xué)習(xí)任務(wù)中,可見(jiàn)類(lèi)數(shù)據(jù)與未見(jiàn)類(lèi)數(shù)據(jù)依然存在較高的混淆比率,依然有待改進(jìn)。

3 結(jié) 語(yǔ)

本文提出了一種基于變分自編碼器的零樣本學(xué)習(xí)方法,使用變分自編碼器結(jié)合屬性向量生成未見(jiàn)類(lèi)樣本以用于分類(lèi)任務(wù),同時(shí)提出了一種共性假設(shè)正則項(xiàng),對(duì)生成的未見(jiàn)類(lèi)樣本進(jìn)行約束。實(shí)驗(yàn)證明:本文方法優(yōu)于對(duì)比方法。

本文使用的輔助語(yǔ)義信息為不含噪的屬性向量,未來(lái)將引入更符合實(shí)際應(yīng)用的含噪文本作為輔助語(yǔ)義信息,并進(jìn)一步提高識(shí)別精度,使零樣本學(xué)習(xí)方法能更好地應(yīng)用于實(shí)際應(yīng)用當(dāng)中。

猜你喜歡
語(yǔ)義特征模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
語(yǔ)言與語(yǔ)義
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
3D打印中的模型分割與打包
“上”與“下”語(yǔ)義的不對(duì)稱(chēng)性及其認(rèn)知闡釋
認(rèn)知范疇模糊與語(yǔ)義模糊
主站蜘蛛池模板: 国产在线观看一区精品| 欧美中文字幕在线播放| 免费人成在线观看视频色| 天天婬欲婬香婬色婬视频播放| 伊人激情久久综合中文字幕| 国产av无码日韩av无码网站| 色综合天天娱乐综合网| 亚洲成aⅴ人片在线影院八| 亚洲丝袜中文字幕| 国产噜噜噜视频在线观看| 久久窝窝国产精品午夜看片| 国产成人精品一区二区三区| 国产在线观看91精品亚瑟| 日韩国产一区二区三区无码| 玖玖精品视频在线观看| 婷婷六月激情综合一区| 免费A∨中文乱码专区| 亚洲欧洲日韩综合色天使| 亚洲AV色香蕉一区二区| 在线欧美a| 97在线国产视频| 麻豆a级片| 黄色福利在线| 亚国产欧美在线人成| 91亚洲精选| 日本精品一在线观看视频| 国产一区二区三区日韩精品| 国产成人高清亚洲一区久久| 男女性色大片免费网站| 激情综合网址| 九色在线观看视频| 播五月综合| 亚洲成a人在线播放www| 日本AⅤ精品一区二区三区日| 久久夜色撩人精品国产| 欧美成人二区| 亚洲av无码久久无遮挡| 亚洲国产91人成在线| 亚洲精品中文字幕无乱码| 伊人色综合久久天天| 欧美综合成人| 在线观看91香蕉国产免费| 成人免费黄色小视频| 亚洲欧洲日产国产无码AV| 欧美人人干| 国产自在线拍| 毛片网站观看| 思思热精品在线8| 欧美成人a∨视频免费观看| 国产无码网站在线观看| 中文天堂在线视频| 色综合天天综合中文网| 久久这里只有精品免费| 成年av福利永久免费观看| 国产女人在线| a级毛片免费看| 国产波多野结衣中文在线播放 | 精品视频在线观看你懂的一区| 无码国产伊人| 欧美区一区二区三| 欧美性精品| 国产激情第一页| 夜夜操国产| 欧美亚洲欧美| 欧美成人h精品网站| 福利小视频在线播放| 97国内精品久久久久不卡| 久久中文字幕av不卡一区二区| a毛片基地免费大全| 日本在线亚洲| 国产爽妇精品| 亚洲男人在线天堂| 欧美成人精品高清在线下载| 91在线丝袜| 精品视频91| 日本久久网站| 亚洲无码一区在线观看| 国产精品三级专区| 国产麻豆精品久久一二三| 国产嫩草在线观看| 宅男噜噜噜66国产在线观看| 国产丝袜精品|