999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于轉導推理的小樣本學習方法改進

2024-01-01 00:00:00付海濤金晨磊楊亞杰馮宇軒
吉林大學學報(理學版) 2024年6期

摘要: 針對目前小樣本圖像分類推斷置信度有待提高的問題, 提出一個新的結合元置信轉導推理、 數據混淆方法和按特征線性調制方法的模型. 首先, 利用轉導推理在訓練過程中能學習到推斷數據的性質, 可以有針對性地學習; 其次, 在網絡結構中結合數據混淆方法, 加強對關鍵特征的提取, 提升模型的特征發現能力; 最后, 在轉導推理框架中加入按特征線性調制變換以改進模型的小樣本查詢能力. 在標準數據集Mini-ImageNet和Tiered-ImageNet上進行實驗的結果表明, 該模型在這兩個數據集上執行5-way 1-shot任務時準確率分別提升了3.21,3.36個百分點, 在5-way 5-shot任務上準確率分別提升了2.89,1.89個百分點. 實驗結果驗證了該方法的有效性.

關鍵詞: 小樣本學習; 轉導推理; 數據擾動; 按特征線性調制變換

中圖分類號: TP39""文獻標志碼: A""文章編號: 1671-5489(2024)06-1439-08

Transductive Inference Based Improvement for Few-Shot Learning

FU Haitao, JIN Chenlei, YANG Yajie, FENG Yuxuan

(College of Information Technology, Jilin Agricultural University, Changchun 130118, China)

Abstract: Aiming at the problem of the need to improve "confidence level in few-shot image classification inference at present, we proposed

a new model that combined meta-confidence transductive inference, data obfuscation method, and feature-wise linear modulation method. Firstly, by using transductive inference, the model could

learn properties of inference data during training process, and achieve targeted learning. Secondly, combining "data obfuscation methods "in the network architecture

to enhance the extraction of key features, and "improve the feature discovery ability of the "model. "Finally, feature-wise linear modulation transformation was added to "the transductive

inference framework to improve the model’s few-shot query capabilities. The results of experiments conducted on "standard datasets Mini-ImageNet and Tiered-ImageNet show

that the model improves "accuracy by "3.21 and 3.36 percentage points respectively when performing "5-way 1-shot tasks on these two datasets, and by 2.89 and 1.89 percentage points "respectively

on 5-way 5-shot tasks. The experimental results validate the effectiveness of the proposed method.

Keywords: few-shot learning; transductive inference; data perturbation; feature-wise linear modulation transformation

當前深度神經網絡的發展主要依靠大量標注樣本的監督學習[1]. 在實際應用中, 數據標注是一項勞動密集型工作, 難以保證數據質量. 當某類別的樣本數量不足或類別分布不均衡時會影響深度神經網絡在該類別上的分類性能[2]. 受人類強大學習能力的啟發, 在樣本不足或分布不均衡情況下有效學習的深度學習模型, 即為小樣本學習[3].

在小樣本學習中, 常采用的數據增強[4]、 遷移學習[5]和元學習等方法, 或是這些方法的組合. 數據增強是一種直觀的解決方案, 通過上采樣擴展數據集, 可增加數據量并平衡類別. 例如, 采用隨機過采樣和參數化過采樣進行數據增強, 再結合元學習進行求解設計, 能在一定程度上改善小樣本學習[6]. 基于元學習的原型網絡和孿生網絡聯合框架也取得了良好的結果[7]. 在結合數據增強的小樣本學習中, "除對訓練數據進行增強外, 還有基于特征的數據增強方案. 假設同一類型的數據特征服從同一高斯分布, 可先基于該假設對支持集特征進行聚類, 再通過元學習對查詢集特征進行分類, 最后在同分布特征中采樣, 實現按特征的數據增強也實現了較好的性能[8].

遷移學習通過將在源領域數據中學習到的模型遷移到目標領域, 從而提高目標領域的學習性能. 其典型流程分為預訓練和微調兩個階段. 預訓練使用相對充足的源領域數據進行訓練, 微調則利用目標領域數據對網絡進行調整以適應特定任務. 如殘差遷移網絡(residual transfer networks, RTN)就是通過遷移源領域的特征學習提升模型在目標領域的泛化能力

, 表現了良好的小樣本學習效果[9].

元學習, 尤其是度量學習, 則是一類通過自動學習知識解決相似性分類問題的方法. 度量學習通過計算待分類樣本與已知樣本之間的相似度, 在度量空間內完成分類推斷[10]. 典型方法有Koch等[11]提出的基于孿生網絡的單樣本學習方法, 以及Vinyals等[12]提出的匹配網絡, 都是利用相似度度量實現小樣本分類. 原型網絡通過比較類別原型之間的距離進行分類[13], 而關系網絡則通過神經網絡輸出相似度得分[14]進行分類.

基于以上小樣本學習技術, 為擴展深度神經網絡的知識學習能力, 本文采用基于元學習的轉導推理方法, 對小樣本學習進行改進. 首先, 引入區域混淆, 通過將輸入圖像劃分為多個區域, 按區域進行隨機排列, 增強模型在少量數據中進行特征學習的能力, 改進小樣本學習效果; 其次, 設計骨干網絡中的按特征線性調制變換(feature-wise linear modulation, FiLM), 通過對神經網絡中間特征進行仿射變換, 訓練提高轉導推理結果的置信度, 從而提升小樣本學習性能.

1"預備知識

1.1"小樣本學習問題

在小樣本學習任務中, 為解決在樣本數據量小的情況下對新類別進行準確分類的問題, 通常使用基類數據集Dbase訓練模型, 并使模型能泛化到新類Dnovel圖像數據上完成分類, 基類數據集與新類數據集相互獨立, Dbase∩Dnovel=. 在小樣本學習的圖像分類問題中, 每個元任務由支持集和查詢集組成, 其中: 支持集為S={{xi,s}Ks=1,yi}Ni=1, 支持集中類別數為N, 每種類別包含K個標記樣本; 查詢集為Q={{xi,q}Qq=1,yi}Ni=1, 查詢集和支持集來自同分布的N個類別, 每個類別中包含Q個測試樣本. 小樣本學習也稱為N-way K-shot分類問題.

1.2"轉導推理

通過對已有的訓練用例進行表征學習, 并據此進行推斷是常見的監督學習范式, 屬于歸納推理[15]. 轉導推理與歸納推理同屬監督學習, 其核心概念在于使用已知的訓練樣本學習對測試樣本的推斷[16]. 在模型的訓練階段引入訓練集和測試集, 以實現對這兩個數據集的充分利用. 相對于歸納推理有一定的推斷和遷移的性能提升, 當數據改變時訓練要重新進行. 轉導推理常見的方法主要包括轉導支持向量機(trans-support vector machine, TSVM)和標簽傳播算法(label propagation algorithm, LPA). 轉導支持向量機假設數據集合與其對應的標簽集合之間存在特定的幾何關系, 與支持向量機相同也致力于尋找具有分類能力的超平面. 標簽傳播算法是在已知部分數據的情況下, 根據數據之間的特征相似性推斷數據集中缺失標簽的機器學習方法, 算法包含了特征傳播和標簽傳播兩部分. 它們的目的都是通過有標記與無標記的數據進行綜合考慮, 從而提升識別效果. 在該過程中, 利用有標簽的數據確定支持向量, 而未標記的數據被用來描述數據的分布情況, 以提高分類效果.

轉導推理通過學習的方式使模型對輸入數據進行轉換、 分類、 標注、 生成等處理, 同時利用神經網絡對多個任務進行權值調節, 使目標函數達到最優. 在計算機視覺、 圖像分類、 自然語言處理和生物信息學等領域應用廣泛.

1.3"元置信轉導網絡模型

元置信轉導(meta-confidence transduction, MCT)[17]網絡在解決小樣本問題上, 先利用轉導推理得到查詢樣本的置信度加權平均值, 再通過得到的值對查詢樣本的類別原型進行更新. 但在現實問題中, 查詢樣本可能來自一個未知的分布領域, 這樣通過轉導推理得到的值可能不可靠, 導致預測錯誤. 為解決該問題, 引入了元學習方法, 先利用元學習中的距離度量給未標記的每個類的查詢樣本分配置信度得分, 再對獲得置信度的原網絡進行更新, 從而提高模型對未知分布查詢樣本的轉導推理能力.

在小樣本學習任務中, 即使對模型進行了元學習, 但由于數據的稀缺問題, 模型置信度本質上還是不可靠的. 為輸出更可靠的置信度, 可以強制模型輸出一致性的預測, 同時擾動模型或數據. 數據擾動共有兩個置信度, 一個置信度來自原始圖像, 另一個是對原始圖像進行水平翻轉后的圖像. 采用這種方法可以在不損失信息的前提下, 對數據施加一定的干擾, 從而得到訓練與測試中的擾動置信度. 模型中的擾動則是通過偽隨機過程決定是否刪除某些網絡模塊帶來的.

2"基于MCT的小樣本方法

2.1"區域混淆

人類有小樣本學習和細粒度學習的能力, 如在僅獲取少量局部區域樣本的條件下, 就能區分更有代表性的樣本特征, 從而實現分類和識別任務. 例如旅游愛好者能通過少量圖像的區域特征對景點進行分類. 相比于自然語言處理, 在監督學習條件下對比亂序前后的句子可以使模型注意到區分度高的詞, 在視覺領域, 將圖的局部區域擾亂前后的數據采用同一個標簽, 端到端地訓練網絡也可以使模型在分類任務中更好地聚焦在關鍵分類區域上. 即先把輸入圖像劃分為多個局部區域部分, 再利用區域融合算法(region confusion mechanism, RCM)[18]對局部區域進行打亂. 通過加強對細節特征的學習充分利用小樣本的數據.

RCM擾亂圖像局部區域的空間分布如圖1所示. 首先將圖像I切分為N×N個子區域, 用Ri,j標記每個區域, 其中i,j分別表示圖像塊在原圖中的行列位置, i和j的取值范圍為[0,N). 對局部區域的空間分布進行打亂, 其實就是為R的第j行生成一個隨機向量qj, 而第i個元素的值為qj,i=i+r, r的取值范圍為[-b,b], 且符合均勻分布U(-b,b), 0≤blt;N, 其中b是一個可調整的參數. 在第j行通過對qj進行排序獲得新區域的排列σrowj, 數量關系要滿足:

σrowj(i)-ilt;2b,""i∈{1,2,…,M},(1)

也可以用上述關系進行驗證.

同理, 在行向量和列向量上做完該操作后即可得到一個新的“破壞”后的圖像. 對區域逐列地應用變換σcoli:

σcol(j)-jlt;2b,""j∈{1,2,…,M}.(2)

原圖中(i,j)區域被重構后新的坐標位置為

σ(i,j)=(σrowj(i),σcoli(j)).(3)

該方法對原始圖像的區域分布進行重構后, 對不同類別之間提取細微差別的能力得到了提高, 解決了數據來自未知分布時, 置信度預測不可靠的問題.

2.2"按特征的線性調制變換

按特征的線性調制變換(FiLM)方法[19]來自于視覺問答, 使用該結構在神經網絡的中間表示數據上進行仿射變換, 該模式可在視覺問答實踐中按條件進行選擇特征.

即通過條件信息的特征仿射變換影響神經網絡的計算, 小樣本學習中支持集/查詢集的學習模式與視覺問答模式相仿, 所以在小樣本學習模型上可引入這類變換方法. 該方法通過學習兩個任意的函數f和h改進特征學習, 這兩個函數也可以通過神經網絡分支實現, 它們共享參數便于更好地學習, 本文將這兩個網絡作為一個網絡, 類似于孿生網絡的設計. 最終通過可學習參數γi,c和βi,c影響網絡:

γi,c=fc(xi),(4)βi,c=hc(xi),(5)

其中下標表示第i個輸入的第c個特征. γi,c和βi,c用來調節神經網絡中的激活Fi,c, 然而調節特征圖僅需兩個參數, 計算效率較高, 在圖像風格化、 視覺回答和語言識別領域表現優異. 本文將其用在查詢集與支持集的相似性比較上:

FiLM(Fi,cγi,c,βi,c)=γi,cFi,c+βi,c.(6)

一個卷積神經網絡結構上的單一FiLM層如圖2所示, 在MCT主干網絡中進行FiLM變換, 可以自適應地調整特征圖, γ和β的不同組合能實現多種方式對特征的調整, 其中⊙表示Hadamard乘積, 是一種常用的矩陣計算方法. 將兩個行、 列數相同的矩陣A和B對應位置元素相乘后的結果放入矩陣C中的對應位置, 可得到Hadamard乘積C: C(i,j)=A(i,j)⊙B(i,j), 其中i和j表示行列.

2.3"整體模型設計

本文對原始的MCT網絡結構進行優化, 以提高模型的泛華能力和分類性能, 改進的MCT網絡結構如圖3所示. 在支持集輸入階段, 采用區域混淆算法對圖像的區域進行打亂, 以增強數據的多樣性和模型的泛化能力.

在數據擾動后, 引入FiLM變換, 根據輸入數據的特征動態調整網絡的權重. 為更好地使網絡模型理解并區分不同的特征, 提高分類的準確性, 利用距離度量進行學習. 在查詢集

輸入階段, 采用與支持集相同的網絡結構進行特征提取, 以確保特征的一致性. 為提高模型在處理新數據時能快速準確地進行分類, 提取到的特征進行特征嵌入, 最終與支持集數據的特征進行k-means聚類度量.

2.4"算法流程

基于MCT方法的小樣本學習網絡算法流程如下.

為捕捉數據的不確定性, 數據經過區域擾動后把原有圖像劃分為多個區域后進行重構, 重構后的數據經過模型擾動后進行FiLM變換, 通過對中間特征應用條件信息的仿射變換影響轉導推理的置信度.

對查詢樣本進行元學習, 能產生一個可以提高性能的距離度量值dθ, 其中θ表示距離度量關系由可學習的參數θ決定. 設a1,a2∈, 使用歐氏距離定義有歸一化的按實例度量縮放gIθ和成對度量縮放gPθ, 分別表示為

dIθ(a1,a2)=a1‖a1‖2gIθ(a1)-a2‖a2‖2gIθ(a2)22,(7)

dPθ(a1,a2)=a1‖a1‖2gPθ(a1,a2)-a2‖a2‖2gPθ(a1,a2)22.(8)

為得到最優距離函數gθ∈{gIθ,gPθ}, 計算查詢樣本概率后, 優化距離函數gθ中θ的值, 使dθ∈{dIθ,dPθ}的損失盡量小, 其中dIθ為按實例度量縮放的距離度量值, dPθ為按成對度量縮放的距離度量值.

LτI(θ,φ)是一個期望損失函數, 在元學習過程中用于優化模型參數, 并在所有任務上取平均值, 其中τ表示任務索引

或任務分布, θ為定義自適應距離度量參數, φ表示模型參數. 在元學習中, 通常需要在多個任務上訓練模型, 每個任務τ可能包含不同的數據分布或不同

的類別. I表示損失函數的類型或實例, LI表示在特定任務τ上對每個實例進行預測時的損失, 表示集合的大小, 用來對所有樣本的損失進行平均. LτI(θ,φ)定義為

LτI(θ,φ)= "1∑(,)∈-log p(yx,s;θ,?)

= "1∑(,)∈d?(fθ(x),P(T)c)+∑

Cc′=1exp{-d?(fθ(x),P(T)c′)},(9)

其中: -log p(yx,s;θ,?)表示Softmax歸一化項; (x,y)表

示輸入樣本及其對應標簽; (yx,s;θ,?)表示給定輸入x和支持集s時, 模型預測樣本x屬于類別y的概率, 此概率通過Softmax函數計算得到; 距離項dφ(fθ(x),P(T)c)是模型預測的嵌入fθ(x)與類別原型P(T)c之間的距離, 該距離度量是通過參數θ學習的, 可以是歐氏距離; exp{-d?(fθ(x),P(T)c′)}是模型對類別c′預測概率的指數部分, d?是通過參數?學習的距離度量函數, fθ(x)是模型的嵌入函數, 將輸入x映射到嵌入空間中, P(T)c是類別c的原型, 是在第T步更新后的類別中心.

在此基礎上, 使用Soft k-means算法描述轉導推理得到置信度加權平均值后對原始網絡進行更新的主要過程. Soft k-means和Hard k-means這兩種算

法, 前者得到一個置信度, 類似于概率; 后者得到0和1, 0表示不屬于該類別, 1表示屬于該類別.

定義一個包含支持集S和查詢集Q的集, 并將Sc定義為類c的支持集, Qx為所有查詢樣本的集合, 其中Qx={X1,X2,…,Xc×m}. 計算每個類c={1,2,…,C}的初始原型

P(0)c=1Sc∑x∈Scfθ(x); 以t值為基礎, 計算樣本x的置信度, 即屬于類c的概率p(t-1)c(x),q(t-1)c(x)=exp{-d(fθ(x),P(t-1)c)}∑Cc′=1(-d(fθ(x),P(t-1)c′)),(10)

其中t={1,2,…,T}, x∈Qx, d(·,·)表示歐氏距離, P(t-1)表示第(t-1)步需要更新的原型網絡. 基于所有樣本x的置信度(概率)更新類c的原型. 網絡的具體訓練過程如下.

算法1"利用區域混淆和FiLM變換改進后的MCT網絡算法.

1) BEGIN

輸入: θ0,G0,J0,train,Nepisode(任務量);輸出: θ,G,J;

2) θ,G,J←θ0,G0,J0//模型參數初始化;

3) FOR x FROM 1 to Nepisode DO

4)"從train中隨機采樣一個任務δ(x)={S(x),Q(x)};

5) θ←σ(δ(x))//函數σ( )是將參數進行區域混淆, 按式(3)描述過程得到區域混淆重構后的新坐標;

6) θ′←FiLM(θγi,c,βi,c)//FiLM變換, 按式(6)完成;

7) G←式(7)//按式(7)得到按實例度量縮放的距離度量值

G←式(8)//按式(8)得到按成對度量縮放的距離度量值

8) G′←φ(G)//用函數φ( )對距離函數進行優化, 使dθ損失最小;

9) END FOR

10) J0←0//初始化網絡原型;

11) J←J0+式(10)//使用Soft k-means算法更新原型;

12) θ,G,J//更新網絡參數;

13) END.

3"實"驗

3.1"小樣本學習問題的評判標準

小樣本學習中5-way 1-shot分類任務表示在數據集中包含5個類別, 每個類別中的1個樣本作為訓練樣本. 小樣本學習是指在實驗中, 只給模型提供較少的樣本(1個或幾個),檢驗模型能否正確地推廣到新的類別上. 同樣在5-way 5-shot任務中選擇5類數據樣本, 并在每個類別中隨機抽取5個訓練樣本, 模型需要從這些訓練樣本中學習如何識別這5個類別, 當進行分類任務時, 模型能正確地完成分類.

分類準確率(ACC)是衡量小樣本學習分類模型性能的重要指標, 主要是通過計算模型正確分類的圖像數量nR與總預測圖像數量n的比值得到, 公式為

ACC=nR/n.(11)

3.2"實驗及參數配置

本文在數據集Mini-ImageNet和Tiered-ImageNet上對比并驗證了本文方法. 激活函數使用Hardswish[20], 與ReLU,Sigmoid和Tanh激活函數不同, 該激活函數在本文問題中具有計算效率的優勢. Mini-ImageNet: 該數據集由數據集ImageNet的一個子集組成, 常被用于小樣本圖像分類算法中. 數據集Mini-ImageNet包含100個類, 每個類有600張圖像, 共有60 000張數據集ImageNet的圖像, 并且每張圖像的處理長寬為84. 本文從100個類別中選取20個類別進行測試, 16個用于檢驗, 剩余的64個用于訓練. Tiered-ImageNet: 該數據集同樣也是基于數據集ImageNet, 但它采用了一種不同的分層采用方法, 可以更好地模擬實際應用場景中的數據分布和類別之間的關系, 與數據集Mini-ImageNet相比包含了更廣泛的類別. 本文從20個上層類別中選擇351個類別樣本進行訓練; 6個不同類別的上層類別中選擇97個類別樣本進行驗證; 8個不同類別的上層類別中選擇160個類別樣本進行測試.

3.3"實驗結果和分析

對數據集圖像結構進行全局破壞重構, 并將FiLM變換結合主干網絡ResNet-12改進的MCT網絡模型進行訓練和測試. 本文在數據集上分別進行了5-way 1-shot和5-way 5-shot的兩種實驗, 目的是與原有的MCT算法和其他同類型的小樣本圖像分類算法公平對比. 在實驗中以數據集Mini-ImageNet的500次測試的平均精度作為最終結果, 以數據集Tiered-ImageNet的800次測試的平均精度作為最終結果. 除圖像處理部分和FiLM變換外, 其余MCT的原有參數保持不變.

基于數據集Mini-ImageNet和Tiered-ImageNet, 各小樣本分類模型在5-way 1-shot和5-way 5-shot任務上進行實驗. 實驗結果列于表1, 包括TPN[21],DPGN[22],MetaOptNet[23],MCT[17](*表示原MCT網絡在同一設置下的復現)及本文的改進結果.

由表1可見, 改進后的本文(instance)模型在數據集Mini-ImageNet上的學習精度分別達到了(79.74±0.85)%,(88.45±0.12)%; 在數據集Tiered-ImageNet上的學習精度分別達

到了(83.11±0.65)%,(89.01±0.21)%. 實驗結果表明, 打亂圖像區域分布和FiLM變換的方法對解決MCT網絡在小樣本圖像分類問題上性能較好.

3.4"消融實驗

為進一步驗證改進后的MCT網絡模型的性能, 在數據集Mini-ImageNet上進行5-way 1-shot和5-way 5-shot的實驗. 將原MCT網絡同一設置下的復現結果作為基線, 分別測試進行

數據擾動(Sr)和FiLM變化后的數據, 實驗結果列于表2. 表2的實驗結果進一步驗證了改進后的MCT網絡模型的有效性, 優于原網絡模型, 取得了良好的效果.

綜上所述, 為提高MCT網絡在小樣本圖像分類問題中的準確性, 基于該網絡模型, 通過區域混淆機制, 使神經網絡能根據區域的圖像細節信息實現分類, 降低對圖像全局結構的依賴性. 利

用FiLM變換使網絡更適用于支持/查詢的學習模式, 有效改進了當數據來自未知分布時置信度不可靠的問題. 通過在經典數據集上的實試驗結果表明, 改進后的本文(instance-FiLM)

網絡模型相比原模型在5-way 1-shot任務中的分類準確率提高了3.21,3.36個百分點, 在5-way 5-shot任務中相比原模型提高了2.89,1.89個百分點.

參考文獻

[1]"BENGIO Y, LECUN Y, HINTON G. Deep Learning for AI [J]. Communications of the ACM, 2021, 64(7): 58-65.

[2]"LI Y D, HAO Z B, LEI H. Survey of Convolutional Neural Network [J]. Journal of Computer Applications, 2016, 36(9): 2508-2515.

[3]"HU X, CHEN S. A Survey of Few-Shot Learning Based on Machine Learning [J].

Intelligent Computer and Applications, 2021(7): 191-195.

[4]"朱曉慧, 錢麗萍, 傅偉. 圖像數據增強技術研究綜述 [J]. 軟件導報, 2021, 20(5): 230-236. (ZHU X H, QIAN L P, FU W. Overview of Research

on Image Data Enhancement Technology [J]. Software Guide, 2021, 20(5): 230-236.)

[5]"PAN S J, YANG Q. A Survey on Transfer Learning [J]. IEEE Transactions on Knowledge and Data Engineering, 2009, 22(10): 1345-1359.

[6]"OCHAL M, PATACCHIOLA M, STORKEY A J, et al. Few-Sho

t Learning with Class Imbalance [J]. IEEE Transactions on Artificial Intelligence, 2021, 4: 1348-1358.

[7]"YAN J, FENG K Y, ZHAO H Y, et al. Siamese-Prototypical Network with Data Augme

ntation Pre-training for Few-Shot Medical Image Classification [C]//2022 2nd Inte

rnational Conference on Frontiers of Electronics, Information and Computation Technologies (ICFEICT). Piscataway, NJ: IEEE, 2022: 387-391.

[8]"ZHANG X, HUANG W G, WANG R, et al. Multi-stage Distribution Correction: A Pr

omising Data Augmentation Method for Few-Shot Fault Diagnosis [J]. Engineering Application of Artificial Intelligence, 2023, 123: 106477-1-106477-16.

[9]"LONG M S, ZHU H, WANG J M, et al. Unsupervised Domain Adaptation with Residual T

ransfer Networks [J]. Advances in Neural Information Processing Systems, 2016, 29: 22-24.

[10]"SHEN Y Y, YAN Y, WANG H Z. Recent Advances on Supervised Distance Metric Learn

ing Algorithms [J]. Acta Automatica Sinica, 2014, 40(12): 2673-2686.

[11]"KOCH G, ZEMEL R, SALAKHUTDINOV R. Siamese Neural Networ

ks for One-Shot Image Recognition [C]//Proceedings of the 32nd International Conference on Machine Learning. [S.l.]: JMLR, 2015: 1-8.

[12]"VINYALS O, BLUNDELL C, LILLICRAP T, et al. Matching Networks for One Shot Learning [C]//Advances in Neural Information Processing Systems. Cambridge: MIT Press, 2016: 3630-3638.

[13]"SNELL J, SWERSKY K, ZEMEL R S. Prototypical Network

s for Few-Shot Learning [C]//Proceeding of the 31st International Conference on Neural Information Processing Systems. New York: ACM, 2017: 4080-4090.

[14]"SUNG F, YANG Y, ZHANG L, et al. Learning to Compare: Relation Network for

Few-Shot Learning [C]//2018 IEEE Conference on Computer Vision and Pattern Recognition. Pidcataway, NJ: IEEE Computer Society, 2018: 1199-1208.

[15]"KITSON N K, CONSTANTINOU A C, GUO Z G, et al. A Sur

vey of Bayesian Network Structure Learning [J]. Artificial Intelligence Review, 2023, 56(8): 8721-8814.

[16]"BOUSQUET O. Transductive Learning: Motivation, Models, Algorithms [J]. Jo

urnal of Machine Learning Research, 2002, 2002(14): 135-168.

[17]"KYE S M, LEE H, KIM H, et al. Transductive Few-Shot Learning with Meta-L

earned Confidence [J]. Journal of Machine Learning Research, 2020, 1(2): 1-3.

[18]"CHEN Y, BAI Y L, ZHANG W, et al. Destruction and Construction Learning for Fine-Grained Image Recognition [C]//Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2019: 5157-5166.

[19]"PEREZ E, STRUB F, DE VRIES H, et al. FiLM: Visual Reasoning with a General

Conditioning Layer [C]//Proceedings of the Thirty-Second AAAI Conference on Artificial Intelligence. Palo Alto: AAAI Press, 2018: 3942-3951.

[20]"RAMACHANDRAN P, ZOPH B, LE Q V. Searching for Activation Functions [EB/OL]. (2017-10-16)[2023-02-15]. https://arxiv.org/abs/1710.05941.

[21]"LIU Y B, LEE J, PARK M, et al. Learning to Propagate Labels: Transductive Propagation Network for Few-Shot Learning [EB/OL]. (2018-03-25)[2023-03-10]. https://arxiv.org/abs/1805.10002.

[22]"YANG L, LI L L, ZHANG Z L, et al. DPGN: Distribution Propagation Graph Network

for Few-Shot Learning [C]//2020 IEEE/CVF Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2020: 13387-13396.

[23]"LEE K, MAJI S, RAVICHANDRAN A, et al. Meta-Learnin

g with Differentiable Convex Optimization [C]//IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2019: 10657-10665.

(責任編輯: 韓"嘯)

主站蜘蛛池模板: 日韩黄色在线| 亚洲国产中文综合专区在| 国产成人精品视频一区二区电影| 青青极品在线| 欧美成人精品高清在线下载| 国产第二十一页| 亚洲无码91视频| 成年人福利视频| 国产美女无遮挡免费视频网站| 香蕉综合在线视频91| 日本91视频| 免费看的一级毛片| 美女高潮全身流白浆福利区| 国产成人一区免费观看 | 一本无码在线观看| 久久免费视频6| 91小视频在线观看| 精品国产中文一级毛片在线看| 在线视频一区二区三区不卡| 国产免费a级片| 在线播放91| 亚洲成人精品在线| 国产一级片网址| 国产精品人人做人人爽人人添| 亚洲AV无码一区二区三区牲色| 久久久久久久97| 亚洲福利一区二区三区| 欧美日韩动态图| 欧美午夜网| 欧美黑人欧美精品刺激| 97人妻精品专区久久久久| 午夜国产在线观看| 亚洲VA中文字幕| 丝袜久久剧情精品国产| 天堂岛国av无码免费无禁网站| 2022国产无码在线| 久久精品只有这里有| 久精品色妇丰满人妻| 一级毛片免费的| 久久黄色小视频| 色九九视频| 亚洲色图欧美视频| 欧美性天天| 无码福利日韩神码福利片| 亚洲AV无码一二区三区在线播放| 亚洲美女久久| 午夜毛片免费看| 黄色国产在线| 国产精品欧美在线观看| 国产精品自拍露脸视频| 欧美综合区自拍亚洲综合天堂 | 亚洲国产清纯| 国产成本人片免费a∨短片| 在线亚洲天堂| 超碰aⅴ人人做人人爽欧美| 小蝌蚪亚洲精品国产| 国产成人精品午夜视频'| 国产欧美日韩va另类在线播放| 久青草免费在线视频| 国产一区二区丝袜高跟鞋| 国产成人无码AV在线播放动漫| 欧美国产日本高清不卡| 国产内射一区亚洲| 亚洲视频在线青青| 国产91无码福利在线| 乱人伦99久久| 园内精品自拍视频在线播放| 国产人在线成免费视频| 91人人妻人人做人人爽男同| 成人精品亚洲| 喷潮白浆直流在线播放| 久久国产精品娇妻素人| 91免费片| 性色在线视频精品| 91精品最新国内在线播放| 最新亚洲av女人的天堂| 日韩精品高清自在线| 日韩黄色大片免费看| 国产杨幂丝袜av在线播放| 免费国产高清视频| 第一页亚洲| 日日碰狠狠添天天爽|