韓彥凈 馬米米 張淑莉
1(鄭州工商學院工學院 河南 鄭州 450000)2(河南工業大學 河南 鄭州 450000)
隨著深度學習研究和應用,大數據領域中的數據挖掘算法也得到了飛速發展,其中訓練數據集和測試數據集之間的認知偏差是數據挖掘的一個關鍵問題[1]。因此,如何實現源域與目標域之間的域自適應成為了研究的熱點之一。
近年來,學者們研究提出了許多無監督領域自適應方法。它們可以歸納為三類:實例選擇、模型精化和表示自適應[2]。實例選擇是解決目標域中缺少標簽問題的一種傳統方法,文獻[3]以高置信度選擇目標實例指導無監督域自適應,迭代降低目標域標簽預測的不確定性。文獻[4]針對由于類不平衡導致模型泛化性能差的問題,提出了一種基于平衡概率分布和實例的遷移學習算法。實例選擇方法雖然準確率較好,但其計算代價高,應用條件較為苛刻。模型精化是通過假設目標模型是源模型的移位,從而在無監督域自適應中使用一些標記的數據精化源模型來獲得目標模型。文獻[5]通過對目標數據的軟標簽分配,源域深度學習網絡的迭代細化,從而實現了無監督域自適應。雖然上述方法取得了一定效果,但模型精化方法的靈活性較差,因為在域更新期間,模型體系結構在源域和目標域中都是固定的。另外,這些方法假設源域和目標域共享相似的底層流形,但上述假設在實踐中難以保證。
表示自適應通過對齊跨域的數據分布來學習域不變特征,這樣由對齊的源特征訓練的模型可以應用于對齊的特征空間中的目標域。文獻[6]將跨域分布對齊建模為流形中子空間的移動,子空間也被建模為主成分分析的特征向量或字典學習模型,源域和目標域分布通過在源和目標域之間插入子空間來對齊。文獻[7]通過使用對抗性學習技術實現分布對齊,提出了對抗性適應網絡來學習域之間的不可區分特征。文獻[8]沒有在每個域中保留幾何結構,而是應用最大平均偏差(Maximum Mean Discrepancy,MMD)標準來匹配源域和目標域中的幾何結構。然而當各域之間的幾何圖形不一致時源數據和目標數據依賴于不同的流形,源域和目標域幾何體是不變的,這樣就會導致源數據和目標數據無法對齊。即幾何體保留會導致較差的自適應性能。另外,反映數據關系的幾何信息不夠具有代表性和可區分性,尤其是在沒有標簽的目標域中,因此,這種跨域幾何體的直接對齊僅限于域自適應。
為了解決上述問題,提出一種基于幾何感知雙流網絡的無監督域自適應模型。提出的幾何感知雙流網絡用于學習相似表示和統一幾何結構分布的源域目標域特征。在該網絡中,統一準則被設計為源域和目標域幾何的差異損失。最后實驗結果驗證了本文模型的有效性。
將源樣本和目標樣本分別表示為Xs∈Rp×ns和Xt∈Rp×nt。p表示每個源/目標樣本的維度,ns和nt分別表示源和目標樣本的總數。待學習的源特征和目標特征分別表示為Zs∈Rq×ns和Zt∈Rp×nt。通常,特征維數q遠低于原始源/目標樣本的維數,即q<
式中:Lf和Lg分別是特征對齊和幾何對齊的損失函數;Θ表示模型中要學習的一組參數;γ表示平衡參數。
在式(1)中,在許多無監督域自適應方法中研究了用于特征對齊的損失函數Lf。因此,本文著重于幾何對齊建模,并使用先進的對抗式學習技術來實現特征對齊。
1.2.1特征空間中的幾何建模


式中:Nc(·)是一種列規范化操作,用于規范化每個源特征。
1.2.2數據幾何的流形學習

式中:Dd是流形核的對角矩陣;Nc(·)表示列規范化。
在獲得源域和目標域中的幾何體后,本文目標是對齊εfs和εft以進行域自適應。但是目標標簽不可用,因此源幾何體和目標幾何體之間的對應關系是未知的。假設幾何體在域之間是一致的,即εs~εt,跨域對齊幾何體的一種方法是幾何體匹配,它學習對應關系,同時保留每個域中的幾何體信息。優化過程表達式為:
式中:F是一個0-1矩陣,表示Xt和Xs之間的對應關系;Lps和Lpt分別是源域和目標域中的幾何不變項。
然而,這種一致幾何形狀的假設在實踐中是無效的,因此,式(5)無法在實際場景中實現幾何對齊。為了處理跨域幾何不一致的問題,對每對源和目標數據之間的對應概率進行估計,并將目標幾何與源域對齊。在數學上,通過以下方法優化目標特征的幾何結構εft:


(7)
式中:Qdc∈Rnd×K記錄了屬于每個類別的樣本的概率;k、k1和k2為類別索引;K為類別總數。
在式(7)中,Qdc指的是式(6)中的對應概率矩陣Q更容易估計的標簽概率,但式(7)可能不收斂,因為它最小化了負平方項。為了避免不收斂,將式(7)改寫為:
(8)


將源特征Zs聚類為K組,同一組中的源要素具有相同的標簽,并且分布緊密。相反,來自不同組的源要素具有不同的標簽,并且來自不同組的源要素之間的幾何距離統一為。
與源域不同,標簽在目標域中不可用,因此無法直接獲取Qtc。在本文中,通過限制目標特征位于一組源特征的鄰域來近似學習目標域中的自適應幾何。換言之,每個目標特征對于一個類別具有高概率。結合式(9)的約束,每個目標特征分布在靠近某個類別k的源樣本的位置,而遠離其他類別的樣本的位置,固定距離為。這意味著εft中的值最小化或優化為。對于每個目標特征最小化兩個不同類別的高概率即其中k1≠k2。求所有樣品和類別的和通過最小化Lgt=Q′tcQtc-tr(Q′tcQtc)學習目標域自適應幾何。
但如果沒有目標標簽的約束,每個目標樣本的特征將任意接近隨機類的源特征。為了避免任意對齊并使自適應幾何學習更加可靠,本文為目標域幾何集成了一致性損失。然后,目標域幾何體的優化更新為:
式中:Lpt(εt,εft)是幾何保持項,它約束目標特征和目標數據之間的幾何一致性。
結合式(9)-式(10),研究了幾何對齊的自適應幾何學習優化問題:
Q′tcQtc-tr(Q′tcQtc)+Lpt(εt,εft)
(11)
為了實現式(1)中的總體目標函數,本文搭建了一個幾何感知的雙流網絡,優化了Lf和Lg。幾何感知雙流網絡由源CNN、目標CNN、域鑒別器和分類器組成。在訓練階段,給定帶標簽的源圖像和未標記的目標圖像,對網絡進行特征和幾何對齊的損失訓練。在源域中,采用分類損失來進行特征識別。為了獲得對齊特征,引入了對抗性學習算法,并使用域損失來區分目標特征和源樣本特征。對于無監督幾何對齊,設計了具有統一幾何標準的幾何一致性損失和差異損失,以滿足式(11)中自適應幾何學習的目標。訓練后,利用訓練后的源CNN提取源圖像的特征。在測試階段,使用訓練的目標CNN將目標圖像映射到對齊的特征空間。然后,通過訓練的分類器對目標特征進行分類以預測類別標簽,或者與源特征匹配以進行重新識別。整體結構如圖1所示。

圖1 整體結構
1.4.1源域中的分類丟失
本文將源CNN和目標CNN的映射分別表示為Ms和Mt,即Zs=Ms(Xs),Zt=Mt(Xt)。分類器表示為C,源域分類損失表示為:
(12)
式中:ys表示源標簽;k表示類的索引;C(Ms(Xs))∈Rns×K是概率矩陣;1[ys=k]是第k個元素中非零值的單位向量。
1.4.2非鑒別域損失
基于非鑒別域的思想,本文引入了域鑒別器D來對齊源和目標特征。如果D不能正確預測源和目標特征Z={Zs,Zt}的域標簽,則將源特征Zs和目標特征Zt視為對齊。域不區分損失表示為交叉熵損失函數:
LfM(Xs,Xt,Ms,Mt,D)=-EXt[logD(Mt(Xt))]-
EXs[log(1-D(Ms(Xs)))]
(13)
式中:源樣本和目標樣本的域標簽分別為1和0。另外,將域鑒別器D設計為對抗網絡,以確保其在分配期間的鑒別。域鑒別器D的損失函數為:
LfD(Xs,Xt,Ms,Mt,D)=-EXs[logD(Ms(Xs))]-
EXt[log(1-D(Mt(Xt)))]
(14)
同時更新源CNN、目標CNN和域鑒別器的參數,忽略式(14)的情況下學習判別鑒別器。受式(13)的約束,即使是判別式鑒別器也無法正確預測源和目標特征的域標簽。換言之,源特征Zs和目標特征Zt是對齊的。
1.4.3無監督幾何對齊損失
式(11)優化以學習用于無監督幾何對齊的自適應幾何,優化分為兩個損失:1) 達到域自適應幾何統一標準的差異損失;2) 保留目標域幾何信息的幾何一致性損失。在源域中,本文將差異損失設為式(9)中的Lgs。為了計算目標域中的差異損失,引入式(12)中的分類器C來估計概率矩陣Qtc,即Qtc=C(Mt(Xt))∈Rnt×K。目標域差異損失公式如下:
LgDt(Xt,Mt,C)=v′(C(Mt(Xt)))′C(Mt(Xt))v-
tr((C(Mt(Xt)))′C(Mt(Xt)))
(15)
式中:v∈RK×1是一個全為1的列向量;因此v′Av表示矩陣A中所有元素的總和。幾何一致性損失是式(11)中的幾何保留項Lpt,其計算公式為:
式中:H(ε,μ)=1/(1+e-(ε-μ))是一個具有Sigmoid函數中點μ的Logistic函數;μt和μft分別是εt和εft的平均值。利用式(16),相似的目標樣本保持在特征空間中近的位置。因此,在對齊的目標特征之間保留目標域中的幾何信息。
總之,幾何感知雙流網絡需要解決以下優化問題:
-EXs[log(1-D(Ms(Xs)))]-

-EXt[log(D(Mt(Xt)))]+
γ(v′(C(Mt(Xt)))′C(Mt(Xt))v-
tr((C(Mt(Xt)))′C(Mt(Xt))))
(18)
EXt[log(1-D(Mt(Xt)))]
(19)
γ(v′(C(Mt(Xt)))′C(Mt(Xt))v-
tr((C(Mt(Xt)))′C(Mt(Xt))))
(20)
將源CNN、目標CNN、域鑒別器和分類器的參數分別表示為θs、θt、θD和θC。為了解決上述優化問題,通過保持其他模塊不變來優化θs、θt、θD和θC。在每次迭代中,計算參數的梯度,并使用小批量隨機梯度下降(SGD)通過反向傳播更新參數。
1.5.1θD和θC的梯度
式(19)和式(20)是可推導的,因為LfD和LC是典型的交叉熵損失,而LgDt是二次損失。通過簡單地計算θD和θC的導數,得到了θD和θC的梯度?LfD/?θD和?(LC+γLgDt)/?θC,如下:
1.5.2θs的梯度


(24)
其中:
(25)
總之,式(17)中θs的梯度是LfM、LC和Lgs梯度的總和:
1.5.3θt的梯度
類似地,采用無偏估計來降低式(18)中Lpt的復雜度,將Lpt的無偏估計表示為:


(29)
式(18)的梯度是LfM、LgDt和Lpt梯度的組合:
算法1域自適應算法
輸入:原始域Xs∈Rp×ns;目標域Xt∈Rp×nt,源標簽ys,概率矩陣C(Ms(Xs))∈Rns×K,鄰接矩陣εs∈Rns×ns和εt∈Rnt×nt,權衡系數γ。
輸出:分類器C和域鑒別器D。

2.forido
3.forjdo

5.根據式(19)最小化LfD;
6.end for
7.end for
8.forido
9.forjdo

11.根據式(18)最小化LfM(Xt,Mt,D)+γLgDt(Xt,Mt,C)+γLpt(εft,εt);
12.end for
13.end for
14.forido
15.forjdo

17.根據式(17)最小化LfM(Xs,Ms,D)+LC(Xs,Ms,D)+γLgs(εfs);
18.end for
19.end for
20.forido
21.forjdo

23.根據式(20)最小化LC+γLgDt;
24.end for
25.end for
1) 跨數據集數字識別:MNIST、USPS和SVHN數據集包含十類數字的圖像。簡而言之,M、U和S字符分別用于表示MNIST、USPS和SVHN數據集[9]。根據文獻[10]無監督域自適應模型中的設置,在四個自適應方向上對所提出的模型進行評估:M→U、M→S、U→M和S→M。
2) 跨數據集對象識別:本文方法也在Office Home數據集上進行了評估。該數據集由四個領域組成:Art(Ar)、Clipart(Cl)、Product(Pr)和Real-World(Rw)。每個域都有65種常見的圖像。通過所有12項適應任務來評估本文方法。
3) 跨模態行人再識別:本文在RegDB數據集上驗證了本文方法,該數據集包含由雙攝像頭系統捕獲的412位人的圖像。RegDB數據集中包含兩個子數據集:(1) 可見數據集(V),每個人有10個可見光圖像;(2) 熱成像數據集(T),每個人有10個不同的熱圖像。按照文獻[11]中的實驗方案,將可見光圖數據集和熱成像數據集隨機分成兩份,用于訓練和測試。通過重新識別訓練和測試數據集中的人員來評估幾何對齊特征。
4) 合成數據圖像分類:Syn2Real是視覺領域適應的數據集。該數據集由從三維對象模型渲染的合成數據集和具有相同對象類別的真實圖像數據集組成,從合成和真實數據集中選擇12類對象進行實驗,合成數據集和真實數據集分別是源域和目標域。
對于跨數據集數字識別實驗,源CNN和目標CNN由LeNet實現。在跨數據集對象識別中,ResNet-50用于特征提取。在其他識別任務中,選擇由五個卷積層和三個全連接層組成的AlexNet來實現源和目標CNN。按照文獻[12]中搭建的神經網絡,將域鑒別器D設計為具有3個全連接層、500個隱藏層和輸出層的深度學習網絡。用于標簽預測的分類器C是一個全連接層,其輸出是類標簽的概率向量。在本實驗中,平衡參數γ設為1。本文所有實驗均在MATLAB2016上進行,計算機的配置為2.5 GHz處理器和8 GB內存。
將本文方法與各種無監督域自適應模型進行了比較,包括:深度自適應網絡(DAN)[2]、加權最大平均差異(WMMD)[7]、區分域自適應(ADDA)[4]、聯合幾何和統計對齊(JGSA)[13]、分層對抗性深域自適應(HAND)[14]、最大分類器差異(MCD)[15]、條件對抗域自適應(CDAN)[9]、隨機鄰域嵌入(d-SNE)[10]和切片Wasserstein差異(SWD)[11]模型等。為了公平起見,實驗過程中,這些方法采用相同的深度學習模型骨干網絡,源CNN的結果也作為基準方法進行比較分析。
2.3.1跨數據集數字識別
跨數據集數字識別的實驗結果如表1所示。實驗結果表明,與其他模型相比,該模型在四位數字識別實驗中表現良好。該模型的平均準確率為80.0%,是所有無監督域自適應模型中準確性最高的。

表1 跨數據集的數字識別性能(%)
2.3.2跨數據集對象識別
表2總結了跨Office Home數據集的對象識別結果。結果表明,該模型在目標域的識別性能提高了17.1百分點。對于大多數自適應任務,本文方法也優于其他無監督域自適應模型。得到的平均準確率為63.2%,高于表2中列出的其他無監督適應模型。

表2 Office Home數據集上跨數據集對象識別性能(%)
2.3.3跨模態行人再識別
如3.1節所述,可視和熱數據集中的人員隨機分成兩半進行訓練和測試。在訓練階段,將帶有標簽的模態的訓練圖像(源域)和另一個沒有標簽的模態的訓練圖像(目標域)作為網絡中的輸入。在測試階段,目標域中的圖像用作測試集,而源域中的圖像用作庫集,對目標域訓練和測試數據集都進行了驗證,進行了十次實驗。在每次訓練中,都會挑選不同的人員進行訓練。表3總結了每個實驗的平均準確率(mAP)結果。本文方法在目標域訓練和測試數據集的所有實驗中都取得了最好的結果,在目標域訓練和測試數據集中,分別改善了16.0%和7.3%。

表3 RegDB數據集上跨模式人員重新識別的mAP(%)
表4中總結了Top20的匹配分數。結果表明,在目標域訓練數據集中,AlexNet特征比人工特征(HOG和mLBP)獲得了更好的性能。但是,目標域測試數據集中AlexNet的性能與人工制作的性能一樣差。相比之下,該模型在目標域的訓練數據集和測試數據集上都達到了最高的平均準確率,這表明所提出的幾何對齊特征具有更好的泛化能力。此外,標準累積匹配特性(CMC)曲線如圖2所示,以進一步說明幾何對齊特征的性能。與每個實驗中的其他模型相比,本文模型在幾乎所有級別上都獲得了最高的匹配分數。

表4 RegDB數據集上跨模態行人重識別的性能(%)

(a) 源:可視,目標:熱

(b) 源:可視,目標:熱

(c) 源:熱,目標:可視
2.3.4合成圖像分類
在十次實驗中也包含了合成圖像的分類實驗,并計算了平均結果。在每個實驗中,從Syn2Real數據集中隨機選擇十分之一的合成圖像和真實圖像進行實驗。圖3說明了真實圖像數據集中(目標域)每個類別的識別準確率。結果表明,本文方法不僅提高了平均準確率,而且提高了目標域中大多數圖像類別(12個類別中的9個)的識別性能。

圖3 算法在真實圖像分類中的性能
2.4.1消融研究
無監督幾何對齊通過三種損失獲得:源域和目標域差異損失(Lgs和LgDt)和幾何一致性損失(Lpt)。為了分析這些損失對性能的影響,消融實驗通過在幾何感知雙流網絡中部分應用這些損失來完成。表5總結了跨數據集對象識別的結果,以供分析。源域CNN作為基線模型,從這些表中,可以發現本文方法通過僅使用源域差異損失(Lgs)來提高性能。這是因為在Lgs約束下,特征對類標簽更具區分性。通過應用參考自適應幾何體統一標準的Lgs和LgDt,可以實現更大的準確率提高。本文方法的平均結果從56.2%進一步提高到59.5%。結合目標域幾何一致性損失(Lpt),本文方法的性能得到進一步提高,平均準確率達到63.2%。

表5 交叉數據集識別中消融實驗的性能(%)
2.4.2穩定性分析
本節分析十次實驗的準確率方差,以證明本文方法的穩定性。交叉數據集數字識別的結果與表6中現有的無監督方法進行了比較。對于每對數據集,最高方差以加粗顯示。結果表明,本文方法的方差不是最大的,這表明該模型的方差是可以接受的。此外,與同樣由對抗網絡組成的ADDA相比,本文方法獲得了更低的方差。因此,本文方法的性能相對穩定。

表6 數據集之間數字識別的準確度誤差(%)
2.4.3參數靈敏度
本文模型的總體目標函數如式(1)所示,包括一個超參數γ,用于平衡表示和幾何對齊。本節分析了參數敏感性實驗的結果,以說明本文模型中參數γ對性能的影響。參數敏感性實驗在數字數據集(MNIST、USPS和SVHN數據集)上進行。取不同的γ值,并保持其他實驗參數值不變。γ值是通過指數函數選擇的,范圍為10-3至103,隨γ值變化的跨域識別準確率如圖4所示。結果表明,在大多數成對數據集中,當γ值從10開始增加時,本文方法的性能逐漸從10-3提高至10-1,這驗證了學習自適應幾何在提高域自適應性能方面的有效性。當γ>1時,本文方法的準確性降低,這意味著不需要對幾何對齊(Lg)賦予較大的權重。特別是如果γ太大(γ>102),幾何對齊(Lg)會損害表示對齊(Lf)。可以在圖4中發現,當γ設置為103時,跨數據集識別準確率顯著下降。

圖4 隨γ值變化的跨域識別準確率比較
本文重點解決閉集域適配問題,其中源域和目標域的標簽空間相同。為了說明域共享標簽數量的影響,在標簽移位設置下進一步評估了本文模型。實驗在數字數據集上進行,借鑒開放集合域適配的實驗設置,其中源域和目標域的標簽空間部分重疊。非重疊標簽在源域和目標域中用作“未知”類。測試了不同域標簽的不同重疊率(20%、40%、60%和80%)。實驗中選擇數字0-1、0-3、0-5和0-7作為域共享標簽,重疊率分別為20%、40%、60%和80%。源域和目標域都包含域共享標簽的示例。除重疊標簽外,其余標簽的一半樣本包含在源域中,而另一半標簽的樣本包含在目標域中,具有不同標簽重疊率(LOR)的開放集域適配結果如表7所示。表7中報告了域共享類的準確率、目標域“未知”類的結果、目標域中所有類的平均結果,還總結了源模型(表示為CNN)的結果以供比較。

表7 數字數據集的開放集域自適應結果(%)
表7中的結果表明,一般而言,隨著域共享標簽數量的增加(LOR的增加),源模型(CNN)在識別域共享類方面的性能降低。這是因為在大型LOR的情況下,需要識別更多的域共享類,這增加了目標域中數字識別的難度。目標域“未知”類別上的源模型性能(CNN)也隨著LOR的增加而降低。原因可能是,隨著域共享標簽數量的增加,“未知”類的目標樣本可能更容易錯誤分類到某個域共享類中。
可以發現,與源模型(CNN)的結果相比,當LOR大于20%時,本文模型在大多數開放集域自適應實驗中提高了跨域識別性能。但在LOR為20%的某些情況下,本文方法對于域共享類的準確率較低,例如,當M→S,僅為2.9%。這是因為當LOR較小時,目標域包含許多帶有新標簽的樣本。因此,域共享類的樣本很可能通過跨域的幾何對齊被誤分類為“未知”類的樣本。雖然本文方法的性能不如在閉集域自適應實驗中穩定,但在某些情況下,本文方法表現較好。例如,當LOR為80%、U→M時,本文方法將平均準確度提高了34.1百分點。這一結果表明了學習自適應幾何在開放集域自適應中的有效性。
本節通過可視化幾何對齊的特征并在特征空間中列出目標樣本的最近鄰域源來考察本文方法的性能。
2.6.1特征可視化
使用圖5中的t-SNE可視化本文方法的源和目標特征。選擇數據集U→M和M→U作為圖示。原始像素值的數據分布作為基線,圖5中還說明了從LeNet[16]和ADDA中提取的特征進行比較。符號°和+分別用于標記源域和目標域中的數據/要素。

(a) U→M原始特征
在圖5(a)、圖5(e)中,獨立分布源數據集和目標數據集的樣本,可見源數據域和目標數據域之間存在較大的域偏移。圖5(b)、圖5(f)為LeNet特征的分布。結果表明,LeNet特征對于類別標簽更容易區分,因為這些特征是從源圖像及其標簽中學習的。但源特征和目標特征仍然沒有很好地匹配,這意味著深度學習特征中仍然存在數據集偏差問題。因此,一些目標樣本會被源模型使用深度學習特征錯誤分類。
與LeNet特征相比,來自源數據集和目標數據集的ADDA特征的邊緣分布的一致性更強,如圖5(c)-圖5(g)所示。這反映了對抗性適應的特征對齊效果。然而,可以發現每個目標樣本都是任意對齊到一個源樣本簇。因此,源數據集和目標數據集的幾何形狀(鄰域關系)是不同的。另外,來自不同類別的一些目標樣本在ADDA特征空間中緊密分布,導致這些類別的樣本分類困難。
相比之下,本文模型在源域和目標域之間對齊表示和幾何體,如圖5(d)、圖5(h)所示,源與目標的幾何對齊特征具有相似的分布。此外,在統一幾何準則的約束下,同一類的樣本以小方差聚類,分別單獨分布不同類的樣本。結果表明,由于目標樣本的映射受到幾何一致性約束的指導,目標樣本映射到錯誤類的可能性較小。因此,目標數據集的幾何對齊特征對類標簽的區別更大。
2.6.2最近鄰域源的可視化
本文將一些目標樣本及其五個最近鄰域源進行可視化,從而說明了特征空間中的鄰域關系。如圖5所示,選取跨模態行人再識別(V→T,T→V)的結果進行說明。可以看出,目標樣本與其鄰域中的源圖像具有相似的特征。

(a) T→V
為了克服幾何信息不具有代表性和可區分性等缺點,提出一種基于幾何感知雙流網絡的無監督域自適應模型。最后分析實驗結果可以得出如下結論:
(1) 提出的域自適應模型能夠在跨數據集對象識別、跨模態行人再識別、開放集合域自適應中均表現出較好的識別準確率,證明了幾何對齊有效提高了識別模型在目標域的泛化能力。
(2) 提出的模型獲得了更低的方差,因此驗證了該模型具有相對穩定的識別性能。另外由于目標樣本的映射受到幾何一致性約束的指導,目標樣本映射到錯誤類的可能性較小。因此,目標數據集的幾何對齊特征對類標簽的區別更大。
(3) 隨著域共享標簽數量的增加,源模型在識別域共享類方面的性能降低。目標域“未知”類別上的源模型性能也隨著域共享標簽數量的增加而降低。