999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于域自適應均值網絡的素描人臉識別方法

2023-05-08 03:15:42陳長武郭亞男杜康寧
計算機應用與軟件 2023年4期
關鍵詞:模態實驗方法

陳長武 曹 林 郭亞男 杜康寧

(北京信息科技大學光電測試技術及儀器教育部重點實驗室 北京 100101) (北京信息科技大學信息與通信工程學院 北京 100101)

0 引 言

隨著社會科技和民眾生活水平要求的不斷提高,人們迫切希望自己的生活環境更加智能化、更加安全化。與此同時,生物特征識別技術、機器學習和深度學習得到快速的發展,高速度高性能的計算機出現,人臉識別技術得到了前所未有的重視,其在視頻監控、門禁系統、網絡應用等各個方面得到了廣泛的實際應用。隨著人們的需求和應用場景的增加以及現實生活中人臉圖像具有多種表達形式,例如光學圖像、近紅外圖像[1]、熱紅外圖像、線條畫圖像[2]、素描圖像等,使得異質人臉識別[3]成為了人臉識別領域中的研究熱點。異質人臉識別旨在完成不同模態的兩幅人臉圖像之間的匹配,目前最困難的異質人臉識別情景之一是將光學圖像與根據目標的目擊者描述獲得的素描圖像相匹配,即素描人臉識別[4]。素描人臉識別最早提出于刑偵領域中,警方在處理刑偵案件時,通常很難獲得犯罪嫌疑人的面部照片,唯一可用的信息是目擊者對嫌疑人面部的口頭描述,可供畫家繪制犯罪嫌疑人的面部素描,進而搜索和匹配照片數據庫中的個體,并與證人進行校驗,從而確定犯罪嫌疑人的身份。

目前被設計用于素描人臉識別的算法可以分為兩大類:模態內算法和模態間算法[3]。模態內算法通過將照片(素描)轉換成素描(照片),然后使用在該模態下設計的面部識別器將合成素描(照片)與原始素描(照片)進行匹配,從而減少了模態差距。然而,僅當原始素描圖像在外觀上與原始照片非常相似時,這些方法才有較好的性能,此外,模態內算法所使用的面部識別器的性能還取決于生成圖像的質量。模態間算法通過將兩種不同模態的圖像特征劃分為公共空間,然后使用分類器進行識別,模態間方法旨在學習能夠同時最大化類間差異和最小化類內差異的分類器,較模態內方法,降低了復雜度。由于素描圖像和光學圖像之間存在較大的模態差異,直接使用模態間方法取得的識別精度相對較低。并且,由于素描人臉圖像難以獲得,現有的素描人臉數據較少,上述兩種方法在訓練較少數據時,均存在易過擬合的問題。

為了解決上述問題,本文提出一種基于域自適應均值網絡(Domain Adaptation Mean Networks,DAMN)的素描人臉識別方法。具體地,針對較少的訓練數據易過擬合的問題,域自適應均值網絡設計了一種針對素描人臉識別的元學習訓練策略,將學習水平從數據提升到任務,在訓練過程中,每個任務針對前一個任務,都存在新的類,極大地增強了模型的綜合泛化能力;在每個任務中,為提取判別性特征來提升識別率,域自適應均值網絡引入了適合素描人臉識別的均值損失,通過將光學圖像和素描圖像映射到同一個度量空間中,均值損失模擬圖像樣本之間的距離分布,使得同類的樣本特征彼此靠近,異類的樣本特征彼此遠離。最后,為了減少在訓練過程中光學圖像和素描圖像間存在的模態間差異,域自適應均值網絡引入了一個域自適應模塊,通過不斷降低二者之間的最大平均差異來優化網絡。

1 相關工作

元學習[5-7]又稱為“學會學習(Learning to Learn)”,即利用以往的知識經驗來進行新任務的學習,具有學會學習的能力。元學習將學習水平從數據提升到任務[8],通過從一組標記的任務中學習,而不是傳統深度學習中的從一組標記的樣本數據中學習,從而實現在一定量的訓練數據的情況下快速學習新類的分類器。現有的元學習可分為三大類,第一類為基于優化的元學習方法,Ravi等[9]提出基于LSTM的元學習優化器,元學習器在考慮單個任務的短期記憶的同時,也考慮了全部任務的長期記憶,直接通過優化算法來提升泛化性能;第二類為基于模型的元學習方法,Finn等[10]提出了Model-Agnostic元學習方法,該方法旨在尋找給定神經網絡的權重配置,使得在幾個梯度下降更新步驟中有效地針對小樣本問題進行微調;第三類是基于度量學習的元學習方法,通過模擬樣本之間的距離分布,使同一類的樣本彼此靠近,不同類的樣本彼此遠離。Vinyals等[11]提出了匹配網絡(Matching Networks),該網絡使用一種注意機制,通過學習嵌入已標記的樣本集(支持集)來預測未標記點(查詢集)的類。

國內外研究人員對基于度量學習的元學習方法進行了大量研究,并且提出了許多基于該方法的圖像識別方法,廣東大學的Wang等[12]提出了孿生網絡(Siamese Networks),通過從數據中學習一個相似性度量,用學習到的度量去比較和匹配新的未知類別的樣本;阿姆斯特丹大學的Garcia等[13]提出了圖神經網絡(Graph Neural Network),該方法定義了一個圖神經網絡,端到端地學習信息傳遞的關系型任務,將每個樣本看做圖的節點,該方法不僅學習節點的嵌入,也學習邊的嵌入。雖然元學習在圖像識別領域取得了重大進展,但仍未被應用到素描人臉識別領域當中。

2 本文方法

域自適應均值網絡架構如圖1所示,由一個元網絡和域自適應模塊組成。針對現公開的素描人臉圖像數據較少,且傳統的深度學習方法在少量訓練數據情況下易過擬合,進而導致識別性能受到影響的問題,本文設計元網絡,將學習水平提升至任務,避免了在現有數據量不多的情況下易過擬合的問題,并且實現了更好的識別性能。在元網絡中,通過特征提取器,分別得到元任務中的光學圖像和素描圖像的特征向量后,利用二者在特征空間的度量關系計算得到均值損失。針對素描圖像和光學圖像間的模態差異的問題,引入了域自適應模塊,通過最小化特征空間中素描圖像和光學圖像之間的最大平均差異,來降低模態差異對識別性能的影響。

2.1 元任務

傳統的基于深度學習的素描人臉識別方法,在訓練數據較少時,存在易過擬合而導致性能較差的問題,因此本文借鑒經典元學習方法原型網絡(Prototypical Networks,PN)[14]的思想,設計如下的訓練策略。

2.2 元網絡

元網絡結構如圖1所示,其中特征提取器f(·)采用18層的殘差網絡ResNet-18[15],主要由四種不同通道大小設置的殘差模塊作為基本結構組合而成。殘差模塊結構如圖2所示,每個殘差模塊堆疊了兩層卷積,兩層卷積的通道數相同,每個殘差模塊的輸入首先與第一層3×3卷積層進行卷積,然后依次執行批量歸一化(Batch Normalization,BN)和激活函數修正線性單元(Rectified Linear Unit,ReLU),然后輸入到第二層3×3卷積層,再次通過BN層,最后與殘差模塊的輸入相加,再通過ReLU激活層,作為殘差模塊的輸出。ResNet-18網絡結構如表1所示。

圖2 殘差模塊示意圖

表1 ResNet-18網絡結構

(1)

(2)

(3)

與此同時,對Ss執行與Sp相同的操作,同樣得到一個平均度量值:

(4)

(5)

對整個查詢集Q的負對數概率進行最小化作為目標損失函數即均值損失:

(6)

2.3 域自適應模塊

現有的基于元學習的圖像識別方法均針對同域圖像間的識別,即在訓練過程中支持集和查詢集為同種模態的圖像。在本文設計的訓練策略中,支持集由光學圖像或者素描圖像構成,查詢集由光學圖像和素描圖像構成,而光學圖像通過數碼設備拍攝得到,而素描圖像是通過畫家繪制得到,二者之間存在著較大的模態差異,導致深度網絡模型學習的二者之間的特征表示存在著較大的差異。為了減少模態差異對識別性能的影響,本文設計域自適應模塊,將素描圖像集和光學圖像集作這兩個分布,分別作為源任務和目標任務,在訓練過程中,不斷降低二者之間的最大平均差異來提高網絡的性能。

最大平均差異[16]最早提出用于兩個樣本之間的檢測問題,以判斷兩個分布是否相同。通過尋找在樣本空間上的連續函數f,求兩個分布的樣本在f上的函數值的均值,通過把兩個均值作差得到兩個分布對應于f的平均差異(Mean Discrepancy,MD)。尋找一個f使得這個平均差異有最大值,便得到了最大平均差異,若這個值小于設定的閾值,則表示兩個分布之間相同,否則,表示兩個分布不相同。在本文中,最大平均差異損失實際上是用于評估具有特征映射函數f(·)和核函數k(·,·)的再生核希爾伯特空間H(Reproducing Kernel Hilbert Space,RKHS)中兩個不同分布之間的相似性的距離度量:

(7)

式中:pp和ps分別對應每個“episode”中光學圖像和素描圖像的分布。將均值運算代入得:

(8)

式中:N為每個“episode”中的光學圖像的數量和素描圖像的數量。式(4)展開并將其中的點積進行核函數計算得:

(9)

其中:k(x,y)為高斯核函數:

(10)

在本文中,k(x,y)為五種不同的高斯核函數之和,即有五個不同的高斯核參數σi(i=1,2,…,5)。其中σ1計算公式為:

(11)

式中:m和n分別為源任務和目標任務中的樣本數量。σi(i=2,3,…,5)分別為:

σi=σ1×2i-1i=2,3,…,5

(12)

即本文中的k(x,y)為:

(13)

為了平衡域自適應均值網絡的分類性能和降低模態差異性能,本文將元嵌入模塊中的均值損失和域自適應模塊中的最大平均差異損失集成到一個統一的優化問題中:

minLtotal=Lmean+λLmmd

(14)

式中:λ為均值損失和最大平均差異損失間的權衡超參數。通過基于端到端梯度的反向傳播算法來優化網絡參數,達到目標學習的目的。算法1介紹了每個episode的損失計算流程。

算法1域自適應均值網絡中每個episode損失計算流程

輸入:具有K個類的訓練集Dtrain,每個元任務中的類的數量N,平衡超參數λ。

輸出:episode總損失Ltotal=Lmean+λLmmd。

1.{1,2,…,N}←隨機采樣({1,2,…,K}),從K個訓練類中隨機采樣N個類。

5.計算均值損失如式(2)所示。

6.計算最大均值差異損失如式(5)所示。

3 實驗與分析

3.1 數據集

本文采用UoM-SGFS數據庫[17]中的素描圖像和Color FERET數據庫[18]中的相應照片來評估本文方法,UoM-SGFS數據庫是目前最大的軟件生成的素描數據庫,也是唯一一個以全彩色表示所有素描的數據庫。為了能夠更好地訓練和測試算法,該數據庫被擴充到原來的兩倍,因此包含600個人的1 200幅素描。UoM-SGFS數據庫存在兩組:set A包含600對素描-光學人臉圖像,其中素描圖像由EFIT-V生成;set B同樣包含600對素描-光學人臉圖像,其中素描圖像為set A中的素描圖像經過圖像編輯程序微調后得到更加逼真的素描圖像,圖3展示了UoM-SGFS數據庫的樣本示例。

圖3 UoM-SGFS數據集樣本示例

為了進一步評估本文方法的性能,本文還在extend-PRIP(e-PRIP)數據庫[19]上進行了實驗,原始的e-PRIP數據庫由不同研究人員創建的四組數據組成,兩組由亞洲研究人員使用FACES和Identi-Kit工具繪制而成,一組由印度研究人員使用FACES軟件繪制而成,還有一組由美國畫家使用FACES繪圖工具繪制。本文僅采用了由亞洲研究人員使用Identi-Kit工具繪制的素描圖像,包含AR數據庫中的123個人的光學圖像和對應的合成素描。圖4展示了本文采用的e-PRIP數據庫的樣本示例。

圖4 e-PRIP數據集樣本示例

本文基于上述兩個數據庫劃分了三組數據集,在第一組數據集(S1)中,UoM-SGFS set A分為訓練集和測試集兩部分,訓練集包含450對圖像,測試集包含150對圖像,在測試集中,素描圖像構成probe集,照片構成gallery集;在第二組數據集(S2)中,UoM-SGFS set B分為訓練集和測試集兩部分,具體設置同S1一致,為了更好地模擬現實場景,S1和S2中的gallery集擴充了1 521個人的照片,包括來自MEDS-Ⅱ數據庫的509幅照片、來自FEI數據庫的199幅照片、來自LFW數據庫中的813幅照片。在第三組數據集(S3)中,e-PRIP分為訓練集和測試集兩部分,訓練集包含48對圖像,測試集包含75對圖像,在測試集中,素描圖像構成probe集,照片構成gallery集,表2詳細列出了數據集設置。為了保證算法的泛化能力,對三組數據集均進行了五重隨機交叉驗證。

表2 實驗數據集

3.2 實驗設置

1) 預處理:首先使用MTCNN[20]對UoM-SGFS數據集和e-PRIP數據集中的圖像進行人臉檢測并對齊,僅保留人臉關鍵點信息,獲得同一尺度的人臉圖像,圖5展示了對UoM-SGFS數據集處理后的圖像示例。在訓練和測試時,在輸入模型前需要對經過上述操作后的圖像進行進一步處理,包括將圖像統一調整為256×256大小,圖像填充,圖像隨機裁剪,圖像水平翻轉,將圖像數據轉換成PyTorch可用的張量(Tensor)數據類型,以及對圖像歸一化處理。

圖5 處理后的UoM-SGFS數據集樣本示例

2) 參數設置:在訓練過程中,總共訓練60×100個元任務,每100個元任務保存一次模型,最終保存了60個訓練模型。根據多次實驗結果,針對S1和S2數據集,每個元任務“episode”從訓練集中隨機采樣32對圖像,即2.1節中的N設置為32;針對S3數據集,每個元任務“episode”從訓練集中隨機采樣8對圖像,即2.1節中的N設置為8。特征提取器resnet-18采用初始識別率為0.000 1、動量為0.1、步長為40的Adam優化器更新網絡的參數。均值損失和最大平均差異損失間的權衡超參數λ設置為0.01。

3.3 消融實驗

在本節中,我們在S1、S2和S3數據集上均進行了3組消融實驗,以評估本文方法中每個部分的貢獻。(1) DAMN without mmd:去掉了最大均值差異損失,采用元學習訓練策略和均值損失訓練網絡。(2) DAMN without ML:去掉了元學習訓練策略和均值損失,采用傳統的深度學習方法和最大均值差異損失對模型進行訓練,每個周期對所有訓練數據進行訓練,然后更新參數重新訓練所有訓練數據,分類損失采用交叉熵損失,仍保留了最大均值差異損失來降低光學圖像和素描圖像之間的模態差異。在訓練過程中,總共訓練了50個epoch,batchsize設置為4。(3) baseline:同時去掉了元學習和最大均值差異損失,僅采用傳統的深度學習方法和交叉熵損失對模型進行訓練。baseline在訓練過程中,參數和DAMN without ML保持一致,總共訓練了50個epoch,batchsize設置為4。三組消融實驗在S1、S2數據集上的Rank-1、Rank-10、Rank-50結果如表3和表4所示,在S3數據集上的Rank-10結果如表5所示,圖6、圖7和圖8分別為在S1、S2、S3數據集上的CMC曲線圖。可知,我們完整的方法優于所有這些變化,表明每個部分都是必不可少的,并且彼此互補。

表3 在S1數據集上的消融實驗結果(%)

表4 在S2數據集上的消融實驗結果(%)

表5 在S3數據集上的消融實驗結果(%)

圖6 在S1數據集上的消融實驗

圖7 在S2數據集上的消融實驗

圖8 在S3數據集上的消融實驗

通過上述3組消融實驗的實驗結果,我們發現將元學習和最大均值差異損失結合在一起來訓練模型,可以達到最佳效果;消融實驗1和實驗2的準確性均略低于完整的方法,但仍高于baseline,說明元學習算法通過將學習水平從數據提升到了任務,在相同數據量的情況下,大大提高了網絡模型的綜合泛化能力,從而顯著地提升了識別性能。最大均值差異損失通過降低素描圖像和光學圖像之間的分布差異,從而降低了二者之間的域轉移,對識別性能有了一定的提升。

3.4 對比實驗

在本節中,針對S1和S2數據集,我們將本文方法與目前最新的方法ET+PCA[21]、EP+PCA[22]、DEEPS[3]、D-RS+CBR[23]和LGMS[24]進行了比較,其中ET+PCA和EP+PCA為模態內方法,DEEPS、D-RS+CBR和LGMS為模態間方法。表6和表7分別展示了ET+PCA、EP+PCA、DEEPS、D-RS+CBR、LGMS和本文方法在S1和S2數據集上的實驗結果,圖9和圖10分別展示了對應的識別率柱狀圖。顯然,在更具有挑戰性的S1數據集上,除了本文算法外的算法性能均較低;模態間方法無論是在較低的Rank還是較高的Rank上都優于模態內方法。CBR和DEEPS均為專門設計用于軟件合成素描與光學圖像之間的匹配方法,其在S1和S2數據集上的低識別性能表明UoM-SGFS數據集的挑戰性。

表6 在S1數據集上的對比實驗結果(%)

表7 在S2數據集上的對比實驗結果(%)

圖9 在S1數據集上的對比實驗

圖10 在S2數據集上的對比實驗

在S1和S2數據集中,本文方法均優于其他方法。在S1數據集中,只有本文方法在Rank-10中正確檢索了90%以上的對象,平均匹配率為91.2%,對比方法中性能最好的DEEPS模態間方法,即使在Rank-50上也無法達到此性能。與DEEPS相比,本文方法在S1數據集上的Rank-1上約高出了35百分點,并且在S2數據集上的Rank-1上約高出了22百分點,本文方法的優越性能表明元學習算法較傳統深度學習算法的優勢。

針對S3數據集,我們將本文方法與目前最新的方法SSD[25]、Attribute[26]、和Transfer Learning[19]進行了比較,其中:SSD和Attribute為傳統方法;Transfer Learning為深度學習方法。表8展示了SSD、Attribute、Transfer Learning和本文方法在S3數據集上的實驗結果,圖11為對應的CMC曲線圖。可以看出,本文方法在Rank-1上的識別性能略低于Attribute方法,但從Rank-2開始,本文方法性能一直優于其他三種方法,并且在Rank-10上,本文方法較Attribute方法高出了9百分點,這表明了本文方法的有效性。

表8 在S3數據集上的對比實驗結果(%)

圖11 在S3數據集上的對比實驗

為了進一步體現本文方法的優越性,我們還將上述三個數據集S1、S2、S3在最新的域自適應方法DANN[27]、CDAN[28]和BSP+CDAN[29]上進行了實驗,實驗結果分別如圖12、圖13、圖14和表9、表10、表11所示。可以看出,本文方法性能優于其他三種域自適應方法。

表9 在S1數據集上的域自適應方法對比實驗結果(%)

表10 在S2數據集上的域自適應方法對比實驗結果(%)

表11 在S3數據集上的域自適應方法對比實驗結果(%)

圖12 在S1數據集上的域自適應方法對比實驗

圖13 在S2數據集上的域自適應方法對比實驗

圖14 在S3數據集上的域自適應方法對比實驗

4 結 語

針對現有的素描人臉數據量較少和素描圖像與光學圖像間模態差距大的問題,本文提出基于域自適應均值網絡的素描人臉識別方法。該方法通過設計基于距離度量的元學習方法訓練網絡,將學習水平從數據提升至任務,從而提高了網絡的泛化能力。對每個任務,通過在域自適應均值網絡引入均值損失,提取了判別性特征。最后,通過降低素描圖像特征向量和光學圖像特征向量間的最大平均差異,縮小了二者間的分布差異,從而減少了特征之間的模態差距。在UoM-SGFS數據庫和e-PRIP數據庫的實驗表明,本文方法可以有效改善素描人臉識別效果。

猜你喜歡
模態實驗方法
記一次有趣的實驗
做個怪怪長實驗
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
國內多模態教學研究回顧與展望
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
基于HHT和Prony算法的電力系統低頻振蕩模態識別
由單個模態構造對稱簡支梁的抗彎剛度
計算物理(2014年2期)2014-03-11 17:01:39
主站蜘蛛池模板: 午夜视频免费一区二区在线看| 欧美日韩国产成人高清视频| 国产一区二区三区在线观看视频| 手机精品视频在线观看免费| 91蝌蚪视频在线观看| www.日韩三级| 露脸真实国语乱在线观看| 欧美日韩国产在线播放| 精品無碼一區在線觀看 | 手机在线免费不卡一区二| 真实国产精品vr专区| 波多野结衣在线一区二区| 毛片一区二区在线看| 国产自在自线午夜精品视频| 国产精品蜜芽在线观看| 青青操视频免费观看| 中文字幕无码av专区久久 | 乱色熟女综合一区二区| 自慰网址在线观看| 亚洲水蜜桃久久综合网站| 亚洲激情区| 日本色综合网| 色哟哟国产成人精品| 久久免费看片| 91麻豆国产在线| 欧美在线综合视频| 亚洲人成网7777777国产| 亚洲欧洲日产国产无码AV| av手机版在线播放| 日韩专区第一页| a级毛片免费播放| 免费 国产 无码久久久| 亚洲成a人片在线观看88| 日韩欧美中文字幕在线精品| 亚洲国产亚洲综合在线尤物| 亚洲乱码在线播放| 国产va在线观看免费| 午夜无码一区二区三区| 亚洲欧美精品在线| 国产欧美日韩综合在线第一| 91九色视频网| 欧美精品xx| 亚洲自偷自拍另类小说| 国产日韩精品一区在线不卡| 亚洲精品国产综合99| 国产免费a级片| 九色综合视频网| 熟女视频91| 高h视频在线| 91视频精品| 亚洲精品波多野结衣| 一级片免费网站| 国产黄视频网站| 日韩精品无码免费专网站| 国产玖玖玖精品视频| 一级毛片免费观看不卡视频| 好紧好深好大乳无码中文字幕| 国产成人高清精品免费5388| 亚洲日韩高清在线亚洲专区| 欧洲成人在线观看| 国产你懂得| 国内熟女少妇一线天| 欧美日韩资源| 亚洲视频欧美不卡| 制服丝袜 91视频| 精品在线免费播放| 久久黄色小视频| 天天综合天天综合| 亚洲天堂视频在线观看免费| 亚洲欧美人成电影在线观看| 国产精品lululu在线观看| 亚洲视频无码| 亚洲乱码精品久久久久..| 伊人丁香五月天久久综合| 日韩精品无码一级毛片免费| 无码一区中文字幕| 夜夜拍夜夜爽| 久久久久九九精品影院| 国产夜色视频| 免费网站成人亚洲| 亚洲Va中文字幕久久一区 | 91久久偷偷做嫩草影院精品|