999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進SwinTransformer的人臉活體檢測

2025-06-26 00:00:00王旭光卜辰宇時澤宇
中國測試 2025年6期
關鍵詞:特征檢測信息

中圖分類號:TB9;TP391.4 文獻標志碼:A 文章編號:1674-5124(2025)06-0031-09

Face anti-spoofing based on improved Swin Transformer

WANG Xuguang12,BU Chenyu12, SHI Zeyu1.2

(1.Departmentof Automation,North China Electric Power University,Baoding 07103,China; 2.Hebei Technology Innovation Centerof Simulation amp; Optimized Control for Power Generation,North China Electric Power University, Baoding , China)

Abstract: With the development of facial recognition technology, face anti-spoofing as the security guarantee of facial recognition system becomes more and more important. However, the majority of existing face antispoofing models tend to concentrate on specific detection scenarios and atack methods,and have limited robustness and generalization capabilities when they face unknown atacks.For this reason, this paper proposes an improved Swin Transformer model, called CDCSwin-T(Central diference convolution Swin Transformer). This model chooses Swin Transformer as the backbone to extract global facial information by using its shifted window atention.And it introduces the central difference convolution (CDC) module to extract local facial information. These enhance the model's ability to capture the diference between real and fake faces in this paper,thereby strengthening its robustness against unknown attacks; Additionally,the bottleneck attention module is introduced in the backbone model to guide the model to focus on the key information of faces and accelerate the training process.Finaly,the multi-scale information from different stages of the backbone model is fused byan adaptive fusion module,which improves the generalizability of the model proposed in this paper. The CDCSwin-T model achieves average classification error rates (ACER) of 0.2% , 1.1%. (1.1±0.6)% , and (2.8±1.4)% on the four protocols of the OULU-NPU dataset and the Half Total Error Rate (HTER) of 14.1% and 22.9% in cross-database evaluations on the CASIA-MFSD and REPLAY-ATTACK dataset, which both surpass the current mainstream models. It shows that its robustness and generalization capability when it face unknown attacks have been improved.

Keywords: face anti-spoofing; Swin Transformer; bottleneck atention module; feature fusion

0 引言

近年來,人臉識別系統性能不斷提升,其應用范圍也逐漸擴大,例如人臉門禁、人臉支付、考勤打卡、登機安檢等場景,但其帶來便利的同時也造成了一些問題。由于人臉圖像極易被獲取,非法用戶可通過偽造人臉來欺騙人臉識別系統。常見的欺詐攻擊為打印攻擊和重放攻擊,打印攻擊即將人臉照片打印出來并欺騙人臉識別系統;重放攻擊即采用電子屏幕重放人臉照片來欺騙人臉識別系統。由于人臉欺詐技術逐漸豐富,欺詐攻擊質量不斷增強,對人臉識別系統造成一定的威脅,給個人財產安全造成了極大的隱患,給公共安全管理帶來了較大的挑戰。因此人臉活體檢測任務(又稱人臉防偽)應運而生,如何建立可靠的人臉活體檢測模型逐漸成為了研究熱點。

面對人臉識別系統,欺詐攻擊圖像和真實人臉圖像存在一定的差別。真實人臉圖像具備豐富的紋理細節,如局部皮膚紋理、五官紋理、面部光照差異等,而偽造圖像無法復現部分細節,例如打印攻擊圖像無法復現真實人臉的光照差異、重放攻擊圖像丟失了人臉局部紋理細節并存在大量摩爾紋。上述偽造圖像的特點也成為了人臉活體檢測模型的重要檢測依據。目前主流的人臉活體檢測模型分為兩類,即基于手工特征提取的模型和基于深度學習的模型?;谑止ぬ卣魈崛〉哪P?,依據真假人臉圖像的顏色、紋理、材質、圖像質量、運動變化等差異手動設計特征算子。但隨著欺詐人臉圖像質量逐漸提升,特征算子的提取性能明顯不足,造成此類人臉活體檢測模型性能下降。YANGJ等[1]認為基于手工特征提取的模型無法提取真實人臉與欺詐人臉之間的決定性判別因素,并于2014年首次將卷積神經網絡應用于人臉活體檢測領域,從此人臉活體檢測進人新的發展階段。YUZ等[2]在2020年提出了基于中心差分卷積的檢測模型,該模型將普通卷積修改為中心差分卷積,提取欺詐攻擊內在特征,降低環境對模型干擾。

隨著人臉欺詐攻擊種類的不斷增加,卷積神經網絡模型也暴露了一些問題。由于卷積神經網絡模型在提取人臉全局信息方面存在局限性,導致該類人臉活體檢測模型性能下降。因此,研究員將自光聚焦在具有全局信息提取能力的Transformer模型上。GEORGEA等[3]于2020年首次將具有自注意力機制的VisionTransformer(ViT)模型引人人臉活體檢測領域。ViT模型將圖像分割成小塊作為輸入,其自注意力機制可以關注到人臉圖像各個位置,有效地提取了人臉的全局信息。QIAOT等于2022年提出將Transformer模型的自注意力機制線性映射修改為卷積操作,減少了運算量和計算成本,同時提高了模型性能。

然而,面對未知的欺詐攻擊,當前的人臉活體檢測模型存在兩點不足:1)當欺詐攻擊的場景和方式發生變化時,人臉活體檢測模型提取的欺詐人臉細粒度信息會隨之發生改變,使得模型無法捕捉真假人臉的差異,導致人臉活體檢測模型檢測性能下降。2)人臉活體檢測模型對淺層人臉特征圖語義特征描述能力較差,對深層特征圖細節感知不足,造成人臉細節信息丟失,導致其泛化能力較差。

為解決這些問題,本文提出了一種基于CDCSwin-T的人臉活體檢測模型,主要貢獻如下:1)本文模型采用SwinTransformer模型作為主干,利用其滑動窗口注意力機制提取人臉全局信息,同時引入中心差分卷積模塊,提取人臉局部信息,并將提取的人臉全局信息與局部信息充分結合。面對未知欺詐攻擊時,本文模型仍可以捕獲真假人臉的差異,提高了其面對未知攻擊的魯棒性。2)引入瓶頸注意力模塊[5],引導模型關注人臉的關鍵信息,增強模型對人臉特征的提取能力。3)引入自適應特征融合模塊,將模型提取的淺層細節信息和深層語義信息自適應融合,減少細節信息丟失,提高了模型的泛化能力。

1Swin Transformer模型

對于人臉活體檢測任務,Transformer模型采用逐像素計算的方法,導致訓練過程中模型計算負荷較大。為解決該問題,本文選用具有分層結構和滑動窗口注意力機制的SwinTransformer為主干模型,其結構如圖1所示。首先,圖像分割模塊(patchpartition)將大小為 (H,W) 的RGB人臉圖像進行分塊操作,得到大小為(4,4)的圖像塊,并在通道方向展平為48;其次,線性嵌入模塊(linearembedding)對圖像的像素通道進行線性變換,將特征圖通道數從48映射為 c ;隨后將大小為 (H/4,W/4) 、通道數為 c 的特征圖輸入SwinTransformer模塊。

圖1SwinTransformer模型的結構

SwinTransformer模塊如圖2(a)所示,包含窗口多頭自注意力層(W-MSA)、滑動窗口多頭自注意力層(SW-MSA)、標準化層(LN)和多層感知機(MLP)四部分。其中窗口多頭自注意力層將特征圖分割成大小為 N×N 的不重疊窗口,如圖2(b)所示,并在每個窗口中執行注意力計算,但不同的窗口信息無法進行跨窗交流,為此引入滑動窗口多頭自注意力層?;瑒哟翱诙囝^自注意力層通過將常規窗口循環上移和左移 (N/2,N/2) 距離,實現不同窗口的信息交互,從而保持全局信息,具體操作如圖2(c)和(d)所示,滑動窗口分割后得到的初始圖像塊進行移位拼接,得到最終的實際窗口分割方式,例如圖2(c)、(d)中的SW-MSA窗口數從9減少為4,以此來減少計算量。

圖2SwinTransformer模塊與窗口分割示例

面對未知場景的人臉攻擊,SwinTransformer模型可以有效地提取人臉全局信息,相比于傳統卷積神經網絡方法具有一定的優勢,但因其無法捕捉真假人臉的局部差異,導致其檢測精度與魯棒性不能達到最先進水平,具體驗證可見后續消融實驗。

2 改進的SwinTransformer模型

為提高模型面對未知攻擊的魯棒性,本文提出一種改進的SwinTransformer人臉活體檢測模型,即CDCSwin-T模型,其具體結構如圖3所示。該模型將SwinTransformer提取的人臉全局信息和中心差分卷積模塊提取的人臉局部信息相融合,更好地捕獲真假人臉的差異,提高其面對未知攻擊的魯棒性;同時引入瓶頸注意力模塊引導模型關注人臉關鍵信息,加速模型訓練;最后引入自適應特征融合模塊,將模型不同尺度信息融合,提高模型泛化能力。

圖3CDCSwin-T模型的結構

2.1中心差分卷積模塊

為了加強SwinTransformer模型對人臉局部細微紋理信息的提取能力,本文引入中心差分卷積模塊,將其加入到每個SwinTransformer模塊前。相比于普通卷積,中心差分算子可以利用人臉圖像的梯度信息,有效地提取真假人臉的差異。如圖4所示,該算子的采樣操作與普通卷積一致,但聚合階段更側重于采樣值的中心向梯度,具體公式如下:

式中: ?x,y (204號 中心差分卷積的輸入與輸出特征圖;p0 輸入特征圖的當前位置;pn 中心區域 R 中的位置;ω 卷積核;θ? 超參數。

圖4中心差分算子

對于整個中心差分卷積模塊,其結構如圖5所示,由于SwinTransformer模型中輸人的數據維度與卷積神經網絡中的不同,因此將輸入中心差分卷積模塊的數據維度從 (B,H×W,C) 變換為 (B,C,H,W) :隨后將得到數據輸入 1×1 的卷積層,使通道數減少為 C/4 ,再通過 3×3 的中心差分卷積提取局部特征;最后經過 1×1 的卷積層恢復其維度;同時加人殘差連接防止模型退化,并且在每個卷積層后加入歸一化層和ReLU激活函數以提高模型的穩定性。

圖5中心差分卷積模塊

2.2 瓶頸注意力模塊

為減少人臉圖像冗余特征的干擾,本文引入空間-通道混合的瓶頸注意力模塊,引導模型關注人臉的關鍵特征,提高模型的運算速度。如圖6所示,瓶頸注意力模塊由通道注意力機制 MC(?) 和空間注意力機制 MS(?) 并行組成。輸入特征圖 F∈RC/r×H×W 經過瓶頸注意力機制產生對應的三維特征響應M(F)∈RC×H×W ,并與原輸入逐元素相乘后再相加,得到輸出特征圖 F ,具體公式如下:

F=F+F?M(F)

圖6瓶頸注意力模塊

其中 M(F) 由 MC(?) 和 MS(?) 相加后通過Swish非線性激函數得到,具體公式如下:

M(F)=σ(MC(F)+MS(F))

下面將分別介紹通道注意力分支和空間注意力分支:

1)通道注意力分支:該分支旨在減少與真假人臉辨識無關的雜散信號,增強關鍵通道的權重。輸人特征圖 F∈RC/r×H×W 首先進行全局平均池化,再通過帶隱藏層的多層感知機(MLP)來估計各個通道的注意力權值,其中,隱藏層的神經元尺寸設為RC/r×H×W , r 代表壓縮比;最后通過批歸一化操作將輸出尺寸重調至輸入大小,具體公式如下:

其中 W0∈RC/r×C b0∈RC/r , W1∈RC×C/r b1∈RC 0

2)空間注意力分支:該分支旨在定向增強人臉關鍵位置特征的權重,采用可擴大感受野的空洞卷積,從圖像上下文信息中捕獲具有高辨別力的區域,進而增強特征提取能力。具體來說,輸入特征圖F∈RC×H×W 先經過 1×1 的卷積調整為 F∈RC/r×H×W 再通過兩層 3×3 的空洞卷積提取上下文信息,最后通過 1×1 的卷積和批歸一化操作將尺寸恢復至輸入大小,具體公式如下:

MS(F)=BN(f1×13(f3×32(f3×31(f1×10(F)))))

式中:fx 卷積操作;(204號 i? ——第i層;j×j. 二 —卷積核尺寸。

2.3 自適應特征融合模塊

SwinTransformer人臉活體檢測模型在淺層人臉特征圖語義描述和深層人臉特征圖細節感知方面存在不足,造成人臉細節信息丟失,導致其泛化能力較差。為解決這一問題,本文將SwinTransformer模型不同階段的特征圖進行自適應加權融合,充分利用不同尺度的人臉語義信息,減少細節信息丟失。如圖3所示,自適應特征融合模塊將主干模型不同階段輸出的特征信息先進行全局平均池化,再將得到的4個不同尺度的特征信息 F1 , F2 , F3 , F4 融合為 Ff ,計算公式如下:

Ff1?F12?F23?F34?F4

式中: α1、α2、α3、α4 特征信息對應的權重;(204號 wi 初始化權重系數。

3實驗結果與分析

3.1 數據集

本文選用OULU-NPU[、CASIA-MFSD[7](CM)和REPLAY-ATTACK[8(RA)數據集評估所提模型性能。其中OULU-NPU為大型高分辨率數據集,包含4950段真實和欺詐視頻,幀率為 30Hz 、分辨率為 1920×1080 像素,由55位志愿者在3種不同場景下的6種不同手機采集。另外該數據集具有4個測試協議,協議1、2、3分別測試不同數據采集環境、欺詐媒介、數據集采集設備對模型的影響,協議4即考慮以上所有因素。由于該數據集具備多種未知的攻擊類型,因此其成為用于評估模型面對未知攻擊性能的常用數據集。

CM數據集包括600段視頻,由50位志愿者在三個攝像頭下采集,其分辨率分別為 480×640 、640×480 、 720×1080 像素,其中欺詐攻擊類型包括三種:彎曲打印攻擊、剪切打印攻擊和重放攻擊。RA數據集包括1300段視頻,由50位志愿者在兩種不同光照的場景下錄制,其分辨率為 320×240 像素,欺詐攻擊類型包括打印攻擊和重放攻擊。

3.2 評價指標

OULU-NPU數據集庫內測試采用攻擊分類錯誤率(APCER)、真實表示分類錯誤率(BPCER)和平均分類錯誤率(ACER)。ACER即BPCER和APCER的平均值,其計算公式如下:

CM和RA數據集跨庫測試采用拒絕率(FRR)、錯誤接受率(FAR)和半錯誤率(HTER)。HTER即FRR和FAR的均值,計算公式如下:

3.3實驗環境及參數設置

本文所有實驗采用Windows1064位的操作系統,在型號為RTX-2080的GPU上使用Pytorch框架完成。實驗中采用MTCNN算法[9]檢測人臉區域,并截取大小為 224×224 的RGB人臉圖像作為輸入。訓練過程中,模型初始學習率設為0.0001,優化器采用Adam,迭代次數為200輪,batchsize設為4,同時為避免過擬合現象,對輸入圖像進行隨機翻轉與裁剪的預處理。

3.4 對比實驗

本文在OULU-NPU數據集進行庫內測試和在CM與RA數據集進行跨庫測試,通過與當前主流的模型對比,以此來驗證本文模型的檢測效果。

表1\~表4展示了該模型及當前主流模型在OULU-NPU數據集4個協議下的實驗結果,其中ACER越小,表示模型性能越好。本文模型在4個測試協議下的ACER分別為 0.2% , 1.1% (1.1±0.6)% , (2.8±1.4)% ,在各個協議均達到最佳。相比于采用輔助監督信息rPPG的Auxiliary方法和采用時間維度信息為輸人的STASN方法,本文方法采用單幀圖像進行檢測,降低模型復雜度。相比于采用卷積神經網絡的BCN和CDCN方法,本文模型利用SwinTransformer模型提取人臉全局信息,提供先驗知識,并采用中心差分卷積提取人臉局部信息,二者相結合,提高模型性能。Disentangled方法通過對圖片解糾纏,分離圖像人臉內容和無關內容,來應對未知攻擊,但目前并不能完全分離人臉內容與無關內容,導致檢測精度低。本文方法則采用中心差分算子和SwinTransformer共同提取人臉特征,其中提取到的真假人臉固有差異,不隨環境背景改變而發生變化,因此檢測性能更佳。AISL方法在CDCN網絡的基礎上引入自適應索引平滑損失,解決了難樣本的檢測問題,但面對不同環境檢測效果仍然不佳。對此本文方法引入瓶頸注意力模塊,使得模型更加關注人臉關鍵信息,去除冗余信息干擾。ASMN方法采用雙流網絡,以空間信息為輔助,將人臉全局特征和多尺度信息相結合,但由于模型復雜,導致檢測誤差較大。相比于此,本文利用自適應加權模塊,將不同尺度的特征信息相融合,提高特征利用率,充分捕捉真假人臉的差異。從表1\~表4可以看出,與現有方法相比,本文方法在4個協議的表現均具有一定的優勢,證明該方法面對未知攻擊具有一定的魯棒性。

表1OULU-NPU數據集協議1的實驗結果對比%
表2OULU-NPU數據集協議2的實驗結果對比

本文模型在庫內測試取得較好效果的同時,需要進一步驗證其泛化能力,因此選擇在CM和RA兩個數據集之間進行跨庫測試。由于這兩種數據集具備不同的人臉身份、環境、設備、欺詐介質等因素,因此可以較好地模擬出模型面對實際場景的檢測過程。測試結果如表5所示,當采用CM數據集訓練時,本文模型HTER為 14.1% ,采用RA數據集訓練時,HTER為 22.9% ,均優于當前主流最優模型,相比于次優的CDCN和ASMN模型其HTER分別降低 1.4% 和 1.1% ,證明了本文模型具有良好的泛化能力。

表3OULU-NPU數據集協議3的實驗結果對比
表4OULU-NPU數據集協議4的實驗結果對比
表5CM與RA跨庫測試實驗結果對比%

3.5 消融實驗

本文在OULU-NPU數據集協議1上設計主干模型選擇、瓶頸注意力模塊組合方式和位置以及驗證各模塊作用的消融實驗。

首先,本文從具有全局信息提取能力的Transformer類模型中選取最適合人臉活體檢測任務的模型作為主干。本文選取適合圖像任務的ViT、LeViT、MobileViT和SwinTransformer模型在相同的條件下進行訓練。其中ViT是最先應用于圖像領域的Transformer模型,具有提取全局信息的能力;LeViT在ViT的基礎上引入卷積層,并重新設計了自注意力模塊,提高特征提取能力;MobileViT將MobileNet與ViT相結合,具備全局信息提取能力的同時,提高了模型運算速度;SwimTransformer設計滑動窗口自注意力機制,提高特征提取能力的同時減少模型計算量。各模型的ACER如表6所示,其中SwinTransformer的ACER為 1.5% ,優于其他模型,表明其更適合人臉活體檢測任務。

表6不同主干模型結果對比

其次驗證瓶頸注意力模塊組合方式對模型的影響,分別設計先通道-后空間和先空間-后通道的注意力分支串行方式,以及通道和空間注意力分支并行的方式。該實驗中模型僅改變瓶頸注意力模塊,其結果如表7所示,并行注意力模塊的ACER最低為 0.2% ,因此本文選擇并行的通道空間注意力為瓶頸注意力模塊。

表7不同瓶頸注意力模塊結果對比%

由于SwinTransformer模型不同階段的輸出特征尺寸及信息均有所不同,對最終的檢測結果也起到一定的影響,因此本文設計瓶頸注意力模塊放置位置的實驗。表8顯示了瓶頸注意力模塊在不同放置位置的檢測效果,其中放在階段2后的ACER最低,為 0.2% ,表明此時模型性能最佳。

為驗證各模塊的作用,本文進行中心差分卷積模塊(CDCM)、瓶頸注意力模塊(BAM)和自適應特征融合模塊(AFF)的消融實驗。實驗結果如表9所示,“√\"表示在模型中使用該模塊。當CDCSwin-T模型依次僅去除CDCM、BAM和AFF模塊時,ACER分別上升 0.7% 0.3% 0.4% 。由此可以看出CDCM模塊對模型最重要,同時BAM和AFF均起到了一定的作用。相比于SwimTransformer,CDCSwim-T模型面對未知攻擊的檢測精度得到提升,也證明了其魯棒性與泛化能力的提升。

表8不同瓶頸注意力模塊放置位置結果對比

3.6 可視化分析

為更好地驗證本文所提模型及其模塊面對未知欺詐攻擊的作用,分別繪制baseline、模型1(baseline+CDCM模塊)、模型2(模型1+BAM模塊)、CDCSwin-T等4個模型在3個場景下的熱力圖(Grad-Cam)[16]。

如圖7所示,隨著baseline逐步加入不同模塊,各模型關注的真實人臉關鍵區域和假臉欺詐線索區域均逐漸增大。其中CDCSwin-T模型面對三個場景下的真實人臉均關注在人臉面部區域,如眼睛、嘴巴和鼻子,而不是特定的背景、光照等。對于打印攻擊,CDCSwin-T模型隨機關注于光反射造成的亮度差異區域;對于重放攻擊,CDCSwin-T模型側重于關注摩爾紋相似區域,而并不局限于人臉面部區域。由此可以看出CDCSwin-T模型面對未知場景及欺詐類型的攻擊具有一定的魯棒性與泛化能力。

%表9所有模塊的消融結果對比%
圖7模型可視化對比結果

3.7 實時測試結果

為進一步驗證所提模型的性能,本文設計實時人臉活體檢測實驗,首先通過MTCNN算法裁剪人臉并輸人本文模型,其次進行人臉活體檢測并顯示檢測結果。實驗選取兩位志愿者,在兩種光照下,進行測試。結果如圖8所示,real和spoof分別代表真實人臉和欺詐人臉,其中志愿者1和2所在場景分別為白天自然光和夜間燈光,欺詐攻擊類型分別為:手機重放攻擊、打印攻擊、裁剪打印攻擊。如圖8所示,本文模型對兩種場景下的真實人臉和三種不同類型的欺詐攻擊均能正確識別,證明了該模型的實際應用價值。

4結束語

針對目前多數人臉活體檢測模型面對未知攻擊魯棒性和泛化能力較差的問題,本文提出一種基于CDCSwin-T的人臉活體檢測模型。該模型以SwinTransformer為主干來提取人臉全局信息,其次引入中心差分卷積模塊提取人臉局部信息,二者相結合,使得主干模型充分捕獲真假人臉差異;隨后引入瓶頸注意力模塊引導主干模型關注人臉關鍵信息;最終將主干模型不同階段特征進行融合,減少人臉細節信息丟失,提高本文模型泛化能力。CDCSwin-T模型在OULU-NPU數據集的庫內測試和CASIA-MFSD與REPLAY-ATTACK數據集的跨庫測試均取得了優異的表現,也證明了該模型面對未知攻擊的魯棒性與泛化能力。后續工作將考慮收集更多實際場景中的欺詐攻擊用于本文模型訓練,同時輕量化該模型使其部署到移動設備。

圖8實時人臉測試結果

參考文獻

[1] YANGJ,LEI Z,LI SZ.Learnconvolutional neural network forface anti-spoofing[J].arXiv preprint arXiv:1408.5601, 2014.

[2] YU Z,ZHAO C,WANG Z,etal. Searching central difference convolutional networks for face antispoofing[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattem Recognition.2020:5295-5305.

[3]GEORGEA,MARCEL S.On the effectiveness of vision transformers for zero-shot face anti-spoofing[C]//2021 IEEE International Joint Conference on Biometrics (IJCB). IEEE, 2021:1-8.

[4]QIAO T,WUJ,ZHENG N,et al.Fgdnet:Fine-grained detection network towards face anti-spoofing[J].IEEE TransactionsonMultimedia,2023,25:7350-7363.

[5]張青春,吳崢,周玲,等.基于改進YOLOv5的車輛與行人目 標識別方法[J].中國測試,2023,49(7):82-88. ZHANGQC,WU Z,ZHOU L,et al.Vehicleand pedestrian target detection method based on improved YOLOv[J].ChinaMeasurement amp; Test,2023,49(7):82- 88.

[6]BOULKENAFETZ,KOMULAINENJ,LIL,etal.OULUNPU:A mobile face presentation attack database with realworld variationslC」//201712th IEEE international conference on automatic face amp; gesture recognition (FG 2017).IEEE, 2017: 612-618.

[7]ZHANG Z,YANJ,LIU S,etal.A face antispoofing database withdiverseattacks[C]//2012 5th IAPR international conference on Biometrics (ICB).IEEE,2012:26-31.

[8]CHINGOVSKA I,ANJOS A,MARCEL S.On the effectivenessof local binarypatternsinfaceantispoofing[C]/2012 BIOSIG-proceedings of the international conference of biometrics special interest group (BIOSIG). IEEE,2012:1-7.

[9]朱建秋,華陽,宋曉寧,等.結合面部紋理和前/背景差異的人 臉活體檢測[J].中國圖象圖形學報,2023,28(3):789-803. ZHUJQ,HUAY,SONGXN,etal.Facial livenessdetection combiningfacialtextureandforeground/background differences[J]. Journal of Image and Graphics,2023,28(3): 789-803.

[10]YANGX,LUOW,BAOL,etal. Faceanti-spoofing:Model matters,so does data[C]//Proceedingsof the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2019:3507-3516.

[11] ZHENG W,YUE M,ZHAO S,etal.Attention-based spatialtemporal multi-scale network for face anti-spoofing[J].IEEE Transactionson Biometrics,Behavior,and IdentityScience, 2021,3(3): 296-307.

[12] LIU Y,JOURABLOO A,LIU X.Learming deep models for faceanti-spoofing:Binary orauxiliarysupervision[C] //Proceedings of the IEEE conference on computer vision and pattern recognition.2018:389-398.

[13] ZHANG KY,YAOT,ZHANG J,etal.Face anti-spoofing Via disentangled representation learning[C]//Computer Vision-ECCV 2020:16th European Conference,Glasgow, UK,August 23-28,2020,Proceedings,Part XIX16.Springer International Publishing,2020:641-657.

[14]WANGC,ZHOUJ.An adaptive index smoothing loss for face anti-spoofing[J].Pattern Recognition Letters,2022,153: 168-175.

[15]YU Z,LI X,NIUX,et al.Face anti-spoofing with human material perception[C]//Computer Vision-ECCV 2020:16th European Conference,Glasgow,UK,August 23-28,2020, Proceedings,Part VII16.Springer International Publishing, 2020:557-575.

[16]陳海秀,陸康,何珊珊,等.改進生成對抗網絡水下圖像增強方 法[J].中國測試,2024,50(1):54-61. CHEN H X,LU K,HE S S,et al.Underwater image enhancement based on improved generative adversarial network[J].China Measurement amp; Test,2024,50(1):54-61.

(編輯:劉楊)

猜你喜歡
特征檢測信息
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
小波變換在PCB缺陷檢測中的應用
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 国产H片无码不卡在线视频| 国产区人妖精品人妖精品视频| 国产性猛交XXXX免费看| 制服无码网站| 无码精品国产dvd在线观看9久| 狠狠ⅴ日韩v欧美v天堂| 少妇精品网站| 91丝袜美腿高跟国产极品老师| 国产内射在线观看| 欧美一区二区丝袜高跟鞋| 四虎精品国产AV二区| 999在线免费视频| 国产精女同一区二区三区久| 国产黄视频网站| 自拍偷拍一区| 日本免费a视频| 亚洲视频四区| 高清码无在线看| 2018日日摸夜夜添狠狠躁| 尤物视频一区| 91国语视频| 国产精品美女自慰喷水| 2021国产乱人伦在线播放| 久久久精品久久久久三级| 99热国产这里只有精品9九| 亚洲激情99| 国产玖玖视频| 免费观看无遮挡www的小视频| 免费亚洲成人| 欧美日在线观看| 亚洲欧美一区二区三区图片| 亚洲色欲色欲www网| 国产成人乱无码视频| 亚洲国产系列| 久久综合丝袜日本网| 亚洲精品大秀视频| 四虎永久在线精品国产免费| 国产SUV精品一区二区| 综合色婷婷| 国产va欧美va在线观看| 日韩精品无码一级毛片免费| 久久人体视频| 亚洲日韩AV无码一区二区三区人| 四虎永久免费网站| 天天综合色天天综合网| 国产在线精品人成导航| 国产在线专区| 免费高清a毛片| 一本久道久综合久久鬼色| 国产一二三区视频| 国产va在线| 丰满少妇αⅴ无码区| 97国内精品久久久久不卡| 日韩成人午夜| 精品欧美一区二区三区久久久| 国产网站黄| 狠狠色丁婷婷综合久久| 亚洲侵犯无码网址在线观看| 在线观看91精品国产剧情免费| 亚洲精品色AV无码看| 亚欧成人无码AV在线播放| 亚洲青涩在线| 国产在线高清一级毛片| 91蝌蚪视频在线观看| 国产杨幂丝袜av在线播放| 国产99热| vvvv98国产成人综合青青| 国产一区二区三区在线观看免费| 91在线播放国产| 亚洲国产精品人久久电影| 四虎永久免费地址| 99re热精品视频国产免费| 亚洲色图综合在线| 搞黄网站免费观看| 欧美激情首页| 亚洲成人动漫在线| 国产99精品久久| 成人午夜网址| 小蝌蚪亚洲精品国产| 国产www网站| 亚洲最新在线| 欧美日韩免费|