999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

IrisBeautyDet:虹膜定位和美瞳檢測網(wǎng)絡

2023-01-29 13:16:08陳旭旗沈文忠
計算機工程與應用 2023年2期
關鍵詞:可視化特征檢測

陳旭旗,沈文忠

上海電力大學 電子與信息工程學院,上海201306

當下生物特征識別已經(jīng)發(fā)展成為一門成熟的技術,廣泛用于許多政府機構和民事應用中,如電子護照、身份證、邊境管制、移動支付、門禁系統(tǒng)等等。常見的用于生物特征識別的生理特征主要有視網(wǎng)膜、掌紋、指紋、靜脈、人臉、耳廓、虹膜等,常用的行為特征主要包括步態(tài)、筆跡、聲紋等。相比指紋和人臉,虹膜具有較為明顯的優(yōu)勢。虹膜具有穩(wěn)定性,在胚胎階段發(fā)育之后終生穩(wěn)定不變;虹膜具有受保護性,其結構天然受到外部角膜保護,同外界隔離因而不易受傷害;虹膜識別具有非接觸性,虹膜采集設備無需同人體進行肢體接觸;虹膜具有較高的防偽造性,通過外科手術對人眼中的精細化結構進行修改難度極大、危險性極高,偽造代價極為昂貴。

呈現(xiàn)攻擊是指惡意的用戶向生物識別系統(tǒng)的傳感器非法地呈現(xiàn)偽造的生物測定學特征來實施各類攻擊,企圖繞過該身份認證安全系統(tǒng)。該攻擊的形式主要包括三類:一是在認證階段冒充他人身份;二是在識別階段隱藏自己真實身份;三是在注冊階段偽造虛假身份[1]。活體檢測(liveness detection)又稱為呈現(xiàn)攻擊檢測(presentation attack detection,PAD),其任務旨在檢測這種攻擊的存在性,以此保證系統(tǒng)在復雜、苛刻的條件下仍能進行正確身份識別,確保生物識別系統(tǒng)的安全性和可靠性[2]。隨著虹膜識別的流行和廣泛部署,虹膜活體檢測變得越來越重要,并受到廣泛關注。

1 相關研究

虹膜活體檢測的方法主要分為兩類:一類是基于硬件的方式,通過采用額外硬件設備采集人眼的物理特征(人眼組織的密度、顏色或者光學特性等)和生理特征(瞳孔放大、虹膜震顫、普爾欽反射等)來檢測;另一類是基于軟件的方式,主要是通過分析圖像和視頻中的靜態(tài)或動態(tài)特征來進行檢測[1]。

2000年,Daugman[3]率先提出PAD的一種方法,該方法可以檢測打印在紙張上或者打印在隱形眼鏡上的虹膜,主要通過分析傅里葉頻譜中的異常值、檢測角膜的普爾欽反射以及通過探測眼睛自發(fā)的虹膜震顫和受光照刺激的瞳孔收縮來實現(xiàn)活體檢測。McGrath等[4]提出了一種基于BSIF(binary statistical image features)和分類器集成學習的虹膜美瞳檢測方法。Czajka等[5]利用光度立體特征估計法,通過提取虹膜區(qū)域的三維結構來實現(xiàn)虹膜活體檢測。Trokielewicz等[6]基于深度卷積神經(jīng)網(wǎng)絡,實現(xiàn)對尸檢虹膜的活體檢測,同時利用導向反向傳播技術和梯度加權類激活熱力圖來進行可視化,檢測模型是否能夠提取虹膜圖像中的有效區(qū)域來進行分類判斷和決策。Soleymani等[7]提出使用小波分解來防御偽造虹膜圖片的攻擊。Kuehlkamp等[8]利用多個預訓練的BSIF濾波器來有效訓練輕量級卷積神經(jīng)網(wǎng)絡,采用分類器的多視圖集成學習來進行虹膜活體檢測。Czajka[9]使用支持向量機,利用光照變化條件下的瞳孔動態(tài)特性來進行虹膜活體檢測。宋平等[10]利用人眼區(qū)域的三維結構,提出了一種基于計算光場成像技術的虹膜活體檢測方法。賈皓麗等[11]對歸一化后的虹膜圖像進行濾波,計算其特征區(qū)域的圖像熵值,提出了一種基于Gabor濾波的虹膜活體檢測方法。李志明[12]采用深度學習算法,在歸一化后的虹膜圖像上自動提取隱藏特征,提出了一種基于卷積神經(jīng)網(wǎng)絡的虹膜活體檢測算法。劉明康等[13]基于含有增強型灰度空間生成器的三元組網(wǎng)絡,利用空間分析與變換的方式解決真假虹膜樣本的分類問題。文獻[1-2,14-15]指出,美瞳檢測是虹膜活體檢測領域里最具難度和挑戰(zhàn)性的研究課題,因此本文重點以美瞳檢測作為活體檢測來研究。

隨著卷積神經(jīng)網(wǎng)絡在計算機視覺和圖像處理領域取得的成功,一系列語義分割算法以及目標檢測算法也陸續(xù)引入到虹膜識別領域。周銳燁等[16]提出了一種基于Unet的神經(jīng)網(wǎng)絡模型,實現(xiàn)異質(zhì)虹膜圖像的精確語義分割。在虹膜識別過程中,為了實現(xiàn)人眼的精確定位,基于方向梯度直方圖和支持向量機,晁靜靜等[17]實現(xiàn)了雙眼虹膜圖像的人眼定位算法,為改進該定位算法,陳金鑫等[18]基于YOLO算法提出了一種人眼快速定位與分類算法,同時實現(xiàn)模型的輕量化。滕童等[19]基于級聯(lián)神經(jīng)網(wǎng)絡,設計出一個多任務虹膜快速定位模型,并有效實現(xiàn)虹膜關鍵點的檢測。

本文將端到端單階段目標檢測算法SSD(single shot multibox detector)[20]應用于人眼圖片的虹膜定位,并提出美瞳檢測算法IrisBeautyDet。實驗表明,該算法在中科院CASIA-Iris數(shù)據(jù)集和圣母大學NDCLD數(shù)據(jù)集上具有優(yōu)異的性能。對于頭發(fā)遮擋、眼鏡遮擋、光斑干擾等嚴苛條件下,仍具有較好的魯棒性。為了驗證算法的有效性,利用神經(jīng)網(wǎng)絡可視化方法獲得特征可視化圖。特征可視化圖中細粒度的豐富梯度信息有力地證明了本算法對虹膜特征和美瞳特征的優(yōu)異提取能力,并能夠充分學習到虹膜區(qū)域與美瞳區(qū)域的語義信息。

本文的工作包含以下內(nèi)容:

(2)使用MobileNet[21],將原有SSD網(wǎng)絡輕量化。引入注意力機制,分別采用通道注意力模塊[22]、空間注意力模塊[22]、CBAM模塊(convolutional block attention module)[22]以及SE模塊(squeeze-and-excitation)[23]進行美瞳檢測,探索引入模型的最佳注意力機制,進一步提高模型的準確度和泛化能力,彌補模型參數(shù)量減少后模型表達能力不足的缺陷。

(3)利用神經(jīng)網(wǎng)絡的可視化技術,確定網(wǎng)絡對輸入圖片的敏感區(qū)域,驗證網(wǎng)絡的有效性和可信度。利用guided backpropagation[24]技術提取輸入圖片中梯度顯著的區(qū)域,揭示了網(wǎng)絡能精準檢測美瞳的可解釋性。

2 IrisBeautyDet網(wǎng)絡模型

2.1 網(wǎng)絡模型原理

作為一種單階段虹膜定位和美瞳檢測網(wǎng)絡,Iris-BeautyDet算法借鑒了SSD的思想,采用先驗框進行區(qū)域生成,并利用多層的特征信息,進一步提升了虹膜定位和美瞳檢測的精度。IrisBeautyDet網(wǎng)絡采用MobileNet作為主干網(wǎng)絡(backbone),取代原SSD中的VGG16。IrisBeautyDet網(wǎng)絡共生成6個具有不同感受野和不同尺度的特征圖,并且將特征圖輸入注意力模塊,以提高網(wǎng)絡的有用信息提取能力。深層的特征圖具有更大的感受野,能夠提取大尺寸目標的語義信息,用于檢測大尺寸的虹膜和美瞳,而淺層特征圖感受野更小,用于檢測小尺寸的虹膜和美瞳。與此同時,針對不同尺度的特征圖需要生成不同尺寸和長寬比的先驗框。

由于正常的虹膜形狀近似呈圓形,因而相應的邊界框呈正方形,寬高比為1。然而在真實場景下,根據(jù)用戶眼睛睜開閉合程度的不同,虹膜區(qū)域相應的邊界框呈現(xiàn)矮寬型而非高窄型。從數(shù)據(jù)集中隨機抽取2 000個樣本的邊界框,統(tǒng)計其寬高比的分布規(guī)律,發(fā)現(xiàn)其寬高比主要分布在1至2.5之間(如圖1),因此先驗框所使用的寬高比設置為0.5、1.0、1.5、2.0、2.5、3.0。而先驗框尺寸的選擇則依據(jù)SSD算法[20]的處理方式,根據(jù)相應感受野大小不同,第k層特征層的尺寸Sk的選擇如公式(1),其中Smin=0.2,Smax=0.9。

圖1 邊界框的寬高比統(tǒng)計Fig.1 Aspect ratio statistics of bounding boxes

下一步,將已提取的特征圖分別送入檢測模塊。檢測模塊分為兩個分支,分別用于計算虹膜或美瞳的定位信息和置信度信息以得到預測框的完整信息。在IrisBeautyDet算法的訓練階段計算損失函數(shù)時,首先需要通過交并比(intersection of union,IoU)篩選出正樣本,并為正樣本匹配真值框。

先驗框經(jīng)過與真值框匹配之后,得到能匹配的正樣本與未能匹配的負樣本,由于得到匹配的正樣本數(shù)量較少,正樣本將會被數(shù)量龐大的負樣本淹沒,網(wǎng)絡訓練的誤差反向傳播中,正樣本的作用將會變得微乎其微。因此,在訓練過程中只使用部分置信度排名靠前的負樣本,將負樣本數(shù)量限制為正樣本數(shù)量的3倍。根據(jù)文獻[20],使用該難負樣本挖掘可以使優(yōu)化速度更快,訓練更加穩(wěn)定。

之后為正樣本計算定位損失,為篩選出的正負樣本計算置信度損失。本文所采用損失函數(shù)依照SSD算法[20],損失函數(shù)由兩部分加權求和構成,分別是定位損失Lloc和置信度損失Lconf,如公式(2),其中N是正樣本的數(shù)量,本文取α=1。定位損失Lloc用于對正樣本計算位置預測誤差(公式(3)),包括該樣本的中心點坐標(lcx i和lcy i)和邊框的寬高(lw i和lh i)。其中l(wèi)和g分別對應預測框和真值框。為了更好地用于訓練,計算誤差之前需要對真值框數(shù)據(jù)進行編碼獲得g?,如公式(4),然后使用smoothL1計算偏移量的回歸。在定位損失Lloc部分(公式(5)),對于正樣本計算相應檢測類別的softmax損失,對負樣本計算背景類別的softmax損失。

采用SPSS 19.0統(tǒng)計學軟件對數(shù)據(jù)進行處理,計數(shù)資料以百分數(shù)(%)表示,采用x2檢驗,以P<0.05為差異有統(tǒng)計學意義。

IrisBeautyDet網(wǎng)絡在推理階段,將檢測階段得出的預測框信息輸入到非極大值抑制算法(non-maximum suppression,NMS)中,最終得出模型的虹膜定位預測結果與美瞳檢測置信度信息。IrisBeautyDet網(wǎng)絡的結構如圖2所示。

圖2 IrisBeautyDet算法的網(wǎng)絡結構Fig.2 Network structure of IrisBeautyDet algorithm

2.2 網(wǎng)絡輕量化與注意力機制

為了避免原始SSD網(wǎng)絡繁雜的計算量,減小模型復雜度并提高計算速度以應用于實時場景,對原始網(wǎng)絡做輕量化。將主干網(wǎng)絡VGG16替換為更輕量的MobileNet[21],可以使原網(wǎng)絡的參數(shù)量(params)、浮點計算量(FLOPs)大幅降低,因此顯著提高網(wǎng)絡計算速度。VGG16網(wǎng)絡與MobileNet網(wǎng)絡的參數(shù)對比如表1所示。

表1 VGG16和MobileNet的對比Table 1 Comparison of VGG16 and MobileNet

引入MobileNet網(wǎng)絡之后,雖然顯著減少計算量并輕量化模型大小,但付出的代價是模型表達能力的降低,其表現(xiàn)為模型的準確率下降。為了有效緩解模型的復雜度和表達能力之間的矛盾,本文引入注意力機制(attention mechanism)。注意力機制是受人類視覺機制的啟發(fā)而提出,它可以看作是一種資源分配優(yōu)化方案,旨在面對大量低效信息中集中有限數(shù)量的計算資源來處理更有價值更有效的少量信息,因此其也常用于解決信息超載的問題。

SE模塊[23]采用全局平均池化來計算各通道的權重,首先通過Squeeze模塊進行全局平均池化得到一個具有全局感受野的通道分布嵌入,然后經(jīng)過Excitation模塊。通過調(diào)整特征圖中各通道的權重,從而重新線性組合原特征,以提高網(wǎng)絡的表達能力。

CBAM模塊[22]由通道注意力模塊(CAM)和空間注意力模塊(SAM)構成。通道注意力模塊用于提取通道上的語義信息,它使得網(wǎng)絡關注圖片中特征本身的語義信息。與通道注意力模塊不同,空間注意力模塊用于提取輸入特征在空間上的語義信息,使得網(wǎng)絡更關注輸入特征中語義信息所在位置。因此通道注意力模塊和空間注意力模塊相互取長補短,優(yōu)勢互補。

通道注意力模塊[22]同時使用了全局最大池化和全局平均池化,之后將池化結果送入一個由多層感知機構成的權值共享網(wǎng)絡,最后使用Sigmoid函數(shù)作為激活層。通道注意力模塊能夠從特征圖的整體出發(fā),不受空間局部性信息的影響,合理引導網(wǎng)絡去關注或者抑制在通道維度上的全局性信息。根據(jù)特征可視化實驗,guidedbackpropagation結果說明通道注意力模塊通過編碼通道維度上的注意力,略微提高網(wǎng)絡對虹膜和美瞳紋理的感知能力。

空間注意力模塊[22]對特征圖在通道維度上執(zhí)行平均池化操作和最大池化操作,然后將池化操作結果在通道維度上進行特征融合,經(jīng)過卷積層后,輸入到Sigmoid激活函數(shù)。因此,空間注意力可以輔助網(wǎng)絡聚焦到圖像中語義信息最豐富的區(qū)域,同時也構成對通道注意力的互補。對特征可視化實驗進行對比分析,guidedbackpropagation可視化結果證明,空間注意力模塊能夠顯著提高網(wǎng)絡對虹膜和美瞳紋理的感知能力,同時也擴大了對輸入圖片紋理區(qū)域的感知范圍。

3 實驗結果評估

3.1 數(shù)據(jù)集和數(shù)據(jù)增強

本實驗中使用的數(shù)據(jù)集由8 388張虹膜圖片構成,其中包含5 000張活體虹膜圖片和3 388張美瞳虹膜的呈現(xiàn)攻擊圖片,在這些對抗樣本中,美瞳眼鏡的紋理遮擋或疊加在虹膜紋理的全部或部分區(qū)域。其中活體虹膜圖片來自中科院CASIA-Iris數(shù)據(jù)集,數(shù)據(jù)采集對象包括各個年齡階段的成年男性和女性,此外數(shù)據(jù)集中還包含采集對象佩戴眼鏡而受眼鏡鏡框或者頭發(fā)干擾的圖像,因此本數(shù)據(jù)集具有一定的代表性和多樣性。其中美瞳虹膜圖片中除來自CASIA-Iris數(shù)據(jù)集外還包括圣母大學NDCLD數(shù)據(jù)集的1 400份美瞳虹膜數(shù)據(jù),數(shù)據(jù)采集對象的人種覆蓋歐美和亞洲。數(shù)據(jù)采集所使用的裝置包括OV7725在內(nèi)的多種類型傳感器,美瞳的品牌包括博士倫、海昌和卡洛尼。因此該數(shù)據(jù)集具備一定的豐富性和多樣性,各類別圖片如圖3所示。

圖3 實驗所用虹膜及美瞳數(shù)據(jù)示例Fig.3 Example of iris and cosmetic contact lens data used in experiment

實驗中數(shù)據(jù)集按照8∶2的比例被劃分成訓練集和測試集。訓練階段采用的數(shù)據(jù)增強方法包括對圖像的隨機水平翻轉、圖像的色調(diào)、飽和度和明度的隨機調(diào)整以及圖像的隨機縮放和平移,以此來擴展數(shù)據(jù)集,提高模型的泛化能力和魯棒性,降低過擬合發(fā)生的概率。數(shù)據(jù)集的標注采用Python第三方庫LabelImg,數(shù)據(jù)的標簽包括虹膜的位置信息和分類信息并以XML文件的形式保存。其中,位置信息包括標注框的左右邊界和上下邊界的坐標,類別信息包括LiveEye和FakeEye兩類,分別對應活體虹膜和美瞳虹膜。

3.2 實驗平臺和評價指標

實驗所使用的平臺及運行環(huán)境配置如表2所示。在模型測試階段,對于虹膜定位任務,利用精確率(precision)和召回率(recall)作為模型評價衡量指標。對于活體檢測和呈現(xiàn)攻擊,通常采用正確分類率(correct classification rate,CCR)、攻擊呈現(xiàn)錯誤分類率(attack presentation classification error rate,APCER)和真實呈現(xiàn)錯誤分類率(bona fide presentation classification error rate,BPCER)作為評價指標,公式如下:

表2 實驗平臺及運行環(huán)境配置Table 2 Experimental platform and running environment con-figuration

其中,TA和TB分別表示正確分類的攻擊呈現(xiàn)數(shù)量和正確分類的真實呈現(xiàn)數(shù)量,AP和BP分別表示攻擊呈現(xiàn)的數(shù)量和真實呈現(xiàn)的數(shù)量,F(xiàn)B表示攻擊呈現(xiàn)中被錯誤歸類為真實呈現(xiàn)的數(shù)量,F(xiàn)A表示真實呈現(xiàn)中被錯誤歸類為攻擊呈現(xiàn)的數(shù)量。

3.3 消融實驗

實驗表明,置信度閾值(設為τ)的不同取值將會對模型推理準確度產(chǎn)生影響,提高置信度閾值,精確率將會提升,相反召回率將會相應下降。為了兼顧精確率和召回率,實驗采用F1分數(shù)作為評價最佳置信度閾值的依據(jù)。統(tǒng)計各個模型在不同置信度閾值下的活體類和美瞳類的F1分數(shù),并求兩者的算術平均值,統(tǒng)計結果如表3。綜合分析各指標,選擇0.9作為置信度閾值較為合適。

表3 不同置信度閾值下各模型的F1分數(shù)結果對比Table 3 Comparison of F1 score results of each model under different confidence thresholds

以0.9作為置信度閾值,在測試集上對多個不同模型分別進行測試評估,統(tǒng)計分析模型的定位指標和美瞳檢測指標,統(tǒng)計結果如表4和表5所示。在定位階段,原始SSD網(wǎng)絡具有較高的準確率和召回率,對于活體類和美瞳類的準確率和召回率均達到97%以上,體現(xiàn)了SSD算法的強大性能。針對原始SSD網(wǎng)絡計算量和參數(shù)量龐大的缺點,引入MobileNet網(wǎng)絡進行輕量化。實驗表明,輕量化后能顯著降低計算量和網(wǎng)絡參數(shù)量,但付出的代價是精度的大幅損失。為了在一定程度上提高模型準確率和召回率,引入兩種注意力機制,SE模塊和CBAM模塊。實驗表明,引入這兩種注意力機制對精確率和召回率都有明顯的提升。消融實驗的結果表明,引入的CBAM模塊中,空間注意力子模塊(SAM)相比通道注意力子模塊(CAM)具有更好的提升效果。這意味著模型中間層的特征數(shù)據(jù)在空間上的區(qū)分性比通道上的更顯著。最終,引入CBAM模塊的網(wǎng)絡將CCR從95.71%提升到了98.75%,APCER從5.77%減小到1.06%,BPCER從3.34%減小到1.37%。此外,模型大小從91.1 MB下降到26.1 MB,同時將處理速度FPS(frames per second)從29.68 frame/s,提升到41.88 frame/s,滿足實時應用的處理速度。

表4 在τ=0.90條件下各模型的定位結果對比Table 4 Comparison of localization results of models with τ=0.90

表5 在τ=0.90條件下各模型的美瞳檢測結果對比Table 5 Comparison of cosmetic contact lens detection results of models with τ=0.90

對比圖4中不同算法的損失函數(shù)曲線,網(wǎng)絡輕量化處理后,計算開銷和參數(shù)量的減少可以大大加快網(wǎng)絡訓練階段的收斂速度。同時,注意力機制的引入會放緩網(wǎng)絡損失函數(shù)的收斂速度,避免損失函數(shù)的急劇波動,利于網(wǎng)絡充分學習到更多特征,使得訓練更加穩(wěn)定有效。

圖4 各網(wǎng)絡模型訓練損失曲線Fig.4 Training loss curve of each model

3.4 IrisBeautyDet及其特征可視化

選取本文提出的所有網(wǎng)絡中性能最佳者,即SSD+MobileNet+CBAM,并將其命名為IrisBeautyDet,其檢測效果如圖5所示(紅色框和藍色框分別表示檢測結果為美瞳類和活體類)。實驗表明,對于睫毛遮擋、眼鏡遮擋、鏡片光斑干擾、頭發(fā)遮擋等極端條件,IrisBeautyDet具備一定的抗干擾能力。使用該網(wǎng)絡模型在測試集上進行測試實驗,通過選取不同置信度閾值,繪制PR(precision-recall)曲線,如圖6,結果顯示該網(wǎng)絡模型活體類與美瞳類的平均精確率(average precision,AP)分別達到99.86%和99.96%。

圖6 SSD+MobileNet+CBAM的PR曲線Fig.6 PR curve of SSD+MobileNet+CBAM

在計算機視覺的很多領域中,卷積神經(jīng)網(wǎng)絡雖然都取得了卓越的成功,但是其內(nèi)部機理和工作機制以及決策邏輯迄今尚且不能為人類所理解。為解決卷積神經(jīng)網(wǎng)絡模型中的不可見問題,研究人員陸續(xù)提出一系列神經(jīng)網(wǎng)絡可視化技術,試圖解釋模型學習到的內(nèi)容和規(guī)則。本實驗主要采用了guided backpropagation[24]算法進行可視化分析。可視化結果如圖7所示,第一、二列是活體類虹膜圖片,第三、四列是虹膜受美瞳的不同類型紋理混淆干擾的圖片,在第五列圖片中,虹膜的部分區(qū)域被不透明美瞳完全遮擋;第一行是原圖,第二行是guided-backpropagation可視化結果。

圖7 IrisBeautyDet模型的可視化結果Fig.7 Visualization results of IrisBeautyDet model

可視化實驗結果顯示,IrisBeautyDet網(wǎng)絡模型能夠準確地提取出虹膜紋理中的有效信息,例如虹膜紋理中的褶皺和隱窩,因此能高效準確地完成美瞳檢測。相比原圖,guided-backpropagation生成的圖像更加突出地展現(xiàn)出虹膜和美瞳的不同紋理特征模式。其中,虹膜的紋理更加具有隨機性,紋理的變化更加自然,而美瞳的紋理更加具有規(guī)律性。這表明本網(wǎng)絡模型對虹膜的細粒度特征具有高度敏感性,印證了模型的有效性。此外,不同的注意力機制對網(wǎng)絡的表達能力具有不同程度的影響。圖8為用guided-backpropagation可視化結果來分析四個不同注意力模塊的影響效果。圖8中的可視化結果表明,SE模塊和SAM模塊較為顯著地提升了網(wǎng)絡模型對在空間維度上分布的微觀特征的提取能力,進而提升了模型感知美瞳紋理的能力。當網(wǎng)絡模型同時使用空間和通道注意力,即采用CBAM模塊時,具有更強的細粒度紋理提取能力,圖8(b)和圖8(f)的對比結果,清晰直觀地展現(xiàn)了CBAM的優(yōu)勢。同時,該可視化結果也印證了表4和表5中所反映出的各模型的性能差異。綜上,通道注意力模塊對本網(wǎng)絡模型性能影響相對微弱,但是將通道注意力和空間注意力模塊結合或者使用SE模塊,都能夠較為顯著地提高模型對細粒度小尺度特征的提取能力,進一步驗證模型的可靠性并揭示其可解釋性。

圖8 不同注意力模塊的guided-backpropagation可視化效果Fig.8 Visualization of guided-backpropagation with different attention modules

4 結束語

本文提出了一種基于SSD的網(wǎng)絡模型IrisBeautyDet,能夠實現(xiàn)單階段端到端的快速虹膜定位與美瞳檢測。引入MobileNet網(wǎng)絡對模型進行輕量化,將模型大小從91.1 MB下降到26.1 MB,同時將檢測速度從29.68 frame/s提高到41.88 frame/s。通過添加注意力機制,克服了由于參數(shù)量減少造成的特征提取能力不足的問題,保持原有的高精確率和高召回率。實驗表明,本模型在眼鏡遮擋和鏡片光斑等嚴苛條件下,仍擁有一定的魯棒性,對復雜條件具備較強的抗干擾性。IrisBeautyDet檢測活體類和美瞳類的平均精確率分別達到99.86%和99.96%,在置信度閾值選取為0.9的條件下,活體類的精確率和美瞳類的召回率(實際應用中活體檢測更需關注精確率,美瞳檢測更需關注召回率)分別達到了99.21%和99.09%。Guided-backpropagation可視化實驗也進一步表明,本模型具備有效提取虹膜信息并準確完成定位與美瞳檢測的能力,充分驗證了本模型的有效性和實用性;此外也表明,注意力機制可以通過提高模型對美瞳和虹膜紋理的特征提取能力來提高模型準確率,其中SE模塊和CBAM模塊的改進效果較為顯著。綜上,本文提出的虹膜定位和美瞳檢測網(wǎng)絡IrisBeautyDet為虹膜識別系統(tǒng)的安全性提供了支撐,具有一定的應用前景。

猜你喜歡
可視化特征檢測
基于CiteSpace的足三里穴研究可視化分析
基于Power BI的油田注水運行動態(tài)分析與可視化展示
云南化工(2021年8期)2021-12-21 06:37:54
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
基于CGAL和OpenGL的海底地形三維可視化
如何表達“特征”
“融評”:黨媒評論的可視化創(chuàng)新
傳媒評論(2019年4期)2019-07-13 05:49:14
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
主站蜘蛛池模板: 另类欧美日韩| 亚洲综合久久成人AV| 国产手机在线小视频免费观看 | 亚洲综合经典在线一区二区| 久久国产乱子| 欧美亚洲日韩中文| 67194在线午夜亚洲| 欧美激情视频一区| 欧美日一级片| 欧美国产菊爆免费观看| 99久久99这里只有免费的精品| 一级毛片免费不卡在线视频| 91免费精品国偷自产在线在线| 91精选国产大片| 伊人AV天堂| 国产男人的天堂| 国产精品毛片一区视频播| 成人91在线| 亚洲色图另类| 福利视频一区| m男亚洲一区中文字幕| 国产激情第一页| 亚洲人成网7777777国产| 久青草国产高清在线视频| 亚洲欧美激情另类| 成人在线不卡视频| 久无码久无码av无码| 欧美日韩国产高清一区二区三区| 亚洲一级毛片| 国产精品入口麻豆| 午夜视频在线观看免费网站| 国产精品视频观看裸模| 青青操视频在线| 午夜日b视频| 欧美国产日韩在线| 精品少妇人妻av无码久久| 欧美日韩中文国产va另类| 狠狠亚洲婷婷综合色香| 午夜毛片福利| 国产真实乱人视频| 国产精品无码久久久久AV| 无码粉嫩虎白一线天在线观看| 99福利视频导航| 欧美午夜在线播放| 毛片最新网址| 91色综合综合热五月激情| 人妻无码一区二区视频| 国产h视频在线观看视频| 国产精品午夜电影| 伊人网址在线| 99国产精品免费观看视频| 国产一级精品毛片基地| 国产大片黄在线观看| 热九九精品| 欧美成人怡春院在线激情| 91极品美女高潮叫床在线观看| 啪啪永久免费av| 欧洲熟妇精品视频| 日本高清视频在线www色| 狠狠综合久久| 蝴蝶伊人久久中文娱乐网| 久久久四虎成人永久免费网站| 色偷偷一区| 亚洲中文字幕国产av| 久久综合激情网| 国产综合色在线视频播放线视 | 国产人在线成免费视频| 久久黄色一级片| 91视频国产高清| 国产在线小视频| 欧美va亚洲va香蕉在线| 青青草原国产一区二区| 国产精品尤物在线| 亚洲精品手机在线| 日韩中文精品亚洲第三区| 国产无码网站在线观看| 九九香蕉视频| 一本大道香蕉中文日本不卡高清二区| 国产尤物视频在线| 在线观看精品国产入口| 高潮毛片无遮挡高清视频播放| 中文字幕久久亚洲一区|