999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于鞋印圖像的性別預測方法

2023-01-09 14:29:22朱振東劉禹辰王新年
計算機工程 2022年11期
關鍵詞:特征

張 濤,朱振東,王 慧,劉禹辰,王新年

(1.遼寧師范大學 物理與電子技術學院,遼寧 大連 116029;2.大連海事大學 信息科學技術學院,遼寧 大連 116026)

0 概述

性別信息可以有效縮小嫌疑人范圍,對刑事案件的偵破起著至關重要的作用。性別預測方法主要包括基于人臉的性別預測、基于步態的性別預測和基于鞋印的性別預測。在基于人臉的性別預測方法中,通過多人臉區域融合[1]、空域與時域結合[2]、高斯差分空間提取多尺度局部二值特征[3],具有較優的預測效果,但缺點是對于人臉圖像的質量和拍攝角度有一定要求?;诓綉B的性別預測方法具有隱蔽性強、可遠距離捕捉的優點[4],在預測過程中無需被觀察對象配合,以適用于大流量人群場景或遠距離場景。其中,步態主成分圖像[5]、形態學運算[4]和步態能量圖像投影模型[6]等方法取得了較優的性別預測效果。盡管基于人臉或步態的性別預測方法取得了較優的預測效果,但是在刑事案件中,大多數嫌疑人是蓄謀作案。現有預測方法難以通過監控系統獲得完整有效的人臉信息和步態信息,而在案發現場,鞋印的遺留率卻非常高。因此,基于鞋印的性別預測對于案件偵破有著重要作用。

在刑事偵查過程中,刑偵人員通過現場遺留鞋印、腳印或遺留鞋樣進行性別預測,主要方法有特征分析法和參數預測法。

特征分析法是基于刑偵專家多年積累的案件經驗根據特征差異進行性別預測,特征差異主要包括靜態特征差異和動態特征差異[7-8]。其中靜態特征差異是指男性足長足弓高、鞋較寬大、鞋底花紋較深,而女性足小足弓低、鞋較短小、鞋底花紋細淺且無花紋較多,動態特征差異是指男性行走時偏外落足偏內起足或正起足的比例大,步長大、步角大、步寬窄、重心高,在行走過程中遺留痕跡較重且不均勻,常出現挖、蹬動作痕跡,腳前掌和腳后跟壓力大。女性行走時正落足正起足的比例遠高于男性,部分女性會出現偏內落足、偏外起足的現象,步長較短、步角較小、步寬較寬、重心較低,在行走過程中遺留痕跡較輕且均勻,不出現挖、蹬動作痕跡,腳前掌和腳后跟壓力較輕且程度均勻。雖然男女腳印和鞋印在結構特征和運動特征上有所區別,但是根據這些特征差異準確地預測性別,需要大量的領域知識和多年的破案經驗。

參數預測法是根據現場測量的鞋印或腳印的長、寬等相關參數進行回歸預測。文獻[9]使用Logistic 回歸分析對足部測量數據(足長、足寬)進行性別預測,右足判斷準確率為95.6%,左足判斷準確率為96.4%。文獻[10]對足部測量數據和鞋測量數據(鞋長、鞋寬)進行回歸分析,發現足長鞋長比足寬鞋寬對于性別預測更有幫助。文獻[11]利用由鞋測量數據(鞋長、鞋寬)、鞋碼和足長組成的四變量模型進行性別預測,準確率為96%。文獻[12]提出根據腳印測量數據進行性別預測,從腳印提取7 個維度的特征,包括每個腳趾前點到后跟中點長度、腳底寬度和腳跟寬度,使用判別函數分析,性別預測準確率為69.8%~80.3%。文獻[13]將足部和腳印測量數據作為特征,交叉驗證的性別預測準確率為71%~91%,為西澳大利亞人群的性別預測提供了可行方案。文獻[14]提出足部指數結合足長、足寬進行性別預測的方法,使用多元回歸模型取得了84%的性別預測準確率。文獻[15]使用分類和回歸樹(Classification And Regression Tree,CART)算法對足部測量數據和手部測量數據進行性別預測,最優模型的性別預測準確率為95.83%。文獻[16]在提取鞋長、鞋寬和鞋碼特征的基礎上引入步長特征,使用多元線性回歸算法得到的性別預測準確率為93.5%。上述方法不僅需要人工提取特征、依賴領域知識,而且在參數測量時可能產生誤差,影響預測結果。文獻[17]將深度學習方法引入到足跡分析領域中,使用AlexNet 卷積神經網絡對赤足圖像的性別進行預測,準確率為92.2%,但僅對赤足圖像進行簡單預處理,存在樣本比例不均衡、預測準確率較低的問題。

本文提出一種基于注意力機制的性別預測方法,實現對鞋印圖像特征的自動提取。構建基于注意力機制和卷積神經網絡的性別預測網絡,主要包括特征提取模塊、通道注意力模塊和性別預測模塊。根據男性與女性之間的特征差異,采用合成鞋印步態能量圖表達被采集者的運動特征,通過旋轉、翻轉、隨機遮擋和隨機彈性形變的方式對鞋印圖像數據集進行增廣,提高模型預測準確率和泛化能力。

1 數據集與預處理

目前尚沒有公開的用于人身屬性預估的鞋印圖像數據集,為了驗證所提算法的有效性,本文分別構建單枚鞋印圖像數據集(SiSIS)和序列鞋印圖像數據集(SeSIS)。

SiSIS 共包含5 652 幅單枚鞋印圖像。在采集鞋印時,男志愿者1 157 人,女志愿者256 人。為保證鞋印花紋的隨機性和數據集的豐富性,每位志愿者各穿自己具有兩種花紋的鞋,每種花紋左右腳各踩一枚鞋印,男性和女性鞋印圖像分別為4 628 幅和1 024 幅。

SeSIS 共包含686 幅序列鞋印圖像。男志愿者28 人,提供序列鞋印圖像484 幅,女志愿者10 人,提供序列鞋印圖像202 幅。為避免因花紋不同所產生特異性對實驗造成的影響,所有志愿者均穿統一提供的新鞋,每人至少穿8 類花紋鞋進行鞋印采集。

1.1 鞋印步態能量圖

受承痕體材質、隨機干擾等因素的影響,在人走路時的每幅鞋印都存在差異。為提取穩定的特征,本文采用加權平均的方法合成鞋印步態能量圖[18](Tread Energy Map,TEM)。以左右腳為依據劃分左右步態能量圖,左步態能量圖(LTEM)和右步態能量圖(RTEM)的計算如式(1)和式(2)所示:

其中:T表示參與運算的行走周期數;t表示行走周期;TL(x,y,t)表示標準化后的第t個行走周期內的左鞋印圖像,標準化是指對從鞋印序列中截取包含單枚鞋印的矩形區域進行補零,將單枚鞋印圖像標準化到相同大小;w(TL(x,y,t))表示其對應的權重系數;TR(x,y,t)表示標準化后的第t個行走周期內的右鞋印圖像;w(TR(x,y,t))表示其對應的權重系數。

為降低鞋印殘缺和外來噪聲對能量圖的影響,本文在計算過程中對權重系數做出限制:若鞋印圖像中的一點在t時刻的灰度值極小或極大,則該時刻的灰度值不參與計算。以w(TR(x,y,t))為例給出權重系數的定義,如式(3)和式(4)所示:

其中:thR(α,x,y)和thH(α,x,y)分別表示對[TR(x,y,t),t=1,2,…,T]進行升序排列,取排在第α位和第T-α位對應的值。w(TL(x,y,t))采用相同的方法計算。圖1 所示為不同人穿兩種相同鞋底花紋鞋行走得到的左右步態能量圖(為便于觀看,對鞋印圖像進行了反向),對比被采集者A 和被采集者B 的步態能量圖。從圖1 可以看出:不同人行走得到的步態能量圖有所差異,而同一人穿不同鞋底花紋鞋行走得到的能量圖相對穩定,明顯區別于其他人。

圖1 不同被采集者的左右步態能量圖Fig.1 Left and right tread energy maps among different gatherers

1.2 數據增廣

由于采集的鞋印圖像較少,因此為了避免網絡過擬合,同時提升模型的泛化能力,本文根據案發現場鞋印可能出現的情形設計3 種數據增廣方式。

1.2.1 鞋印方向差異

本文主要模擬因行走方向和習慣差異造成的鞋印差別。設輸入圖像為I,對其進行方向差異增廣的操作包括以下2 個:

1)對圖像I旋轉180°得到圖像Ir,相當于案發現場遺留的同側腳從相反方向行走得到鞋印圖像,如式(5)所示:

2)對圖像I和圖像Ir進行180°水平翻轉,得到翻轉后的圖像If和Irf,相當于案發現場遺留的異側腳從相同方向行走得到的鞋印圖像,如式(6)和式(7)所示:

經以上操作,鞋印圖像數量擴增為原圖像數量的4 倍,原圖像與旋轉、翻轉后的圖像如圖2 所示。

圖2 原圖像與旋轉、翻轉增廣后的圖像Fig.2 The original image and the augmented images after rotation and flip

1.2.2 鞋印殘缺

本文主要模擬因承痕體和外界因素造成的鞋印殘缺。設輸入圖像I、Ir、If和Irf,對其進行模擬殘缺增廣的操作包括:使用固定圖形進行隨機遮擋,即在鞋印圖像中隨機生成10 個大小為400×20 像素且像素值為0 的矩形塊,再將鞋印劃分為3 部分,分別在每部分中隨機生成10 個大小為50×50 像素且像素值為0 的矩形塊和10 個半徑為30 像素且像素值為0 的圓形,生成遮擋后的鞋印圖像Ie、Ire、Ife和Irfe,相當于案發現場因承痕體不均勻、外力破壞和現場保護不到位等原因導致鞋印圖像殘缺破損。使用固定圖形隨機遮擋后,圖像數量擴大為原圖像的8 倍,隨機遮擋后的圖像如圖3 所示。

圖3 隨機遮擋后的圖像Fig.3 Images after random occlusions

1.2.3 承痕體材質與非均勻性對鞋印圖像的影響

本文主要模擬因泥地、雪地等承痕體形變造成的鞋印差異。設輸入圖像I、Ir、If和Irf,對其進行承痕體形變增廣的操作包括:將圖像分割為M×N個相同區域,每個區域大小為20×20 像素,隨機生成Δx和Δy2 個平移矩陣;根據平移矩陣對各區域進行平移變換,得到隨機彈性形變的鞋印圖像,計算過程如式(8)~式(10)所示:

其中:rand(M,N)表示生成大小為M×N元素值在[-1,1]之間的隨機均勻分布的矩陣;Xmax和Ymax分別表示x和y方向的最大位移量;(i,j)表示點(x,y)所在區域對應的塊編號;Δx(i,j)表示點(x,y)所在區域對應的x方向隨機位移量;Δy(i,j)表示點(x,y)所在區域對應的y方向隨機位移量;f(x,y)表示輸入圖像I、Ir、If和Irf;g(x,y)表示隨機彈性形變后的鞋印圖像Id、Ird、Ifd和Irfd。本文模擬承痕體形變后,鞋印圖像數量擴大為原圖像的16倍,其中部分示例如圖4 所示。

圖4 隨機彈性形變后的圖像Fig.4 Images after random elastic distortions

本文分別對圖像進行旋轉、翻轉操作,模擬了同側腳從相反方向行走的遺留鞋印和異側腳從相同方向行走的遺留鞋印,使用固定圖形對鞋印圖像進行隨機遮擋,模擬了在案發現場中鞋印被部分破壞的情況,對鞋印圖像進行隨機彈性形變,模擬了承痕體材質與非均勻性對鞋印圖像的影響。本文在訓練集中加入這部分數據,提升了模型的魯棒性并擴大了實踐中的適用性。

2 本文方法

本文提出的網絡由特征提取模塊、通道注意力模塊和性別預測模塊組成。本文網絡的參數設置如表1 所示。

表1 本文網絡參數設置Table 1 Parameter settings of the proposed network

本文網絡結構如圖5 所示,首先,通過特征提取模塊得到鞋印特征圖,然后,利用通道注意力模塊重新分配每個特征圖的特征權重,最后,使用性別預測模塊得到性別預測結果。

圖5 本文網絡結構Fig.5 Structure of the proposed network

2.1 特征提取模塊

鞋印圖像具有種類豐富、花紋復雜、存在磨損和殘缺等特點,其主要通過形象特征和步法特征進行描述。形象特征主要包括鞋印尺寸、種類和花紋等;步法特征包括在多周期行走過程中的運動特征,如步幅、步寬、步角等。傳統的特征提取方法主要是針對鞋印尺寸提出的,采用鞋長、鞋寬等長度特征作為鞋印圖像的量化特征,僅表達了靜態特征差異,無法表達因行走習慣不同而造成的動態特征差異。卷積神經網絡模擬人類視覺神經細胞的感受野,以提取鞋印圖像的局部和細節信息,通過增大感受野進一步提取更復雜、更抽象的信息,最終得到鞋印圖像在不同尺度的抽象表達。

本文選用Inception V3[19]作為基礎框架來提取特征,其原因在于:1)方便訓練,采用批量標準化(Batch Normalization,BN)正則化方法,解決過擬合與梯度消失問題;2)提取豐富的特征,使用3 個不同結構的初始模塊,利用不同大小卷積核組成的模塊提取不同尺度的圖像特征,同時將所有提取的特征進行拼接和合并,以挖掘鞋印圖像中更深層的信息,從而提取鞋印圖像的多尺度特征;3)計算量低且表達能力更強,將較大的二維卷積拆成2 個較小的一維卷積,在增加特征表達能力的同時減少了模型的計算量,例如,使用2 個3×3 卷積串聯代替1 個5×5 卷積來提取鞋印圖像特征,在第1 個卷積層后添加Relu 激活函數,有效改善了線性性能,在卷積層后加入卷積填充層使模塊大小加倍,2 個卷積串聯后的感受野不變,表達能力卻優于單個卷積,與單獨使用5×5的卷積相比,減少了28%的參數量。

2.2 通道注意力模塊

注意力機制被廣泛應用在計算機視覺領域,如圖像分類[20-21]、語義生成[22]、圖像著色[23]等,其主要目的是學習人類觀察物體的行為方式。當人類觀察物體時會有選擇地重點觀察物體的顯著部分,從而對物體進行識別和分析,得到更準確的視覺信息。通道注意力模塊[24]通過對每個特征的權重進行重新分配,結合特征圖間的關系,建立特征通道間的相互依賴關系,在一定程度上還原了人類對物體的觀察過程,使算法更加高效。

在處理鞋印圖像時,通道注意力模塊根據每個特征圖對應特征通道的重要程度來改變特征的權重,實現了根據全局信息進行特征通道的增強或抑制,達到了特征通道自適應校準的效果,相當于重點觀察鞋印圖像中對性別起顯著作用的部分,適當忽視非重點部分。同時,該模塊在不同深度網絡中發揮的作用是不同的。當把該模塊添加到較淺層網絡時,不同類間共享特征通道的權重,它所激發的特征與類別無關;當把該模塊添加到較深層網絡時,特征則表現出更高的特異性。因此,在本文的性別預測任務中,通道注意力模塊放置在網絡末端,此時,點積大小和輸入類別呈強相關關系,進一步增強了分類效果。

通道注意力模塊的結構如圖6 所示,主要包括壓縮、激勵和點積3 個重要操作。本文輸入大小為H×W×C的特征圖,首先,經過全局平均池化層(Global Average Pooling,GAP)進行特征壓縮,輸出大小為1×1×C的向量;然后,經過2 層全連接層和相應的激活函數進行特征激勵,生成每個通道的權重;最后,輸入特征圖中的每個通道分別乘以對應通道的權重值,通過點積操作,輸出特征圖中的不同通道被賦予不同的權重,用于表示該通道對性別預測的重要性。

圖6 通道注意力模塊結構Fig.6 Structure of channel attention module

2.3 性別預測模塊

該模塊由全局平均池化層、全連接層和激活函數組成。通道注意力模塊最終輸出經全局平均池化層整合的全局空間信息,同時避免了過擬合現象的發生,由激活函數Softmax 對鞋印圖像進行性別預測。性別預測是二分類問題,使用二分類交叉熵損失函數,如式(11)所示:

其中:n表示樣本個數;yi∈{0,1}表示樣本i的標簽;yi=1 表示樣本i為男性鞋?。籔i∈[0,1]表示樣本i預測為男性的概率。

3 實驗與結果分析

3.1 實驗方法與評價標準

針對案發現場遺留鞋印的不同情況,本文分別構建了適用于現場遺留單枚鞋印場景的SiSIS 數據集和適用于遺留多枚鞋印場景的SeSIS 數據集。

SiSIS 數據集具有被采集者多、圖像數量大且鞋印花紋種類豐富的特點,缺點是單枚鞋印圖像不能穩定表達不同性別個體的特征。本文采用隨機劃分的方式設置實驗數據,驗證所提方法在SiSIS 數據集上的性別預測能力。

SeSIS 數據集的男女占比更加均衡,采集的多周期內鞋印可以穩定表達不同性別個體的特征。根據該數據集的特點,本文共設置3 組對照實驗,分別為不同花紋對照組、不同個體對照組和隨機劃分對照組。

1)不同花紋對照組,由于被采集者均穿統一提供的新鞋,因此本文采集不同個體的鞋印圖像具有相同的花紋。為了避免花紋特異性對實驗結果產生影響,在該對照組的數據集劃分中,確保訓練集和測試集不出現相同花紋的鞋印,以驗證訓練出的模型對陌生花紋鞋印圖像的性別預測能力。

2)不同個體對照組,由于人的行走過程是通過全身多器官和骨骼協調配合完成的,因此不同個體間的落腳形態存在一定差異。為了避免個體落腳形態對實驗結果產生影響,在該對照組的數據集劃分中,確保訓練集和測試集中不出現同一個體的鞋印,以驗證訓練出的模型對陌生個體鞋印圖像的性別預測能力。

3)隨機劃分對照組,在現實生活中,不同個體有可能穿相同花紋的鞋出現在案發現場,同一個體也有可能穿不同花紋的鞋出現在案發現場。為了盡可能模擬現實生活中的情況,在該對照組的數據集劃分中,訓練集和測試集均為隨機劃分,以驗證訓練出的模型對隨機鞋印圖像的性別預測能力。

在性別預測問題中,準確率(Accuracy)是評價模型性能的主要指標。準確率的計算如式(12)所示:

其中:TTP表示預測為男性的男性鞋印數目;TTN表示預測為女性的女性鞋印數目;FFP表示預測為男性的女性鞋印數目;FFN表示預測為女性的男性鞋印數目。

3.2 實驗環境與參數設置

在Keras 庫中,本文調用基于ImageNet 數據集預先訓練的Inception V3 模型,去掉全連接層,加入通道注意力模塊,輸出層節點數為2,使用Softmax激活函數。輸入圖像大小為256×256×3,采用Adam優化器[25],初始學習率設置為0.000 2,Batch Size 設置為16,迭代次數為100。使用ReduceLROnPlateau函數自適應調整學習率,使用ModelCheckpoint 函數對訓練過程進行監測并自動保存最優模型,使用TensorBoard 函數記錄模型的訓練過程及相關參數。

3.3 對比實驗

為驗證本文所提方法的有效性,與文獻[9-11,15-17]所提的方法進行對比實驗。文獻[9]采用足長、足寬特征作為參數結合邏輯回歸進行性別預測;文獻[10]采用鞋長、鞋寬特征結合邏輯回歸對性別、身高和年齡進行預測,并分析了各特征與性別的相關性;文獻[11]提取由足長、足寬、腳印長、腳印寬、鞋長、鞋寬和鞋跟長、鞋跟寬等多個特征組成多變量模型,使用判別函數進行性別預測,并分析得出對于性別預測最有效的多變量模型由足長、鞋長、鞋寬和鞋號4 個變量組成的結論;文獻[15]提取足長、足寬作為特征,采用分類和回歸樹算法進行性別預測;文獻[16]基于鞋長、鞋寬、鞋碼和步長特征,使用多元線性回歸進行性別預測;文獻[17]使用AlexNet 卷積神經網絡對赤足圖像進行性別預測。在SiSIS 數據集和SeSIS 數據集上采用以上文獻的特征提取和預測方法進行性別預測,實驗結果如表2 所示。

從表2 可以看出,文獻[9-11]提出的方法結合傳統鞋印長寬特征,能有效解決性別預測問題,在不同對照組上的性能指標均值低、標準差較大,雖然文獻[11]在鞋長、鞋寬特征的基礎上加入了鞋碼特征,有效提升了性別預測的準確率,但性能指標均值仍較低。文獻[15]方法相比于文獻[9-11]方法在不同對照組上的性能指標均值有小幅提升,標準差明顯降低,但在SiSIS 數據集上性能指標明顯下降,魯棒性較差。文獻[16]方法在SeSIS 數據集上的性能指標明顯優于前文所述的方法,但是在數據量更大、男女鞋碼大量交叉的SiSIS 數據集上的性能指標無明顯優勢,說明該方法的泛化能力較差。文獻[17]所提方法在基于鞋印圖像的性別預測中準確率雖然高于前文所述的方法,但性能指標均值低于本文方法且標準差較大,尤其是在SiSIS 數據集上的性能指標與本文方法相差較大。本文方法在SiSIS數據集上的準確率為91.80%,在SeSIS 數據集上的不同花紋、不同個體和隨機劃分對照組上,本文方法分別取得了97.86%、99.35%和99.26%的性別預測準確率,性能指標均值遠高于上述文獻提出的方法,且性能指標標準差最小,模型泛化能力和抗干擾能力均較優。

表2 不同方法的性別預測準確率對比Table 2 Gender prediction accuracy comparison among different methods %

3.4 消融實驗

為驗證本文所提融合通道注意力模塊的有效性,本文對VGG16 網絡[26]、未融合通道注意力模塊的特征提取網絡、VGG16 融合通道注意力模塊后的網絡和本文方法Inception V3+通道注意力進行消融實驗,實驗結果如表3 所示。

表3 消融實驗結果Table 3 Ablation experimental results %

從表3 可以看出:1)Inception V3 的指標明顯優于VGG16 的各項指標;2)融合通道注意力模塊的性能優于沒有融合通道注意力模塊的性能,如VGG16+通道注意力和Inception V3+通道注意力的各項指標明顯高于Inception V3 和VGG16;3)本文方法受花紋或個體因素的影響較小,如在SeSIS 數據集上,本文方法在不同對照組上的性能指標均值明顯高于其他方法,且性能指標標準差較小。但融合通道注意力模塊后,本文方法在不同花紋對照組上,相比Inception V3 的準確率下降了0.61 個百分點,其原因為通道注意力模塊起作用的前提是花紋種類足夠多,而SeSIS 數據集只包含8 類花紋,沒有達到通道注意力模塊起作用所需要的花紋數目。為了驗證此結論,本文分別在SeSIS 數據集和SiSIS 數據集上采用不同花紋類別的鞋印進行模型訓練,結果如表4和表5 所示。SeSIS 數據集包含8 類花紋新鞋,分別設置3 類、4 類、5 類和6 類花紋作為訓練樣本,其余5 類、4 類、3 類和2 類樣本作為測試樣本。SiSIS 數據集包含近2 800 類花紋的鞋印,分別以1 000 類、1 400 類、1 800 類 和2 200 類花紋作為訓練樣本,其余類別作為測試樣本。

表4 在SeSIS 數據集上鞋印花紋種類數目對不同方法性能的影響Table 4 Influence of the number of types of shoeprint patterns on performance of different methods on SeSIS dataset %

表5 在SiSIS 數據集上鞋印花紋種類數目對不同方法性能的影響Table 5 Influence of the number of types of shoeprint patterns on performance of different methods on SiSIS dataset %

從表4 可以看出,VGG16+通道注意力和Inception V3+通道注意力的準確率下降幅度隨著花紋種類數的增加而逐漸減小。參與訓練的鞋印花紋數越多,本文方法的性能越顯著,但SeSIS 數據集的花紋種類只有8 類,因此,未明顯體現出本文方法的優勢。從表5可以看出,當參與訓練花紋種類數為1 000類時,VGG16+通道注意力的準確率略低于VGG16,Inception V3+通道注意力的準確率略低于Inception V3;當花紋種類數達到1 400 類時,VGG16+通道注意力和Inception V3+通道注意力的性能優于未融合通道注意力模塊的性能。隨著花紋種類數的增加,本文融合通道注意力模塊的性能優勢愈加凸顯。綜合表4 和表5 的實驗結果表明,本文所提的通道注意力模塊在參與訓練的鞋印花紋數超過一定數目時,效果要優于未融合通道注意力的方法。

為驗證對SiSIS 和SeSIS 數據集進行數據增廣的有效性,本文對原數據和增廣后的數據進行消融實驗,結果如表6 所示。

表6 數據增廣對性別預測準確率的影響Table 6 Influence of data augmentation on gender prediction accuracy %

從表6 可以看出,對鞋印數據集進行數據增廣可以有效提高性別預測準確率。在SiSIS 和SeSIS(不同個體)數據集上,經數據增廣操作后本文方法的預測準確率分別提升了1.49 和1.30 個百分點,其他方法的預測準確率也均有不同程度的提升。

4 結束語

本文提出一種基于鞋印的端到端性別預測方法,同時構建符合案發現場實際情況的單枚和序列鞋印圖像數據集。采用卷積神經網絡提取鞋印圖像特征,根據每個特征圖對應特征通道的重要程度,通過通道注意力模塊對特征權重進行重新分配,達到特征通道自適應校準的目的。在單枚和序列鞋印圖像數據集上的實驗驗證本文方法的有效性,結果表明,相比傳統的性別預測方法,本文方法具有較優的預測準確率。后續將對不同承痕體的鞋印數據集進行擴充,進一步優化性別預測模型。

猜你喜歡
特征
抓住特征巧觀察
離散型隨機變量的分布列與數字特征
具有兩個P’維非線性不可約特征標的非可解群
月震特征及與地震的對比
如何表達“特征”
被k(2≤k≤16)整除的正整數的特征
中等數學(2019年8期)2019-11-25 01:38:14
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
詈語的文化蘊含與現代特征
新聞傳播(2018年11期)2018-08-29 08:15:24
抓住特征巧觀察
基于特征篩選的模型選擇
主站蜘蛛池模板: 日韩欧美色综合| 色爽网免费视频| 亚洲精品第一在线观看视频| 欧美日韩综合网| 亚洲欧美日韩动漫| 在线高清亚洲精品二区| 亚洲最新网址| 韩国自拍偷自拍亚洲精品| a免费毛片在线播放| 日本免费a视频| 亚洲中文字幕在线精品一区| 国产精品视屏| 日韩精品免费一线在线观看| 国产精品久久久久久久久kt| 国产一区二区三区在线观看视频| 日韩国产黄色网站| 国产亚洲视频中文字幕视频| 亚洲A∨无码精品午夜在线观看| 永久免费无码日韩视频| 国产无码网站在线观看| 无码AV动漫| 99精品免费在线| 亚洲香蕉在线| 久久综合伊人77777| 原味小视频在线www国产| 久久精品最新免费国产成人| 精品无码一区二区三区电影| 日韩无码黄色| 99视频免费观看| 亚洲美女一区| 久久久久久国产精品mv| 亚洲区第一页| 激情無極限的亚洲一区免费| 看av免费毛片手机播放| 国内毛片视频| 国产精品无码作爱| 精品一区二区无码av| 欧美亚洲欧美| 天天做天天爱天天爽综合区| 最新国产成人剧情在线播放| 午夜成人在线视频| 91免费观看视频| a级毛片在线免费观看| 亚洲欧洲一区二区三区| 欧美激情,国产精品| 久久这里只精品国产99热8| 91精品人妻一区二区| 日本一区二区不卡视频| 狠狠色狠狠综合久久| 精品午夜国产福利观看| 狠狠色成人综合首页| 日本三区视频| 毛片免费在线视频| 欧美有码在线| 性视频一区| 久久精品最新免费国产成人| 婷五月综合| 国产精品真实对白精彩久久| 中字无码精油按摩中出视频| 国产色伊人| 国产精品一区二区不卡的视频| 九九九国产| 国产无遮挡裸体免费视频| 国产一级二级三级毛片| 日本三级黄在线观看| 国产打屁股免费区网站| 色综合日本| 亚洲AV无码久久精品色欲| 亚洲精品在线影院| 99在线观看国产| 国产精品久久久久久搜索| 久久99久久无码毛片一区二区| 午夜毛片免费观看视频 | av无码一区二区三区在线| 97精品伊人久久大香线蕉| 亚洲高清中文字幕| 国产一级毛片在线| 91九色国产在线| 日韩人妻无码制服丝袜视频| 高清视频一区| 国产一区二区三区夜色| 精品人妻系列无码专区久久|