999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的紅外圖像人體步態識別方法

2022-03-22 03:35:00朱小鵬云利軍張春節
計算機工程與設計 2022年3期
關鍵詞:實驗模型

朱小鵬,云利軍,2+,張春節,王 坤

(1.云南師范大學 信息學院,云南 昆明 650500;2.云南師范大學 云南省光電信息技術 重點實驗室,云南 昆明 650500)

0 引 言

人體步態與虹膜、指紋一樣,作為每個人獨一無二的生物特征[1],在近些年越來越受到了關注。目前在國內對步態識別也展開了相應的研究,但是相比于虹膜識別、指紋識別以及人臉識別,步態識別的相關研究要略顯滯后。在虹膜識別、指紋識別、人臉識別等領域中,深度學習等技術也早已成為了較為常用的技術手段,而步態識別的常用技術手段依舊停留在使用傳統的圖像處理技術。相比于虹膜、指紋、人臉等這些生物特征,步態有著其獨一無二的特點與優勢[2]。首先步態數據的采集可以是非接觸式的方式,采集距離可達50 m;其次,步態數據的采集是一種非配合式的采集方法[3],在采集的過程中并不需要被采集人的完全配合,正是由于這些優點,所以步態識別在被用在刑事偵查領域時能夠保證一線公安干警的人身安全。

從目前的步態識別研究中來看,絕大多數還是著重于在可見光下對人體步態數據的收集與識別進行研究,而在紅外圖像中的步態識別的研究工作則較為少見。由于紅外攝像儀與可見光攝像機的成像原理的不同[4],造成了紅外攝像儀的成像質量遠不如可見光相機的成像質量,但在一些特殊場景和天氣中,例如黑夜、大雨、大雪、濃霧等極端天氣下和可視條件差等情況下,紅外攝像儀仍然能夠保持正常工作[5]。基于紅外攝像儀的這一特性也極大程度上擴展了步態識別應用的條件與領域。

1 相關工作

1.1 現有研究

目前,在步態識別領域的相關研究仍然不多,特別是利用深度學習等方法進行步態識別任務的研究則更為少見。現有的步態識別方法中較為典型的就是步態能量圖(gait engery image,GEI)[6]。通常我們把每個人的行走過程定義成若干個步態周期組成的集合,而步態能量圖的主要思想就是把人體行走中的某個步態周期中的所有輪廓按照某種規則相疊加在一起,以此構成該識別目標的步態模板,再以此模板去完成相關的識別任務。該方法的優點在于能夠最大程度減少步態輪廓圖中的噪點干擾,同時也能夠較為有效融合步態輪廓圖中的空間信息。但是步態能量圖所存在的不足也較為明顯,當采集步態信息的時候,如果兩個攝像頭所拍攝的角度有較大差別,那么生成的步態能量圖勢必會因為角度原因產生差別。

例如,Maryam Babaeea等[7]提出了一種基于深度學習的方法來將不完整的步態周期轉換為相應的完整步態能量圖(GEI)。更確切地說,這種轉變是通過訓練幾個獨立的自動編碼器完成的,然后把它們組合成一個統一的模型。

另外,施沫寒、王志海提出了區別于單純依靠圖像本身進行步態識別的方法,將步態周期中的時間序列作為一個重要的因素,并使用基于Shapelet的時間序列分類方法進行步態識別[8],但是該方法與深度學習相關方法相比時僅在數據量較小時準確率較好。Hanqing Chao等[9]提出了一種步態識別的觀念,即把步態周期中的每幀圖片視為單個步態特征,再使用深度神經網絡對這些單幀步態圖片進行特征學習,在使用CASIA-B的數據集進行訓練后,最終得出的準確率能夠維持在95%左右。

Zifeng Wu等[10]提出了一種基于深度卷積神經網絡(CNN)的步態識別方法網絡。通過一小組標記的多視角人類行走視頻,可以訓練深度網絡以此來對人物身份進行識別。

除了以上這些方法,還有相關研究人員使用非計算機視覺領域的方法完成了對人體步態的識別。當視角發生改變后帶來的是識別準確率的下降,為了解決此問題,Xianye Ben等[11]提出了張量分析法,該方法通過通用的張量表示框架實現了跨視點步態識別任務。

1.2 研究準備

在研究中,本文采用了CASIA-C步態數據庫[12],該數據庫是由中國科學院自動化研究所生物識別與安全技術研究中心所提供的。CASIA-C步態數據庫為紅外圖像數據庫,其中包含了153人在正常行走、快走、慢走、攜帶包走等4種條件下的步態圖片。CASIA-C數據庫為本文的研究提供了基礎條件,但由于紅外攝像機本身的成像原理,造成了CASIA在成像后具有圖像缺失等缺點,因此本文利用傳統圖像處理技術對該數據集進行了前期預處理。

在識別模型方面,采用了本團隊前期的研究成果,在可見光的步態識別研究中所搭建的LFN模型[13],并在LFN的基礎上做了進一步的改進與優化,使得模型的識別準確率和穩定性都有了較大的改善,改進后的模型將其稱為LFN V2。

2 數據集與模型

本文實驗采用的數據集為生物識別與安全技術研究中心所提供的紅外步態數據庫,但由于紅外圖像本身存在對比度低、噪點多、邊緣模糊、視覺特性差[14-16]等特點,為了抑制紅外圖像所產生的不屬于步態的額外信息,本文在該數據集的基礎上做了相應的預處理,以滿足本文的實驗要求。在前期使用本團隊搭建的用于可見光的步態識別模型得到了良好的效果,但由于紅外圖像存在輪廓缺失的情況,從而造成了步態輪廓特征的丟失,使該模型應用在紅外圖像時出現了不穩定的情況。基于此,本文對模型做了進一步改進。

2.1 數據預處理

由于CASIA-C的原始數據是把用紅外攝像儀所拍攝的行人步行視頻分解成單幀圖像后,再進行了簡單的前背景分離,這就造成了在CASIA-C數據集中每張圖片的行人步態輪廓并不在統一的位置,當直接把這樣的源數據用作模型輸入時,就會導致模型在進行步態特征學習時,會學習到很多不必要的行人輪廓所處的空間信息,這與我們僅僅只想關注行人本身的步態特征相違背。

基于此,本文將對CASIA-C數據庫做出相應的預處理,其主要思想就是需要獲得每個行人步態輪廓的外接矩形,且需要保證外接矩形在每張步態輪廓的方向一致,以免增加額外的空間信息。因為CASIA-C數據集已經將所有圖像轉為了二值化圖像,所以本文在確定步態輪廓外接矩形的坐標點時,選擇了直接對圖形的像素點進行逐個掃描。由于圖像本身是二值化圖像,所以當像素值由0變換為255后,就可以判定其屬于步態輪廓范圍,當把整幅圖像掃描結束后,將圖像中屬于步態輪廓的列像素最小的坐標記為ymin, 將列像素中最大的坐標記為ymax, 同時在圖像的行像素中將最小的坐標記為xmin, 最大的行像素的坐標記為xmax。 由這4個點可以得出行人步態輪廓外接矩形的頂角坐標為 (xmin,ymin), (xmax,ymin), (xmin,ymax), (xmax,ymax), 隨后根據這4個頂角坐標就可以確定出行人步態輪廓的外接矩形,并按照這個外接輪廓截取出符合預期的數據。按照以上方法進行預處理后的效果如圖1所示。

圖1 輪廓裁剪后的對比

從圖1中可以看出,經過預處理后能夠很好丟棄掉不屬于步態本身的空間特征信息,從而使模型只專注于對步態特征的提取。同時為了防止后期數據歸一化時的人體輪廓的形變,我們按照裁剪出來的人體外接矩形的長或寬的尺寸,在周圍填充上黑色像素,使其變為一張正方形的圖片,以利于后期對數據歸一化時調整圖像大小不會發生形變。

對數據預處理的第二步就是抹除掉人體輪廓中不屬于步態信息的特征,例如因紅外熱成像本身的原因,使其會記錄下行人在被采集圖像時所穿衣服的大致輪廓,或者是由于行人佩戴了飾品,從而造成圖像局部的空洞。這些因素都會在無意間增加與步態信息無關的特征,從而使得模型學習了這些無關特征后降低模型的泛化能力。

由于非步態信息的特征在圖像中的表現大多數為黑色的空洞,所以在這部分的預處理中本文使用了圖像形態學中的閉運算,其數學表達式為

img=close(source,element)= erode(dilate(source,element)

(1)

式中:img表示經過閉運算得出的最后圖像,close表示閉運算,erode表示圖形學中的腐蝕[17],dilate代表圖形學中的膨脹[18],source表示原圖像,而element則表示在進行閉運算時所需核的尺寸。將閉運算展開之后,可以發現閉運算的本質就是對圖像中人體輪廓部分先進行膨脹以彌合圖像本身的黑洞,再進行腐蝕把由于膨脹而變形的人體輪廓恢復到接近原始的狀態。經過閉運算之后的效果如圖2所示。

圖2 經過閉運算后步態對比

圖2中,圖2(a)、圖2(c)為沒有經過閉運算的步態圖像,圖2(b)、圖2(d)是經過閉運算處理后的步態輪廓圖像。從圖中可明顯看出,經過閉運算處理之后的圖像把穿著的衣服、所背包裹以及發際線帶來的輪廓很好彌合了起來,使得模型著重于對步態輪廓的學習而不需要對這部分的特征進行學習,從而提高了模型的泛化能力。

2.2 模型改進

在對步態識別的前期研究中,對可見光條件下的人體步態識別進行了深入研究,搭建了自己的步態識別模型并取得了較好的效果。由于紅外圖像的成像質量要遠低于普通可見光圖像,而且由于紅外圖像本身的特性給步態識別帶來了許多額外的信息,使得該模型并沒有在紅外圖像的步態識別中表現出良好的性能。基于此,本文對該模型進行了改進,以使其能夠在紅外圖像的步態識別中表現出良好的識別效果。具體方法包括以下3個步驟:

(1)保證LFN的大框架不發生改變,只在局部進行微調,以保證模型依然具有對步態特征進行學習的能力。考慮到紅外圖像的步態輪廓圖具有更多的噪點,導致了圖像具有更多的冗余信息,我們在設計模型的時候希望獲得更大范圍的步態特征信息。因此本文在LFN的基礎上取消了全連接層之前的最后一個池化層,以此來獲得更大范圍的步態輪廓信息。同時,為了抑制圖像訓練中的過擬合現象,把LFN中Dropout隨機隱藏神經元[19]的個數由50%增大到了60%,從而使得模型獲得更強的魯棒性。

(2)把所有的卷積層后連接的激活函數由線性整流函數(ReLU)[20]改成了Maxou[21]激活函數,這主要是因為在使用ReLU時如果權重為負數的時候梯度將會被置為0,從而導致這個神經元有很大的概率將不會再被任何數據所激活。Maxout的工作原理類似于池化層,根據模型設計者自己設置的超參k,然后輸出k個參數中的最大值。由于Maxout具有非常強的擬合能力,所以能夠擬合出任意激活函數的形態,同時也能夠很好彌補ReLU中神經元死亡的缺點。

(3)對LFN的優化器以及學習率的調整策略進行了更改。在LFN中使用的優化器為Adam[22],其優點在于擁有較高的計算效率同時對內存需求較少,并且能夠自動進行學習率的調整,但在實驗驗證過程中Adam的表現并不穩定。所以,本文在優化器方面將其改為隨機梯度下降(SGD)的優化算法,并將初始學習率設置為0.05,同時每經過30輪訓練后把學習率迭代更改為上次學習率的0.8倍。經過實驗驗證,發現改進之后的LFN V2相比于LFN,在識別能力和正確率的穩定性方面都有了較大進步。改進后的LFN V2結構如圖3所示。

圖3 改進后的模型結構

與LFN一樣,改進后的LFN V2對輸入層經過一次卷積、激活和池化操作之后,再對得到的圖片張量數據賦值為3份,然后用所分得的3份數據各自進行相應的計算。上面兩層分別進行卷積、激活、池化等操作后,再把所得的結果相加,而最下面的一層中池化層核的尺寸要大于上面兩層的池化層,其目的是為了能夠得到與上兩層不同的感受野特征,以此達到更好的效果。

該模型的各部分參數見表1。

表1 模型結構參數

由表1可以看出卷積層Conv4中所輸出的張量維度為256,但我們將Maxout的超參設置為2,卷積層Conv4的維度被Maxout合并為了128,因此該部分數據能夠正常與上部分數據相合并。

2.3 損失函數

損失函數的主要作用是衡量當前模型中樣本的預測值與真實值之間的大小,本文中依然選擇了對數似然函數作為損失函數,相比與其它的損失函數,在多分類任務中對數似然函數要更加簡潔,同時在樣本量足夠多的條件下其收斂性更好。其公式如下所示

(2)

3 實驗設置與結果

3.1 實驗設置

3.1.1 數據集設置

首先,分別從未經預處理和經過預處理過后的數據集中隨機挑選出實驗中將要用到的數據,其中行人樣本為153個,在每個樣本中隨機挑選出250張圖片,這些圖片中分別包含了正常步行、快步行走、慢速行走以及攜帶包行走,由于250張圖片是隨機挑選的,所以這4類照片的數量并不嚴格相等。同時,再次將每個樣本中的250張圖片隨機按照80%與20%的比例分為實驗的訓練集與測試集,所得訓練集共30 600張圖片,測試集7650張圖片。

3.1.2 實驗設置

在實驗設置中,以同樣的數據集作為前提,分別以LFN模型和改進之后的LFN V2模型進行實驗對比,實驗主要分為在同一模型條件下,使用未經處理的數據集和經過處理的數據集進行效果對比,ReLU與Maxout效果對比,取消全連接層之前的池化層與未取消全連接層之前的池化層對比,使用Adam優化器與SGD優化器對比。在比較過程中,主要以測試集的識別準確率為對比目標。在加載實驗數據集的時候我們會統一將步態輪廓圖壓縮成64*64分辨率大小的圖片,然后再輸入模型內進行訓練。

此外,由于缺少相關紅外圖像方面的步態識別研究,本文將選取非紅外圖像的步態研究成果作為本次實驗的橫向對比。

3.2 實驗結果

在實驗中,首先使用了原版LFN模型進行了實驗,并將其實驗結果作為對照組。實驗所用數據集如前文介紹,共用153名非重復的行人步態輪廓,其中每個行人包含200張的訓練集圖片與50張測試集圖片,訓練集與測試集的圖片相互之間不重復。

本文使用LFN模型進行了1000輪的實驗,根據其實驗結果中的數據繪制了準確率的曲線圖,如圖4所示。

圖4 原LFN模型的識別準確率

圖4中,位于上方的虛線為模型訓練集的正確率,在經過1000輪訓練后,模型在訓練集上的準確率能夠達到99.5%以上。圖中下方的實線是模型對測試集的正確率,由曲線可以看出在經過800輪的訓練之后,模型對測試集的正確率開始逐漸收斂到97.5%至98.0%之間,其準確率最高可以達到98.24%,但也可以明顯看出,測試集的準確率波動幅度較大。

在ReLU與Maxout的對比中,我們首先采用了未經輪廓裁剪與形態學處理的原始圖像數據,在該次實驗中,我們僅僅對ReLU與Maxout進行了更換,模型結構與超參設置均保持不變,使用ReLU進行了1000次迭代訓練后,根據訓練結果繪制了準確率曲線,如圖5所示。

圖5 激活函數為ReLU的識別準確率

由圖5可以看出,使用ReLU激活函數的模型,在測試集的準確率基本上維持在98%以下。

隨后在同樣的超參設置下,我們將ReLU改為Maxout后同樣進行了1000次的迭代訓練,訓練結果如圖6所示。

圖6 激活函數為Maxout的識別準確率

由圖6可以看出將ReLU改為Maxout后經過1000次的迭代訓練,在測試集上的識別準確率收斂到98.5%左右,由以上兩次對比實驗結果可以看出在未經預處理的數據集上,使用Maxout的效果要優于ReLU的效果。

隨后我們對取消全連接層前面的池化層的合理性同樣進行了實驗驗證,此外在本輪實驗中我們所采用的數據集是經過上文方法預處理后的數據集。同樣地,我們依舊在保證模型基本結構與超參的設置不變的前提下,將有最后一個池化層和沒有最后一個池化層進行了實驗對比。如圖7所示為保留最后一個池化層后經過1000次迭代訓練的準確率曲線。

圖7 保留最后一個池化層的識別準確率

從圖7我們可以明顯的看出,在保留了最后一個池化層后模型在測試集上的準確率是明顯低于98%,且在前100輪訓練中準確率的波動性較大。

隨后我們將經過預處理之后的數據輸入到經過上文所述的改進模型后,在同樣的超參設置下進行了1000輪訓練,訓練后的準確率如圖8所示。

圖8 LFN V2模型的識別準確率

由圖8可以看出在改進后的LFN V2模型中,在測試集上的正確率平均約在98.8%左右,由上述實驗對比結果可以看出,雖然在前期由于模型的各種參數與學習率大小還未達到較為理想的區間,導致在訓練的前200輪中,測試集的正確率具有較大的波動,但是隨著模型對參數的學習,以及模型學習率按照預先設置的條件進行改變后,測試集的準確率波動有了明顯的改善,經過400輪訓練后模型在測試集的準確率收斂到了98.8%左右,并在隨后的訓練中一直保持在這個范圍,沒有出現明顯的波動。經過改進后的LFN V2模型無論是在模型的穩定性以及識別正確率上都優于未經改進或改進不完全的模型。

由于紅外步態識別方面的相關研究較少,所以使用了較為相近的基于可見光的步態識別的相關研究成果與本文的模型作橫向對比,對比結果見表2。

表2 步態識別相關研究對比

表2中所選橫向對比的模型都是應用在可見光下的步態識別,并且在其研究過程中將人體的步態按照攝像機不同的角度進行了區分,且所選用的數據皆是其研究數據中最好的結果。雖然從數據上看,本文的模型識別結果要好于其它模型,但是由于應用領域不同及其研究的是不同角度上對步態識別的結果,所以其在單一角度上的圖片總量要少于本文數據集,因而僅從數據上比較并不嚴謹,在此列出的原因僅是為了與本文給出的模型效果進行簡單的橫向對比。

4 結束語

本文首先對紅外圖像數據集進行了預處理,剔除了數據集中包含的冗余空間信息,并使用圖像形態學中的閉運算,先使圖像進行一定程度的膨脹,再對其進行相應的腐蝕操作,以此彌合圖像中冗余的紋理信息。此外提出了一種基于深度學習的紅外人體步態識別方法。其模型主要來源于本團隊早期為可見光人體步態識別設計的一個深度學習模型,并在此模型的基礎上進行了改進。經過實驗驗證,改進之后的模型對紅外圖像中的人體步態識別的準確率和穩定性有了較大的提升。

猜你喜歡
實驗模型
一半模型
記一次有趣的實驗
微型實驗里看“燃燒”
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
做個怪怪長實驗
3D打印中的模型分割與打包
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 精品国产黑色丝袜高跟鞋| 中文字幕无线码一区| 国产午夜福利片在线观看 | 一级毛片在线免费视频| 国产亚洲一区二区三区在线| 成人伊人色一区二区三区| 特级毛片8级毛片免费观看| 久久天天躁狠狠躁夜夜2020一| 色婷婷狠狠干| 日韩免费成人| 亚洲福利视频网址| 亚洲浓毛av| 欧美亚洲国产一区| 日韩无码视频专区| 99re在线免费视频| 国产视频 第一页| 99热这里只有精品免费| 巨熟乳波霸若妻中文观看免费| 91福利在线观看视频| 国产日本欧美亚洲精品视| 99精品一区二区免费视频| 91精品国产自产91精品资源| 欧美激情首页| 青青青国产视频手机| 精品国产中文一级毛片在线看 | 日韩免费中文字幕| 亚洲国产日韩欧美在线| 精品久久久久久中文字幕女| 秋霞一区二区三区| 中国国语毛片免费观看视频| 久久中文字幕2021精品| 国产成人精品一区二区| 国产另类视频| 欧美乱妇高清无乱码免费| 国产精品视频系列专区| 欧美国产在线看| 无码电影在线观看| 成人毛片免费观看| 91国语视频| 中文字幕自拍偷拍| 国产精品久久久久久久久kt| 72种姿势欧美久久久久大黄蕉| 97视频在线精品国自产拍| 国产成人喷潮在线观看| 又污又黄又无遮挡网站| 亚洲自拍另类| 亚洲国产综合精品一区| 2020亚洲精品无码| 二级毛片免费观看全程| 青青青视频蜜桃一区二区| 狠狠综合久久久久综| 国产成人一级| 国产精品美女网站| 伦精品一区二区三区视频| 制服无码网站| 9966国产精品视频| 日韩A级毛片一区二区三区| 国产第三区| 日韩精品免费在线视频| 2021国产v亚洲v天堂无码| 日本中文字幕久久网站| 五月天久久综合国产一区二区| 亚洲成a∧人片在线观看无码| 日韩精品久久久久久久电影蜜臀| 91麻豆国产在线| 亚洲久悠悠色悠在线播放| 欧美精品亚洲二区| 国产成人亚洲综合A∨在线播放| 99色亚洲国产精品11p| 国产成人精品一区二区| 午夜成人在线视频| 国产精品99一区不卡| 五月婷婷激情四射| 9cao视频精品| 欧美日本在线| 亚洲日韩精品综合在线一区二区| 成年网址网站在线观看| 亚洲区视频在线观看| 国产91色在线| 无码电影在线观看| 久久九九热视频| 日本一本在线视频|