張 智,常超偉,王 雷,劉 博
(1.河北農(nóng)業(yè)大學(xué)信息科學(xué)與技術(shù)學(xué)院,河北 保定 071000;2.河北省農(nóng)業(yè)大數(shù)據(jù)重點實驗室,河北 保定 071000;3.北方自動控制技術(shù)研究所,太原 030006)
作為身份識別的重要生物特征之一,步態(tài)信息與其他特征(如人臉、指紋和虹膜)相比,其不需待識別主體的配合且具有一定的抗偽裝性,因此,基于步態(tài)信息的行人重識別技術(shù)在視頻監(jiān)控、調(diào)查取證、敵我識別等場景中有著廣泛應(yīng)用[1]。
然而,步態(tài)識別算法的性能易受到以下因素的干擾:1)穿戴條件不同,例如攜帶背包或者穿著大衣;2)角度變化,表現(xiàn)為跨視角下的步態(tài)一致性判斷;3)遮擋變化,例如來自建筑物或其他行人的遮擋;4)背景復(fù)雜,例如實際場景中光照強度的變化或者背景與人很難區(qū)分。以上4 個主要因素使得基于步態(tài)進行身份識別的任務(wù)變得困難。
為了解決上述問題,研究者將深度學(xué)習(xí)方法應(yīng)用到了步態(tài)識別領(lǐng)域。例如,YU S 等提出GEINet將所有的步態(tài)模板轉(zhuǎn)換到側(cè)面視角下進行識別[2]。近年來的方法假設(shè)每個輪廓圖都包含了其位置信息,不需要單獨對時間線索進行建模。比如,GaitSet假設(shè)步態(tài)輪廓順序并不是一個必要因素,從而直接學(xué)習(xí)步態(tài)的集合表示[3]。以步態(tài)的集合表示為基礎(chǔ),HOU S 等提出了步態(tài)橫向網(wǎng)絡(luò),該網(wǎng)絡(luò)將不同階段提取到的整體特征進行橫向連接來增強步態(tài)表示[4]。GaitPart 通過將步態(tài)特征圖先切塊再卷積來獲得局部特征,并提出了微動作捕捉模塊用來提取步態(tài)周期的短期特征[5]。……